Oficjalne stanowisko Google
Google podkreśla, że plik robots.txt nie jest czynnikiem rankingowym, lecz narzędziem kontroli crawl budgetu. Oficjalny przewodnik Google wskazuje, że robots.txt służy głównie do unikania nadmiernego obciążenia serwera, a nie do „chowania” stron przed indeksem. Google wyraźnie ostrzega: nie używaj robots.txt do blokowania treści, które mają zniknąć z wyników – zamiast tego stosuj tag noindex. Strona zablokowana w robots.txt może nadal pojawić się w indeksie (bez opisu, na podstawie linków). W praktyce robot Googlebot pobiera robots.txt raz na kilkanaście godzin, więc zmiany w tym pliku nie natychmiast wprowadzają efekt (cache do 24h).