Indeksowanie i najczęstsze błędy znajdowane przez wyszukiwarkę

  • 4 minuty czytania
  • Audyt SEO, SEO, Wiedza SEO
Indeksowanie i najczęstsze błędy znajdowane

Zapraszamy do lektury artykułu na temat najczęstszych błędów znajdowanych przez wyszukiwarkę w czasie indeksowania stron.

Błędy 4xx

Błędy 4xx to objaw problemu występującego na stronie internetowej. Pojawiają się one na ekranie osób odwiedzających stronę np. wtedy, gdy nie działa jeden z widocznych na niej linków. Należy więc pamiętać o tym żeby sprawdzać na bieżąco, czy linki widoczne w treściach umieszczonych na Twojej stronie działają prawidłowo i faktycznie przekierowują internautów do wybranych przez Ciebie stron www. Jeżeli nie dopilnujemy tego i taki błąd będzie pojawiał się często, odwiedzający witrynę mogą stracić do niej zaufanie. Chcesz sprawdzić czy na twojej stronie nie występują błędy 4xx – poznaj naszą ofertę na audyt strony.

 

Błędy 5xx

Pojawienie się na ekranie informacji o wystąpieniu tego błędu świadczy o tym, że zaistniał problem z serwerem. Podobnie jak w przypadku błędów 4xx także i tutaj zalecana jest bieżąca kontrola strony w celu upewnienia się, że tego rodzaju problemy nie występują. Jeżeli będą się one często pojawiać, strona straci w rankingu wyników wyszukiwarek.

 

Strona 404

Teoretycznie jest to błąd wskazujący na to, że strona, której szukasz nie istnieje. Na stronie błędu 404 powinna być dostępna mapa witryny HTML, pasek nawigacyjny oraz pole umożliwiające wyszukanie wpisanej w nie frazy. Taka strona powinna również zwracać kod odpowiedzi 404. Tyle mówi teoria, w praktyce zwykle niestety tak nie jest i witryna informująca o błędzie 404 takich funkcji najczęściej nie posiada.

 

Strony indeksowane z ograniczeniami

Indeksowanie strony może być ograniczone kilkoma różnymi metodami:

w pliku robots.txt;

  • wg noindex X-Robots;
  • wg noindex meta tag.

Powyżej wymienione są linie kodu HTML określające to, jak roboty indeksujące powinny się poruszać w niektórych miejscach witryny. Otrzymują one informację o tym, że strona nie jest dostępna dla indeksowania i podane są dla nich instrukcje kierowania się zgodnie z widocznymi na niej linkami lub/i archiwizowania jej zawartości. Sprawdź, czy podstrony z wartościową, unikalną treścią są dostępne dla robotów indeksujących.

 

Plik robots.txt

Jeżeli roboty indeksujące przebywając na stronie natrafią na plik robots.txt oznaczać to będzie, że zostanie on z automatu przez nie zaindeksowany. Konieczne jest, aby zawierał on informację na temat tego, jakie strony powinny być indeksowane a jakie nie. Możesz zdecydować o tym, że pewne umieszczone na stronie informacje nie będą podlegać indeksowaniu. Zastosuj wtedy odpowiednią regułę w pliku robots.txt. Chciałbyś dowiedzieć się czegoś więcej na temat? Zajrzyj na stronę http://www.robotstxt.org/robotstxt.html.

Miej na uwadze to, że polecenia znajdujące się w pliku robots.txt to bardziej sugestie, niż nakazy postępowania dla robotów indeksujących. Niektóre z nich mogą się do nich nie zastosować.

 

Sitemap.xml

Sitemap XML witryny powinna zawierać spis wszystkich stron internetowych, jakie mają być indeksowane i powinna stanowić element katalogu obok strony głównej ( przykład: http://www.site.com/sitemap.xml ). Jej zadaniem jest wspieranie indeksowania. Powinna być aktualizowana za każdym razem, gdy do witryny dodawane są nowe strony. Pamiętaj również o stosowaniu szczególnej składni mapy strony.

Sitemap umożliwia nadanie priorytetu każdej stronie witryny, informując w ten sposób wyszukiwarki o tym, które z nich mają być indeksowane częściej. Poszukujesz wskazówek dotyczących tego, jak stworzyć mapę witryny? Takie informacje znajdziesz na stronie http://www.sitemaps.org/.

Więcej na temat indeksowania znajdziecie tu: https://audyt-strony.pl/category/indeksowanie-i-widzenie-przez-wyszukiwarki/

< Powrót

Zapisz się do newslettera