- Diagnoza: jak rozpoznać i nazwać problem
- Czym jest partial indexing w praktyce
- Wczesne symptomy w danych i narzędziach
- Główne kategorie przyczyn
- Metryki, które warto ustanowić
- Analiza: narzędzia i procedury wykrywania luk
- Google Search Console: od ogółu do szczegółu
- Analiza logów serwera
- Crawling porównawczy i profilowanie parametrów
- Wersja renderowana vs źródło HTML
- Naprawy strukturalne: sygnały, architektura i duplikaty
- Wzmocnienie architektury informacji i linkowania
- Kanonikalizacja bez sprzecznych sygnałów
- Kontrola nawigacji fasetowej
- Eliminacja duplikatów i cienkich wariantów
- Naprawy techniczne: indeksowanie, wydajność i utrzymanie
- Dyrektywy robots i kontrola dostępu
- Mapy witryny i higiena kanonicznych list
- Wydajność, stabilność i renderowanie
- Monitoring ciągły i automatyzacja
- Studia przypadków i wzorce decyzji
- Serwis treściowy: zanik nowych artykułów
- E-commerce: filtry dławią budżet crawl
- Marketplace: JS ukrywał listę wyników
- Serwis B2B: konflikt sygnałów kanonicznych
Jeśli część Twoich stron pojawia się w wynikach Google, a część znika bez jasnego powodu, masz do czynienia z częściową indeksacją. To zjawisko potrafi zniekształcić obraz skuteczności SEO, bo ruch i widoczność nie rosną proporcjonalnie do wysiłku. Ten poradnik pokazuje, jak precyzyjnie wykrywać, mierzyć i systemowo naprawiać luki w indeksacji: od odkrywania prawdziwych przyczyn aż po wdrożenia, które stabilizują indeks na miesiące i lata.
Diagnoza: jak rozpoznać i nazwać problem
Czym jest partial indexing w praktyce
Partial indexing to sytuacja, gdy wyszukiwarka nie obejmuje indeksem kompletnego zbioru zasobów, które powinny być dostępne, lub indeksuje tylko wycinki treści z kluczowych podstron. Możesz obserwować, że sekcje serwisu o podobnej jakości działają inaczej w rankingu: jedne URL-e są stabilne, inne znikają po kilku dniach od zaindeksowania. Zjawisko to bywa skutkiem konfliktu sygnałów, ograniczeń robotów lub problemów z prezentacją treści.
Wczesne symptomy w danych i narzędziach
Do typowych symptomów należą: nagłe skoki i spadki liczby zaindeksowanych stron w raportach, rosnący udział statusów „Odkryto – obecnie nie zindeksowano”, błędy „Duplikat – użytkownik nie wybrał kanonicznej”, niska widoczność sekcji głębszych niż 3 kliknięcia oraz brak pokrycia zapytań długiego ogona mimo rozbudowanej taksonomii. Na poziomie pojedynczego URL-a często widać brak fragmentu treści w cache lub niezgodność między HTML a wersją renderowaną.
Główne kategorie przyczyn
Źródeł problemu warto szukać w czterech obszarach: sygnały techniczne (kanonikalizacja, dyrektywy), jakość i unikalność treści, architektura i wewnętrzne linkowanie oraz wydajność i stabilność serwera. Na styku tych obszarów powstają konflikty: strona deklaruje jeden adres kanoniczny, ale linki wewnętrzne wskazują inny; sekcja jest rozbudowana, lecz paginacja izoluje głębokie strony od PageRanku; treści są bogate, ale JavaScript ujawnia je dopiero po interakcji.
Metryki, które warto ustanowić
Zanim zaczniesz naprawy, zdefiniuj linię bazową: udział URL-i w indeksie względem liczby w mapie witryny, medianę czasu od publikacji do pojawienia się w wynikach, wskaźnik churn (odsetek URL-i, które w danym miesiącu opuściły indeks), rozkład kodów odpowiedzi oraz udział stron z przekierowaniami w ścieżce kliknięcia. Te metryki będą weryfikować skuteczność działań naprawczych z perspektywy tygodni i miesięcy.
Analiza: narzędzia i procedury wykrywania luk
Google Search Console: od ogółu do szczegółu
Rozpocznij od raportu Strony: pogrupuj przyczyny wykluczeń i sprawdź, które typy adresów (szablony) dominują w poszczególnych statusach. Skorzystaj z Inspekcji URL dla reprezentantów każdej grupy, by porównać „stronę zaindeksowaną” z „stroną przetestowaną na żywo”. Zwracaj uwagę na status kanonicznego adresu wybranego przez Google, widoczność meta-robots oraz zgodność sygnałów z mapą witryny. Analizuj też statystyki skanowania pod kątem rozkładu żądań, rozmiarów pobieranych plików i błędów 5xx.
Analiza logów serwera
Pełny obraz ujawniają surowe logi: wyodrębnij wpisy Googlebot Smartphone i sprawdź, które sekcje są odwiedzane rzadko lub pomijane. Zestaw to z listą URL-i dostępnych w nawigacji i w mapach witryny. Szukaj pętli 3xx, opóźnień TTFB, wzrostów 404/410 oraz okresowych 5xx. Jeśli żądania zatrzymują się na poziomie parametrów lub filtrów, to sygnał, że robot „traci” budżet na obszarach o niskiej wartości lub napotyka labirynt wariantów.
Crawling porównawczy i profilowanie parametrów
Wykonaj pełzanie kontrolne (np. z user-agents Googlebota i zwykłej przeglądarki), by wyłapać różnice w dostępności elementów. Skataloguj wszystkie wzorce adresów i ich parametry (sortowanie, filtrowanie, paginacja, śledzenie). Oceń, które z nich prowadzą do nowych, unikalnych zestawów produktów/treści, a które generują duplikaty. Sprawdź, gdzie linki wewnętrzne eksponują bezwartościowe kombinacje i czy anchor texty kierują PageRank w odpowiednie miejsca.
Wersja renderowana vs źródło HTML
Jeżeli zawartość krytyczna pojawia się dopiero po akcji użytkownika lub po dłuższym czasie, istnieje ryzyko częściowej widoczności w indeksie. Porównuj źródło HTML z DOM po renderze. Zadbaj, by treści kluczowe (nagłówki, listy produktów, linki do następnych stron) były dostępne bez opóźnień. Słabą widoczność powoduje też niepoprawne ładowanie zasobów – arkuszy i skryptów – dlatego audytuj odpowiedzi 404/403 dla plików osadzonych oraz polityki CORS.
Naprawy strukturalne: sygnały, architektura i duplikaty
Wzmocnienie architektury informacji i linkowania
Uprość ścieżki dotarcia do ważnych stron: doprowadź, aby kluczowe kategorie i strony ofertowe znajdowały się maksymalnie 2–3 kliknięcia od strony głównej. Buduj sekcje „najpopularniejsze” i wewnętrzne huby tematyczne, które przechwytują popyt i przekazują autorytet do głębszych zasobów. Stosuj logiczne breadcrumbs i spójne anchor texty. Unikaj linkowania do wersji z parametrami, jeśli istnieje statyczny odpowiednik.
Kanonikalizacja bez sprzecznych sygnałów
Sprawdź, czy każdy szablon ma konsekwentny adres kanoniczny: w tagu link rel=”canonical”, w nagłówku HTTP oraz w mapie witryny. Upewnij się, że linki wewnętrzne kierują do tej samej wersji, którą deklarujesz. Gdy masz alternatywne reprezentacje (paginacja, widok siatka/lista), wybierz politykę: self-canonical dla każdej strony lub zogniskowanie na widoku zbiorczym. Kolizje kanoniczne są jednym z najczęstszych motorów zjawiska, w którym tylko fragment kolekcji znajduje odbicie w wynikach.
Kontrola nawigacji fasetowej
Nawigacja fasetowa generuje eksplozję kombinacji. Wyróżnij kombinacje o stabilnym popycie i własnym potencjale słów kluczowych – dla nich rozważ oddzielne strony docelowe i linkowanie w menu. Dla pozostałych zastosuj samokanoniczne adresy, nofollow w linkach wewnętrznych (jako wskazówka) lub renderowanie progresywne bez ekspozycji linków na pierwszym widoku. Kluczem jest redukcja szumu bez tłumienia ważnych wariantów.
Eliminacja duplikatów i cienkich wariantów
Zidentyfikuj duplikaty tytułów, nagłówków H1 i treści między stronami. Konsoliduj cienkie warianty poprzez 301 do najlepszego odpowiednika, scalanie treści lub wyraźny wybór kanonicznej. W e-commerce rozważ łączenie produktów-derywacji (np. kolor/rozmiar) w jedną, bogatą stronę lub zachowanie odrębności tylko dla wariantów z istotnym wolumenem wyszukiwań. Zadbaj, by filtry sortowania nie tworzyły duplikatów kolekcji.
Naprawy techniczne: indeksowanie, wydajność i utrzymanie
Dyrektywy robots i kontrola dostępu
W pliku robots.txt blokuj jedynie obszary, których nie chcesz, by roboty w ogóle odwiedzały (np. koszyk, panel użytkownika, nieograniczona paginacja filtrów). Pamiętaj, że Disallow nie gwarantuje braku indeksu – jeśli na adres prowadzą silne linki zewnętrzne, może pojawić się bez treści. Dla adresów, które mogą być crawl’owane, ale nie powinny trafiać do indeksu, stosuj meta-robots noindex lub X-Robots-Tag na poziomie nagłówka HTTP.
Mapy witryny i higiena kanonicznych list
Publikuj sitemap wyłącznie z adresami, które rzeczywiście chcesz indeksować i które zwracają 200. Rozdziel mapy na typy treści: strony, artykuły, produkty, obrazy, wideo – ułatwia to monitoring. Aktualizuj daty modyfikacji tylko wtedy, gdy treść faktycznie się zmieniła. Regularnie usuwaj z mapy adresy 3xx/4xx/5xx oraz warianty testowe i stagingowe. Zadbaj o spójność częstotliwości aktualizacji z realnym rytmem publikacji.
Wydajność, stabilność i renderowanie
Wolna odpowiedź serwera i ciężkie skrypty potrafią ograniczyć głębokość skanowania i skutkować częściowym odzwierciedleniem treści. Optymalizuj TTFB, cache’owanie, kompresję i krytyczny CSS. Dla treści kluczowych stosuj SSR lub prerendering, aby pełna zawartość była dostępna natychmiast po pobraniu HTML. Monitoruj błędy w ładowaniu zasobów i ogranicz liczbę żądań. Upewnij się, że lazy-loading ma atrybuty i fallback, by robot otrzymał kompletne informacje nawet bez interakcji.
Monitoring ciągły i automatyzacja
Zbuduj cykl: crawl porównawczy tygodniowo, eksport raportów indeksowania miesięcznie, przegląd statystyk skanowania co dwa tygodnie, audyt logów kwartalnie. Automatycznie alertuj o wzrostach 5xx, spadkach liczby URL-i w indeksie, pojawieniu się nowych typów błędów. Wykorzystuj API narzędzi, by śledzić wskaźniki i automatycznie aktualizować listy adresów krytycznych dla biznesu. Dzięki temu zauważysz trend zanim dotknie przychodu.
Studia przypadków i wzorce decyzji
Serwis treściowy: zanik nowych artykułów
Problem: nowe publikacje pojawiały się w wynikach, po czym znikały po kilku dniach. Analiza: kolizja kanoniczna między wersją AMP a stroną standardową, dodatkowo artykuły były linkowane z paginacji kategorii, ale bez sekcji „najnowsze” na stronie głównej. Naprawa: ujednolicenie kanonicznych, mocniejsze linkowanie z hubów i wdrożenie mapy artykułów z prawidłową datą lastmod. Efekt: stabilna obecność nowych treści i krótszy czas do indeksacji.
E-commerce: filtry dławią budżet crawl
Problem: tysiące kombinacji faset wytwarzały ocean zduplikowanych stron. Analiza: 70% żądań kierowało do adresów z wieloma parametrami, a produkty głęboko w kategoriach były odwiedzane rzadko. Naprawa: ograniczenie ekspozycji linków do nieistotnych filtrów, samokanoniczne adresy dla kombinacji, dedykowane landing pages dla popularnych zestawów atrybutów oraz sitemap tylko dla ofert. Efekt: wzrost wizyt na stronach produktowych i większy odsetek zaindeksowanych kolekcji.
Marketplace: JS ukrywał listę wyników
Problem: Google indeksował nagłówki i fragmenty opisów, ale nie przechodził do dalszych podstron wyników. Analiza: lista ofert była budowana w całości klientowo po zdarzeniu scroll, bez SSR i bez linków do paginacji w HTML. Naprawa: wprowadzenie SSR krytycznej treści, linki do stron 2–5 w HTML, poprawa wydajności. Efekt: zaindeksowanie pełnej listy i lepsze pokrycie zapytań long tail.
Serwis B2B: konflikt sygnałów kanonicznych
Problem: część studiów przypadków nie pojawiała się w wynikach mimo wysokiej jakości. Analiza: tag link rel=”canonical” wskazywał na stronę kategorii, podczas gdy mapa i linki wewnętrzne promowały adresy szczegółowe. Naprawa: self-canonical w case studies, hub tematyczny z wyróżnieniem najważniejszych elementów, ujednolicone breadcrumbs. Efekt: szybki powrót do indeksu i widoczny wzrost zapytań markowych z komponentem problemowym.
Aby przejść od diagnozy do trwałej poprawy, działaj sekwencyjnie: najpierw dowody z danych (GSC, crawl, logi), potem uporządkowanie sygnałów (canonical, meta, linkowanie), następnie sanityzacja wariantów (fasety, parametry, paginacja) i na końcu optymalizacja prezentacji (renderowanie, wydajność). W całym procesie wykorzystuj precyzyjne dyrektywy – noindex i robots.txt – oraz utrzymuj czyste listy w sitemap. Eliminuj źródła duplikacja, a naturalnym skutkiem będzie pełniejsza i trwalsza indeksacja krytycznych zasobów.