Najważniejsze trendy w SEO w 2020 roku PLT i CBR

Najważniejsze trendy w SEO w 2020 roku PLT i CBR

„Jedyną stałą rzeczą w życiu jest zmiana” – te słowa Heraklita z Efezu doskonale wpisują się w to, jak na swoją pracę patrzą specjaliści od pozycjonowania. W tym aspekcie dotyczy to przede wszystkim algorytmu Google, od którego zależy sposób rankingowania stron w wynikach wyszukiwania.

Rolą wyszukiwarki jest dostarczanie takich wyników, które w jak największym stopniu odpowiadają wprowadzonemu zapytaniu. Można powiedzieć, że nieustannie odbywa się rozgrywka między specjalistami SEO i zespołem Google. Drudzy pracują nad stworzeniem takiego algorytmu, który dostarczy najbardziej wartościowe wyniki wyszukiwania, a pierwsi starają się zrobić wszystko, aby swoją strategią wpasować się we wspomniany schemat.

Najważniejsze trendy w 2020 roku

Wszystko wskazuje na to, że w ciągu najbliższych kilku miesięcy jednym z najważniejszych aspektów będzie zdecydowanie szybkość ładowania – rozumiana w różnym kontekście.

Kolejnym z ważnych wskaźników jest Crawl Budget Rank, który bezpośrednio wiąże się z prędkością działania strony. Krótko mówiąc, Crawl Budget jest to ilość pewnego rodzaju zasobów, które Google Bot może poświęcić na indeksowanie treści z danej witryny, a Crawl Budget Rank jest określony pewną wartością, determinującą prostotę budowy serwisu w aspekcie indeksowania.

Szybkość kluczem do sukcesu!

Czas ładowania strony w aspekcie omawianych trendów powinniśmy rozważać jako grupę czynników:

  • Czas odpowiedzi serwera – tak zwany Time to first byte;
  • Czas potrzebny na pobranie całego kodu HTML – DOM processing time;
  • Czas renderowania strony – Page rendering time.

Time to first byte jest miarą czasu, jaka mija od momentu wysłania żądania do odpowiedzi ze strony serwera poprzez przesłanie pierwszego bajta danych. Otrzymana informacja przedstawia, czy wszystko od strony serwera działa prawidłowo, czy może właśnie tutaj są jakieś problemy.

Time to first byte jest przedstawiany w ms – wartości do 200 ms są oficjalnie rekomendowane przez Google, jednak różne źródła wskazują, że nawet nieznacznie dłuższy czas reakcji – do 500 ms – nie jest karany przez algorytm. Oczywiście im wartość mniejsza, tym lepiej, a wyniki poniżej 100 ms to ścisła czołówka najlepiej zoptymalizowanych pod tym kątem stron.

Wartość Time to first byte można łatwo sprawdzić za pomocą darmowych metod: narzędzi dla Developerów w Google Chrome albo na stronach – WebPageTest lub ByteCheck.

Jeśli czas odpowiedzi serwera jest zbyt wysoki, to zdecydowanie należy sprawdzić, w czym leży problem i jak najszybciej dokonać potrzebnych optymalizacji. W tym przypadku warto sprawdzić przede wszystkim:

  • Kod strony pod względem wykonywania skomplikowanych i zasobożernych operacji – generowanie struktur odpowiadających za obszerne menu z kategoriami, wysyłanie złożonych zapytań do baz danych czy każdorazowe przekształcanie zdjęć w miniatury;
  • Rodzaj wykorzystywanego serwera – zdecydowanie lepiej jest korzystać z rozwiązań dedykowanych lub takich, które mają gwarantowaną wydajność;
  • Czy zostały wdrożone systemy cach’ujące lub pozwalające przechowywać dane w pamięci RAM użytkownika. To jedna z najskuteczniejszych metod, pozwalająca natychmiast poprawić wyniki.
  • Czy istnieje możliwość wdrożenia protokołu HTTP/2 lub HTTP/3.

DOM processing time, czyli czas przetwarzania (ładowania) kompletnego kodu HTML jest kolejnym z istotnych elementów, wpływających na jakość strony w oczach robotów Google. Ten element jest zawarty w oficjalnych wytycznych Google jako Excessive DOM Size.

Mniejsza ilość zasobów w postaci kodu HTML jest pozytywnym aspektem zarówno w oczach użytkownika, jak i wyszukiwarki. Dla człowieka oznacza to krótszy czas ładowania treści, a dla robota mniejszą liczbę danych do zaindeksowania.

W celu poprawy parametru DOM processing time warto sprawdzić, czy istnieje możliwość zmniejszenia objętości strony poprzez:

  • Usunięcie zbędnego kodu HTML;
  • Zmniejszenie ilości wykonywanych skryptów;
  • Przeniesienie JS i CSS z głównych plików HTML do dedykowanych.

Renderowanie strony to proces, w którym pobierane są wszelkie zasoby graficzne oraz wykonywany jest kod Java Script. Page rendering time jest bezpośrednio związany z wcześniej wymienionymi aspektami, ale w szczególności warto zwrócić uwagę na:

  • Możliwość implementacji Lazy Load, co pozwoli na pobieranie danych graficznych lub video oraz wykonywanie skryptów dopiero w momencie, gdy będą one potrzebne dla użytkownika;
  • Odpowiednie rozplanowanie wykonywania skryptów – np. jeśli stronę przegląda niezalogowany użytkownik, to nie ma potrzeby wywoływania skryptu odpowiadającego za możliwość zamieszczania komentarzy;
  • Przeniesienie kodu Java Script oraz CSS z ciała HTML do zewnętrznych plików.

Każdy ma swoją chwilę uwagi – warto z niej dobrze skorzystać!

Wspomniany wcześniej Crawl Budget to niezwykle istotna pozycja dla każdego specjalisty SEO. Wszystkie wymienione w poprzednim akapicie czynności sprowadzają się do tego, aby przydzielony Crawl Budget został wykorzystany możliwie najlepiej.

Dbałość o to, aby Google Bot miał proste zadanie, sprawia, że Crawl Budget Rank naszej strony rośnie i na tym powinno nam najbardziej zależeć. Dzięki temu mamy pewność, że treści są poprawnie indeksowane, a robot często odwiedza witrynę, analizując kolejne dane i umieszczając je w wynikach wyszukiwania.

Bez wątpienia Crawl Budget Rank jest jednym z najważniejszych aspektów rankingowych!

Niestety nie ma jednoznacznego sposobu na określenie aktualnego Crawl Budget Rank i jego weryfikacja polega na analizie danych dostępnych między innymi w Google Search Console i Access Logach witryny.

Google Search Console to świetne narzędzie, o którym już wspominaliśmy. W aspekcie Crawl Budget Rank możemy z niego skorzystać w celu wykrycia problemów z indeksacją strony. Dowiemy się w ten sposób, z jakimi zasobami witryny miał problem robot Google. To przede wszystkim:

  • Ukazanie stron, które zostały przez robota zeskanowane, ale jeszcze nie zaindeksowane;
  • Brak lub różnica we wskazanych kanonicznych adresach URL. Google może wybrać inną stronę jako kanoniczną niż administrator serwisu;
  • Wszelkiego rodzaju przekierowania.

Z kolei Access Log pozwala krok po kroku przeanalizować ścieżkę, jaką pokonał Google Bot w obrębie naszej witryny. W ten sposób doświadczony specjalista SEO jest w stanie wykryć konkretne elementy strony, które wymagają poprawy. To pozwala na stworzenie idealnej architektury odnośników nawigacyjnych i struktury linków wewnętrznych, pozwalających na szybką i bezproblemową indeksację kolejnych zawartości witryny.

W tym przypadku króluje prostota i możliwie dobra optymalizacja – mówiąc kolokwialnie, robot Google „jest leniwy” i lubi porządek, więc niechętnie odwiedza strony z chaotyczną strukturą. Jeśli coś nie jest tak, jak być powinno, Crawl Budget Rank zostaje obniżony. Żeby temu zapobiec, warto sprawdzić, czy na stronie nie występują następujące błędy programistyczne:

  • Systemy sortowania i filtrowania (produktów, wpisów itp.) powodują powstawanie ogromnej liczby podstron ze zduplikowaną treścią;
  • System paginacji, który sprawia, że możliwe jest wygenerowanie nieskończonej liczby kolejnych podstron;
  • Linki, które kierują do konkretnych zasobów (zdjęć, plików) poprzez przejście na nowy adres URL;
  • Wykorzystywanie mechanizmów typu „szybki podgląd”, który okiem użytkownika jest prostym okienkiem pop-up, a przez robota może zostać zakwalifikowany jako kolejny adres ze zduplikowaną treścią;
  • Występowanie odnośników, zwracających kod błędu 404 – Strona nie została znaleziona.

Szybkość strony i rozsądne gospodarowanie zasobami – klucz do sukcesu w 2020 roku?

Wiele wskazuje na to, że omówione czynniki to zdecydowanie to, na czym warto skupić się podczas pozycjonowania stron w 2020 roku. Z drugiej strony patrząc, są to właściwie te same czynniki, które Google bierze pod uwagę od wielu lat – może w delikatnie inny sposób. Zatem, jak interpretować taką sytuację?

Temat wydaje się stosunkowo prosty, aczkolwiek wymagający. Niejednokrotnie odpowiednia optymalizacja witryny będzie bardzo trudna, skomplikowana i pracochłonna. Skrupulatne przeanalizowanie kolejnych elementów witryny i dostosowanie ich do nowych wymagań w wielu przypadkach okaże się trudną drogą. W lepszej sytuacji są strony, które zostały mądrze zaprojektowane i zoptymalizowane już wcześniej. W takim przypadku prawdopodobnie wystarczą drobne poprawki, które spowodują umocnienie pozycji i odczuwalne wzrosty w SERPach.

Zatem może nasuwać się kolejne pytanie – czy optymalizacja i walka o szybkość działania strony to jedyne, na czym należy skupić się w aspekcie SEO 2020 roku?

Zdecydowanie nie! Oczywiście omawiane czynniki to pewna zmiana w zakresie pracy specjalistów SEO, ale to nie wyklucza tradycyjnego dbania o wartościowe treści, content i mocne linki. Wszystkie fundamenty pozycjonowania z pewnością pozostają bez zmian.

Należy jednak pamiętać, że gigant z Doliny Krzemowej nie śpi i nieustannie pracuje nad tym, aby jego narzędzie działało lepiej i lepiej. Obecnie notuje się pewne działania, które mogą wpłynąć na sposób interpretacji zapytań wprowadzanych przez użytkowników. Właśnie z tego powodu my, specjaliści SEO musimy być w nieustannej gotowości – dla Was, Klientów!

Zobacz również
Marketing szeptany – wszystko, co powinieneś o nim wiedzieć!
Marketing szeptany – wszystko, co powinieneś o nim wiedzieć!
Marcin Caban / 13.03.2021

Marketing szeptany z ang. whisper marketing i word of mouth marketing to w ostatnim czasie coraz bardziej popularne działania...

Usuwanie fałszywych i negatywnych opinii w Google Maps i nie tylko
Usuwanie fałszywych i negatywnych opinii w Google Maps i nie tylko
Jacek Kałuża / 11.03.2021

W ostatnim czasie coraz częściej zauważane jest w Internecie negatywne zjawisko tworzenia nieprawdziwych i krzywdzących wpisów i opinii, powodujących...

Usuwanie filtra Google, co warto wiedzieć?
Usuwanie filtra Google, co warto wiedzieć?
Marcin Caban / 27.02.2021

Jeżeli Twoja strona internetowa niespodziewanie zaczyna pojawiać się w wynikach Google na znacznie niższej pozycji, niż do tej pory,...