Audyt SEO


Co należy zbadać wykonując AUDYT SEO

Co konkretnie kryje się pod nazwą „audyt SEO”?  Polega on na przeanalizowaniu wszystkich aspektów działania danej strony www. Chodzi tutaj zarówno o jej wygląd, jak i funkcjonalność. Zajmujący się audytem SEO specjaliści chcą znaleźć wszystkie przyczyny tego, że dana witryna zajmuje aktualnie dalekie miejsce w rankingu wyników największej i najpopularniejszej wyszukiwarki na świecie- Google. Wszystkie znalezione błędy muszą być naprawione, aby można było przeprowadzić skuteczną kampanię SEO dla tej strony,inaczej mówiąc wypozycjonować ją. W trakcie eliminacji nieprawidłowości witryna stopniowo dostosowywana będzie do zaleceń Google.

________________________

Błędy 4xx, błąd 404- z czyjej winy powstają?

Istnieje pewna grupa błędów, które zapisywane są w postaci trzech cyfr, a 4 znajduje się zawsze na początku. Nazywa się je błędami, za które odpowiada osoba korzystająca z internetu, przeglądająca stronę. Czy tak jest w istocie? Nie zawsze. Za błędy tego typu odpowiedzialny jest często ten, kto zarządza daną stroną internetową. Przykłady błędów 4xx:

  • 400 – Błędne zapytanie;
  • 401 – Połączenie musi być w tym przypadku autoryzowane;
  • 403 – Chroniony dostęp do strony;
  • 404 – Plik nie został odnaleziony na tym serwerze;
  • 408 – Połączenie przerwano z powodu zbyt długiego czasu oczekiwania;
  • 417 – Błąd w zwracaniu zawartości.

To tylko kilka przykładów błędów 4xx. Podane zostały przykłady tych, które zdarzają się najczęściej.

Powodem pojawienia się błędu może być zrobienie literówki w adresie podstrony, np. www.twojawitryna.pl/onas zamiast www.twojawitryna.pl/o-nas. Czasem internauta wpisuje ten adres z błędem a czasem wina leży po stronie osoby administrującej witryną. Może się zdarzyć, że link będzie nieprawidłowo podpięty pod odnośnik. Najczęściej występującym z błędów 4xxx jest ten oznaczony symbolem 404. Taka informacja widoczna na ekranie to znak, że nie znaleziono na tym serwerze pliku zawierającego kod do podstrony, do której dostęp chcieliśmy uzyskać. Przyczyną tego błędu może być usunięcie zawartości, która wcześniej była dostępna po wpisaniu tego linku w pasek przeglądarki. Błąd 404 pojawi się również wtedy, gdy nieprawidłowo wpiszesz adres strony, którą chciałeś odwiedzić.

Dlaczego zajmujemy się badaniem błędów 4xx?

Jest to element przeprowadzanego przez nas audytu SEO. Jego zadaniem jest wykrycie wszelkich przeszkód na drodze do skutecznego wypozycjonowania danej strony. Po znalezieniu każdego błędu zajmujemy się jego naprawą.Tak się składa, że błędy 4xx znacząco obniżają wartość witryny z punktu widzenia najpopularniejszej wyszukiwarki na świecie-Google.Utrudniają one pracę robotom indeksującym, a do tego powodują irytację internautów. Strona posiadająca nawet jeden taki błąd wyraźnie traci w ich oczach. Może się zdarzyć, że 4xx pojawia się wcale nie z winy osoby, która zarządza daną stroną. Czasem okazuje się, że 4xx dotyczy witryny,do której my tylko linkowaliśmy. Jeżeli zainteresowała Cię ta tematyka, to wiedz, że możesz znaleźć więcej informacji w tym tekście dotyczącym Link Checkera ( https://icomseo.pl/blog/broken-link-checker-
wordpress-jak-znalezc-i-usunac-niedzialajace-linki-w-wordpressie/ )

____________________________

Błędy 5xx dotyczą problemów z serwerem.

Oto kilka przykładów:

  • 500 – Błąd wewnętrzny;
  • 501 – Serwer nie zrozumiał polecenia, zawartość nie została zwrócona;
  • 502 – Zwrócona została błędna wartość;
  • 503 – Serwer jest w tym momencie przeciążony;
  • 504 – Połączenie zostało przerwane z powodu zbyt długiego czasu oczekiwania na odpowiedź serwera;
  • 505 – Tej wersji protokołu HTTP dany serwer nie obsługuje.

Za błędy tego typu najczęściej odpowiedzialne jest nieprawidłowe działanie serwera. Winą za to można obarczyć firmę odpowiedzialną za hosting. Administrator strony w przypadku takich problemów jest bezradny. Rzadko ale jednak zdarza się również, błąd 5xx wystąpił na skutek wpisania w pasek przeglądarki konkretnego zapytania, które spowodowało właśnie taki efekt.

Dlaczego zajmujemy się badaniem błędów 5xx?

Jest to ważny element przeprowadzanego przez nas audytu SEO strony. Ma on na celu wykrycie wszelkich nieprawidłowości w działaniu witryny, które powodują, że nie może być ona skutecznie pozycjonowana. Najpopularniejsza wyszukiwarka na świecie- Google, wysyła na strony internetowe swoje roboty indeksujące.Jeżeli natrafią one na błąd taki jak 5xx,ich praca zostaje utrudniona. Witryna może przez to stracić swoje miejsce w rankingu wyników. Należy więc zadbać o to, aby umieścić stronę na serwerze, który gwarantuje niezawodność. Więcej informacji na ten temat znajdziesz w artykule dostępnym pod tym linkiem: https://icomseo.pl/blog/najwazniejsze-trendy-w-seo-w-2020-roku-plt-i-cbr/

____________________________

Strony indeksowane z ograniczeniami

Strony indeksowane z ograniczeniami – zakaz wstępu dla robotów indeksujących Google dotyczący pewnego fragmentu strony internetowej
Zaleca się pozostawienie niektórych części strony poza obszarem działania robotów. Nie każda z podstron powinna zostać zaindeksowana. Zdarza się jednak, że ten fragment witryny, który zawiera treści o wysokiej jakości, zostaje wyłączony z indeksowania za pomocą polecenia umieszczonego w pliku robots.txt albo przy wykorzystaniu noindex X-Robots lub noindex meta tag. Przyczyną tego może być błędne określenie tych części strony, które nie powinny ulec zaindeksowaniu lub też błąd oprogramowania. Należy dopilnować tego, aby nie nastąpiło wyłączenie z indeksowania przez roboty Google takich fragmentów witryny, gdzie znaleźć można ważne, interesujące, wartościowe treści. Ta część strony jest bowiem najważniejsza dla Google.

Dlaczego zajmujemy się badaniem tych stron, na których ma miejsce indeksowanie z ograniczeniami?

Chcemy sprawdzić, czy pewne treści zostały wyłączone z indeksowania na skutek błędu lub nieprzemyślanej strategii pozycjonowania strony, czy też faktycznie ich jakość jest na tyle niska, że roboty Google powinny omijać to miejsce.  Badanie to jest częścią przeprowadzanego przez profesjonalistów z agencji SEO audytu strony. Jego celem jest znalezienie wszystkich przyczyn tego, że dana witryna znajduje się na odległym miejscu w rankingu wyników najpopularniejszej i największej wyszukiwarki na świecie- Google. Po ich wykryciu należy je usunąć, aby nic już nie stało na przeszkodzie w przeprowadzeniu skutecznej kampanii SEO.

____________________________

Plik robots.txt – polecenia dla robotów indeksujących

Zawartość tego pliku dotyczy wydawania komend robotom Google. Niezwykle istotne jest tutaj polecenie dotyczące uniemożliwienia zaindeksowania niektórych miejsc na stronie internetowej. Jeżeli dyrektywy dla robotów zostały napisane w sposób nieprawidłowy, witryna może mieć problemy związane z SEO. Zajęcie przez nią wysokiego miejsca w rankingu wyników wyszukiwarki może się wtedy okazać niemożliwe. Szczegóły dotyczące pliku robots.txt możesz znaleźć w jednym z naszych poprzednich tekstów ( link do niego prowadzący: https://icomseo.pl/blog/czym-jest-plik-robots-txt-i-jak-wplywa-na-pozycjonowanie/ ). Treść pliku robots.txt jest czymś na kształt mapy drogowej dla robotów indeksujących. Zawiera on instrukcje na temat tego, co powinno zostać zrobione na stronie w ramach jej indeksacji, a co jest zabronione. Warto jest prawidłowo oznaczyć instrukcje przeznaczone dla robotów. Ma to pozytywny wpływ na pozycję witryny w rankingu wyszukiwarki.

Dlaczego zajmujemy się badaniem pliku robots.txt?

Zaobserwowaliśmy, że niewłaściwe ustalenie zakresu działań robotów indeksujących jest dosyć często występującym błędem. Nieprawidłowe jest również umieszczenie w pliku robots.txt zbyt dużej ilości zakazów, jak i umieszczenie tam zbyt małej ich liczby. Kiedy zbadaniem zawartości pliku zajmie się nasz specjalista, szybko zostanie ustalone, czy w jego treści widoczne są jakiekolwiek nieprawidłowości. Jeżeli zostaną one znalezione, nasz ekspert zaproponuje wprowadzenie niezbędnych poprawek. Badanie pliku robots.txt jest jednym z elementów przeprowadzanego przez nas audytu SEO strony internetowej. Jego celem jest znalezienie przyczyn wszystkich problemów SEO, jakie ma dana witryna oraz ich usunięcie. Dzięki temu strona ta będzie mogła być skutecznie wypozycjonowana i poprawić swoją pozycję w rankingu wyników wyszukiwarki.

____________________________

Sitemap XML – mapa witryny stworzona z myślą o robotach indeksujących Google

Jej zadaniem jest wskazanie wysłanemu na stronę robotowi tych obszarów na stronie, na które powinien on zwrócić uwagę w pierwszej kolejności. Opisuje najważniejsze miejsca witryny, które koniecznie muszą być zaindeksowane. Należy pamiętać o tym, aby zastosować taki język kodu, który będzie w pełni zrozumiały dla robotów. Nie może on utrudniać im pracy.  Warto jest skorzystać z Sitemap XML zwłaszcza wtedy, gdy administrujesz dużą stroną internetową, na której można znaleźć wiele podstron. Umożliwi to robotom indeksującym sprawne wykonanie pracy, do której zostały stworzone. Użycie Sitemap XML jest również zalecane w przypadku mniejszych stron jako element znacznie usprawniający pracę algorytmów Google.

Dlaczego zajmujemy się badaniem Sitemap XML?

Jest to ważny element przeprowadzanego przez nas audytu SEO strony internetowej. Ma on na celu wykrycie wszystkich nieprawidłowości w działaniu witryny, przez które niemożliwy jest jej awans w rankingu wyników wyszukiwarki. Po wykryciu problemu od razu przystępujemy do jego rozwiązania.Dzięki kompleksowemu przeglądowi strony wszystko to,co stoi na przeszkodzie w jej skutecznym wypozycjonowaniu, zostaje usunięte. Pierwszym naszym krokiem dotyczącym Sitemap XML będzie sprawdzenie, czy w ogóle istnieje on dla danej strony. Czasem zdarza się, że nie jest umieszczona w kodzie nawet jej podstawowa wersja. Jeżeli stwierdzimy obecność mapy, ustalimy, czy ma ona prawidłową budowę. Jeżeli są w niej błędy, trudno jest oczekiwać, aby mapa dla robotów indeksujących działała prawidłowo.  Kontrolę Sitemap XML przeprowadzi nasz doświadczony specjalista. Bez trudu znajdzie on widoczne w jej budowie nieprawidłowości. Wśród często pojawiających się błędów spotykamy dodawanie do mapy adresu rejestracji. Niezwykle istotne jest również umieszczenie na serwerze mapy drogowej dla robotów indeksujących Google w prawidłowy sposób. Audyt wykaże, czy plik Sitemap XML znajduje się w głównym katalogu pod adresem www.twojawitryna.pl/sitemap.xml.

____________________________

Strona błędu 404

Strona błędu 404 – kwestia istotna zarówno dla robotów indeksujących Google, jak i dla internautów. Wcześniej opisane zostały błędy 4xx. Jednym z nich jest błąd 404. Należy pamiętać o tym, że administrator każdej witryny powinien zadbać o specjalną podstronę dla tych internautów, którzy wpiszą w pasku przeglądarki adres strony z błędem lub dokonają kliknięcia w niewłaściwy odnośnik. Istotne jest to, aby przez wystąpienie błędu 404 osoba przebywająca na stronie nie zdecydowała się na jej opuszczenie. Oprócz komunikatu o błędzie powinny zostać również wyświetlone opcje przejścia do innych części witryny i na stronę główną. Strona z informacją o błędzie musi przypominać swoim wyglądem typową podstronę danej witryny, co wzbudzi zaufanie internauty. Sprawdzenie tego, czy istnieje strona błędu 404 należy do zadań osób przeprowadzających audyt SEO. Jeżeli jej nie ma, roboty Google odnotują, że nie istnieje taka podstrona i zaindeksują ją wspólnie z innymi zasobami witryny. Może to spowodować duplikację na masową skalę, co z punktu widzenia SEO jest katastrofalnym błędem.

Według Google Webmaster Tools: „Zwracanie kodu innego niż 404 lub 410 do nieistniejącej strony … może być problematyczne. Po pierwsze, mówi wyszukiwarce, że istnieje prawdziwa strona z tym adresem URL. W rezultacie, że adres URL może być przeszukiwany, a jego zawartość indeksowana. Ze względu na czas, jaki Googlebot poświęca na nieistniejące strony, twoje unikalne adresy URL mogą zostać nieodkryte, tak szybko i odwiedzane tak często, jak to jest możliwe, co może mieć wpływ na indeksowanie witryny. Zalecamy zawsze zwracanie kodu 404 (nie znaleziono) lub kodu 410  usunięto) jako reakcję w odpowiedzi na wniosek o nieistniejącą stronę.”

____________________________

AUDYT SEO przekierowania

________________________

Strona z www i bez www

Adres powinien zawierać www czy też nie? Prawidłowa wersja to www.mojastrona.pl czy mojastrona.pl? Od strony technicznej sprawa wydaje się być prosta- to administrator witryny internetowej według własnego uznania określa to, czy na początku adresu znajdzie się www, czy też nie. Teoretycznie algorytmom, w oparciu o które pracuje najpopularniejsza wyszukiwarka na świecie- Google, temat ten jest obojętny, ponieważ w obu przypadkach strona będzie poprawnie zaindeksowana. Mimo wszystko warto jednak poświęcić chwilę czasu na to zagadnienie.

Dlaczego? Nie wszyscy wiedzą, że mojastrona.pl oraz www.mojastrona.pl to dwie różne domeny, mogą więc pokazywać różne treści. Nawet jeżeli nie jest to problem dla Google,bo oba adresy są indeksowane w sposób właściwy, to należy pamiętać o tym, że mogą one rywalizować ze sobą o miejsce w wynikach wyszukiwarki. Internaucie raz może pojawić się jeden z adresów, a za kolejnym razem jego druga wersja. Jest również możliwa taka, wysoce niepożądana przez właściciela strony sytuacja, w której żaden z adresów nie będzie widoczny na jednej z najwyższych pozycji rankingu. Do chwili, gdy nie powiążemy ze sobą obu z nich, ich pozycja w wynikach wyszukiwarki będzie ustalana oddzielnie dla obu adresów. Nie jest to korzystne z punktu widzenia właściciela strony, ponieważ osobno nie są w stanie zająć tak wysokiego miejsca w rankingu, jakie byłoby w zasięgu w przypadku połączenia obu adresów.

____________________________

Adresy z http i https- jakie są pomiędzy nimi różnice?

Na początku adresu każdej strony,jaką zdecydujemy się odwiedzić, widoczne jest HTTP lub HTTPS. Pod tą nazwą kryje się protokół komunikacji internauty z serwerem. Ten pierwszy wspomniany jego rodzaj nie zapewnia bezpieczeństwa przesyłanych danych, drugi natomiast jest gwarancją tego, że są one wysyłane do serwera po uprzednim ich zaszyfrowaniu. Jak więc można się domyślić, każdy kto chce, aby jego strona internetowa była w oczach odwiedzających ją osób miejscem bezpiecznym, musi zapewnić jej możliwość wykorzystania protokołu HTTPS w czasie łączenia się z serwerem. Osoby korzystające z internetu są obecnie bardzo świadome tego,jak ważne jest bezpieczeństwo w sieci i na pewno zwrócą na taki szczegół uwagę.

Dlaczego zajmujemy się badaniem adresów z http oraz https?

Najpopularniejsza wyszukiwarka na świecie- Google, zwraca dużą uwagę na kwestie związane z bezpieczeństwem. Jeżeli dana strona internetowa nie posiada certyfikatu SSL, dzięki któremu możliwe jest zastosowanie połączenia HTTPS, jej właściciel nie powinien liczyć na osiągnięcie przez nią wysokiego miejsca w rankingu wyników. To nie jest koniec jego problemów. Niektóre przeglądarki będą wyświetlać osobom, które zdecydują się na odwiedzenie tej strony, komunikat informujący o potencjalnym niebezpieczeństwie związanym z wejściem na nią. Mało kto zdecyduje się wówczas zaryzykować i wyświetlić Twoją witrynę.

Dla zapewnienia sobie możliwości przeprowadzenia skutecznego pozycjonowania strony należy zadbać również o prawidłowe skonfigurowanie adresów zawierających http i https. Jeżeli robot Google zaindeksuje dwie wersje strony- http://twojawitryna.pl oraz https://twojawitryna.pl, może być to uznane za duplikat i to zarówno strony, jak i treści.  Sprawdzenie czy witryna posiada certyfikat SSL jest jednym z istotnych elementów audytu SEO, jaki przeprowadzamy dla stron naszych klientów. Jego celem jest znalezienie wszystkich przeszkód stojących na drodze do skutecznego wypozycjonowania witryny. Posiadamy narzędzia, dzięki którym z pewnością uda się znaleźć przyczyny wszystkich problemów i zaproponować ich rozwiązanie. Mamy duże doświadczenie w przeprowadzaniu takich audytów, możesz więc spokojnie zdać się na nasz profesjonalizm.

____________________________

Przekierowania 301

Kiedy należy użyć Przekierowania 301? Przekierowanie adresu wykorzystywane jest w sytuacji, gdy w miejscu, do którego prowadzi link, były kiedyś umieszczone treści zaindeksowane przez roboty Google, ale obecnie miejsce to jest puste. Należy się starać nie dopuścić do tego, aby do czegoś takiego doszło. Wpływa to bowiem negatywnie na SEO, powoduje też niekorzystnie wrażenie u internautów odwiedzających witrynę. Puste miejsce, do którego kieruje ich odnośnik może sprawić, że pomyślą o administratorze tej strony jako o osobie nie przykładającej się do swoich obowiązków, a w związku z tym mogą zacząć podejrzewać, że również treści obecne na stronie nie przedstawiają zbyt dużej wartości. Czym najlepiej zastąpić puste miejsce? Wydaje się, że należy znaleźć takie treści, które najlepiej nawiązują do tych usuniętych, są im najbliższe. Jeżeli trudno jest takie znaleźć można pomyśleć o wstawieniu w tym miejscu odnośnika kierującego z powrotem do strony głównej.

Dlaczego zajmujemy się badaniem przekierowań 301?
Jeżeli nie są one na stronie odpowiednio skonfigurowane, odbija się to na jakości jej pozycjonowania. W przypadku, gdy ich konfiguracja jest błędna lub gdy zamiast nich zastosowano przekierowanie innego rodzaju, również wpływa to negatywnie na przebieg kampanii SEO. Jeżeli więc chcesz, aby Twoja strona była wypozycjonowana tak, jak to sobie założyłeś, pozwól na to, aby zastosowaniu przekierowań 301 na Twojej stronie internetowej przyjrzeli się profesjonaliści. Będzie to jeden z elementów audytu SEO, jaki przejdzie Twoja witryna. Dzięki jego końcowym wnioskom będzie wiadomo, co należy poprawić, aby Twoja strona mogła awansować na znacznie wyższe miejsce w rankingu wyników najpopularniejszej wyszukiwarki na świecie- Google.

____________________________

Przekierowania 302

Kiedy należy zastosować Przekierowanie 302 i czym różni się ono od opisanego wcześniej Przekierowania 301? W teorii działają w identyczny sposób- zwracają informację z powrotem do serwera. W obu przypadkach wygląda to jednak nieco inaczej. Przekierowanie 302 ma z założenia charakter tymczasowy, co może sprawić robotom indeksującym Google wiele trudności. To przekłada się na problemy dotyczące pozycjonowania. Ten rodzaj przekierowania powoduje, że roboty mogą dokonać indeksacji zarówno przed, jak i po nim, a niektóre fragmenty treści mogą zostać potraktowane przez nie jako duplikaty.

Dlaczego zajmujemy się badaniem przekierowania 302?
W zasadzie sprawdzamy tylko, czy tego typu przekierowanie zostało na danej stronie zastosowane, czy też nie. Jeżeli tak, konieczne będzie naprawienie tego poprzez usunięcie przekierowania 302 lub też zastąpienie go tym oznaczonym liczbą 301, o którym wspomniano w poprzednim artykule. Jest to kolejny element przeprowadzanego przez nas audytu SEO strony internetowej. Jego celem jest znalezienie wszystkich przeszkód uniemożliwiających skuteczne wypozycjonowanie danej witryny. Decydując się na powierzenie zadania jego przeprowadzenia naszej firmie masz gwarancję tego, że zajmą się tym profesjonaliści. Wykonaliśmy taki audyt dla wielu stron. Posiadamy narzędzia odpowiednie do tego, aby znaleźć przyczyny występowania wszelkich problemów z witryną i wyeliminować je, co zapewni możliwość przeprowadzenia skutecznej kampanii SEO.

____________________________

Strony posiadające długie łańcuchy przekierowań

Długim łańcuchem przekierowań nazywamy ścieżkę następujących po sobie przekierować do różnych adresów stron internetowych. Używane jest w podobnych sytuacjach, co przekierowanie pojedyncze i działa na zbliżonych do niego zasadach. Z jego stosowaniem związany jest jednak pewien problem. Dotyczy czasu pełnego załadowania się strony, na której zastosowano długi łańcuch przekierowań. W przypadku zastosowania takiego rozwiązania czas ten wydłuża się. Każde z następujących po sobie przekierowań powoduje konieczność czekania na kolejne, a w konsekwencji witryna ładuje się dużo wolniej. Może to spowodować irytację internautów. Wielu z nich nie zechce poczekać na to, aż strona załaduje się do końca i wcześniej ją opuści. Osoby takie udadzą się na poszukiwanie strony, na której będą mogli znaleźć poszukiwane przez nich informacje, ale która wyświetli się w całości na ich ekranie odpowiednio szybko. Jeżeli strona ładuje się długo, odnotują to również roboty, które największa i najbardziej popularna wyszukiwarka na świecie- Google, wysyła na strony internetowe w celu zaindeksowania ich działalności. Wystarczą dwa przekierowania w łańcuchu, aby strona straciła w ich oczach swoją wartość.

Dlaczego zajmujemy się badaniem stron wykorzystujących długi łańcuch przekierowań?
Jest to część audytu SEO witryny, jaki przeprowadzają specjaliści z naszej agencji marketingowej. Ma on na celu znalezienie wszystkich błędów w wyglądzie i sposobie działania strony, przez które zajmuje ona odległe miejsce w rankingu wyników wyszukiwarki Google. Ponieważ czas ładowania się strony to istotny czynnik w aspekcie SEO, naszą uwagę zwraca zastosowany na niektórych witrynach długi łańcuch przekierowań. Naszym zadaniem jest przyspieszenie procesu ładowania się danej witryny. W ten sposób jedna z przyczyn tego, że strona zajmuje odległą pozycję na liście wyników Google zostaje wyeliminowana.

____________________________

Meta refresh

Czy należy wykorzystywać meta refresh na swojej stronie internetowej? Aby witryna została odświeżona w sposób automatyczny lub też aby miało miejsce przekierowanie, konieczne jest zastosowanie w kodzie polecenia <meta http-equiv=”refresh” content =”CZAS W SEKUNDACH”> Aby działało ono prawidłowo, musi zostać umieszczone pomiędzy znacznikami <head> strony internetowej. Czasem należy jednak rozważyć możliwość korzystania z takiej funkcji bezpośrednio z poziomu strony. Należy podkreślić, że kwestia ta,chociaż istotna, nie jest jednak w sposób bezpośredni powiązana z pozycjonowaniem strony, chociaż ma na jego skuteczność pewnego rodzaju wpływ.

Dlaczego strony z meta refresh są badane?
Jeżeli przeprowadzane są czynności związane z optymalizacją strony pod kątem zaleceń Google dotyczących pozycjonowania, to nie powinna się ona odświeżać się w sposób automatyczny. Dlaczego? Osoby zajmujące się proefsjonalnie prowadzeniem kampanii SEO uważają, że chociaż w teorii nie powinno mieć to wpływu na to, jak strona jest indeksowana przez roboty Google oraz jaką pozycję w rankingu wyników wyszukiwania zajmuje, jest to jednak nie do końca pewne. Dlatego też bezpieczniej będzie nie umieszczać polecenia meta refresh w kodzie tej strony internetowej.
Co ma do powiedzenia w tej sprawie sama firma Google udostępniająca najpopularniejszą wyszukiwarkę na świecie? Zalecenia opublikowane przez Google wydają się być jasne- polecenie meta refresh nie jest zalecane. Może ono bowiem utrudnić internaucie korzystanie z zasobów witryny, jak również spowodować pewien zamęt w działaniu robotów indeksujących. Sugerowane jest zastąpienie meta refresh znacznie bardziej przyjaznym i dla odwiedzającego stronę i dla robotów Google przekierowaniem 301.

____________________________

Strony z rel=”canonical”

Strony z rel=”canonical” – skuteczny sposób na to, aby zabezpieczyć się przed spowodowaniem powstania duplikatów. Duplikacja treści ma negatywny wpływ na pozycjonowanie strony, w związku z tym należy dopilnować tego, aby do wystąpienia tego błędu nie doszło. Najczęściej z taką sytuacją spotykamy się w przypadku e-sklepów. Znajdują się tam liczne podstrony zawierające opisy wielu podobnych do siebie produktów, co może skutkować powstaniem wielu stron mających praktycznie taką samą treść. Co należy zrobić, aby tego uniknąć? Zalecane jest użycie adresu kanonicznego. Należy dołączyć tag <rel=”canonical”> do nagłówka HTML strony. Jako przykład można podać zastosowanie tego rozwiązania dla jednej z podstron sklepu, niech będzie to https://buty.pl/butymeskie/sportowe/czarne/. Adres kanoniczny mógłby zostać dodany w taki sposób- <link rel=”canonical”href=”https://buty.pl/butymeskie/sportowe/”>.

Dlaczego sprawdzane są przez nas strony zawierające rel=”canonical”?
Chodzi o to, aby dowiedzieć się, czy na tej witrynie zastosowano kanoniczne adresy URL. Jeżeli okaże się, że nie, to ustalone zostanie, czy możliwe jest zastosowanie takiego adresu w kodzie tej witryny.  Jeżeli ustalone zostanie, że w kodzie strony wykorzystano adresy kanoniczne, sprawdzone zostanie, czy wykonano to prawidłowo. Dokładne przyjrzenie się kwestii zastosowania rel=”canonical” może okazać się wstępem do dalszego, szczegółowego audytu strony. Pomożemy jej administratorom w tym, aby problem podstron generujących duplikację treści został rozwiązany.

____________________________

AUDYT SEO kodowanie

________________________

Dostosowanie strony do wymagań urządzeń mobilnych

Administratorzy stron internetowych coraz częściej zauważają, że większość ruchu na zarządzanych przez nich witrynach pochodzi z urządzeń mobilnych. Zauważono to również w firmie Google, która udostępnia największą i najbardziej popularną wyszukiwarkę na świecie. Przeprowadzenie optymalizacji strony internetowej pod kątem jej wyświetlania się na ekranach urządzeń mobilnych stało się ważnym elementem SEO. To, jak prezentuje się witryna w wersji mobilnej ma wpływ na jej miejsce w rankingu wyników Google.

Dlaczego przeprowadzenie optymalizacji pod urządzenia mobilne jest tak ważne?
Może się zdarzyć, że strona internetowa znakomicie działająca, gdy przeglądana jest na monitorze komputera, niekorzystnie prezentuje się na ekranach telefonów. Nie należy tak tego pozostawiać, będzie to bowiem miało negatywne konsekwencje, jeśli chodzi o miejsce w rankingu wyników wyszukiwarki. Dla Google istotne jest, aby strona była prosta w obsłudze dla każdego internauty. Również tego, który przegląda witryny wykorzystując urządzenie mobilne. Są dwa główne błędy, jeżeli chodzi o dostosowanie strony do potrzeb użytkowników telefonów. Pierwszy polega na tym, że strona widoczna na ekranie urządzenia mobilnego to mniejsza wersja tej, która przeznaczona jest dla użytkowników tradycyjnych komputerów.Przeglądanie jej jest więc niewygodne. Każda czynność wymaga powiększenia widoku. Drugim z głównych błędów jest nieprawidłowo wykonana aplikacja mobilna. Osoba korzystająca z niej może poczuć dużą irytację, gdy widzi, że teoretycznie przyjazna użytkownikom telefonów wersja witryny jest trudna w nawigacji. Administrator strony musi się więc postarać i zapewnić tym osobom, które przeglądają internet mobilnie taki sam komfort korzystania z zasobów strony,jaki mają internauci korzystający ze stacjonarnych urządzeń.

Co rozumiemy pod pojęciem- „optymalizacja strony pod urządzenia mobilne”?
Google udostępnia specjalną stronę, która ocenia dostosowanie danej witryny do potrzeb użytkowników urządzeń mobilnych. oto jej adres- https://search.google.com/test/mobile-friendly. Ocena Twojej strony zawierać będzie konkretne wskazanie tych elementów, które powinny ulec poprawie.

Oto co jest najważniejsze w przypadku przeprowadzania analizy optymalizacji stron pod kątem potrzeb osób korzystających z internetu za pośrednictwem telefonów:

  1. Strona jest responsywna, mobilna?  Responsywność to automatyczne dostosowywanie się strony do rozdzielczości ekranu,na którym jest wyświetlana. Aby osiągnąć ten efekt należy zaprojektować witrynę przy wykorzystaniu takiego oprogramowania, które zapewni responsywność lub też stworzenie całkiem nowej wersji już istniejącej strony, przeznaczonej specjalnie dla użytkowników urządzeń mobilnych.  Na stronie responsywnej dostępność do wszystkich jej zasobów jest dla internauty posługującego się telefonem łatwa.Czasem jej wygląd podobny jest do wersji dla użytkowników komputerów stacjonarnych, a czasem ze względu na specyfikę urządzeń mobilnych wygląda ona w takiej postaci nieco inaczej. Można również zdecydować się na administrowanie stroną, która będzie tylko i wyłącznie aplikacją mobilną, a jej wersja na komputer stacjonarny w ogóle nie powstanie. Zapewne zdarzać się to będzie coraz częściej. Sposób, w jaki zbudowana została strona ma duże znaczenie, jeżeli chodzi o jej pozycję w rankingu wyników Google. Firma ta wspiera witryny mogące pochwalić się responsywnością. W 2015 roku ukazał się nawet artykuł na ten temat na oficjalnym blogu Google przeznaczonym dla twórców stron internetowych, oto link do niego: https://webmasters.googleblog.com/2015/04/rolling-out-mobile-friendly-update.html
  2. Szybkość wczytywania się strony. Od zawsze był to istotny element SEO, mający wpływ na miejsce strony w rankingu wyników. W przypadku mobilnych wersji witryn szybkość ta jest nawet jeszcze bardziej ważna. Nie należy dziwić się Google, że przywiązuje do tego aspektu działania strony tak dużą wagę. Chodzi przecież o zapewnienie internautom maksymalnej wygody. To, jak szybko załaduje się strona jest również istotne dla użytkowników internetu.Jeżeli Twoja strona wczytuje się wyraźnie dłużej niż przyjęło się uważać za standard, to osoby, które chcą na nią wejść mogą zdenerwować się tempem jej załadowania i zrezygnować. Wybiorą inne witryny z podobną treścią,które nie sprawiają takich kłopotów przy ich otwieraniu. Każdy może sprawdzić, jaka jest szybkość wczytywania się jego strony internetowej korzystając z tego narzędzia, które udostępnia Google: https://developers.google.com/speed/pagespeed/insights/?hl=pl. Oprócz wyniku,czyli czasu załadowania się strony,będą tam również dostępne propozycje rozwiązania problemu. Często przyczyną wolniejszego wczytywania się strony jest duża ilość różnych multimediów, które są na niej umieszczone. Zastanów się więc nad tym, czy Twoja strona potrzebuje aż tylu grafik i animacji.
  3. Optymalizacja treści widocznych na stronie pod kątem zaleceń Google. Jako administrator witryny zadbaj o to, aby treści widoczne na stronie były przedstawione w sposób czytelny. Niech każdy, kto odwiedzi Twoją witrynę, będzie miał zapewniony komfort poruszania się po niej. Niech znalezienie interesujących go treści nie sprawia problemu. Łatwość poruszania się po stronie jest tą jej cechą, którą doceniają osoby korzystające z internetu. Mądre zagospodarowanie powierzchni witryny ważne jest zwłaszcza w przypadku jej mobilnej wersji. Ekran telefonu jest dużo mniejszy niż stacjonarnego monitora. Nie ma więc tutaj miejsca na niepotrzebne elementy utrudniające przeglądanie treści. Roboty, które Google wysyła na strony internetowe w celu ich zaindeksowania mają za zadanie w jak najbardziej wierny sposób naśladować zachowanie człowieka przeglądającego witrynę. Nie są tego jednak w stanie odtworzyć idealnie, daleko jest im do miana sztucznej inteligencji. Dlatego też trudno mówić o bezpośrednim wpływie tego czynnika na SEO. Mimo to pamiętajmy o tym,że czytelna, nie sprawiająca internautom problemów w poruszaniu się po niej strona budzi zaufanie osób surfujących po sieci. Jeśli będą chętnie ją odwiedzać, to bardzo możliwe,że poinformują o jej istnieniu także swoich znajomych. Większy ruch ma wpływ na pozycjonowanie strony.
  4. User Experience- wrażenia internauty przeglądającego stronę. User Experience dosłownie oznacza „doświadczenie użytkownika”. Chodzi o całokształt wrażeń internauty odwiedzającego stronę. Jest to tak jakby podsumowanie jego oceny poszczególnych elementów budujących witrynę. Na to, jak osoba oceni stronę ma z pewnością wpływ to, czy jest ona dostępna w wersji mobilnej. Obecnie jest to praktycznie standard.
    Zwróćmy uwagę na ważny element oceny danej strony internetowej, jakim jest stopień łatwości poruszania się po jej zasobach.Inaczej mówiąc- czy witryna jest w łatwa w nawigacji? Ma to szczególne znaczenie w przypadku urządzeń mobilnych. Wielkość ekranu wymusza maksymalne zagospodarowanie powierzchni strony. Należy zadbać o to, aby zminimalizować ryzyko przypadkowego przejścia do jednego z miejsc witryny, którego internauta wcale nie planował odwiedzać. Trzeba również zadbać o odpowiedni wygląd tekstu, jego kolor, jak również barwę tła. Wszystko razem musi tworzyć spójną całość, która nie będzie męczyć oczu osób przeglądających daną stronę. Trzeba również przyjrzeć się bliżej tematowi obecności reklam na stronie. Kiedyś powszechne były komunikaty reklamowe w postaci nagle wyskakującego okna. Wzbudzały one dużą irytację wśród internautów i trudno się temu dziwić. Obecnie reklamodawcy praktycznie wcale nie stosują takie formy promocji.Umieszczenie takiej wyskakującej reklamy na stronie będzie skutkowało obniżeniem jej pozycji w rankingu wyników. Informuje o tym jasno i wyraźnie komunikat, który można przeczytać na oficjalnym blogu Google: https://webmasters.googleblog.com/2016/08/helping-users-easily-access-content-on.html). Jakie będą pozytywne efekty zadbania o jakość User Experience? Jeżeli strona jest łatwa w nawigacji, poruszanie się po niej nie sprawia problemów, szybko można znaleźć na niej interesujące nas informacje, to można liczyć na to, że internauci ją odwiedzający spędzą na niej dużo czasu, odwiedzą wiele podstron i będą wracać na tą witrynę jeszcze nieraz.Zostanie to odnotowane przez Google i spowoduje wzrost pozycji strony w rankingu wyników, co powinno być Twoim celem,do którego będziesz dążył.

Optymalizacja pod kątem specyfiki urządzeń mobilnych to dzisiaj już nawet nie opcja polecana, a praktycznie standard.

Nie jest już obecnie wcale rzadkością sytuacja, w której dana strona notuje więcej odwiedzin dokonanych przy użyciu urządzeń mobilnych niż tych, przy których wykorzystany był komputer stacjonarny. Musi zostać to uwzględnione w przypadku działań związanych z SEO. Jeżeli Ty tego nie uczynisz, bo nie przywiązujesz do tego zbyt dużej wagi, to wiedz, że Twoja konkurencja zapewne ma całkiem inne podejście. Każdy administrator strony internetowej musi dokładnie przeanalizować temat optymalizacji witryny pod urządzenia mobilne, obecnie nie ma po prostu innego wyjścia.Nawet jeżeli wciąż notujesz większość odwiedzin swojej strony z komputerów stacjonarnych to wiedz, że w ciągu roku lub kilku lat sytuacja ta może się zmienić.Można nawet zaryzykować stwierdzenie, że na pewno tak będzie. Starając się o jak najwyższe miejsce swojej witryny w rankingu wyników największej i najpopularniejszej wyszukiwarki na świecie, jaką jest Google, potraktuj będącą głównym tematem tego artykułu optymalizację strony pod kątem specyfiki urządzeń mobilnych z pełną powagą.

____________________________

Strony https z mieszanymi treściami

Każdy administrator strony internetowej powinien zrobić wszystko, aby zapewnić osobom odwiedzającym prowadzoną przez niego witrynę najwyższy poziom bezpieczeństwa. Stosowanie protokołu HTTPS powinno być standardem. Jeżeli więc planujesz zająć się administrowaniem strony internetowej, już teraz powinieneś zainteresować się posiadaniem certyfikatu SSL. Jeżeli Twoja strona nie zapewnia bezpieczeństwa osobom odwiedzającym ją, będzie to negatywnie odebrane przez Google. Możesz wtedy zapomnieć o wysokim miejscu w rankingu wyników tej największej i najpopularniejszej przeglądarki na świecie.

Wpływ posiadania Certyfikatu SSL na SEO
Jeżeli przed linkiem prowadzącym do Twojej strony internetowej znajduje się https, to Google odnotuje, że strona ta zapewnia bezpieczne z nią połączenie.Jest to również ważna informacja dla osób, które zdecydowały się odwiedzić Twoją witrynę. Poziom świadomości internautów dotyczącej poziomu bezpieczeństwa w internecie stale rośnie.Jeszcze niedawno ludzie korzystający z internetu nie zwracali uwagi na takie szczegóły, teraz wiedza o tym jest powszechna. Strona nie posiadająca certyfikatu SSL będzie notowała niewielki ruch. Jeżeli chcesz promować poprzez swoją witrynę ofertę Twojej firmy, nie możesz sobie pozwolić na takie niedopatrzenie. A nawet gdybyś nie prowadził firmy, a jesteś administratorem witryny dla przyjemności ( np. jest to strona poświęcona motoryzacji ) i nie zadbałeś o certyfikat SSL, to nie licz na duży ruch nawet wtedy, treści widoczne na Twojej stronie są niezwykle interesujące. Nikt nie będzie chciał sprawdzić, czy witryna zawiera ciekawe informacje, jeżeli zauważy, że przeglądanie jej może wiązać się z ryzykiem.

Strony HTTPS zawierające mieszaną treść – Zdarza się, że chociaż strona posiada certyfikat SSL, to część informacji pobiera z protokołu http, nie gwarantującego bezpieczeństwa. Ma to negatywny w pływ na pozycję strony w rankingu wyników Google i powoduje, że odwiedzające ją osoby są narażone na niebezpieczeństwo. Taki błąd może być celowo wykorzystany przez hakerów, którzy mogą dokonać przechwycenia danych. Jeżeli chcesz, aby Twoja strona znalazła się na jednym z najwyższych miejsc w rankingu wyników Google, musisz dopilnować kwestii bezpieczeństwa.

Rodzaje treści mieszanych
Wyszukiwarka Google dzieli zawartość mieszaną na dwie grupy- aktywną i pasywną. Te drugie nie są w żaden sposób powiązane z innymi elementami budowy strony. Zaliczamy do nich multimedia, takie jak grafika oraz pliki muzyczne i video. Te zaliczane do grupy aktywnych posiadają połączenie zarówno z kodem źródłowym witryny,jak i składającymi się na jej budowę elementami. Jest to wszystko to, co może zostać pobrane i aktywowane przez przeglądarkę. W przypadku ataku hakerskiego przechwycenie tych danych sprawia, że osoba z zewnątrz może praktycznie przejąć kontrolę nad stroną i dowolnie ingerować w jej zawartość.

Jak można ochronić się przed wystąpieniem na stronie treści mieszanej?
Jej wystąpienie to problem natury technicznej. Najprawdopodobniej wystąpił błąd w trakcie uruchamiania protokołu HTTPS albo nawet wcześniej, w trakcie tworzenia kodu określającego sposób działania strony. Z pomocą internautom przychodzą w tym momencie najnowsze wersje popularnych przeglądarek. Potrafią one wykryć próbę poboru danych z protokołu HTTP i zablokować tą czynność lub spowodować wyświetlenie się na ekranie internauty komunikatu ostrzegającego przed potencjalnie niebezpiecznym połączeniem.

____________________________

Strony zawierające duplikat kodu rel = „cannonical”

Jednym z najczęściej spotykanych problemów, z jakimi stykają się administratorzy stron internetowych są duplikaty. Czasem konstrukcja witryny umożliwia powstanie nawet setek stron zawierających zduplikowane treści. Najprościej byłoby stwierdzić, że nie należy na to pozwolić już na etapie powstawania kodu strony. Jeżeli jednak problem już zaistnieje, należy zastosować jako jego rozwiązanie kod rel=”cannonical”. Rozumiemy przez to ustalenie adresu strony podstawowej.

Kiedy konieczne jest użycie rel = „cannonical”?
Patrząc od strony SEO trzeba jasno powiedzieć- istnienie duplikatów znacznie obniża wartość strony internetowej w oczach największej i najbardziej obecnie popularnej wyszukiwarki na świecie- Google. Jeżeli na Twojej witrynie widoczna jest taka nieprawidłowość,nie możesz niestety liczyć na awans na wysoką pozycję w rankingu wyników Google.

Duplikacja stron to problem, który rozwiązać można umieszczając w kodzie rel = „cannonical”. Jest to tak jakby znak drogowy dla robotów indeksujących, które Google wysyła na strony internetowe. Wyraźnie pokazuje on im pierwszą stronę, na której znaleźć mogą wartościowe informacje, które powinny zostać zaindeksowane. Jak zastosować rel = „cannonical”? Wystarczy dopisać go do nagłówka HTML podstrony.  Jako przykład można podać e-sklep, w którym można zakupić buty- sportowe, dziecięce, skórzane,robocze, dla pań. Jako główną kategorię możemy tutaj wskazać „Buty”. Kolejne podstrony zawierają już tylko opisy różnych dostępnych modeli obuwia. Kod rel = „cannonical” powinien być tutaj zastosowany dla całego zbioru podstron w taki oto sposób: <link rel=”cannonical” href=”https://wygodnebuty.pl/buty/meskie/skorzane/”>

Biorąc pod uwagę zalecenia Google można zdecydowanie stwierdzić, że duplikacja niekorzystnie wpływa na pozycjonowanie. Dotyczy to również tych stron, na których zastosowano kod z adresem kanonicznym. Takie adresy mogą być całkowicie pominięte w działaniach robotów Google związanych z indeksowaniem treści na stronie. W jakie sposób w kodzie strony mogą pojawić się duplikaty rel = „cannonical”? Jest to często spotykane wśród tych stron, które zostały stworzone w oparciu o oprogramowanie typu CMS. Można tu wymienić np. popularny WordPress. Rozszerzenia tam stosowane, które potocznie nazywa się wtyczkami, mogą z automatu dodać adres kanoniczny do kodu witryny. Należy sprawdzić, czy w kodzie strony widoczne są elementy rel = „cannonical”. Po stwierdzeniu ich obecności konieczne jest ich usunięcie. Można to zrobić manualnie lub też za pomocą wtyczki odpowiadającej za wystąpienie problemu. Na tym sprawa może się nie skończyć. Elementy rel = „cannonical” mogą pojawić się ponownie podczas kolejnej aktualizacji wtyczki.  Badanie tej kwestii jest jednym z etapów przeprowadzanego przez profesjonalistów z agencji SEO audytu strony.Jego celem jest znalezienie wszystkich przeszkód na drodze do skutecznego wypozycjonowania witryny.

____________________________

Ramki na stronie

Ramka nazywana też <iframe> to jedna z części składowych kodu źródłowego, która umożliwia wyświetlenie w obrębie danej witryny internetowej całkiem innego dokumentu HTML. Często spotykanym przykładem ich wykorzystania jest umieszczenie mapy Google w zakładce „Kontakt” na stronie internetowej.

Jaki ma wpływ ramka umieszczona na stronie na SEO?
Powszechnie uważa się, że nie sprawiają one dużych problemów robotom indeksującym Google w wykonywanej przez nich pracy. Gdyby było inaczej nie widzielibyśmy na najwyższych pozycjach w rankingu wyników Google stron posiadających mapę Google w zakładce „Kontakt”. A takie właśnie witryny spotykamy na najwyższych miejscach. Zdecydowanie niekorzystnie na SEO wpływa natomiast nieprawidłowe użycie ramek na stronie. Utrudnia to bowiem pracę robotom indeksującym, które Google wysyła na strony internetowe. Jako przykład takiego poważnego błędu można wymienić zastosowanie <body> jako jednego dużego <iframe> pokazującego treść umieszczoną na innej stronie. Należy również liczyć się z tym, że tag <iframe> użyty jako oddzielny dokument HTML spowoduje błędne zaindeksowanie treści w nim umieszczonych. Pamiętajmy o tym, że powinien mieć on zawartość tekstową oraz zawierać w sobie linki. Dla robotów Google są to najważniejsze informacje. W ramach podsumowania można stwierdzić, że ramki HTML nie są tym elementem kodu,jaki należy pomijać. Należy jednak zwracać uwagę na to, aby były one zastosowane w taki sposób, żeby nie powodowały problemów w działaniu robotów indeksujących Gooogle. Jeżeli dojdzie do tego, że ich praca zostanie zakłócona, dana witryna może zaliczyć znaczny spadek w rankingu wyników wyszukiwarki Google, a szczególnie ważne treści mogą nie zostać zaindeksowane. Jeżeli zastosujemy <iframe> w odpowiedni sposób, roboty Google nie powinny mieć z nimi żadnych problemów.

____________________________

Błędy i ostrzeżenia W3C CSS

Nie są to elementy, które wpływają na kwestie dotyczące pozycjonowania w sposób bezpośredni. Poprawność ich zastosowania w kodzie strony należy jednak dokładnie przeanalizować, ponieważ w przypadku błędów niektóre treści mogą być prezentowane na witrynie w sposób niewłaściwy. Może to spowodować spadek poziomu zaufania internautów do danej strony. Mogą oni nie chcieć odwiedzać jej ponownie.

Może się zdarzyć, że roboty, które Google wysyła na strony internetowe celem ich indeksacji, na Twojej witrynie będą miały utrudnione zadanie, właśnie przez błędy dotyczące W3C CSS. Efektem ich wystąpienia może być również nieprawidłowe wyświetlanie się zawartości strony na urządzeniach mobilnych oraz przesłonięcie treści artykułów przez niektóre elementy budowy strony. O ile roboty indeksujące Google być może poradzą sobie z problemem, to internauci przeglądający treści, które umieściłeś na Twojej stronie, mogą poczuć się na tyle zniechęceni, że nigdy już do Ciebie nie powrócą. Zapamiętają bowiem, że ta witryna nie zapewniła im możliwości swobodnego przeglądania umieszczonych na niej treści. Każdy administrator strony internetowej powinien zrobić wszystko, aby do takiej sytuacji nie doszło.

Sprawdzenie ewentualnego występowania błędów dotyczących W3C CSS to ważny element audytu SEO. Jego zadaniem jest znalezienie wszystkich przyczyn tego, że dana strona zajmuje odległe miejsce w rankingu wyników najpopularniejszej wyszukiwarki na świecie- Google. Jeżeli audyt przeprowadzany jest przez profesjonalistów, to administrator strony otrzyma od nich szczegółowe informacje dotyczące tego, co konkretnie należy poprawić, jakie błędy usunąć. Warto jest rozważyć umieszczenie kodu CSS w oddzielnym pliku, zapewnienie jego odrębności w kodzie HTML. Skutkiem tego będzie szybkie ładowanie się witryny, jak również bezproblemowe załadowanie się każdej z podstron.

____________________________

Strony z błędami i ostrzeżeniami W3C HTML CSS

Pod tajemniczo brzmiącą nazwą W3C kryje się organizacja Word Wide Web Consortium. Jej zadaniem jest ustalanie obowiązujących standardów dotyczących sposobu pisania i przesyłania stron internetowych. Umożliwia ona dostęp do narzędzi, dzięki którym można sprawdzić, czy konstrukcja danej strony jest zgodna ze standardami W3C.

Nie jest konieczne zapewnienie zgodności ze standardami ustalonymi przez W3C. Póki co nie jest to obowiązkowe. Z tego też powodu Google nie postrzega negatywnie tych stron, których pewne elementy nie działają tak, jak zaleca to W3C ale mimo tego witryna funkcjonuje prawidłowo. Nie ma to więc wpływu na pozycję strony w rankingu wyników Google. Zaleca się jednak bliższe przyjrzenie się tej kwestii. Błąd W3C HTML nie pojawia się bez żadnej przyczyny. Może on sygnalizować, że pewien element konstrukcji strony nie działa tak, jak powinien lub nawet jest całkowicie niepotrzebny i można go usunąć.Przy okazji można skontrolować jakość kodu źródłowego witryny. Jeżeli dzięki wprowadzonym w nim zmianom strona zacznie funkcjonować jeszcze lepiej,będzie to miało wpływ na jej bardziej pozytywne postrzeganie przez Google.

Sprawdzenie jakości kodu strony w ramach badania jej zgodności ze standardami W3C jest jednym z elementów przeprowadzanego przez profesjonalistów z agencji SEO audytu. Ma on na celu znalezienie wszystkich nieprawidłowości, przez których występowanie strona ta nie może awansować na znacznie wyższą pozycję w rankingu wyników najpopularniejszej przeglądarki na świecie- Google.

____________________________

Zbyt duża strona

Co nazywamy czasem ładowania się strony? W ten sposób określa się czas potrzebny na pobranie wszystkich danych dotyczących strony z serwera. To, jak długo to potrwa, zależy od wydajności serwera, jakości kodu źródłowego strony oraz od tego, jak szybkie jest połączenie z internetem, z którego korzysta przeglądający daną witrynę.  Nie mamy wpływu na wydajność serwera, poza naszą kontrolą jest również sposób, w jaki internauta łączy się z siecią. Możemy natomiast mieć wpływ na jakość kodu strony, trzeba jednak pamiętać o tym, że zoptymalizowanie go jest czasochłonne, wymaga też dodatkowych nakładów finansowych. Realny wpływ, niezwiązany z dodatkowym wysiłkiem, mamy tylko na wagę strony i na tym powinniśmy się skupić.

Jeśli strona jest zbyt duża, to ładuje się długo. Internauci, którzy mają do dyspozycji szybkie łącze nawet tego nie zauważą. Ci, którzy korzystają z wolniejszego internetu mogą się zirytować, kiedy zobaczą, że przechodzenie z jednej podstrony na drugą nie następuje błyskawicznie. Z pewnością nie będą oni chcieli wchodzić ponownie na taką stronę. Istnieje też inny potencjalny problem. Nawet jeśli internauta korzysta z szybkiego łącza, to może się okazać, że serwer posiada niską wydajność, co również powoduje problemy z szybkim dostępem do treści umieszczonych na stronie.
Wszystkie części składowe strony, które konieczne są do tego, aby wyświetlona została jej zawartość i uruchomione zostały wszystkie jej funkcje, nazywamy wagą strony. Do tych elementów należy kod źródłowy, skrypt PHP, arkusze stylów oraz pliki zawierające multimedia.

Jak zmniejszyć wagę strony?
Pierwsze czym należy się zająć, to przeprowadzenie optymalizacji plików multimedialnych. Chodzi tutaj o zdjęcia i video. Co konkretnie należy zrobić?

  1. Video nie musi być umieszczone na serwerze strony. Można je przenieść do serwisu Youtube, w ten sposób unikamy niepotrzebnego obciążania serwera. Należy również zoptymalizować rozdzielczość zdjęć.
  2. Konieczne jest sprawdzenie, czy wszystkie pliki zawierające grafikę są faktycznie potrzebne. Te, które nie są niezbędne powinny być usunięte na stałe.
  3. Jeżeli korzystasz z WordPressa, zastosuj wtyczki umożliwiające optymalizację plików multimedialnych.

Zastosowanie się do powyższych porad powinno zapewnić zmniejszenie się wagi strony. Czy trudno jest przeprowadzić zasugerowane wyżej zmiany? Można to zrobić samodzielnie, czy też konieczna jest konsultacja z fachowcem- informatykiem? Wydaje się, że każda osoba, która sama administruje swoją stroną internetową i nie ma z tym żadnych kłopotów, bez większych problemów poradzi sobie z tym zadaniem.
Następny krok w kierunku zmniejszenia wagi strony to zoptymalizowanie jej kodu źródłowego. Tym powinien się już zająć specjalista, ponieważ poziom trudności tego zadania przekracza możliwości przeciętnego posiadacza witryny internetowej. Będzie to związane z dodatkowymi kosztami,jest to jednak konieczne, aby zapewnić Twojej stronie internetowej zmniejszenie jej wagi. Chodzi bowiem o to, aby zapewnić jak największy komfort osobom, które będą przeglądać Twoją witrynę. Odpowiednio zoptymalizowana, atrakcyjnie wyglądająca strona internetowa będzie prezentować ofertę Twojej firmy w taki sposób, że będzie możliwy jej szybszy rozwój.

____________________________

AUDYT SEO url

________________________

Zbyt długi adres URL

Kwestia adresu URL jest bardzo ważna, jeżeli chodzi o SEO. Nie jest to może element bezpośrednio i w największym stopniu wpływający na pozycję strony w rankingu wyników najpopularniejszej wyszukiwarki na świecie- Google, ale trzeba odnotować, że odpowiednio zaprojektowany adres URL pewien wpływ na miejsce, które zajmuje witryna we wspomnianym rankingu jednak ma.

Na czym konkretnie należy się skoncentrować?
Frazy kluczowe, które zawiera adres URL, pełnią rolę znaków drogowych dla robotów, które Google wysyła na strony internetowe w celu ich indeksacji. Wstępnie pokazują one robotom, czego mogą się spodziewać na danej witrynie,jakiego rodzaju treści mogą tam zobaczyć. Badania wykazały, że osoby surfujące po sieci najchętniej klikają w ten link, który zawiera hasło wpisane przez nich wcześniej w wyszukiwarce. Z badań wynika również, że najpopularniejsze są te adresy, których długość wynosi od 50 do 60 znaków.

Długość adresu URL i jego zawartość mają duży wpływ na to, jak strona jest odbierana przez internautów. Jego konstrukcja wpływa też na to, jak będzie wyglądała wizyta na danej witrynie, ile czasu potrwa, czy osoba odwiedzająca stronę jeszcze na nią powróci. Jest to ważne zwłaszcza w przypadku e-sklepów. Powinny one przecież zachęcać odwiedzające je osoby do tego, aby wracały jeszcze nieraz na witrynę sklepu, aby dokonać kolejnych zakupów.  Wybór adresu URL naszej strony powinien być efektem głębszej analizy. Od niego może zależeć pierwsze wrażenie internauty dotyczące prowadzonej przez nas witryny. Należy zadbać o to, aby było ono jak najbardziej pozytywne. Badanie adresu URL strony internetowej to jeden z elementów audytu SEO przeprowadzanego przez profesjonalistów z agencji zajmującej się marketingiem internetowym. Jego zadaniem jest znalezienie wszystkich błędów dotyczących konstrukcji danej strony internetowej oraz jej funkcjonalności, przez które zajmuje ona odległe miejsce w rankingu wyników wyszukiwarki Google oraz ich eliminacja.

____________________________

Dynamiczne adresy URL

Adres strony internetowej nazywany jest inaczej adresem URL. Można połączyć jego nazwę ze znaczeniem słowa „adres”, jaki wszyscy znamy, czyli miejscem zamieszkania. Również w tym przypadku musi być on na tyle konkretnie ustalony, aby można było iść prosto do celu i nie zgubić się po drodze.

Budowa adresu URL:

  • http:// lub https://- protokół służący do przesyłania danych;
  • opcjonalne www – „Word Wide Web”, jest to informacja o tym z jakiego rodzaju serwerem następuje połączenie;
  • nazwa domeny – tym wszystkie adresy URL różnią się od siebie;
  • domena najwyższego poziomu – każdy adres kończy się w podobny sposób- „.pl”, „.com”, powyżej nie występują już w DNS inne domeny;
    ścieżka do pliku lub inaczej zdefiniowany adres – znajdziemy ją na końcu adresu URL. Jest to bezpośrednie wskazanie ścieżki do pliku.

Przykłady adresów URL:

  • http://www.naszastronainternetowa.info/#category==G5F?4XuS78!ozamwW377_wAg&q – taki rodzaj adresu nazywamy dynamicznym;
  • https://twojawitryna.org/index/category_3/seo/uslugi/kontakt.html – ten rodzaj adresu URL zawiera bezpieczną wersję protokołu- HTTPS, informuje o umiejscowieniu pliku na serwerze;
  • https://zwyklastrona.pl/kontakt/kontakt-seo/audyt – widzimy tutaj zastosowanie bezpiecznej wersji protokołu- HTTPS, taki adres URL można łatwo zapamiętać, można więc powiedzieć, że jest przyjazny dla internauty.

Jak widać powyżej, dynamiczne adresy URL z pewnością nie mogą być nazywane przyjaznymi dla osób surfujących po sieci. Zapamiętanie ich nie należy do łatwych zadań. Największą trudność przeciętnemu użytkownikowi internetu sprawią zapewne ciągi liczb i liter, których ciężko byłoby nauczyć się na pamięć. Adres URL w takiej postaci nie zawiera w sobie jasnej, precyzyjnej informacji o tym, w jakie miejsce kieruje osobę, która zdecyduje się umieścić go w oknie przeglądarki na swoim ekranie. Może to spowodować, że internauta zrezygnuje z odwiedzenia tej strony uznając to za niebezpieczne. Może podejrzewać np. groźbę zainfekowania swojego komputera groźnym wirusem. Długi i nieczytelny adres sprawia również, że utrudniona zostaje ponowna wizyta osoby czytającej artykuł, przeglądającej galerie zdjęć itp. w tym właśnie miejscu na stronie,jeżeli zdecyduje się ona tam powrócić. Wtedy wpisuje ona w pasek wyszukań przeglądarki adres URL kierujący do strony głównej i tam próbuje mniej lub bardziej skutecznie znaleźć ponownie ten interesujący ją obszar witryny, który chce odwiedzić ponownie. Należy zadbać o to, aby dynamiczne adresy URL nie pojawiały się na podstronach.

Konfiguracja adresu URL
Każdy administrator witryny może dokonać konfiguracji adresu URL swojej strony internetowej. Najprostsze zadanie stoi przed tymi osobami, które zarządzają witryną wykonaną przy pomocy CMS, np. WordPress. W takim przypadku potrwa to dosłownie chwilę. Jeżeli strona została zaprojektowana przy pomocy innego rodzaju oprogramowania potrwa to nieco dłużej, ale nie należy z tego rezygnować tłumacząc się koniecznością poświęcenia temu większej ilości czasu. Czym należy się kierować dokonując konfiguracji adresu URL? Pamiętajmy żeby zawierał frazy kluczowe, co ułatwi zadanie osobom, które będą tego adresu używać. Od razu będą one mogły się domyślić tego, jakiemu tematowi poświęcona jest strona. Kolejna istotna sprawa- adres powinien być krótki, musi być łatwo go zapamiętać. Mając taką przyjazną postać budzi on zaufanie internautów. Należy unikać niebezpiecznych znaków, to kolejne zalecenie. Pamiętaj o tym, aby stosować małe litery. Unikaj spacji, znaków charakterystycznych dla języka polskiego, pytajników i wykrzykników. Niezastosowanie się do tych wskazówek może spowodować wystąpienie nieprawidłowości, takich jak błąd 404. Niezwykle istotna informacja- jeżeli dokonujesz zmiany adresu URL witryny, która już istnieje, nie zapomnij o odpowiednim skonfigurowaniu przekierowań 301.

Badanie kwestii adresu strony internetowej jest jednym z elementów audytu SEO przeprowadzanego przez profesjonalistów z agencji marketingowej. Jego celem jest znalezienie wszystkich przyczyn tego, że dana witryna zajmuje odległe miejsce w rankingu wyników najbardziej popularnej wyszukiwarki na świecie- Google, a następnie ich wyeliminowanie. Po przeprowadzeniu audytu SEO i naprawieniu wszystkich znalezionych błędów nic już nie będzie stało na przeszkodzie temu, aby na drodze prowadzonego przez specjalistów pozycjonowania dana strona awansowała na coraz wyższe miejsca we wspomnianym powyżej rankingu.

____________________________

AUDYT SEO linki

________________________

Nie działające linki

Linki, które nie działają prawidłowo sprawiają osobie, która zarządza stroną internetową spore problemy. Można oczywiście zapobiec występowaniu tego kłopotu nie publikując żadnych linków na swojej witrynie i nigdy nie usuwać żadnych danych z serwera. Trudno jest jednak powstrzymać się od umieszczenia wśród treści umieszczonych na stronie odnośników do interesujących artykułów, opracowań, czy filmów video. Do tego powszechną praktyką jest usuwanie po pewnym czasie starych wpisów, których treść uważamy już za niezbyt aktualną. To może być przyczyną tego, że na Twojej stronie znajdują się nieaktywne linki.

W jaki sposób powstają niedziałające linki, zwane w języku angielskim „broken links”?

Możemy o ich wystąpieniu mówić wtedy, gdy to miejsce w sieci, do którego mają prowadzić, już nie istnieje. Istnieją dwa ich rodzaje. Jeden przekierowuje do podstrony na Twojej witrynie, której już nie ma. Drugi prowadzi internautę, który odwiedził Twoją stronę, do treści umieszczonych na innej, nie należącej do Ciebie witrynie, które zostały już usunięte. Po kliknięciu w taki odnośnik pojawia się komunikat o wystąpieniu błędu 404.
Zdarza się, że niedziałające linki są efektem naszego zaniedbania, które wcale nie było celowe. Wraz z rozrastaniem się Twojej strony internetowej ilość treści na niej umieszczonych wzrasta. Możemy więc po prostu zapomnieć o linkach, które kiedyś tam umieściliśmy. Inna możliwość to usunięcie treści, które wcześniej były widoczne po kliknięciu w odnośnik do zewnętrznej witryny, przez jej administratora. Tutaj nic nie możemy poradzić. Ktoś po prostu uznał, że te informacje nie są już przydatne i zdecydował się je usunąć. Przyczyną najbardziej dokuczliwych kłopotów z niedziałającymi linkami jest możliwość dodawania linków do komentarzy przez internautów odwiedzających stronę, która im to zapewnia. Wtedy konieczna jest nieustanna kontrola tych wpisów, aby mieć pewność, że umieszczane w treściach wypowiedzi odnośniki nie przekierowują na niebezpieczne, grożące zainfekowaniem komputera przez wirusy miejsca w sieci internetowej lub też prowadzą do stron z nielegalnymi treściami.

Wpływ niedziałających linków na SEO
Wszystkie linki, zarówno te, które prowadzą do naszej strony, jak i te umieszczone przez nas w treściach witryny, przekierowujące do innych stron www, mają duży wpływ na to, jak nasza strona odbierana jest przez najpopularniejszą wyszukiwarkę na świecie- Google. Mają one również wpływa na opinię, jaką internauci mają o Twojej stronie. Jeżeli trafią na odnośniki, które nie działają, z pewnością ich ocena Twojej witryny pogorszy się. Będą oni bowiem myśleli, że administrator nie przykłada się do swoich obowiązków i pozwala na to, że takie nieaktywne linki wciąż pozostają na stronie.
Google zawsze promuje w pierwszej kolejności te strony, które w najlepszy możliwy sposób dopasowane są do treści, których internauta poszukuje w wyszukiwarce. Witryny, na których umieszczone są niedziałające odnośniki do tego grona się nie zaliczają. Musisz więc zdawać sobie sprawę z tego, że Twoja strona nie ma szans na zajęcie wysokiego miejsca w rankingu wyników Google, jeśli nie zrobisz porządku z linkami.

Inny problem, o którym trzeba wspomnieć, to marnowanie środków przeznaczonych na indeksowanie strony (https://icomseo.pl/blog/najwazniejsze-trendy-w-seo-w-2020-roku-plt-i-cbr/). Robot indeksujący wysłany przez Google może wykonać tylko pewną ograniczoną ilość działań związanych z jej indeksacją. Jeżeli trafi on na odnosniki zewnętrzne, z których większość nie działa, oznacza to zmarnowanie tych środków, dzięki którym Twoja strona mogłaby znacznie zyskać w SERP (https://icomseo.pl/blog/serp-co-to-jest/). Jeżeli ilość nieprawidłowo działających linków jest duża, w niedalekiej przyszłości zmniejszy się ilość zasobów użytych do indeksowania treści strony. To kolejna przeszkoda w skutecznym pozycjonowaniu Twojej witryny.

Jak rozwiązać problem niedziałających linków?
Najlepiej jest po prostu regularnie sprawdzać to, czy wszystkie odnośniki, które umieściłeś na stronie działają. Z pomocą administratorom witryn internetowych przychodzą specjalnie stworzone do tego celu narzędzia. Dzięki nim osoba zarządzająca stroną zostaje poinformowana o tym, że któryś z linków nie działa prawidłowo. Wśród narzędzi tego typu polecamy to o nazwie Broken link checker, które zastosować można na witrynach wykonanych w oparciu o WordPress (https://icomseo.pl/blog/broken-link-checker-wordpress-jak-znalezc-i-usunac-niedzialajace-linki-w-wordpressie/).

To, co zrobisz wiedząc o zerwanych linkach, zależeć będzie zapewne od tego, jaka będzie ich ilość. W przypadku, gdy nie jest ich zbyt dużo można spróbować innego rozwiązania niż usunięcie ich. Możliwe jest przecież odnalezienie innej strony internetowej, na której znajdują się informacje zbliżone do tych, które można było znaleźć po kliknięciu w niedziałający już link. Jeżeli jednak liczba wadliwych odnośników jest duża,najlepiej jest po prostu je usunąć. Znajdowanie nowych adresów w takim przypadku wiązałoby się z ogromem czasu, jaki trzeba byłoby na tą czynność poświęcić.
Mamy nadzieję, że ten artykuł okazał się dla Ciebie pomocny. Zapraszamy na stronę firmy IcomSEO, gdzie znajdziesz odpowiedzi na wiele innych pytań dotyczących rozwiązywania problemów, z jakimi możesz się spotkać będąc administratorem strony internetowej.

____________________________

Zewnętrzne linki DoFollow

Linki, które wychodzą ze strony internetowej mogą mieć atrybuty dwóch różnych rodzajów – DoFollow lub NoFollow. Ten pierwszy nie wymaga dodatkowego oznaczenia, ponieważ jest domyślny. Drugi z nich oznaczany jest za pomocą elementu kodu rel=„nofollow” lub dyrektywy nofollow w meta tagu. Oba linki są inaczej postrzegane przez roboty, które Google wysyła na strony internetowe w celu przeprowadzenia ich indeksacji. Robot, który trafi na atrybut NoFollow uznaje, że ten link nie powinien być brany pod uwagę, jeżeli chodzi o SEO. W przypadku, gdy trafi on na DoFoolow, jest to dla niego wyraźna wskazówka, że link ten prowadzi do wartościowych treści, które powinny ulec zaindeksowaniu.

Można je stosować linkując do zewnętrznych stron, należy jednak zadbać o to, aby robione to było prawidłowo. Roboty Google potrafią znaleźć serwis, który zajmuje się sprzedawaniem linków lub bierze udział w programie ich wzajemnej wymiany. Takie praktyki nie są wspierane przez Google, a wręcz przeciwnie. Dlaczego? W ten sposób można wpływać w sposób niedozwolony na pozycję strony w rankingu wyszukiwarki. Wszelkie tego typu manipulacje są niezgodne z polityką Google. Nie należy umieszczać na stronie internetowej zbyt wiele linków z atrybutem DoFollow. Zwłaszcza jeśli prowadzą one do stron nie zawierających treści o wysokim poziomie merytorycznym. Roboty indeksujące Google na pewno odnotują taki fakt i będzie to miało przykre konsekwencje związane ze spadkiem danej witryny w rankingu wyszukiwarki.

Co należy zrobić, aby nie doszło do ukarania naszej strony przez Google?
Musisz dokonać dokładnej, głębokiej analizy wszystkich linków kierujących do zewnętrznych stron, jakie można znaleźć na Twojej stronie internetowej. Zastosuj NoFollow dla tych, które prowadzą do stron posiadających niezbyt istotną zawartość oraz dla takich, które chcesz całkowicie wyłączyć z działań związanych z SEO. Musisz być całkowicie pewny tego, że link, dla którego zastosujesz atrybut DoFollow prowadzi do wartościowej witryny. Dzięki temu Twoja strona internetowa uniknie kary, jaką jest spadek jej pozycji w rankingu wyszukiwarki Google.

____________________________

____________________________

AUDYT SEO grafiki

________________________

Puste alt teksty

Alt tekst to inaczej mówiąc alternatywny opis obrazu. Zastosowanie takiego rozwiązania ułatwia pracę robotom indeksującym Google. Jest im wtedy łatwiej dokonać analizy pliku zawierającego grafikę. Dlaczego jest to tak istotne?  Robot indeksujący, który jest wysyłany przez Google na strony internetowe w celu analizy umieszczonych na nich treści jest co prawda skomplikowanym programem, ale daleko mu do miana sztucznej inteligencji. Nie jest w stanie dokonać analizy w taki sposób, jak robi to człowiek. Należy więc zapewnić mu pomoc w postaci alternatywnego opisu grafiki. W ten sposób robot będzie mógł przypisać dany obraz do wyników wyszukiwania najpopularniejszej przeglądarki na świecie.

Nie należy pozostawiać pustych alt tekstów. Nie wpływa to co prawda na efekty pozycjonowania, ale nie przyczynia się również do powstania żadnych korzyści. Tymczasem umieszczenie opisu w tekście alternatywnym może skutecznie wspomóc poprawę pozycji naszej strony internetowej względem pewnych fraz. Pojawi się również dzięki temu nowy kierunek, z którego przychodzić będą odwiedzający stronę internauci- wyszukiwarka grafik Google. Umieść w alt tekście opis tego, co przedstawia grafika przy pomocy słów kluczowych. To znacznie ułatwi pracę robotom indeksującym i przyczyni się do zajęcia przez Twoja stronę jeszcze lepszego miejsca w rankingu wyszukiwarki.

____________________________

Zerwane grafiki / obrazy

Zerwane obrazy- tak nazywamy te pliki graficzne umieszczone na witrynie internetowej, do których aktualnie nie ma dostępu. Powoduje to problem z załadowaniem się treści, widoczne są wtedy komunikaty informujące o niewłaściwej ścieżce prowadzącej do pliku.

Jaka jest przyczyna wystąpienia tego rodzaju błędu?
Zerwane obrazy powstają, gdy nieprawidłowe są ścieżki kierujące do pliku. Nawet jeden dodatkowy znak może spowodować ten problem. Ścieżka nie jest wtedy dopasowana do prawidłowej wersji. Po zmianie jej treści każde z wykorzystywanych do tej pory połączeń przestaje funkcjonować. Jakie są najczęściej występujące przyczyny pojawienia się błędu nazywanego zerwaniem obrazu?

  1. Przeprowadzenie w nieprofesjonalny sposób migracji z HTTP na HTTPS.
  2. Podmiana plików na serwerze przy nie zachowaniu takiej samej nazwy.
  3. Usunięcie obrazów z serwera.
  4. Zmiana ścieżki pliku spowodowana działaniem wtyczek.

Jak widzimy istnieje wiele potencjalnych przyczyn tego, że ścieżka zaimplementowana do pliku nie działa prawidłowo. Jeżeli więc planujesz edycję któregoś z elementów obrazu widocznego na Twojej witrynie internetowej, zachowaj ostrożność.

Wpływ zerwanych obrazów na SEO
Google nie traktuje zerwanych obrazów jako przeszkody w pozycjonowaniu witryny. Nie znaczy to, że należy zignorować ten problem. Zerwane obrazy obniżają bowiem jakość strony. Internautom, którzy ją odwiedzają trudno będzie uwierzyć w profesjonalizm firmy, która pozwala sobie na taką niedbałość względem witryny, która ma promować jej ofertę. Po zauważeniu błędów tego typu będą oni skłonni opuścić tą stronę i przejść na witrynę konkurencyjnej firmy. Akurat to jest już odnotowywane przez Google. Kolejnym problemem, jaki powoduje zerwany obraz jest pozostawiony w kodzie strony ślad po pliku, który miał zostać wyświetlony. Jest on niedostrzegalny przez człowieka, ale widoczny przez roboty indeksujące Google. Podejmują one próbę przeanalizowania go. Kod z nieprawidłową ścieżką wpływa negatywnie na jeden z ważniejszych elementów SEO, czyli Crawl Budget Rank. Może to spowodować nieprawidłowe indeksowanie strony i spowolnić odczytywanie pozostałych, ważnych jej fragmentów.

____________________________

Audyt SEO meta dane

________________________

Puste tagi title

Przyjęło się uważać, że znacznik title określający tytuł każdej z podstron na witrynie internetowej przyporządkowany powinien być każdej z nich. Praktyka różni się jednak od założeń teoretycznych. Często można spotkać się z sytuacją, w której znaczniki te nie posiadają żadnych ustawień. Jak wpływa to na wygląd strony i SEO? Jeżeli <title> nie jest ustawiony, wyszukiwarka dokona samodzielnego wyboru tekstu, który będzie pojawiał się w tym miejscu. Jako że tego rodzaju decyzja zostanie podjęta mechanicznie,na podstawie tego, jak działa algorytm wyszukiwarki, nie należy dopuścić,aby do tego doszło. Lepiej jest świadomie ustawić <title>. Niewypełniony tag title oznacza również rezygnację z elementu budowy kodu strony, który ma realny wpływ na SEO. Należy więc uzupełnić to miejsce, jeżeli jest puste i nie pozostawiać tej kwestii algorytmowi Google. Tylko wtedy, gdy określisz tytuł zgodnie z zaleceniami płynącymi od Google możesz być pewien, że wyszukiwarka zaprezentuje internautom korzystającym z wyszukiwarki <title> wybrany przez Ciebie, a nie taki, który utworzony został algorytmicznie.

____________________________

Zbyt długie tagi title

Tagi title mające zbyt dużą liczbę znaków. To, jak długi będzie tag title nie jest istotne dla robotów indeksujących strony internetowe na potrzeby Google. Teoretycznie można więc sobie pozwolić na całkowitą dowolność przy tworzeniu tytułu. Mimo wszystko warto jest jednak poświęcić chwilę uwagi również temu tematowi. W teorii pomiędzy dwa znaczniki <title></title> można wstawić wszystko to, co nam się podoba, nie istnieją tutaj żadne ograniczenia. Jeżeli jednak chcemy zapewnić internaucie przeglądającemu naszą stronę wygodę, a do tego planujemy przeprowadzenie pozycjonowania naszej witryny, warto będzie wziąć jednak pod uwagę kilka wskazówek. Pierwsza z nich dotyczy długości tytułu. Zaleca się, aby nie przekraczała ona 70 znaków, wliczając to spacje. Jeżeli tytuł będzie dłuższy, Google dokona jego przycięcia. Internauta zobaczy wtedy tylko jego fragment zakończony wielokropkiem. Może to wywołać u niego podejrzenie, że niepełny tytuł może prowadzić do strony, która nie jest godna zaufania i być może wejście na nią oznacza problem typu zainfekowanie komputera niebezpiecznym wirusem, lub też strona ta zawiera treści niezgodne z obowiązującym prawem. Jeśli tytuł uznamy za wizytówkę strony, to zadbajmy o to, aby był odpowiednio krótki, a przy tym niech wzbudza zainteresowanie. Zaprezentowane wcześniej jako przykłady tytuły mają około 60 znaków ( wliczając w to spacje ), a przy tym w sposób jasny informują o tym, czego można oczekiwać wchodząc na daną stronę. Warto również wiedzieć o tym, że jeżeli tag title będzie bardzo długi, a przy tym zawierać będzie liczne słowa kluczowe, to możliwe jest, że Google zignoruje go i w sposób losowy wygeneruje własny tytuł.

____________________________

Zduplikowane tagi title

Co należy rozumieć pod pojęciem duplikacji tagu title? Istnieją dwie możliwości. Pierwsza polega na tym, że ten sam tytuł zostaje przypisany różnym stronom. Druga możliwość to użycie w kodzie jednej i tej samej strony podwójnych znaczników <title>. W obu przypadkach mamy do czynienia z błędem, do którego pojawienia się nie powinno dojść. Należy zadbać o to, aby każda podstrona miała swój oryginalny meta tytuł. Chodzi o to, aby roboty indeksujące Google mogły stwierdzić, że każda z nich jest unikalna. Będzie to niemożliwe, jeśli będą one miały taki sam tytuł.Trzeba też zadbać o to, aby były to tytuły oryginalne. Roboty Google wykryją nieuczciwe zagrania typu zapożyczenie tytułu ze strony innej, konkurującej z Twoją firmy. Google posiada wyspecjalizowane narzędzia wykrywające takie nieuczciwe zachowania administratorów witryn internetowych. Nie oznacza to wcale, że tytuł nie może zawierać popularnych słów kluczowych, które wykorzystują na swoich stronach firmy będące Twoją bezpośrednią konkurencją. Jest to nawet wskazane w sytuacji, gdy planujesz kampanię SEO pod daną frazę. Niech będzie ona umieszczona w tytule tej podstrony, której celem będzie osiąganie dobrych wyników powiązanych z tą właśnie frazą kluczową. Tytuły nie powinny być jednak takie same, nie należy ich powielać w obrębie swojej strony.Eksperci od SEO nie polecają również zwielokrotniania znacznika <title> znajdującego się w kodzie źródłowym strony. Robot indeksujący, jaki zostanie wysłany przez Google na Twoją witrynę jest tylko botem, rodzajem pewnego algorytmu. Kiedy napotka na dane mające taką postać, nie będzie w stanie ich poprawnie odczytać. Przerasta to jego możliwości. Nie jest to bowiem w żadnym wypadku sztuczna inteligencja, a jedynie bot. W takiej sytuacji Google może wybrać jeden z tytułów, które są dostępne lub też sprawić, że będzie wyświetlany jego własny, utworzony w sposób losowy. Pojawia się wtedy również problem spadku witryny w rankingu wyszukiwarki. Dzieje się tak zawsze wtedy, gdy roboty Google natrafiają na taki rodzaj danych, których nie są w stanie prawidłowo zinterpretować i zaindeksować.  Co oznacza dla nas sytuacja, w której Google wybiera jeden z tych tytułów, które są akurat dostępne, raz jeden, raz drugi? Jest to delikatnie mówiąc bardzo niekorzystne z punktu widzenia kampanii SEO. Jeżeli strona wyświetla się za każdym razem z innym tytułem,algorytm Google może potraktować to jako duplikację treści. Jeżeli każda wizyta robota indeksującego oznacza, że trafia on na inaczej wyglądającą stronę, można zapomnieć o wysokim miejscu tej witryny w rankingu Google.

Co jest przyczyną pojawienia się zwielokrotnionego znacznika <title>? Oto najczęstsze przyczyny wystąpienia takiej sytuacji:

  1. Błąd programisty, który projektował daną stronę – mógł on przez pomyłkę wpisać dwukrotnie ten sam tag podczas wykonywanej przez niego czynności kodowania witryny.
  2. Niewłaściwe zastosowanie rozszerzeń zwanych potocznie wtyczkami w systemach takich jak WordPress. Jest to rzadko spotykany błąd.
  3. Umieszczenie w plikach znajdujących się na serwerze dodatkowego kodu. Z taką sytuacją również można spotkać się rzadko. Może się tak stać wtedy, gdy strona utworzona została w systemie CMS ( do których należy wspomniany wcześniej WordPress ) i w plikach znajdujących się na serwerze ktoś wprowadzi znacznik <title> manualnie.

____________________________

Puste tagi meta description

Meta description nie wpływa w znaczący sposób na SEO. Ma jednak duży wpływ na liczbę wejść na stronę poprzez kliknięcie w reklamę na nią prowadzącą. Tak właśnie internauci potencjalnie zainteresowani treścią umieszczoną na naszej witrynie dowiadują się o istnieniu strony- poprzez krótką wzmiankę o tym, jakim tematom jest poświęcona, zawartą w opisie widocznym w wynikach wyszukiwarki. Należy więc zadbać o to, aby był to opis zachęcający do kliknięcia w link, a nie taki, który powoduje u osoby widzącej go na swoim ekranie wątpliwości.

Możemy nie zajmować się w ogóle meta description pozostawiając wypełnienie tego miejsca wyszukiwarce. Trzeba jednak zadawać sobie sprawę z tego, że będzie to losowy wybrany fragment tekstu zawierający wybrane wcześniej przez administratora strony słowa kluczowe. Może to być np. część zdania nie mająca w tej postaci żadnego sensu. Taki opis na pewno nie zachęci internauty do kliknięcia w link i przejścia w ten sposób na Twoją witrynę. Trudno jest w takiej sytuacji liczyć na większy ruch na stronie. Zadbaj więc o odpowiednie wypełnienie tagu meta description.

____________________________

Zbyt długie tagi meta description

Tagi meta description mające zbyt dużą liczbę znaków. Celem opisu meta jest zainteresowanie internauty treścią zawartą w odnośniku na tyle, aby zdecydował się on w niego kliknąć i w ten sposób trafił na stronę docelową. Musi to być treść na tyle ciekawa, żeby skupić na sobie uwagę osoby surfującej po internecie. Niestety może się zdarzyć tak, że Google potraktuje meta tag jako zbyt długi i dokona jego przycięcia. Wystąpienie takiej sytuacji jest bardzo prawdopodobne. Internauta widzi wtedy jedynie fragment opisu zakończony wielokropkiem. Może on przez to stwierdzić, że nie jest to strona godna zaufania i nie zdecyduje się na kliknięcie w link. Nie trafi więc na stronę, do odwiedzenia której miał go zachęcić meta tag. Jeżeli chcemy przekonać kogoś, że warto jest wejść na daną witrynę, to komunikat, który ma go do tego zachęcić, musi być jasny.

Google zaleca nieprzekraczanie 158 znaków w treści meta description. Daje to gwarancję tego, że tekst nie zostanie przycięty i będzie mógł zachęcić osoby surfujące po sieci internetowej do wejścia na polecaną przez nas stronę. Dużą część meta description zajmuje data dodania danego tekstu, umieszczenia go na witrynie internetowej. Należy wziąć to pod uwagę podczas tworzenia opisu. Jeżeli chodzi o wartości związane z pixelami- meta description powinno mieć do 920 pixeli na ekranie komputera stacjonarnego oraz maksymalnie 680 pixeli na ekranach urządzeń mobilnych. Nieco inne są zalecenia dotyczące meta description, które widoczne mają być na ekranach urządzeń mobilnych. Obowiązuje tutaj zasada- nie więcej niż 120 znaków. Należy się do tego stosować i starać się stworzyć taki opis, aby zawrzeć jak najwięcej zachęcających do odwiedzin danej strony treści bez przekraczania tego limitu.

____________________________

Zduplikowane tagi meta description

Wszelkiego rodzaju duplikaty nie są korzystnie odbierane przez Google. Dotyczy to również meta description. Nazwą tą określamy tekst, którego zadanie polega na opisaniu w krótki i przystępny sposób treści umieszczonych na stronie. Chodzi o to, aby internauta na podstawie tytułu wiedział mniej więcej, z jakimi treściami może zetknąć się na naszej witrynie. Nawet jeżeli równie celnie opisuje on zawartość dwóch podstron, to nie należy go stosować w obu tych przypadkach. Google mogłoby uznać, że to duplikaty, a to zdecydowanie nie jest korzystne dla strony. Zwłaszcza wtedy, gly planujemy jej pozycjonowanie. Sytuacja wygląda jeszcze gorzej, gdy takie same meta descriptions mają strony umieszczone na różnych domenach. Jest to dowodem na to, że administrator jednej ze stron skopiował treści podpatrzone na innej witrynie. Google nie wspiera tego rodzaju zachowania, a wręcz przeciwnie, stara się jemu przeciwdziałać. Matt Cutts należący do kierownictwa Google uważa, że lepiej jest w ogóle nie umieszczać żadnego meta description, niż stosować duplikat. Jeżeli już zdecydujemy się na jego zastosowanie, zadbajmy o to, aby był oryginalny.

____________________________

Audyt SEO elementy związane z lokalizacją

________________________

Wersje językowe

Strony dostępne w różnych wersjach językowych wykorzystujące polecenie hreflang, niewłaściwe kody języków, źle użyte adresy url, brak linków powrotnych, niespójne elementy hreflang. Żyjemy w czasach powszechnego dostępu do internetu. Świat jak nigdy przedtem połączony jest dosłownie i w przenośni siecią.Chodzi oczywiście o internet. Każdy administrator strony powinien więc rozważyć udostępnienie swojej witryny w kilku wersjach językowych. Nawet jeśli treści znajdujące się na Twojej stronie teoretycznie dotyczą tylko Polaków, to nie możesz wykluczyć tego, że odwiedzą ją również internauci spoza granic naszego kraju. Należy być przygotowanym na taką ewentualność. Kwestia ta ma również duże znaczenie dla SEO. Należy przy tym pamiętać o tym, że poszczególne wersje językowe strony powinny być odpowiednio ze sobą połączone.

Jeżeli witryna dostępna jest w kilku różnych wersjach językowych, zaleca się oznaczenie każdej z nich elementem hreflang. Pełnią one rolę znaków drogowych dla robotów indeksujących, które najpopularniejsza wyszukiwarka na świecie- Google, wysyła na strony internetowe. Trzeba pamiętać o tym, że jeżeli kod źródłowy Twojej witryny ułatwia im pracę, działa to na korzyść Twojej strony przy ustalaniu rankingu wyników. Jeżeli każda wersja językowa oznaczona zostanie elementem hreflang, wyszukiwarka będzie posiadała dzięki temu informację o tym, do której z nich należy skierować odwiedzającego stronę. Pobiera ona od każdego odwiedzającego stronę dane na temat tego, jaki język używany jest w miejscu, z którego łączy się on z siecią. Google jest w stanie zlokalizować każdą z wersji językowych nawet nie posiadając takich informacji,warto jednak zadbać o to, aby praca robotów indeksujących była mniej skomplikowana.

Oto zalecenia Google- https://support.google.com/webmasters/answer/189077. Umieszczenie w kodzie strony informacji o alternatywnych wersjach językowych powinno nastąpić, jeżeli zaistnieje któraś z wymienionych poniżej sytuacji:

  • W przypadku przetłumaczenia fragmentów strony większa jej część nie ulega zmianom podczas przechodzenia pomiędzy poszczególnymi podstronami. Ten punkt dotyczy głównie takich witryn, w przypadku których większą część treści umieszczają na niej samodzielnie odwiedzający ją internauci.
  • Widać różnice w treściach widocznych na witrynie w znaczeniu regionalnym. Jeżeli jako przykład wybierzemy język angielski, to pewne różnice będą widoczne w wersjach australijskiej i amerykańskiej.
  • Cała witryna dostępna jest w wielu językach, np. w hiszpańskim,portugalskim i polskim.

____________________________

Witryny internetowe zawierające elementy hreflang

Sprawdzenie tego, czy znaczniki hreflang zostały użyte prawidłowo, to bardzo ważna kwestia. Kontroli powinno podlegać to, czy hreflang zastosowany w kodzie został tam umieszczony w sposób właściwy. Jeżeli tak nie jest, to jakie mogą być tego konsekwencje? Niewłaściwe wykorzystanie w kodzie źródłowym polecenia hreflang może utrudnić pracę robotom indeksującym Google. Powoduje to również komplikacje dla osób, które odwiedzają tą stronę. Działanie różnych wersji językowych witryny powinno być określone w kodzie w taki sposób, aby użytkownikowi z określonego obszaru świata automatycznie wyświetlała się jej wersja w zrozumiałym dla niego języku. Błędne użycie polecenia hreflang będzie przyczyną tego, że internaucie pojawi się na ekranie witryna w języku, który nie jest mu znany. W takiej sytuacji można mieć wątpliwości, czy osoba ta zechce jeszcze raz spróbować wejścia na tą witrynę. Dokładne sprawdzenie poprawności wykorzystania elementu hreflang jest ważnym elementem audytu SEO. Głównym jego celem jest znalezienie wszystkich przyczyn tego, że dana strona ma problem z awansowaniem na wyższe miejsce w rankingu wyników najpopularniejszej wyszukiwarki na świecie- Google. Podczas jego trwania okaże się również, czy istnieją przeszkody uniemożliwiające osobom, które odwiedzają witrynę, swobodne korzystanie z umieszczonych na niej zasobów.

____________________________

Nieprawidłowe kody języków

Wszystkie kody dotyczące języków muszą być zgodne z normami ISO 639-1 (https://en.wikipedia.org/wiki/List_of_ISO_639-1_codes), jeżeli dana witryna dostępna jest w różnych wersjach językowych. Wtedy, gdy strona udostępniona jest internautom w różnych wersjach regionalnych na terenie jednego kraju, konieczne jest zastosowanie się do normy ISO 3166-1 Alpha 2 (https://en.wikipedia.org/wiki/ISO_3166-1_alpha-2). Są również takie witryny, w przypadku których nie zostały ustalone parametry określające ich wersje przeznaczone dla różnych regionów oraz wersje językowe. Wtedy należy zastosować „x-default”.

W przypadku hreflang dochodzi często do pomyłek. Ich przyczyną jest zwykle to, że wpisujący kod robi to mechanicznie, metodą „na pamięć” lub też popełnia powszechny błąd nazywany potocznie „literówką”. Jako przykład można podać wpisanie UK w miejscu, gdzie powinno być umieszczone GB. Tak się składa, że brytyjskie strony internetowe określa domena .uk, czyli skrót od United Kingdom a nie .gb, czyli Great Britain. Podobnie wygląda sprawa amerykańskich domen. Powszechne jest stosowanie .usa zamiast poprawnego .us. Literówka popełniona w hreflang będzie miała swoje konsekwencje. Osoby z kraju,dla którego istnieje specjalnie dla niego przeznaczona wersja językowa będą przez to kierowane do wersji zupełnie innej. Należy więc dokładnie sprawdzić, czy nie popełniliśmy pomyłki. Pamiętaj o tym, że jeżeli w wyniku opisanego powyżej błędu internauci będą przekierowywani na stronę dostępną w obcym dla nich języku, mogą już nigdy nie zechcieć jej odwiedzić. Wszelkie nieprawidłowości na stronie powodują spadek zaufania do niej ze strony osób, które ją odwiedzają. Dlatego tak ważne jest dokładne sprawdzenie poprawności kodu.
Przeczytaj również inne artykuły na naszej stronie, informujemy w nich o często przytrafiających się błędach i sposobach na ich uniknięcie.

____________________________

Nieprawidłowe adresy URL

Atrybut hreflang obejmuje także adres URL, który w związku z tym musi być wpisany poprawnie. Błędny adres URL to jedna z często spotykanych pomyłek. Zawsze należy z dużą uwagą sprawdzać, czy linki prowadzące do różnych wersji językowych są prawidłowe. Kiedy najczęściej występuje nieprawidłowe określenie parametru hreflang? Oto konkretne przykłady sytuacji, w których popełniony zostaje ten błąd:

  • Zmianie ulega sposób budowy adresu URL;
  • Aktywowany jest certyfikat SSL. Migracja pomiędzy HTTP i HTTPS nie została zaktualizowana we wszystkich miejscach;
  • Elementy hreflang zostały umieszczone w kodzie źródłowym strony w sposób manualny, nie reagują więc na aktualizacje dokonane w CMS;
  • Błędnie wpisano adres taga hreflang.

Trzeba zwrócić uwagę na to, aby tag hreflang zawierał tylko i wyłącznie kwalifikowane adresy URL. Konieczne jest również stosowanie adresowania bezwzględnego, umieszczanie tam adresów względnych uznawane jest za zabronione. Jaka jest pomiędzy nimi różnica? Adres bezwzględny pokazuje pełny adres zawartości serwera, względny zaś tylko ścieżkę prowadzącą do pliku z tego katalogu, z którego w danej chwili korzystasz.

Bezwzględny adres URL: https://mojadomena.pl/index/wersje_jezykowe/home_en.html

Względny adres URL:

  • Z katalogu głównego: /index/wersje_jezykowe/home_en.html
  • Z katalogu index: /wersje_jezykowe/home_en.html
  • Z katalogu wersje_jezykowe: /home_en.html

____________________________

Brakujące linki powrotne

Prawidłowa budowa struktury atrybutów hreflang zapewnia to, że będą one właściwie zinterpretowane przez wyszukiwarkę. W przypadku, gdy atrybuty te zostaną użyte w sposób nieprawidłowy, roboty wysłane przez Google w celu przeprowadzenia indeksacji strony pominą te ustawienia atrybutów, które dotyczą wersji językowych. Należy zwrócić uwagę na to, aby zostały wykorzystane tzw. linki powrotne prowadzące do samych siebie oraz do innych wersji układu.Każda strona powinna zawierać tyle atrybutów hreflang, ile istnieje wersji językowych witryny. Jako przykład podane będzie zastosowanie hreflinków na stronie dostępnej w trzech wersjach językowych- polskiej, angielskiej i hiszpańskiej:

  • Atrybuty hreflang na stronie polskiej
    • Atrybut hreflang wskazujący na wersję polską;
    • Atrybut hreflang wskazujący na wersję angielską;
    • Atrybut hreflang wskazujący na wersję hiszpańską;
  • Atrybuty hreflang na stronie angielskiej
    • Atrybut hreflang wskazujący na wersję angielską;
    • Atrybut hreflang wskazujący na wersję polską;
    • Atrybut hreflang wskazujący na wersję hiszpańską;
  • Atrybuty hreflang na stronie hiszpańskiej
    • Atrybut hreflang wskazujący na wersję hiszpańską;
    • Atrybut hreflang wskazujący na wersję angielską;
    • Atrybut hreflang wskazujący na wersję polską;

Zastosowanie takiego układu, w którym kolejne wersje językowe, w jakich dostępna jest strona, zawierają kierujące wzajemnie do siebie odnośniki, zapewnia poprawną interpretację atrubutów hreflang przez wyszukiwarkę Google. W przypadku braku któregoś z adresów należy liczyć się z tym, że roboty indeksujące będą miały utrudnioną pracę. Zróbmy więc wszystko, aby nie popełnić tego błędu.

____________________________

Sprzeczne elementy hreflang

Atrybut o nazwie hreflang musi być uzupełniony według ściśle określonych reguł. Czasem może przytrafić sie błąd w trakcie jego wypełniania. Jakie będą tego konsekwencje? Ten element budowy strony, za który odpowiada hreflang, nie będzie działał w sposób właściwy. Do sprzecznych atrybutów hreflang zaliczamy nieprawidłowe przypisanie atrybutów języka. Dla jednego adresu strony nie można przepisać różnych wartości dotyczących języka. Obowiązuje tutaj zasada- jeden adres URL jest obsługiwany przez jeden język. Teoretycznie wydaje się to jasne. Dlaczego więc zdarzają się tego typu błędy? Przyczyną może być złe zinterpretowanie zasad wypełniania atrybutów hreflang. Należy pamiętać o tym, że można przypisać tylko jeden język, ale regionów może być kilka. Przykładowo nieprawidłowe jest wprowadzenie więcej niż jednego języka do jednego adresu URL: en-US, de-US. Prawidłowo powinno to wyglądać tak: en-US, en-GB. Należy poświęcić chwilę czasu na przeanalizowanie tego tematu. Niech jeden mały błąd nie powoduje trudności w działaniu kilku wersji językowych strony internetowej. Badanie sprzecznych elementów hreflang jest jednym z elementów audytu SEO. Jest on przeprowadzany w celu znalezienia wszystkich przeszkód na drodze do skutecznego wypozycjonowania strony, a następnie ich usunięcia.

____________________________

Strony niekanoniczne z elementami hreflang

Atrybut hreflang wraz z odnośnikami kanonicznymi pełni rolę znaków drogowych dla robotów, które największa i najbardziej popularna w chwili obecnej wyszukiwarka na świecie- Google, wysyła na strony internetowe w celu zaindeksowania ich zasobów. Roboty te mają za zadanie wiernie odtworzyć ludzkie spojrzenie na stronę internetową, mają jednak swoje ograniczenia.Póki co trudno jest określić je mianem sztucznej inteligencji.Czasem pewne fragmenty kodu powodują problemy w ich działaniu. Jeżeli zastosujesz w kodzie jednej witryny tagi rel=”cannonical” oraz hreflang, możesz znacznie utrudnić pracę robotom indeksującym Google. Jeżeli adres nie zostanie wskazany w sposób jasny, robot sam podejmie decyzję o tym, który z nich wybrać. Propozycją rozwiązania tego problemu jest usunięcie tego atrybutu, który wskazuje na adres kanoniczny lub też połączenie adresu URL ze stroną. Co przez to osiągniemy? Robot zbada kod zawierający tylko jeden adres przeznaczony do zaindeksowania- atrybut hreflang. Dlaczego bardziej opłaca się rezygnacja z adresu kanonicznego niż usunięcie elementu o nazwie hreflang? Działanie tego drugiego opiera się na powiązaniu z wszystkimi stronami. Adres kanoniczny nie działa na takiej zasadzie. Opisane powyżej działania to element audytu strony przeprowadzanego przez profesjonalne agencje SEO. Jego celem jest znalezienie wszystkich błędów w kodzie źródłowym i funkcjonalności strony, przez które nie jest możliwe skuteczne jej pozycjonowanie.Każdy z tych błędów po jego odkryciu i przeanalizowaniu zostaje naprawiony.

____________________________

Brakujące wartości „x-default”

Stosowanie atrybutu o nazwie „x-default” nie jest konieczne, ale jeżeli planujesz przeprowadzenie kampanii SEO mającej za zadanie skuteczne wypozycjonowanie Twojej strony, to warto jednak pomyśleć o jego zastosowaniu. Zadaniem tego atrybutu jest zapewnienie robotom wysyłanym przez Google do indeksowania stron łatwiejszego dostępu do danych zawartych na Twojej witrynie internetowej. Dzięki temu będzie możliwe wyświetlanie się Twojej strony na wyższym miejscu w rankingu Google. Hreflang zawierający wartość „x-default” wykorzystywany jest do zdefiniowania wersji językowej, w jakiej ma działać dana witryna w odniesieniu do wszystkich języków, kiedy adres URL nie jest zdefiniowany w sposób indywidualny. Sprawia to, że sytuacja, w której Twoja strona wyświetla się internaucie w języku, którego w ogóle on nie zna, na pewno nie będzie miała miejsca.
Przy ustawianiu parametrów elementu „x-default” trzeba wziąć pod uwagę to, który język określić można mianem najbardziej uniwersalnego. Zwykle jest to angielski. Trzeba wziąć jednak pod uwagę to, że w niektórych częściach świata najpopularniejszy i najczęściej używany jest hiszpański lub portugalski. Aby wybrać właściwą, najbardziej odpowiadającą potrzebom internautów wersję językową strony należy sprawdzić, z jakich części świata pochodzi większość unikalnych wejść na nią. To pomoże ustalić, jaki język należy wybrać. Jest to bardzo ważna kwestia, jeżeli planujesz pozycjonowanie swojej witryny internetowej poza granicami naszego kraju.

____________________________

Niekompletne wartości hreflang

Nie zostawiaj pustych miejsc, wypełnij wszystkie pola przewidziane dla wartości hreflang. Tylko dzięki temu będzie możliwe pełne wykorzystanie możliwości, jakie właścicielom stron internetowych daje SEO. Staramy się o tym nieustająco przypominać w naszych krótkich artykułach, które regularnie publikujemy. W przypadku,gdy wartości hreflang nie są uzupełnione, jednym z najczęściej spotykanych błędów jest brak określenia wszystkich wersji językowych. Wpływa to zdecydowanie niekorzystanie na wartość strony z punktu widzenia SEO. Powinieneś więc wygospodarować czas na to, aby wszystkie puste miejsca wypełnić, umożliwiając w ten sposób stworzenie struktury najbardziej istotnych wersji językowych. Jako przykład prawidłowego uzupełnienia pustych miejsc w strukturze można podać określenie wersji anglojęzycznej dla USA, Wielkiej Brytanii oraz Australii. Pamiętajmy o tym, aby w ramach tej czynności określić ogólny adres URL z myślą o tych internautach, którzy używają języka angielskiego, ale nie łączą się z siecią z terytorium któregoś z tych trzech wymienionych powyżej państw. Podobnie należy postąpić w przypadku wszystkich innych wersji językowych, w jakich dostępna ma być dana witryna internetowa.

____________________________

Zamów darmowy audyt swojej strony

Wyślij nam adres swojej strony internetowej i dane, a my wykonamy audyt
i sprawdzimy, co można na niej poprawić.

Skontaktuj się z nami

Co badamy wykonując audyt SEO