Spadek pozycji w Google – 7 najczęstszych powodów

5 min czyt.
Poradnik
Spis treści

    Twoja strona zanotowała nagły spadek widoczności w Google? Zastanawiasz się, jakie są tego przyczyny i jak temu jak najszybciej zaradzić? Podejdź do sprawy spokojnie i analitycznie. W odpowiedzi na wszystkie pytania pomoże Ci ten krótki poradnik. Poznaj 7 najczęstszych powodów spadków strony w wyszukiwarce Google i zobacz, jak zdiagnozować je na swojej stronie.

    Nagły spadek pozycji w Google – jak zareagować?

    Na samym początku przyjrzyj się jeszcze raz danym z narzędzi analitycznych, które poinformowały Cię o spadkach pozycji w Google. Wyeliminuj dane pokazujące sezonowość branży oraz powtarzające się trendy (z Google Trends). Skup się na tych, które pokazują trwałe zjawiska, takie jak wyraźny spadek pozycji Twojej strony na regularnie sprawdzane konkretne słowa kluczowe, spadek widoczności w Google czy spadek ruchu z bezpłatnych wyników wyszukiwania.

    Pozycja w Google – czym dokładnie jest?

    Na początek krótka definicja tego, czym jest pozycja strony w Google. Najprościej tłumacząc, to pozycja strony w bezpłatnych wynikach wyszukiwania danej wyszukiwarki, na której to znajduje się odnośnik do naszej strony. Wysoka pozycja w wynikach wyszukań przekłada się na wyższy ruch organiczny na stronie, a co za tym idzie – na większe zyski.

    Pochylając się nad wynikiem organicznym, warto mieć z tyłu głowy, że konkuruje on o widoczność w SERP’ach z coraz większą konkurencją ze strony samej wyszukiwarki Google (płatne wyniki wyszukiwania Google Ads, Instant Answer, wyniki z Google Maps czy inne).

    7 najczęstszych przyczyn spadków pozycji w Google:

    1. Atrybut noindex i nofollow lub błędny kod śledzenia. Słowem: niedopatrzenia.
    2. Usunięcie znaczących treści lub znacznych ilości treści ze strony Internetowej.
    3. Migracja strony bez przekierowań 301.
    4. Utrata linków zwrotnych.
    5. Ręcznie nałożona kara Google.
    6. Aktualizacje algorytmu Google.
    7. Działania konkurencji.

    1. Noindex i nofollow lub błędny kod śledzenia (niedopatrzenia)

    Czasami zdarza się, że przyczyną spadku pozycji strony w Google są drobne, acz brzemienne w skutkach niedociągnięcia na stronie. Może być to być atrybut Noindex i nofollow, który ustawiono w pliku robots.txt na deweloperskiej wersji strony, przed migracją, a których nie poprawiono po zmianie tej strony. Skutkiem jest blokada indeksacji nowej strony w Google. Innym powodem może być przesłana do informacji Google mapa .xml strony pozbawiona właściwych adresów URL i pełna tych, których nie chcemy indeksować. Trzecim często występującym powodem są błędy w kodzie śledzenia, np. Google Analytics, zwracające niepoprawne dane. To drobiazgi, które warto sprawdzić w pierwszej kolejności.

    Jak diagnozować takie błędy na stronie?

    Plik robots znajduje się zwykle w głównym folderze naszej strony. Żeby sprawdzić jego zawartość, wystarczy w wyszukiwarce wpisać adres naszej strony z końcówką /robots.txt. W podobny sposób możemy podejrzeć zawartość mapy xml, zmieniając końcówkę naszego adresu URL na np. /sitemap_index.xml lub /sitemap.xml. Błędy w kodzie śledzenia Google Analytics zdiagnozujemy z kolei, analizując nietypowe dane dotyczące naszej strony lub za pomocą Google Tag Manager’a.

    2. Usunięcie znaczących treści lub znaczących ilości treści ze strony Internetowej

    Usunięcie choć części treści ze strony może oznaczać wprowadzenie istotnych zmian w strukturach wewnętrznych linków oraz utratę istotnych podstron z serwisu, które generowały dla strony największy ruch, widoczność i pozycje w Google. Jest to ruch bardzo ryzykowny, zwłaszcza jeśli usunięty content był wartościowy i skutecznie wzmacniał kluczowe podstrony linkowaniem wewnętrznym, czyli jednym słowem „pracował na stronę”.

    Jak sprawdzić czy strona utraciła istotne treści?

    Najprościej odpowiedzieć sobie na pytanie „co było ostatnio robione na stronie?”. Często niepozorna zmiana okazuje się źródłem całego zła. Z drugiej strony pomocne będą narzędzia analityczne jak choćby Google Analytics, który pokaże nam skokowy spadek ruchu dla wybranych podstron.

    3. Migracja strony bez przekierowań 301

    Migracja strony bez zadbania o przekierowania 301 to jeden z częstszych powodów spadku pozycji strony w wyszukiwarce, na które mamy bezpośrednio wpływ. Kiedy przenosimy stronę na nowy silnik, generujący inne URL, zmieniamy domenę czy, jak za dawnych czasów, przechodzimy z HTTP na HTTPS, musimy pamiętać o poprawnym wdrożeniu mapy przekierowań. Należy zadbać o to, aby każdy istotny adres URL poprzedniej strony znalazł z pomocą przekierowania 301 swój właściwy odpowiednik na nowej stronie. Dzięki temu zabiegowi przenosimy całą moc i potencjał poprzedniej domeny czy strony na nową. Bez przekierowań wszystkie parametry poprzedniej strony mogą pójść na marne, a nowa witryna internetowa wystartuje od przysłowiowego zera.

    Skąd brać informacje o przekierowaniach na stronie www?

    Tu przydatny będzie skan strony z użyciem narzędzia Screaming Frog i analiza poszczególnych adresów URL przekierowywanych podstron.

    4. Utrata linków zwrotnych

    Siła domeny to super moc, jaką ta dysponuje. Powstaje dzięki jakościowym, aktywnym linkom dofollow, kierującym odpowiednio zdywersyfikowanymi anchorami do podstron naszego serwisu z domen o silnym Domain Rating (a najlepiej większym niż DR naszej strony). Kiedyś bardziej liczba, teraz jakość tych linków decyduje o dobrym wyniku w SERPach i przekłada się na wspominaną w tym artykule trójcę, o którą gra się toczy, czyli widoczność, ruch i pozycje na frazy w Google. Moc domeny to stan płynny, niestabilny. Nowe linki się pojawiają, stare tracimy. Zdarzyć się jednak może, że strata uderza w nas nagle i z dużą siłą. Powód? Być może odejście od dotychczasowej agencji SEO, która odpina naszą stronę od swoich zaplecz. Być może wygaśnięcie jakiegoś mocnego SEOwo forum, z którego mieliśmy sporo odniesień.

    Jak sprawdzić stan linków zewnętrznych?

    Tu przydatna będzie głębsza analiza z użyciem na przykład narzędzia Ahrefs ze wszystkimi danymi z zakładki „Backlink profile” lub analiza back linków w darmowym narzędziu Google Search Console w zakładce „Linki”.

    5. Ręcznie nałożona kara Google

    Jeśli działamy wywrotowo, nie do końca po linii wymogów Google dla webmasterów, może zostać nałożona na nasz serwis ręczna kara od Google. To już większy kaliber. Techniki z kategorii Black Hat SEO, jak m.in. cloaking, nieetyczne pozyskiwanie backlinków i budowanie takiego profilu linków, podejrzane przekierowania, ataki hackerskie, niedorzeczna ilość duplicate contentu czy spam, który pojawia się, gdy nie moderujemy komentarzy naszych treści, to strategie bardzo krótkowzroczne z punktu widzenia SEO. Prędzej skończą się potrzebą niepotrzebnego przepalania budżetu na odkręcanie wcześniejszych złych posunięć, aniżeli skokiem pozycji w Google. Mają zdecydowanie negatywny wpływ na widoczność serwisu.

    Jak sprawdzić czy Google nałożył na naszą stronę karę?

    Prosto. Odpowiedź znajdziesz w Google Search Console > Ręczne działania.

    6. Aktualizacje algorytmu Google

    Google nieustannie rozwija mechanizm swojej wyszukiwarki. Idą za tym zmiany w algorytmie Google – i to niemal każdego dnia. Niektóre z nich drobne i niewinne, inne spędzają sen z powiek pozycjonerom, brutalnie tnąc pozycje, widoczność witryny czy ruch w branży, w której akurat działamy. Jak sławny Google Medical Update z 2018 roku, który zdestabilizował serwisy dedykowane zdrowiu. Powodem były niewłaściwie (po updacie) zoptymalizowane treści, pozbawione autora, które nie wpisują się wystarczająco dobrze w intencję wyszukiwania i nie budzą zaufania odbiorców. Każda taka aktualizacja algorytmu Google różni się od poprzednich, jest nieprzewidywalna i wymaga bieżącego śledzenia informacji od Google oraz monitorowania swoich stron.

    Skąd brać informacje o planowanych zmianach w algorytmie Google?

    Tu gigant z doliny krzemowej swoim zwyczajem pozostaje tajemniczy niczym Sfinks a rzesze pozycjonerów i opiekunów stron informuje lakonicznie o najistotniejszych rewolucjach przez swoje konto na Twitterze – https://twitter.com/googlesearchc

    7. Konkurencja w Google, która daje nam popalić

    Kiedy już zanalizujemy swoją stronę wzdłuż i wszerz, wyeliminujemy kluczowe błędy, a mimo to nadal będziemy odnotowywać brak znaczących wzrostów, a nawet dalsze spadki naszej strony, to czas sprawdzić działania konkurencji. To także czas na pytanie „Co konkurencja robi lepiej?”. Czy jest to więcej i lepiej zoptymalizowanych treści; czy jest to bardziej rozbudowana struktura strony; czy jest to konsekwentnie wzmacniana backlinkami siła domeny i korzystniejszy profil linków czy może są to  nowe kategorie produktowe? Mnóstwo pytań, na które odpowiedzi dadzą nam jasne wytyczne co do dalszych optymalizacji na naszej stronie internetowej.

    Skąd pozyskać dane dotyczące konkurencji w internecie?

    Tu konieczna jest głębsza analiza konkurencji pod kątem SEO z wykorzystaniem profesjonalnych narzędzi, takich jak Ahrefs, Senuto, Screaming Frog czy ręczne zbieranie danych z Internetu.

    Podsumowanie

    To tylko kilka najczęstszych powodów spadku pozycji w Google. Czujesz niedosyt? Przepracowałaś/eś wszystkie przypadki, masz pewność co do poprawności kodów śledzących, wiesz, że spadki nie mają charakteru sezonowego? To czas, by wejść na poziom wyżej, drążyć głębiej i znaleźć więcej powiązań, aby postawić diagnozę. To czas, by skorzystać ze wsparcia profesjonalistów.

    Subscribe
    Notify of
    0 komentarzy
    Oldest
    Newest Most Voted
    Inline Feedbacks
    View all comments
    Avatar photo
    Agnieszka Woźniak

    Spis treści