Spam Update i chaos w danych GSC

Wrzesień 2025 roku był całkowicie niepowtarzalny 🙂 Podczas Spam Update Google zafundowało przy okazji chaos w GSC spowodowany wyłączeniem parametru &num=100, co spowodowało spadek wyświetleń przy jednoczesnym wzroście średniej pozycji.

wykresy gsc po usunieciu num100

Ten artykuł pomoże Ci oddzielić skutki aktualizacji algorytmu od artefaktów w danych i pokaże, jak dostosować swoją analitykę do nowej rzeczywistości, zapraszam 🙂

Spam Update i zniknięcie parametru &num=100

Aby w pełni zrozumieć sytuację, koniecznie trzeba rozbić ją na dwa elementy, które zbiegły się w czasie.

Spam Update [ aktualizacja ]

Zgodnie z oficjalnym komunikatem Google, spam update trwał od 26 sierpnia do 22 września. Ma to na celu zwalczanie niskiej jakości treści i ogólnie spamu. Skutki tej aktualizacji to realne zmiany widoczności w organicznych wynikach wyszukiwania. Jeśli Twoja strona odnotowała znaczący spadek lub wzrost kliknięć i konwersji, jest duża szansa, że jest to efekt właśnie tego algorytmu.

Google wyłączyło parametr &num=100

Mniej więcej w połowie wdrażania Spam Update, około 11-12 września, Google po cichu wycofało wsparcie dla parametru URL &num=100. Przez lata pozwalał narzędziom SEO, botom i crawlerom na łatwe pobieranie 100 wyników wyszukiwania na jednej stronie.

Dlaczego to tak ważne? Usunięcie tego parametru ma dwie główne konsekwencje:

  1. Mniej wiarygodne dane z narzędzi zewnętrznych – wiele popularnych rank trackerów opierało swoje działanie na tym parametrze. Obecnie narzędzia muszą dostosować swoje metody zbierania danych, co może prowadzić do tymczasowych niedokładności i fluktuacji w raportach.
  2. „Czystka” w danych GSC – boty, cralwery i wszelkiego rodzaju narzędzia do scrapingu często generowały dużą liczbę wyświetleń na bardzo dalekich pozycjach (np. 80-100). Po wyłączeniu parametru &num=100 ten „szum informacyjny” zniknął. Google przestało zliczać mało wartościowe „wyświetlenia”, które realnie nie miały żadnego racjonalnego wpływu i wytłumaczenia.

To właśnie ten drugi punkt jest najczęstszą przyczyną chaosu na wykresach w Google Search Console.

Chaos w Google Search Console

Jeśli dane w GSC wyglądają dziwnie lub niepokojąco, to proponuję zrobić szybką diagnostykę, która powinna uspokoić większość osób.

Spadek wyświetleń i nienaturalny wzrost średniej pozycji?

Typowy scenariusz, który obserwuje wielu specjalistów SEO to:

  • Drastyczny spadek łącznej liczby wyświetleń. W szczególności problem dotyczy urządzeń desktopowych. Na mobile powinno być stabilnie, a nawet na lekki plus
  • Liczba kliknięć i użytkowników pozostaje na stabilnym poziomie
  • Średnia pozycja paradoksalnie się poprawia

Taki obraz jest pewnym sygnałem, że problem leży w sposobie zliczania danych przez Google po usunięciu „śmieciowych” wyświetleń z głębokiego SERP, czyli tych powyżej 20, ponieważ tam zaglądają głównie crawlery, trackery, scrapery, boty i różnego rodzaju zautomatyzowane narzędzia szukające podatności na stronach.

Dlaczego więc średnia pozycja rośnie?

  • Przed zmianą strona rankowała na dwie frazy:
    • Fraza A: pozycja 1 (najważniejszy keyword)
    • Fraza B: pozycja 9 (stabilne TOP10)
    • Fraza C: pozycja 92 (wyświetlona sztucznie przez crawlera)
  • Wzór: (Fraza A + Fraza B + Fraza C) / 2 = średnia pozycja
  • Średnia pozycja: (1 + 9 + 92) / 3 = 34

Po usunięciu &num=100, Google wyświetlenia z odległych pozycji nie pokazuje. Nawet jeśli strona tam nadal jest, to nikt jej nie wyświetla, bo ludzie rzadko wychodzą poza pierwszą stronę, a wszelkiego rodzaju zautomatyzowane narzędzia muszą wykonać 10x więcej pracy i wykorzystać 10x więcej proxy by tam dotrzeć.

Obecnie gdy &num=100 zostało wyłączone, to:

  • W puli danych, z której liczona jest średnia, wypadają wszystkie „dalekie” pozycje i w tym przykładzie fraza C nie jest brana pod uwagę.
  • Nowa średnia pozycja w GSC: (1 + 9) / 2 = 5
    • Fraza A: pozycja 1
    • Fraza B: pozycja 9

Średnia pozycja właśnie „skoczyła” z 34 na 5, mimo że w rzeczywistości kompletnie nic się nie poprawiło.

Dlaczego problem dotyczy głównie desktop?

To właśnie na komputerach scrapery i narzędzia do monitoringu najczęściej symulowały odpytania o 100 wyników. Ruch mobilny jest znacznie mniej podatny sztuczne wyświetlenia. Dlatego też wykresy w GSC nie pokazują drastycznych spadków, a raczej jest stabilnie lub na plus 😉

Sprawdź czy twoja strona jest „zdrowa”

Nie panikuj, po prosty wykonaj prosty test:

  1. Analiza GSC z podziałem na urządzenia/kraje: Sprawdź wykresy kliknięć i CTR z podziałem na mobile / desktop. Jeśli te metryki są stabilne, to znaczy, że strona jest zdrowa i zmiany kompletnie cie nie dotknęły – zmienił się tylko pomiar
  2. Porównanie zapytań brandowych i niebrandowych – odfiltruj zapytania brandowe. Jeśli ich widoczność i klikalność są na stałym poziomie, to nie ma problemu z zaufaniem ze strony Google
  3. Manualne sprawdzenie kluczowych fraz w SERP – wybierz kilka najważniejszych, money keywords i sprawdź je manualnie w trybie incognito. Jeśli strona wciąż pojawia się na oczekiwanych pozycjach, wszystko jest w porządku
  4. Analiza widoczności w TOP3 i TOP10 – zamiast fiksować się na średniej pozycji, skup się na liczbie fraz kluczowych, które generują ruch z pierwszych trzech lub dziesięciu wyników. Ta metryka jest znacznie bardziej odporna na ostatnie zmiany

Jak adaptować strategię i raportowanie?

Kluczem do przetrwania tej burzy jest świadoma adaptacja. Twoje podejście do analizy i komunikacji musi ewoluować. Moje propozycje są następujące:

Komunikacja z klientem i zespołem

  1. Zaznacz w swoich raportach (np. w Looker Studio, Google Analytics) datę 11-14 września jako moment zmiany sposobu zliczania danych
  2. Nie porównuj danych z października z danymi z sierpnia. Porównuj okresy po zmianie, aby uzyskać wiarygodny obraz trendów
  3. Wyjaśnij sytuację – poinformuj zespół i klientów, że obserwowane anomalie w wyświetleniach są problemem pomiarowym w skali całej branży, a nie spadkiem wydajności ich witryny

Skup się na metrykach, które naprawdę mają znaczenie

W obecnej sytuacji metryka „wyświetleń” stała się mniej wiarygodna niż kiedykolwiek. Skoncentruj się na wskaźnikach, które bezpośrednio przekładają się na biznes:

  • Kliknięcia i CTR
  • Konwersje i przychód
  • Widoczność w TOP3 i TOP10 dla najważniejszej grup zapytań

Wykorzystaj RegEx w GSC

Skoro dane z narzędzi zewnętrznych są tymczasowo mniej wiarygodne, Twoje własne dane w Google Search Console stają się na wagę złota. Wyrażenia regularne (RegEx) to potężne narzędzie, które pozwoli Ci segmentować zapytania i odkrywać trendy, których nie widzą inni.

Dlaczego segmentacja zapytań jest teraz ważniejsza niż kiedykolwiek?

Analiza długości zapytań pozwala zrozumieć intencje użytkowników:

  • Krótkie zapytania (1-3 słowa) – często intencja nawigacyjna lub ogólny research, tzw. short-tail keywords
  • Średnie zapytania (5-8 słów) – silniejszy sygnał konkretnej potrzeby lub problemu, tzw. medium-tail keywords
  • Bardzo długie zapytania (10+ słów) – zapytania typu „long-tail”, często zadawane w formie pytań

Zrozumienie, jaki typ zapytań generuje najwięcej wartościowego ruchu, jest ważny dla optymalizacji strategii contentowej.

Gotowe filtry RegEx do analizy długości zapytań w GSC

W GSC przejdź do raportu Skuteczność -> (czasem Wyniki wyszukiwania) -> Dodaj filtr -> Zapytanie i wybierz „Niestandardowe (wyrażenie regularne). Następnie wklej jeden z poniższych gotowych regexów:

  • Zapytania jednowyrazowe: ^[^" ]*$
  • Zapytania 2-4 wyrazowe: ^([^" ]*\s){1,3}[^" ]*$
  • Zapytania 5-8 wyrazowe: ^([^" ]*\s){4,7}[^" ]*$
  • Zapytania 9-12 wyrazowe: ^([^" ]*\s){8,11}[^" ]*$
  • Zapytania 13-20 wyrazowe: ^([^" ]*\s){12,19}[^" ]*$
  • Zapytania 20+ wyrazowe: ^([^" ]*\s){19,}[^" ]*$

Połącz te filtry z danymi o kliknięciach i CTR, aby zidentyfikować ukryte możliwości i lepiej dopasować treści do potrzeb użytkowników 🙂

Wnioski dla specjalistów SEO

  1. Nie panikuj – nagły spadek wyświetleń w GSC to najprawdopodobniej efekt usunięcia parametru &num=100, a nie skutek Spam Update
  2. Weryfikuj dane – zanim podejmiesz działania, przeprowadź szybki audyt, koncentrując się na kliknięciach, CTR i stabilności fraz brandowych
  3. Adaptuj raportowanie – zapisz zmiany, porównuj odpowiednie okresy i skup się na metrykach biznesowych (kliknięcia, konwersje), a nie na niestabilnych wskaźnikach (wyświetlenia)
  4. Zaufaj własnym danym – wykorzystaj potencjał GSC i RegEx do głębszej analizy intencji użytkowników. W dobie mniejszej wiarygodności danych zewnętrznych, Twoje dane first-party są Twoją największą przewagą
  5. Dywersyfikacja danych – praktycznie od zawsze na równi z GSC korzystam również z Bing Webmaster Tools

Branża SEO po raz kolejny udowadnia, że jedyną stałą jest zmiana. Ci, którzy potrafią zrozumieć jej przyczyny i szybko się dostosować, wyjdą z tej sytuacji silniejsi.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *