Spam Update i chaos w danych GSC
Wrzesień 2025 roku był całkowicie niepowtarzalny 🙂 Podczas Spam Update Google zafundowało przy okazji chaos w GSC spowodowany wyłączeniem parametru &num=100, co spowodowało spadek wyświetleń przy jednoczesnym wzroście średniej pozycji.

Ten artykuł pomoże Ci oddzielić skutki aktualizacji algorytmu od artefaktów w danych i pokaże, jak dostosować swoją analitykę do nowej rzeczywistości, zapraszam 🙂
Spam Update i zniknięcie parametru &num=100
Aby w pełni zrozumieć sytuację, koniecznie trzeba rozbić ją na dwa elementy, które zbiegły się w czasie.
Spam Update [ aktualizacja ]
Zgodnie z oficjalnym komunikatem Google, spam update trwał od 26 sierpnia do 22 września. Ma to na celu zwalczanie niskiej jakości treści i ogólnie spamu. Skutki tej aktualizacji to realne zmiany widoczności w organicznych wynikach wyszukiwania. Jeśli Twoja strona odnotowała znaczący spadek lub wzrost kliknięć i konwersji, jest duża szansa, że jest to efekt właśnie tego algorytmu.
Google wyłączyło parametr &num=100
Mniej więcej w połowie wdrażania Spam Update, około 11-12 września, Google po cichu wycofało wsparcie dla parametru URL &num=100. Przez lata pozwalał narzędziom SEO, botom i crawlerom na łatwe pobieranie 100 wyników wyszukiwania na jednej stronie.
Dlaczego to tak ważne? Usunięcie tego parametru ma dwie główne konsekwencje:
- Mniej wiarygodne dane z narzędzi zewnętrznych – wiele popularnych rank trackerów opierało swoje działanie na tym parametrze. Obecnie narzędzia muszą dostosować swoje metody zbierania danych, co może prowadzić do tymczasowych niedokładności i fluktuacji w raportach.
- „Czystka” w danych GSC – boty, cralwery i wszelkiego rodzaju narzędzia do scrapingu często generowały dużą liczbę wyświetleń na bardzo dalekich pozycjach (np. 80-100). Po wyłączeniu parametru
&num=100ten „szum informacyjny” zniknął. Google przestało zliczać mało wartościowe „wyświetlenia”, które realnie nie miały żadnego racjonalnego wpływu i wytłumaczenia.
To właśnie ten drugi punkt jest najczęstszą przyczyną chaosu na wykresach w Google Search Console.
Chaos w Google Search Console
Jeśli dane w GSC wyglądają dziwnie lub niepokojąco, to proponuję zrobić szybką diagnostykę, która powinna uspokoić większość osób.
Spadek wyświetleń i nienaturalny wzrost średniej pozycji?
Typowy scenariusz, który obserwuje wielu specjalistów SEO to:
- Drastyczny spadek łącznej liczby wyświetleń. W szczególności problem dotyczy urządzeń desktopowych. Na mobile powinno być stabilnie, a nawet na lekki plus
- Liczba kliknięć i użytkowników pozostaje na stabilnym poziomie
- Średnia pozycja paradoksalnie się poprawia
Taki obraz jest pewnym sygnałem, że problem leży w sposobie zliczania danych przez Google po usunięciu „śmieciowych” wyświetleń z głębokiego SERP, czyli tych powyżej 20, ponieważ tam zaglądają głównie crawlery, trackery, scrapery, boty i różnego rodzaju zautomatyzowane narzędzia szukające podatności na stronach.
Dlaczego więc średnia pozycja rośnie?
- Przed zmianą strona rankowała na dwie frazy:
- Fraza A: pozycja 1 (najważniejszy keyword)
- Fraza B: pozycja 9 (stabilne TOP10)
- Fraza C: pozycja 92 (wyświetlona sztucznie przez crawlera)
- Wzór: (Fraza A + Fraza B + Fraza C) / 2 = średnia pozycja
- Średnia pozycja: (1 + 9 + 92) / 3 = 34
Po usunięciu &num=100, Google wyświetlenia z odległych pozycji nie pokazuje. Nawet jeśli strona tam nadal jest, to nikt jej nie wyświetla, bo ludzie rzadko wychodzą poza pierwszą stronę, a wszelkiego rodzaju zautomatyzowane narzędzia muszą wykonać 10x więcej pracy i wykorzystać 10x więcej proxy by tam dotrzeć.
Obecnie gdy &num=100 zostało wyłączone, to:
- W puli danych, z której liczona jest średnia, wypadają wszystkie „dalekie” pozycje i w tym przykładzie fraza C nie jest brana pod uwagę.
- Nowa średnia pozycja w GSC: (1 + 9) / 2 = 5
- Fraza A: pozycja 1
- Fraza B: pozycja 9
Średnia pozycja właśnie „skoczyła” z 34 na 5, mimo że w rzeczywistości kompletnie nic się nie poprawiło.
Dlaczego problem dotyczy głównie desktop?
To właśnie na komputerach scrapery i narzędzia do monitoringu najczęściej symulowały odpytania o 100 wyników. Ruch mobilny jest znacznie mniej podatny sztuczne wyświetlenia. Dlatego też wykresy w GSC nie pokazują drastycznych spadków, a raczej jest stabilnie lub na plus 😉
Sprawdź czy twoja strona jest „zdrowa”
Nie panikuj, po prosty wykonaj prosty test:
- Analiza GSC z podziałem na urządzenia/kraje: Sprawdź wykresy kliknięć i CTR z podziałem na mobile / desktop. Jeśli te metryki są stabilne, to znaczy, że strona jest zdrowa i zmiany kompletnie cie nie dotknęły – zmienił się tylko pomiar
- Porównanie zapytań brandowych i niebrandowych – odfiltruj zapytania brandowe. Jeśli ich widoczność i klikalność są na stałym poziomie, to nie ma problemu z zaufaniem ze strony Google
- Manualne sprawdzenie kluczowych fraz w SERP – wybierz kilka najważniejszych, money keywords i sprawdź je manualnie w trybie incognito. Jeśli strona wciąż pojawia się na oczekiwanych pozycjach, wszystko jest w porządku
- Analiza widoczności w TOP3 i TOP10 – zamiast fiksować się na średniej pozycji, skup się na liczbie fraz kluczowych, które generują ruch z pierwszych trzech lub dziesięciu wyników. Ta metryka jest znacznie bardziej odporna na ostatnie zmiany
Jak adaptować strategię i raportowanie?
Kluczem do przetrwania tej burzy jest świadoma adaptacja. Twoje podejście do analizy i komunikacji musi ewoluować. Moje propozycje są następujące:
Komunikacja z klientem i zespołem
- Zaznacz w swoich raportach (np. w Looker Studio, Google Analytics) datę 11-14 września jako moment zmiany sposobu zliczania danych
- Nie porównuj danych z października z danymi z sierpnia. Porównuj okresy po zmianie, aby uzyskać wiarygodny obraz trendów
- Wyjaśnij sytuację – poinformuj zespół i klientów, że obserwowane anomalie w wyświetleniach są problemem pomiarowym w skali całej branży, a nie spadkiem wydajności ich witryny
Skup się na metrykach, które naprawdę mają znaczenie
W obecnej sytuacji metryka „wyświetleń” stała się mniej wiarygodna niż kiedykolwiek. Skoncentruj się na wskaźnikach, które bezpośrednio przekładają się na biznes:
- Kliknięcia i CTR
- Konwersje i przychód
- Widoczność w TOP3 i TOP10 dla najważniejszej grup zapytań
Wykorzystaj RegEx w GSC
Skoro dane z narzędzi zewnętrznych są tymczasowo mniej wiarygodne, Twoje własne dane w Google Search Console stają się na wagę złota. Wyrażenia regularne (RegEx) to potężne narzędzie, które pozwoli Ci segmentować zapytania i odkrywać trendy, których nie widzą inni.
Dlaczego segmentacja zapytań jest teraz ważniejsza niż kiedykolwiek?
Analiza długości zapytań pozwala zrozumieć intencje użytkowników:
- Krótkie zapytania (1-3 słowa) – często intencja nawigacyjna lub ogólny research, tzw. short-tail keywords
- Średnie zapytania (5-8 słów) – silniejszy sygnał konkretnej potrzeby lub problemu, tzw. medium-tail keywords
- Bardzo długie zapytania (10+ słów) – zapytania typu „long-tail”, często zadawane w formie pytań
Zrozumienie, jaki typ zapytań generuje najwięcej wartościowego ruchu, jest ważny dla optymalizacji strategii contentowej.
Gotowe filtry RegEx do analizy długości zapytań w GSC
W GSC przejdź do raportu Skuteczność -> (czasem Wyniki wyszukiwania) -> Dodaj filtr -> Zapytanie i wybierz „Niestandardowe (wyrażenie regularne). Następnie wklej jeden z poniższych gotowych regexów:
- Zapytania jednowyrazowe:
^[^" ]*$ - Zapytania 2-4 wyrazowe:
^([^" ]*\s){1,3}[^" ]*$ - Zapytania 5-8 wyrazowe:
^([^" ]*\s){4,7}[^" ]*$ - Zapytania 9-12 wyrazowe:
^([^" ]*\s){8,11}[^" ]*$ - Zapytania 13-20 wyrazowe:
^([^" ]*\s){12,19}[^" ]*$ - Zapytania 20+ wyrazowe:
^([^" ]*\s){19,}[^" ]*$
Połącz te filtry z danymi o kliknięciach i CTR, aby zidentyfikować ukryte możliwości i lepiej dopasować treści do potrzeb użytkowników 🙂
Wnioski dla specjalistów SEO
- Nie panikuj – nagły spadek wyświetleń w GSC to najprawdopodobniej efekt usunięcia parametru
&num=100, a nie skutek Spam Update - Weryfikuj dane – zanim podejmiesz działania, przeprowadź szybki audyt, koncentrując się na kliknięciach, CTR i stabilności fraz brandowych
- Adaptuj raportowanie – zapisz zmiany, porównuj odpowiednie okresy i skup się na metrykach biznesowych (kliknięcia, konwersje), a nie na niestabilnych wskaźnikach (wyświetlenia)
- Zaufaj własnym danym – wykorzystaj potencjał GSC i RegEx do głębszej analizy intencji użytkowników. W dobie mniejszej wiarygodności danych zewnętrznych, Twoje dane
first-partysą Twoją największą przewagą - Dywersyfikacja danych – praktycznie od zawsze na równi z GSC korzystam również z Bing Webmaster Tools
Branża SEO po raz kolejny udowadnia, że jedyną stałą jest zmiana. Ci, którzy potrafią zrozumieć jej przyczyny i szybko się dostosować, wyjdą z tej sytuacji silniejsi.
