Wszystko w jednym zabezpieczenia WP zablokowało Googlebota i zawiesiło indeksowanie organiczne oraz listę kontrolną debugowania robotów, której użyłem do odzyskania rankingów
Opublikowany: 2025-11-25Podobnie jak wielu właścicieli witryn internetowych, ochrona mojej witryny przed złośliwym ruchem była dla nas najwyższym priorytetem. Chciałem zabezpieczyć go przed atakami siłowymi, spamerami i złymi botami. Z tego powodu zainstalowałem wtyczkęAll In One WP Security & Firewalldla WordPress. Zaufałem mu, jeśli chodzi o ochronę mojej własności online. Jednak próbując zabezpieczyć moją witrynę, przypadkowo spowodowałem katastrofalną porażkę SEO – której nie wykryłem od razu. Googlebot został po cichu zablokowany, indeksowanie wstrzymane, a mój ruch organiczny gwałtownie spadł.
TLDR: Jeśli Twoje rankingi i ruch organiczny nagle znikną, a korzystasz z „All In One WP Security”, natychmiast sprawdź, czy Googlebot nie jest blokowany. Wtyczki zabezpieczające mogą błędnie rozpoznać dobre boty jako złośliwe i uniemożliwić Google indeksowanie Twoich treści. Zdarzyło mi się to i przywrócenie wszystkiego wymagało szczegółowej listy kontrolnej debugowania skupiającej się na pliku robots.txt, nagłówkach HTTP, dostępie do indeksowania, buforowaniu i statystykach Search Console. Po poprawieniu rankingi zaczęły wracać w ciągu dwóch tygodni.
Co poszło nie tak: blokowanie Googlebota za pomocą wtyczki zabezpieczającej WordPress
W ciągu kilku dni mój ruch organiczny spadł ze zdrowego i rosnącego do prawie żadnego. Google Search Console przestała aktualizować wiele statystyk. Przeszukiwane strony spadały w tajemniczy sposób. Moje posty w ogóle nie pojawiały się w wynikach wyszukiwania — nawet w przypadku zapytań związanych z marką.
Początkowo podejrzewałem aktualizację algorytmu Google. Ale kiedy uruchomiłem narzędzie do sprawdzania adresów URL w Search Console, uderzyło mnie to:
„Strona niezindeksowana: zablokowana z powodu zakazu dostępu (403)”
Szybko zdałem sobie sprawę, że problem ma charakter techniczny. Adresy URL nie były oznaczone jako noindex, ale Googlebotowi wyświetlał błąd 403. Oznaczało to, że mój serwer, a dokładniej wtyczka, aktywnie odrzucała indeksowanie. Czas zbadać.
Śledzenie sprawcy: ustawienia zapory sieciowej WP Security w jednym
Po przetestowaniu różnych komponentów stwierdziłem, że funkcja wtyczki All In One WP Security agresywnie filtruje boty, w tym Googlebota . To niezamierzone ograniczenie najprawdopodobniej wynika z jednego z następujących ustawień:
- Ustawienia czarnej/białej listy – mogły wykluczyć całe zakresy adresów IP używane przez roboty indeksujące, takie jak Googlebot.
- 404 Wykrywanie i blokowanie – wielokrotne próby sondowania mojej witryny mogły skutkować blokadą botów.
- Niestandardowe reguły .htaccess – niektóre reguły zapory sieciowej wprowadzone bezpośrednio do .htaccess mogą blokować znane programy klienckie.
Kiedy całkowicie wyłączyłem wtyczkę, Googlebot mógł natychmiast ponownie uzyskać dostęp do witryny. To dało mi krótkoterminowe rozwiązanie, którego potrzebowałem, ale nie chciałem, aby moja witryna była stale niezabezpieczona tylko po to, aby przywrócić indeksowanie. Potrzebowałem podejścia chirurgicznego, więc opracowałem diagnostyczną listę kontrolną i postępowałem zgodnie z nią.
Lista kontrolna debugowania robotów do odzyskania po zablokowaniu Googlebota
Oto dokładny zestaw kroków, które wykonałem w celu przeprowadzenia audytu i odzyskania działania po bloku Googlebota obejmującym całą witrynę, w tym sposób naprawy mojej obecności w wyszukiwarce:
1. Potwierdź blokadę
- Użyj narzędzia do sprawdzania adresów URL w Google Search Console , aby przetestować zarówno stronę główną, jak i poszczególne posty na blogu.
- Sprawdź błędy indeksowania, takie jak „Zablokowany przez plik robots.txt”, „403 Zabroniony” lub „Zablokowany z powodu nieautoryzowanego żądania”.
- Użyj testera pliku robots.txt firmy Google, aby sprawdzić, czy nie ma błędnych wierszy Zabroń.
2. Sprawdź reguły .htaccess
- Utwórz kopię zapasową bieżącego pliku .htaccess.
- Wyszukaj bloki ze wzorami takimi jak
Deny fromlubRewriteCond %{HTTP_USER_AGENT}, które wspominają o Googlebocie. - Poszukaj komentarzy generowanych przez wtyczkę, takich jak
# AIOWPS_RULE, aby zidentyfikować zmiany wprowadzone przez wtyczkę bezpieczeństwa.
3. Przejrzyj wszystkie ustawienia wtyczek zabezpieczających
- Przejdź do All In One WP Security > Ustawienia zapory i tymczasowo wyłącz następujące opcje:
- Zasady zapory sieciowej 6G
- Blokowanie agenta użytkownika
- Blokowanie botów internetowych
- Wyczyść pamięć podręczną witryny i stopniowo włączaj inne bezpieczne ustawienia po przetestowaniu dostępu bota.
4. Przetestuj przy użyciu nagłówków curl i Live
Z wiersza poleceń lub Narzędzi dla programistów Chrome:

curl -A "Mozilla/5.0 (kompatybilny; Googlebot/2.1; +http://www.google.com/bot.html)" -I https://example.com/
- Upewnij się, że witryna zwraca przekierowanie 200 OK lub 301 , a niebłąd 403 lub 500.
- Sprawdź nagłówki HTTP dla
X-Robots-Tag— nie powinno być w nim napisane „noindex”.
5. Sprawdź i ponownie prześlij adresy URL
- Po przywróceniu porządku przejdź do Search Console i poproś o indeksowanie kluczowych stron oraz strony głównej.
- Sprawdź, czy raporty zasięgu zaczną się aktualizować w ciągu 2–3 dni — jeśli tak się stanie, wznowisz działalność.

Jak długo trwało rekonwalescencja?
Po usunięciu reguł zapory sieciowej blokującej boty i potwierdzeniu jasnej ścieżki indeksowania, pierwszą poprawę zauważyłem w ciągu 72 godzin. Zaktualizowano pamięć podręczną Google, inspekcja ponownie wykazała „Strona zindeksowana”, a statystyki indeksowania w GSC wznowiły się.
Jednak stabilizacja rankingów trwała dłużej – około 10–14 dni . Powrót do poprzedniej pozycji niektórych konkurencyjnych słów kluczowych zajął całe 3 tygodnie. Do monitorowania powolnego zwrotu korzystałem z narzędzi takich jak Ahrefs i SEranking.
Ostateczna poprawiona konfiguracja: harmonia bezpieczeństwa i SEO
Aby uniknąć ponownego wystąpienia tego zdarzenia, wprowadziłem następujące trwałe zmiany:
- Zastąpiono zbyt agresywne reguły dobrze sprawdzoną zaporą sieciową, która obejmuje zweryfikowane uprawnienia botów, takie jak Cloudflare.
- Dodano do białej listy znane programy użytkownika z wyszukiwarek bezpośrednio w .htaccess za pomocą wyrażenia regularnego.
- Włączono wtyczkę dziennika audytu do śledzenia zmian ustawień wtyczki i raportów o stanie HTTP dla botów.

Wyciągnięte wnioski: kiedy bezpieczeństwo odwraca się od SEO
To doświadczenie było sygnałem alarmowym. Wtyczka bezpieczeństwa przeznaczona do ochrony mojej witryny prawie zniszczyła miesiące wysiłków SEO. Ukryty charakter blokady utrudniał identyfikację – nie było wyraźnych powiadomień dotyczących wtyczek, a Google po cichu było odrzucane.
Jeśli jesteś użytkownikiem WordPressa, zawsze testuj wszelkie zmiany w zaporze sieciowej lub zabezpieczeniach przed botami, korzystając z wielu ręcznych narzędzi. Spróbuj użyć narzędzi renderujących Google, analizatorów nagłówków HTTP i zwiń każdą większą aktualizację. I pamiętaj: nadmierna ochrona podczas filtrowania botów może wyrządzić więcej szkody niż pożytku, jeśli nie będzie dobrze ukierunkowana i zmierzona.
Na szczęście algorytmy Google są stosunkowo wyrozumiałe — po przywróceniu dostępu rankingi mogą z czasem powrócić. Jednak zachowanie czujności zarówno w zakresieustawień zabezpieczeń, jak idiagnostyki indeksowaniamusi teraz być częścią miesięcznego przepływu pracy każdego właściciela witryny.
