All In One WP Security заблокировал робота Google, сбил органическое индексирование и контрольный список отладки роботов, который я использовал для восстановления рейтингов
Опубликовано: 2025-11-25Как и для многих владельцев веб-сайтов, защита моего сайта от вредоносного трафика была главным приоритетом. Я хотел защитить его от атак методом грубой силы, спамеров и плохих ботов. По этой причине я установил плагинAll In One WP Security & Firewallдля WordPress. Я доверял ему защиту моей собственности в Интернете. Однако, пытаясь защитить свой веб-сайт, я случайно спровоцировал катастрофический сбой в SEO, который я не сразу обнаружил. Робот Google был молча заблокирован, индексирование прекратилось, а мой органический трафик резко упал.
TLDR: Если ваш рейтинг и органический трафик внезапно исчезнут, и вы используете «All In One WP Security», немедленно проверьте, не заблокирован ли Googlebot. Плагины безопасности могут ошибочно идентифицировать хороших ботов как вредоносных и помешать Google сканировать ваш контент. Это случилось со мной, и для восстановления всего потребовался подробный контрольный список отладки, ориентированный на robots.txt, заголовки HTTP, доступ для сканирования, кеширование и информацию из консоли поиска. После исправления рейтинги начали возвращаться в течение двух недель.
Что пошло не так: блокировка Googlebot с помощью плагина безопасности WordPress
В течение нескольких дней мой органический трафик из здорового и растущего превратился в практически нулевой. Консоль поиска Google перестала обновлять многие статистические данные. Просканированные страницы загадочным образом падали. Мои посты вообще не появлялись в поиске — даже по брендовым запросам.
Сначала я подозревал обновление алгоритма Google. Но когда я запустил инструмент проверки URL-адресов в Search Console, меня поразило следующее:
«Страница не проиндексирована: заблокирована из-за запрещения доступа (403)»
Я быстро понял, что проблема техническая. URL-адреса не были помечены как noindex, но роботу Googlebot выдавались ошибки 403. Это означало, что мой сервер или, точнее, плагин активно отклонял сканирование. Время расследовать.
В поисках виновника: настройки брандмауэра All In One WP Security
После тестирования различных компонентов я обнаружил, что функция плагина All In One WP Security агрессивно фильтрует ботов, включая Googlebot . Это непреднамеренное ограничение, скорее всего, возникло из-за одной из следующих настроек:
- Настройки черного/белого списка . Можно было исключить целые диапазоны IP-адресов, используемые роботами-сканерами, такими как Googlebot.
- Обнаружение ошибки 404 и блокировка . Неоднократные попытки проверить мой сайт могли привести к блокировке ботов.
- Пользовательские правила .htaccess . Некоторые правила брандмауэра, непосредственно внедренные в .htaccess, могут блокировать известные пользовательские агенты.
Когда я полностью отключил плагин, робот Googlebot смог мгновенно снова получить доступ к сайту. Это дало мне необходимое краткосрочное решение, но я не хотел постоянно оставлять свой сайт незащищенным только ради восстановления индексации. Мне нужен был хирургический подход, поэтому я разработал диагностический контрольный список и следовал ему.
Контрольный список отладки роботов для восстановления после блокировки Googlebot
Вот точный набор шагов, которые я выполнил для проверки и восстановления после блокировки Googlebot на уровне всего сайта, включая то, как я исправил свое присутствие в поиске:
1. Подтвердите блокировку
- Используйте инструмент проверки URL-адресов Google Search Console , чтобы проверить как домашнюю страницу, так и отдельные сообщения в блоге.
- Проверьте наличие ошибок сканирования, таких как «Заблокировано robots.txt», «403 запрещено» или «Заблокировано из-за неавторизованного запроса».
- Используйте тестер robots.txt Google, чтобы убедиться в отсутствии ошибочных строк Disallow.
2. Проверьте правила .htaccess.
- Сделайте резервную копию текущего файла .htaccess.
- Найдите блоки с такими шаблонами, как
Deny fromилиRewriteCond %{HTTP_USER_AGENT}в которых упоминается робот Googlebot. - Ищите комментарии, созданные плагином, например
# AIOWPS_RULE, чтобы определить изменения, внесенные плагином безопасности.
3. Проверьте все настройки плагина безопасности.
- Перейдите в All In One WP Security > Настройки брандмауэра и временно отключите следующее:
- Правила брандмауэра 6G
- Блокировка User-Agent
- Блокировка интернет-ботов
- Очистите кеш сайта и постепенно включите другие безопасные настройки после проверки доступа ботов.
4. Тестирование с использованием заголовков Curl и Live Headers
Из командной строки или инструментов разработчика Chrome:

завиток -A "Mozilla/5.0 (совместимый; Googlebot/2.1; +http://www.google.com/bot.html)" -I https://example.com/
- Убедитесь, что ваш сайт возвращает 200 OK или 301 Redirect , а неошибку 403 или 500.
- Проверьте заголовки HTTP на наличие
X-Robots-Tag— там не должно быть написано «noindex».
5. Подтвердите и снова отправьте URL-адреса.
- Вернувшись в порядок, перейдите в консоль поиска и запросите индексирование ключевых страниц и вашей домашней страницы.
- Проверьте, начнут ли обновляться отчеты о покрытии в течение 2–3 дней. Если это произойдет, вы снова в работе.

Сколько времени заняло восстановление?
После удаления правил брандмауэра, блокирующих ботов, и подтверждения свободного пути сканирования я увидел первые улучшения в течение 72 часов. Кэш Google обновился, проверка снова показала «Страница проиндексирована», и статистика сканирования в GSC возобновила прогресс.
Однако для стабилизации рейтингов потребовалось больше времени — около 10–14 дней . Некоторым конкурентоспособным ключевым словам потребовалось целых 3 недели, чтобы восстановить свои прежние позиции. Я использовал такие инструменты, как Ahrefs и SERanking, чтобы отслеживать медленный возврат.
Окончательная пересмотренная настройка: гармония безопасности и SEO
Чтобы избежать повторения этого инцидента, я внес следующие постоянные изменения:
- Чрезмерно агрессивные правила заменены хорошо проверенным брандмауэром, который включает проверенные разрешения для ботов, такие как Cloudflare.
- Внесите в белый список известных пользовательских агентов поисковых систем непосредственно в .htaccess, используя регулярное выражение.
- Включен плагин журнала аудита для отслеживания изменений настроек плагина и отчетов о состоянии HTTP для ботов.

Извлеченные уроки: когда безопасность оборачивается против SEO
Этот опыт стал тревожным звонком. Плагин безопасности, предназначенный для защиты моего сайта, почти свел на нет многомесячные усилия по SEO. Скрытый характер блокировки затруднял идентификацию — не было четких уведомлений о плагинах, а Google молча отворачивали.
Если вы пользователь WordPress, всегда проверяйте любые изменения брандмауэра или защиты от ботов, используя несколько ручных инструментов. Попробуйте использовать инструменты рендеринга Google, анализаторы HTTP-заголовков и Curl для каждого крупного обновления. И помните: чрезмерная защита с помощью фильтрации ботов может принести больше вреда, чем пользы, если она не будет четко нацелена и измерена.
К счастью, алгоритмы Google относительно снисходительны: как только доступ будет восстановлен, рейтинг может со временем вернуться. Но бдительность в отношениинастроек безопасностиидиагностики сканированиятеперь должна стать частью ежемесячного рабочего процесса каждого владельца сайта.
