All In One WP Security bloqueou o Googlebot e travou a indexação orgânica e a lista de verificação de depuração de robôs que usei para recuperar classificações

Publicados: 2025-11-25

Como muitos proprietários de sites, proteger meu site contra tráfego malicioso era uma prioridade. Eu queria protegê-lo contra ataques de força bruta, spammers e bots mal-intencionados. Por esse motivo, instalei o pluginAll In One WP Security & Firewallpara WordPress. Confiei nele para proteger minha propriedade online. No entanto, ao tentar proteger meu site, acionei acidentalmente uma falha catastrófica de SEO – que não detectei imediatamente. O Googlebot foi bloqueado silenciosamente, a indexação parou e meu tráfego orgânico despencou.

TLDR: Se suas classificações e tráfego orgânico desaparecerem repentinamente e você estiver usando “All In One WP Security”, verifique imediatamente se o Googlebot está sendo bloqueado. Os plug-ins de segurança podem identificar erroneamente bots bons como maliciosos e impedir que o Google rastreie seu conteúdo. Isso aconteceu comigo e foi necessária uma lista de verificação de depuração detalhada focada em robots.txt, cabeçalhos HTTP, acesso de rastreamento, cache e insights do Search Console para restaurar tudo. Depois de corrigidas, as classificações começaram a retornar em duas semanas.

O que deu errado: bloqueando o Googlebot com um plug-in de segurança do WordPress

Ao longo de alguns dias, meu tráfego orgânico passou de saudável e crescente para quase inexistente. O Google Search Console parou de atualizar muitas estatísticas. As páginas rastreadas caíram misteriosamente. Minhas postagens não apareciam nas pesquisas – nem mesmo para consultas de marca.

A princípio, suspeitei de uma atualização do algoritmo do Google. Mas quando executei a ferramenta de inspeção de URL no Search Console, me deparei com isto:

“Página não indexada: bloqueada por acesso proibido (403)”

Rapidamente percebi que o problema era técnico. Os URLs não foram marcados como noindex, mas estavam sendo veiculados com erros 403 ao Googlebot. Isso significava que meu servidor, ou mais especificamente um plugin, estava rejeitando rastreamentos ativamente. Hora de investigar.

Rastreando o culpado: configurações de firewall do All In One WP Security

Depois de testar diferentes componentes, identifiquei que um recurso dentro do plug-in All In One WP Security filtrava bots agressivamente, incluindo o Googlebot . Essa restrição não intencional provavelmente veio de uma das seguintes configurações:

  • Configurações de lista negra/lista branca – poderiam ter descartado intervalos inteiros de IP usados ​​por rastreadores de bot como o Googlebot.
  • 404 Detecção e bloqueio – Tentativas repetidas de investigar meu site podem ter resultado em bloqueios de bot.
  • Regras personalizadas de .htaccess – Algumas regras de firewall injetadas diretamente em .htaccess podem bloquear agentes de usuários conhecidos.

Quando desativei totalmente o plug-in, o Googlebot conseguiu acessar o site novamente instantaneamente. Isso me deu a solução de curto prazo que eu precisava, mas eu não queria manter meu site permanentemente desprotegido apenas para restaurar a indexação. Eu precisava de uma abordagem cirúrgica – então desenvolvi e segui uma lista de verificação diagnóstica.

Lista de verificação de depuração de robôs para recuperação de um bloqueio do Googlebot

Aqui está o conjunto exato de etapas que segui para auditar e recuperar de um bloqueio do Googlebot em todo o site, incluindo como reparei minha presença de pesquisa:

1. Confirme o bloqueio

  • Use a ferramenta de inspeção de URL do Google Search Console para testar a página inicial e as postagens individuais do blog.
  • Verifique se há erros de rastreamento como “Bloqueado por robots.txt”, “403 Proibido” ou “Bloqueado devido a solicitação não autorizada”.
  • Use o testador robots.txt do Google para confirmar se não há linhas de proibição incorretas.

2. Verifique as regras do .htaccess

  • Faça backup do seu arquivo .htaccess atual.
  • Pesquise blocos com padrões como Deny from ou RewriteCond %{HTTP_USER_AGENT} que mencionam o Googlebot.
  • Procure comentários gerados pelo plugin como # AIOWPS_RULE para identificar alterações feitas pelo plugin de segurança.

3. Revise todas as configurações do plug-in de segurança

  • Vá para All In One WP Security > Configurações de firewall e desative temporariamente o seguinte:
    • Regras de firewall 6G
    • Bloqueio de agente de usuário
    • Bloqueio de bots da Internet
  • Limpe o cache do site e reative outras configurações seguras gradativamente após testar o acesso do bot.

4. Teste usando curl e Live Headers

Na linha de comando ou nas Ferramentas do desenvolvedor do Chrome:

curl -A "Mozilla/5.0 (compatível; Googlebot/2.1; +http://www.google.com/bot.html)" -I https://example.com/
  • Certifique-se de que seu site retorne um redirecionamento 200 OK ou 301 e nãoum erro 403 ou 500.
  • Verifique os cabeçalhos HTTP para X-Robots-Tag - não deve dizer “noindex”.

5. Valide e envie URLs novamente

  • Quando estiver tudo em ordem, vá para o Search Console e solicite a indexação das páginas principais e de sua página inicial.
  • Verifique se os relatórios de cobertura começam a ser atualizados dentro de 2 a 3 dias – se isso acontecer, você estará de volta aos negócios.

Quanto tempo demorou a recuperação?

Depois de remover as regras de firewall de bloqueio de bots e confirmar um caminho de rastreamento claro, vi melhorias iniciais em 72 horas. O cache do Google foi atualizado, a inspeção mostrou “Página indexada” novamente e as estatísticas de rastreamento retomaram a progressão no GSC.

As classificações, no entanto, demoraram mais – cerca de 10 a 14 dias para se estabilizarem. Algumas palavras-chave competitivas levaram 3 semanas inteiras para recuperar suas posições anteriores. Usei ferramentas como Ahrefs e SERanking para monitorar o retorno lento.

Configuração final revisada: segurança e harmonia de SEO

Para evitar esse incidente novamente, fiz as seguintes alterações permanentes:

  • Regras excessivamente agressivas substituídas por um firewall bem controlado que inclui permissões de bots verificadas, como Cloudflare.
  • Agentes de usuários conhecidos incluídos na lista de permissões de mecanismos de pesquisa diretamente em .htaccess usando regex.
  • Habilitou um plug-in de log de auditoria para rastrear alterações nas configurações do plug-in e relatórios de status HTTP para bots.

Lições aprendidas: quando a segurança se volta contra o SEO

Esta experiência foi um alerta. Um plugin de segurança destinado a defender meu site quase destruiu meses de esforço de SEO. A natureza oculta do bloqueio tornou mais difícil a identificação – não houve notificações claras de plug-ins e o Google foi silenciosamente rejeitado.

Se você é um usuário do WordPress, sempre teste quaisquer alterações de firewall ou anti-bot usando várias ferramentas manuais. Tente usar as ferramentas de renderização do Google, analisadores de cabeçalho HTTP e curl para cada atualização importante. E lembre-se: ser superprotetor com a filtragem de bots pode fazer mais mal do que bem, a menos que seja bem direcionado e medido.

Felizmente, os algoritmos do Google são relativamente tolerantes – assim que o acesso for restaurado, as classificações podem retornar com o tempo. Mas ficar atento àsconfigurações de segurançaeaos diagnósticos de rastreamentoagora deve fazer parte do fluxo de trabalho mensal de cada proprietário de site.