All In One WP Security bloqueó el robot de Google y bloqueó la indexación orgánica y la lista de verificación de depuración de robots que usé para recuperar clasificaciones

Publicado: 2025-11-25

Como muchos propietarios de sitios web, proteger mi sitio del tráfico malicioso era una prioridad absoluta. Quería protegerlo contra ataques de fuerza bruta, spammers y robots malos. Por esa razón, instalé el complementoAll In One WP Security & Firewallpara WordPress. Confié en él para proteger mi propiedad en línea. Sin embargo, al intentar proteger mi sitio web, accidentalmente desencadené una falla catastrófica de SEO, una falla que no detecté de inmediato. El robot de Google fue bloqueado silenciosamente, la indexación se detuvo en seco y mi tráfico orgánico se desplomó.

TLDR: si su clasificación y su tráfico orgánico desaparecen repentinamente y está utilizando "All In One WP Security", verifique inmediatamente si el robot de Google está siendo bloqueado. Los complementos de seguridad pueden identificar erróneamente bots buenos como maliciosos e impedir que Google rastree su contenido. Esto me sucedió a mí y fue necesaria una lista de verificación de depuración detallada centrada en robots.txt, encabezados HTTP, acceso de rastreo, almacenamiento en caché e información de Search Console para restaurar todo. Una vez corregidas, las clasificaciones comenzaron a regresar en dos semanas.

Qué salió mal: bloquear el robot de Google con un complemento de seguridad de WordPress

En el transcurso de unos días, mi tráfico orgánico pasó de ser saludable y creciente a casi inexistente. Google Search Console dejó de actualizar muchas estadísticas. Las páginas rastreadas cayeron misteriosamente. Mis publicaciones no aparecían en ninguna búsqueda, ni siquiera en consultas de marca.

Al principio sospeché que se trataba de una actualización del algoritmo de Google. Pero cuando ejecuté la herramienta de inspección de URL en Search Console, encontré esto:

“Página no indexada: bloqueada por acceso prohibido (403)”

Rápidamente me di cuenta de que el problema era técnico. Las URL no estaban marcadas como noindex, pero recibían errores 403 al robot de Google. Esto significaba que mi servidor, o más específicamente un complemento, rechazaba activamente los rastreos. Es hora de investigar.

Rastreando al culpable: configuración del firewall de All In One WP Security

Después de probar diferentes componentes, identifiqué que una función dentro del complemento All In One WP Security filtraba agresivamente los bots, incluido Googlebot . Esta restricción involuntaria probablemente provino de una de las siguientes configuraciones:

  • Configuración de lista negra/lista blanca : podría haber descartado rangos completos de IP utilizados por rastreadores de bots como Googlebot.
  • Detección y bloqueo 404 : los intentos repetidos de sondear mi sitio pueden haber dado lugar a bloqueos de bots.
  • Reglas .htaccess personalizadas : algunas reglas de firewall inyectadas directamente en .htaccess podrían bloquear agentes de usuario conocidos.

Cuando desactivé el complemento por completo, el robot de Google pudo acceder al sitio nuevamente al instante. Eso me dio la solución a corto plazo que necesitaba, pero no quería mantener mi sitio permanentemente desprotegido sólo para restaurar la indexación. Necesitaba un abordaje quirúrgico, así que desarrollé y seguí una lista de verificación de diagnóstico.

Lista de verificación de depuración de robots para recuperarse de un bloque de Googlebot

Este es el conjunto exacto de pasos que seguí para auditar y recuperarme de un bloqueo del robot de Google en todo el sitio, incluida cómo reparé mi presencia en las búsquedas:

1. Confirma el bloqueo

  • Utilice la herramienta de inspección de URL de Google Search Console para probar tanto la página de inicio como las publicaciones de blog individuales.
  • Compruebe si hay errores de rastreo como "Bloqueado por robots.txt", "403 Prohibido" o "Bloqueado debido a una solicitud no autorizada".
  • Utilice el probador robots.txt de Google para confirmar que no haya líneas no permitidas erróneas.

2. Verifique las reglas de .htaccess

  • Haga una copia de seguridad de su archivo .htaccess actual.
  • Busque bloques con patrones como Deny from o RewriteCond %{HTTP_USER_AGENT} que mencionen Googlebot.
  • Busque comentarios generados por complementos como # AIOWPS_RULE para identificar los cambios realizados por el complemento de seguridad.

3. Revise todas las configuraciones del complemento de seguridad

  • Vaya a All In One WP Security > Configuración del firewall y desactive temporalmente lo siguiente:
    • Reglas del cortafuegos 6G
    • Bloqueo de usuario-agente
    • Bloqueo de robots de Internet
  • Borre el caché del sitio y vuelva a habilitar otras configuraciones seguras de forma incremental después de probar el acceso de los bots.

4. Pruebe el uso de curl y Live Headers

Desde la línea de comando o las herramientas para desarrolladores de Chrome:

curl -A "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)" -I https://example.com/
  • Asegúrese de que su sitio devuelva un redireccionamiento 200 OK o 301 y noun error 403 o 500.
  • Verifique los encabezados HTTP para X-Robots-Tag ; no debería decir "noindex".

5. Valide y envíe las URL nuevamente

  • Una vez que esté nuevamente en orden, vaya a Search Console y solicite indexación de páginas clave y su página de inicio.
  • Verifique si los informes de cobertura comienzan a actualizarse dentro de 2 o 3 días; si lo hacen, estará nuevamente en el negocio.

¿Cuánto tiempo llevó la recuperación?

Después de eliminar las reglas del firewall que bloquean bots y confirmar una ruta de rastreo clara, vi mejoras iniciales en 72 horas. Se actualizó la caché de Google, la inspección mostró "Página indexada" nuevamente y las estadísticas de rastreo reanudaron la progresión en GSC.

Sin embargo, las clasificaciones tardaron más: entre 10 y 14 días en estabilizarse. Algunas palabras clave competitivas tardaron 3 semanas completas en recuperar sus posiciones anteriores. Utilicé herramientas como Ahrefs y SERanking para monitorear el lento retorno.

Configuración final revisada: seguridad y armonía SEO

Para evitar este incidente nuevamente, realicé los siguientes cambios permanentes:

  • Se reemplazaron reglas demasiado agresivas con un firewall bien examinado que incluye asignaciones de bots verificadas como Cloudflare.
  • Incluyó agentes de usuario conocidos en la lista blanca de los motores de búsqueda directamente en .htaccess usando expresiones regulares.
  • Se habilitó un complemento de registro de auditoría para realizar un seguimiento de los cambios en la configuración del complemento y los informes de estado HTTP para los bots.

Lecciones aprendidas: cuando la seguridad se vuelve contra el SEO

Esta experiencia fue una llamada de atención. Un complemento de seguridad destinado a defender mi sitio casi destruyó meses de esfuerzo de SEO. La naturaleza oculta del bloqueo hizo que fuera más difícil de identificar: no había notificaciones claras de complementos y Google estaba siendo rechazado silenciosamente.

Si es usuario de WordPress, pruebe siempre cualquier cambio en el firewall o anti-bot utilizando múltiples herramientas manuales. Intente utilizar las herramientas de renderizado de Google, los analizadores de encabezados HTTP y curl para cada actualización importante. Y recuerde: ser sobreprotector con el filtrado de robots puede hacer más daño que bien a menos que esté bien dirigido y medido.

Afortunadamente, los algoritmos de Google son relativamente indulgentes: una vez que se restablece el acceso, las clasificaciones pueden regresar con el tiempo. Pero mantenerse alerta tanto conla configuración de seguridadcomo conel diagnóstico de rastreoahora debe ser parte del flujo de trabajo mensual de cada propietario de un sitio.