Hoy vengo con truquito de SEO Técnico para explicar como resolver un uno de esos problemas sutiles pero persistentes que podemos encontrar al usar ciertos plugins para WordPress. En este caso, estamos hablando del plugin Blackhole, una excelente herramienta para mantener a raya a esos molestos bots maliciosos.
El plugin Blackhole
Primero, permíteme contarte un poco sobre Blackhole. Esta maravillosa pieza de software añade un agujero negro virtual a tu sitio web para atrapar a los bots maliciosos. Suena bien, ¿verdad?
Aquí es cómo funciona: Blackhole añade un enlace oculto de cebo en tus páginas. Tú añades una línea a tu archivo robots.txt que prohíbe a los bots seguir este enlace oculto. Los bots que no respeten esta regla, seguirán el enlace y caerán en la trampa. Se les negará posteriormente el acceso a tu sitio. ¡Adiós, bots maliciosos!
La belleza de este sistema es que sólo afecta a los bots maliciosos. Los visitantes humanos nunca verán el enlace oculto y los bots buenos seguirán las reglas. Así que, en resumen, es una situación en la que todos ganan.
Pero hay un problema. Algunos usuarios han reportado un mensaje de error en Google Search Console: «Indexación de página alternativa con etiqueta canónica adecuada«. ¿Qué significa esto y cómo lo resolvemos?
El problema
En términos simples, Google está encontrando versiones alternativas de tu página (las URLs de «blackhole») y está confundido sobre cuál debería considerar como la «verdadera».
Aquí es donde entran en juego las etiquetas canónicas. Son una forma de decirle a Google, «Hey, sé que hay un montón de páginas similares aquí, pero esta es la que realmente cuenta». Por lo general, este problema se soluciona añadiendo una etiqueta canónica a la página alternativa que apunte a la página original.
Pero con Blackhole, no queremos que Google indexe estas páginas alternativas en absoluto. Entonces, ¿cómo lo resolvemos?
La solución
Primero, necesitamos decirle a Google que no indexe estas páginas. Lo hacemos añadiendo una entrada al archivo robots.txt
en el directorio raíz de nuestro sitio web. En nuestro caso, queremos excluir todas las URL que genera el plugin, por lo tanto, añadimos la siguiente información al archivo robots.txt:
User-agent: * Disallow: /*blackhole Disallow: /?blackhole
Ahora, cualquier bot de búsqueda respetuoso con las reglas evitará estas URLs. ¡Genial!
Pero a veces nuestra web se desconfigura (sobre todo luego de una migración) por lo que conviene hacer un pasito más para que google no empiece a mandarnos mensajes de «Página alternativa con etiqueta canónica adecuada«.
Para eso, necesitamos hacer algo más. Necesitamos usar las reglas de reescritura de URL en nuestro archivo .htaccess
(si estamos usando un servidor Apache) o en el archivo de configuración si estamos usando Nginx u otro servidor web.
Aquí hay un ejemplo de cómo hacerlo en Apache:
RewriteEngine On RewriteCond %{QUERY_STRING} ^blackhole= [NC] RewriteRule ^$ - [L,R=410]
Y otro de cómo sería en Ngnix:
location / { if ($arg_blackhole) { return 410; } }
Estas reglas establecen que cualquier URL que tenga «blackhole=» en su cadena de consulta debe devolver un código de estado HTTP 410. De esta manera, estamos diciendo a Google (y a cualquier otro bot que ignore nuestro archivo robots.txt) que esta página ha desaparecido para siempre.
Bien configurado el plugin Blackhole nos da una capa de protección
El plugin Blackhole es una herramienta poderosa y efectiva para proteger tu sitio web de bots maliciosos. Sin embargo, puede causar algunos problemas con Google Search Console si no se configura correctamente.
Asegúrate de añadir las entradas correctas a tus archivos robots.txt y .htaccess para evitar problemas de indexación y mantener tu SEO en la cima.
Recuerda, el SEO es un viaje, no un destino. Así que sigue aprendiendo, sigue probando y, sobre todo, sigue divirtiéndote. ¡Hasta la próxima!