La batalla por el contenido en la era de la Inteligencia Artificial ya no se juega solo en el SEO clásico. Cada vez más editores —desde medios hasta tiendas online y blogs técnicos— se preguntan qué ocurre cuando un rastreador de IA entra, lee, resume y reutiliza información sin pasar por el embudo habitual de visitas, anuncios o suscripciones. En ese contexto, el repositorio oficial de WordPress suma una propuesta pensada para dar más control: AI Content Signals, un plugin que permite aplicar de forma sencilla una política de “señales de contenido” en el archivo robots.txt.
La idea es tan simple como ambiciosa: expresar de manera clara qué permisos se conceden a los rastreadores, no solo para indexación tradicional, sino también para usos propios de modelos de lenguaje y sistemas de respuestas con IA. El plugin se apoya en Content Signals, una extensión del estándar robots.txt creada por Cloudflare, que introduce una capa declarativa con tres tipos de permisos.
Hasta ahora, robots.txt se asociaba principalmente a permitir o denegar rastreo e indexación. Content Signals amplía ese vocabulario con tres “interruptores”:
En la práctica, esto permite separar decisiones que antes quedaban mezcladas: un sitio podría querer aparecer en buscadores, pero no desea que su contenido alimente entrenamientos; o podría aceptar el uso en respuestas en tiempo real bajo ciertas condiciones, sin abrir la puerta a un uso masivo para datasets.
AI Content Signals pone el foco en la operativa diaria: añade una página de ajustes dentro del panel de administración para configurar señales sin tocar archivos a mano. El plugin permite:
Este último detalle tiene valor práctico: la mayoría de problemas con robots.txt no vienen de la teoría, sino de cambios manuales que rompen directrices previas o borran referencias al mapa del sitio.
Un punto sensible en WordPress es la coexistencia con herramientas como Yoast, Rank Math u otros sistemas que generan robots.txt “virtual”. Según la descripción del plugin, AI Content Signals utiliza el filtro robots_txt de WordPress para añadir las señales, lo que permitiría integrarse con robots.txt generados por plugins SEO sin conflictos, al anexar las directrices en el flujo estándar.
Además, el plugin detecta si existe un robots.txt físico y, si lo encuentra, añade las señales al final. En ese caso, se recomienda que el archivo tenga permisos de escritura, con el ajuste habitual de 644.
No todos los sitios tienen un robots.txt físico; muchos dependen del virtual. AI Content Signals incorpora una opción para crear un robots.txt físico básico cuando no existe. Ese archivo base incluiría reglas estándar de WordPress y algunas rutas típicas a restringir:
En términos de mantenimiento, esto simplifica el punto de partida para proyectos que nunca han “formalizado” su robots.txt y ahora necesitan gobernar el uso de su contenido por parte de agentes y rastreadores de IA.
El propio plugin incluye un recordatorio clave: Content Signals es un estándar declarativo. En otras palabras, expresa preferencias, pero no obliga técnicamente a cumplirlas. Y tampoco implica, por sí solo, que exista una obligación legal automática de respeto por parte de empresas de IA.
Esa honestidad es relevante: para un administrador, el riesgo de “falsa seguridad” es real. Por eso el plugin recomienda combinar estas señales con otras medidas, como reglas tradicionales de robots.txt y gestión de bots a nivel de servidor (WAF, rate limiting, bloqueo por comportamiento, etc.), si el objetivo es frenar accesos no deseados.
En las preguntas frecuentes del plugin se desliza además que no todas las empresas se han comprometido a respetar estas señales, aunque se menciona que actores relevantes han mostrado interés en hacerlo. En cualquier caso, la utilidad inmediata de AI Content Signals está en normalizar la intención del editor y dejarla escrita de manera más granular.
AI Content Signals se presenta como software de código abierto. En su historial, la versión 1.0.0 incluye la base de ajustes globales, configuración por bot para 17 rastreadores de IA predefinidos, compatibilidad con bots personalizados, gestión de robots.txt físico y virtual, creación opcional del robots.txt físico y la vista previa del archivo. La versión 1.0.1 indica compatibilidad probada hasta WordPress 6.9.
En la propia página del plugin aparecen reseñas escuetas, pero significativas: usuarios señalan que “para lo que necesitaban funciona” y que ayuda a definir cómo quieren que la IA use el contenido de sus páginas. No es un veredicto definitivo, pero sí una pista sobre el tipo de demanda: más que “cazar bots”, muchos administradores buscan un lenguaje claro para expresar permisos.
¿Cómo configurar robots.txt en WordPress para permitir SEO pero limitar el entrenamiento de IA?
Con Content Signals se puede mantener habilitado search y desactivar ai-train, expresando que el contenido puede indexarse para búsquedas tradicionales, pero no utilizarse para entrenar modelos.
¿Qué diferencia hay entre ai-input y ai-train en políticas para rastreadores de IA?
ai-input se orienta al uso del contenido en respuestas en tiempo real (por ejemplo, RAG o resúmenes). ai-train se refiere al uso para entrenamiento de modelos. Separarlos permite políticas más finas según el objetivo editorial.
¿Este tipo de señales bloquea de verdad a GPTBot, ClaudeBot o PerplexityBot?
No necesariamente. Es una política declarativa en robots.txt: expresa preferencias, pero no impone el cumplimiento. Para bloqueo efectivo suele ser necesario combinarlo con medidas a nivel de servidor.
¿AI Content Signals es compatible con Yoast o Rank Math si ya gestionan el robots.txt?
Según la descripción del plugin, sí: utiliza el filtro robots_txt de WordPress para añadir señales al robots.txt virtual generado por plugins SEO, sin necesidad de reemplazarlo.
