WordPress Directo
  • Tutoriales
  • Plugins
  • Plantillas
  • Optimización
  • SEO
  • WordPress Hosting
No Result
View All Result
WordPress Directo
  • Tutoriales
  • Plugins
  • Plantillas
  • Optimización
  • SEO
  • WordPress Hosting
No Result
View All Result
WordPress Directo
No Result
View All Result

Cómo controlar bots, spiders y rastreadores en un sitio web

David Carrero Fernández-Baillo by David Carrero Fernández-Baillo
12 marzo 2025
in Noticias, Optimización
Reading Time: 6 mins read
0

El tráfico web no proviene únicamente de usuarios humanos, sino también de robots (bots), spiders y rastreadores utilizados por motores de búsqueda y otras plataformas para indexar contenido. Sin embargo, algunos bots pueden afectar negativamente el rendimiento del servidor, aumentar el uso de recursos y comprometer la seguridad del sitio.

En este artículo se explican diversas estrategias para controlar y restringir el acceso de estos rastreadores, ya sea a través del archivo robots.txt o con reglas en .htaccess para bloquear bots maliciosos.


¿Qué es un archivo robots.txt y cómo funciona?

El archivo robots.txt es un archivo de configuración ubicado en la raíz del sitio web, utilizado para indicar a los bots de los motores de búsqueda qué contenido pueden rastrear y cuál deben evitar.

Artículos relacionados

Cómo insertar suscriptores en una lista de Acumbamail mediante un formulario creado con Gravity Forms sin utilizar plugins

6 febrero 2020

Redis Object Cache: Optimización de WordPress con Redis en Linux

18 diciembre 2024

Cómo añadir estilos personalizados en el editor de WordPress

27 enero 2018

Cómo optimizar imágenes para subirlas a WordPress

29 octubre 2016

Sin embargo, es importante destacar que robots.txt no es un método infalible de bloqueo. Solo es respetado por los bots que cumplen con las directrices de los motores de búsqueda, como Googlebot (Google), Bingbot (Microsoft Bing) o Slurp (Yahoo). Los bots maliciosos, en cambio, pueden ignorar este archivo y continuar rastreando el sitio sin restricciones.

Para casos más extremos, se recomienda complementar el uso de robots.txt con reglas en .htaccess o firewalls específicos.


Bloquear bots con robots.txt

1. Bloquear todos los bots

Si se desea evitar que cualquier bot rastree el sitio, se puede utilizar la siguiente configuración:

User-agent: *
Disallow: /

⚠️ Advertencia: Esta regla impedirá que el sitio aparezca en los motores de búsqueda legítimos, lo que puede afectar la visibilidad del contenido en internet.

En lugar de bloquear completamente todos los bots, es recomendable restringir únicamente ciertas áreas del sitio:

User-agent: *
Disallow: /wp-admin/
Disallow: /private/
Disallow: /config/

Esto impide que los bots indexen directorios sensibles como /wp-admin/ o /private/, mientras el resto del sitio sigue siendo rastreado.


2. Bloquear bots específicos

Si se desea bloquear un bot en particular, se debe especificar su nombre de agente de usuario en el archivo robots.txt.

Bloquear Googlebot

User-agent: Googlebot
Disallow: /

Con esta regla, Googlebot no podrá rastrear el sitio y las páginas no aparecerán en los resultados de Google.

Si solo se quiere bloquear una parte del sitio, se puede hacer de la siguiente forma:

User-agent: Googlebot
Disallow: /privado/
Disallow: /pruebas/

Esto impide que Google indexe estos directorios específicos, sin afectar el resto del sitio.

Reducir la velocidad de rastreo de Yahoo (Slurp)

El bot de Yahoo Slurp permite controlar la frecuencia con la que accede a un sitio mediante el parámetro Crawl-delay:

User-agent: Slurp
Crawl-delay: 10

Esto indica que Yahoo debe esperar 10 segundos entre cada solicitud, reduciendo la carga en el servidor.


3. Limitar la frecuencia de rastreo para todos los bots

Algunos bots pueden realizar demasiadas solicitudes en poco tiempo, sobrecargando el servidor. Para evitarlo, se puede configurar un retraso con Crawl-delay:

User-agent: *
Crawl-delay: 5

Esto instruye a todos los bots que esperen 5 segundos entre cada solicitud. Sin embargo, no todos los rastreadores respetan esta directiva.


Bloquear bots con .htaccess

Dado que robots.txt no impide que los bots maliciosos accedan al sitio, se recomienda utilizar .htaccess para bloquear bots agresivos directamente en el servidor.

1. Bloquear un bot específico

Si se detecta un bot problemático, se puede bloquear con la siguiente regla en .htaccess:

RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} "BadBot" [NC]
RewriteRule .* - [F,L]

Esto devolverá un error 403 (Acceso prohibido) a cualquier bot que use el agente de usuario «BadBot».

2. Bloquear múltiples bots conocidos

Si se han identificado varios bots maliciosos, se pueden bloquear de una vez con esta configuración:

RewriteEngine On
RewriteCond %{HTTP_USER_AGENT} "AhrefsBot" [NC,OR]
RewriteCond %{HTTP_USER_AGENT} "SemrushBot" [NC,OR]
RewriteCond %{HTTP_USER_AGENT} "MJ12bot" [NC]
RewriteRule .* - [F,L]

Con esto, se bloquean AhrefsBot, SemrushBot y MJ12bot, que son rastreadores utilizados para recopilar datos de sitios web.


3. Bloquear bots por dirección IP

Si un bot está generando tráfico no deseado desde una IP específica, se puede bloquear con .htaccess:

<RequireAll>
  Require all granted
  Require not ip 192.168.1.100
</RequireAll>

Para bloquear un rango completo de direcciones IP, se puede modificar la regla:

<RequireAll>
  Require all granted
  Require not ip 192.168.1.
</RequireAll>

Esto bloquea todas las IPs desde 192.168.1.0 hasta 192.168.1.255.


Cómo identificar bots problemáticos

Antes de bloquear un bot, es importante verificar su origen. Para ello, se pueden revisar los archivos de logs del servidor y ejecutar el siguiente comando en SSH para identificar la IP responsable del tráfico sospechoso:

host 66.249.66.167

Si la respuesta indica que el tráfico proviene de un bot legítimo como Googlebot, se debe considerar si realmente es necesario bloquearlo.

Si se trata de un bot desconocido o malicioso, se pueden aplicar las reglas de bloqueo mencionadas anteriormente.


Conclusión

El tráfico de bots puede ser beneficioso o perjudicial dependiendo de su origen. Mientras que los motores de búsqueda legítimos ayudan a mejorar la visibilidad del sitio, los bots maliciosos pueden consumir recursos y comprometer la seguridad.

Para gestionar adecuadamente el tráfico de bots, se recomienda:

✅ Utilizar robots.txt para indicar qué partes del sitio pueden ser indexadas.
✅ Aplicar reglas en .htaccess para bloquear bots maliciosos que ignoren robots.txt.
✅ Monitorear el tráfico para detectar actividad sospechosa y ajustar las reglas según sea necesario.

Implementando estas medidas, es posible reducir el impacto de los rastreadores no deseados y optimizar el rendimiento del sitio web.

Tags: buscadorgoogle
ShareTweetSendSharePin
David Carrero Fernández-Baillo

David Carrero Fernández-Baillo

Experimentando con un sitio web sobre WordPress, este popular gestor de contenidos, entre otros muchos proyectos.

Te puede interesar...

Plugins

Cómo optimizar WordPress con plugins de caché: guía avanzada para acelerar tu sitio web

4 mayo 2025

Los plugins de caché son una de las herramientas más eficaces para mejorar la...

Noticias

Cómo eliminar la etiqueta hreflang en URLs con la meta tag noindex en WordPress

4 mayo 2025

Eliminar la etiqueta hreflang en páginas de WordPress que contienen la meta etiqueta noindex...

Optimización

FlyingPress: el plugin de caché para WordPress que optimiza la velocidad real del usuario

1 mayo 2025

En un ecosistema web cada vez más competitivo, la velocidad de carga se ha...

Optimización

La Revolución de la Optimización de Imágenes: WebP vs AVIF en la Web

30 abril 2025

En la actualidad, la velocidad de carga de un sitio web se ha convertido...

Deja una respuesta Cancelar la respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

No Result
View All Result
Plugin Imagify, optimizar imágenes
wordpress hosting NVME
Elegant Themes WordPress
elementor editor plugin




Últimos artículos

Redirigir tu feed RSS a Feedburner

4 agosto 2015

Cómo añadir el snapcódigo en WordPress

9 abril 2019

Cómo instalar WordPress mediante línea de comandos

20 septiembre 2019

Protege tu WordPress con el modo «I’m Under Attack» de Cloudflare y restricciones geográficas

12 febrero 2025

¿Sabes cómo conseguir una web económica para tu negocio?

28 agosto 2019
WordPress Directo

WPDirecto.com es una revista especializada en WordPress y WooCommerce que ofrece una amplia gama de recursos, incluyendo tutoriales, análisis de plugins y plantillas, consejos de optimización y estrategias de SEO, para ayudar a los usuarios a mejorar y personalizar sus sitios web, manteniéndolos informados sobre las últimas novedades y tendencias en el mundo de WordPress.

Menu

  • Tutoriales
  • Plugins
  • Plantillas
  • Optimización
  • SEO
  • WordPress Hosting

Información

WPDirecto es un medio de Medios y Redes:
  • Artículos patrocinados
  • Servicio de diseño web
  • Contacto
  • Acerca de MyR
  • Política de privacidad y cookies
  • Aviso Legal

© 1995-2025 Color Vivo Internet, SLU (Medios y Redes Online).. Otros contenidos se cita fuente. Infraestructura cloud servidores dedicados de Stackscale.

No Result
View All Result
  • Tutoriales
  • Plugins
  • Plantillas
  • Optimización
  • SEO
  • WordPress Hosting

© 1995-2025 Color Vivo Internet, SLU (Medios y Redes Online).. Otros contenidos se cita fuente. Infraestructura cloud servidores dedicados de Stackscale.