Generador de Robots.txt

Crea, prueba y valida un archivo robots.txt para tu sitio. Configura reglas Allow/Disallow, sitemaps, host preferido y pruebas por bot con interfaz sencilla.

Config Basic Configuration
Your website URL (optional, for reference)
Recommended: helps search engines discover your content
Presets Plantillas rapidas
Click to apply common rules for your site type
Rules User Agents y reglas
Paths Rutas comunes para bloquear

Selecciona rutas comunes:

Advanced Opciones avanzadas
Tiempo entre peticiones (opcional)

Generador de Robots.txt

Crea reglas claras para controlar como los robots rastrean tu sitio. Configura allow/disallow, sitemap, host preferido y prueba URLs con distintos bots desde una unica interfaz.

Que es robots.txt y para que sirve?

El archivo robots.txt indica a los bots que partes de tu sitio pueden rastrear. Se coloca en la raiz (https://tusitio.com/robots.txt) y ayuda a optimizar el presupuesto de rastreo, evitar duplicados y proteger recursos que no necesitan indexarse.

Como usar la herramienta paso a paso?

1) Introduce la URL del sitio y, si tienes, la del sitemap. 2) Elige una politica base o agrega reglas personalizadas para cada bot. 3) Usa las rutas sugeridas para bloquear zonas sensibles (admin, login, tmp). 4) Opcional: define crawl-delay, host preferido y clean-param. 5) Genera el archivo, descarga y subelo a la raiz. 6) Prueba URLs especificas con Googlebot u otros agentes para confirmar el comportamiento.

Errores comunes a evitar

- Bloquear CSS/JS impide que Google renderice bien tus paginas.\n- Colocar robots.txt en subcarpetas no funciona; siempre debe estar en la raiz.\n- Usar robots.txt como seguridad es un error: la lista es publica.\n- Mantener reglas viejas de staging o desarrollo puede frenar el SEO en produccion.\n- No olvides actualizar la URL del sitemap cuando cambie.

Funciones clave

  • Interfaz intuitiva para crear reglas Allow/Disallow
  • Plantillas rapidas para WordPress, e-commerce y blogs
  • Sugerencias de rutas sensibles a bloquear
  • Integracion de sitemap y host preferido
  • Configuracion opcional de crawl-delay y clean-param
  • Vista previa en tiempo real del archivo generado
  • Tester integrado para comprobar URLs por bot
  • Estadisticas de reglas, agentes y tamano
  • Descarga o copia en un clic
  • Procesamiento local, sin cargar datos a servidores
  • Modo responsive y soporte de modo oscuro
  • Uso gratuito sin registro