Orienta el rastreo
Le dice a los bots que rutas no necesitan visitar con frecuencia o que rutas no quieres que rastreen.
Aprende como hacer un robots.txt basico, que partes incluir y que errores evitar antes de publicarlo en tu sitio.
Muchos errores pasan cuando se intenta usar un archivo para resolver problemas que corresponden a otra capa.
Le dice a los bots que rutas no necesitan visitar con frecuencia o que rutas no quieres que rastreen.
Sirve para indicar que una pagina no deberia mostrarse en resultados de busqueda.
Una ruta sensible debe estar protegida por autenticacion o permisos, no por confiar en que un bot no entre.
Si bloqueas recursos clave, Google podria renderizar peor tus paginas.
Bloquear una carpeta completa puede llevarse paginas utiles por delante.
Si la anades, revisa que realmente responda con la ubicacion correcta.
Lo importante no es el borrador local sino el texto exacto que se sirve en el dominio publico.
El archivo debe ayudar a los buscadores a entender que rutas conviene rastrear y cuales no necesitan visitas frecuentes.
Mientras mas reglas especiales metas sin necesidad, mas facil es que termines bloqueando secciones que si querias indexar.
Robots.txt no reemplaza noindex. Una cosa es orientar el rastreo y otra decidir si una pagina debe aparecer en resultados.
En la mayoria de sitios simples, usar User-agent: * es suficiente para un archivo inicial.
No metas reglas por reflejo; primero revisa si esas carpetas o rutas de verdad no aportan nada al rastreo.
Incluir la URL del sitemap al final ayuda a dejar claro donde esta el indice principal del sitio.
Un slash mal puesto o una ruta demasiado amplia puede generar bloqueos accidentales.
Puede orientar a los bots para que no gasten rastreo en paneles, previews o flujos internos sin valor publico.
Sirve para dejar claro que paginas son publicas y donde esta el sitemap desde el inicio.
Ayuda a mantener control sobre secciones nuevas mientras el sitio se vuelve mas grande.
No siempre. Puede bloquear rastreo, pero no sustituye una estrategia de noindex o control de indexacion.
En muchos casos si, pero depende de como este construido tu sitio y de si esa ruta ya esta protegida por otros medios.
Si. Lo normal es anadir una directiva por cada ruta relevante.
No es obligatorio, pero suele ser una buena practica.
Usa la herramienta para armar un borrador limpio con user-agent, reglas y sitemap antes de publicarlo.