Testador Robots.txt
Testador e validador online gratuito de robots.txt. Teste se URLs são permitidas ou bloqueadas pelas regras do robots.txt para diferentes bots de busca. Perfeito para SEO e desenvolvedores web.
Testador Robots.txt - Teste e Valide Regras de Rastreadores
Uma poderosa ferramenta de teste e validação de robots.txt que ajuda você a testar se URLs específicas são permitidas ou bloqueadas pelas regras do robots.txt para diferentes rastreadores de mecanismos de busca. Teste Google, Bing, Yahoo e user-agents personalizados para garantir que seu arquivo robots.txt funcione corretamente. Essencial para otimização de SEO e gerenciamento de rastreamento do site.
O que é robots.txt?
Robots.txt é um arquivo de texto colocado no diretório raiz de um site (por exemplo, example.com/robots.txt) que diz aos rastreadores de mecanismos de busca quais páginas ou seções do seu site eles podem ou não acessar. Ele usa diretivas simples:
- User-agent: Especifica a qual rastreador as regras se aplicam (* significa todos)
- Disallow: Diz aos rastreadores para não acessar caminhos específicos
- Allow: Permite explicitamente acesso a caminhos (substitui Disallow)
- Sitemap: Aponta rastreadores para seu sitemap XML
- Crawl-delay: Especifica atraso entre solicitações (não suportado por todos os bots)
Robots.txt faz parte do Protocolo de Exclusão de Robôs e é respeitado por mecanismos de busca respeitáveis como Google, Bing, Yahoo e outros. No entanto, não é uma medida de segurança - bots maliciosos podem ignorá-lo.
Como uso este testador de robots.txt?
Usar o testador é simples:
1. Cole o conteúdo do seu robots.txt na área de texto (ou clique em 'Carregar Exemplo' para um exemplo)
2. Selecione um User-Agent (Googlebot, Bingbot, etc.) ou escolha 'Personalizado' para bots específicos
3. Digite o caminho URL que deseja testar (por exemplo, /admin/dashboard)
4. Clique em 'Testar' para ver se o caminho é permitido ou não permitido
A ferramenta irá:
- Analisar todas as regras do robots.txt
- Aplicar as regras de precedência corretas
- Mostrar se a URL é permitida ou bloqueada
- Exibir qual regra específica correspondeu
- Mostrar todas as diretivas analisadas para referência
Você pode testar múltiplos caminhos e user-agents para garantir que seu robots.txt funcione conforme pretendido.
Quais são as regras de precedência do robots.txt?
Quando várias regras correspondem a uma URL, o robots.txt segue estas regras de precedência:
1. Caminho Mais Específico Vence: Uma regra mais longa e específica substitui uma mais curta
- Disallow: /admin/ vs Disallow: /admin/settings/
- O caminho mais longo tem precedência
2. Allow Vence Disallow: Quando as regras são igualmente específicas, Allow ganha
- Disallow: /admin/ + Allow: /admin/public/
- /admin/public/ é permitido apesar da regra Disallow
3. Especificidade do User-Agent: Regras específicas de user-agent substituem wildcard (*)
- Regras de User-agent: Googlebot têm precedência sobre User-agent: * para Google
4. Permitir por Padrão: Se nenhuma regra corresponder, o acesso é permitido por padrão
Nosso testador implementa corretamente essas regras para fornecer resultados precisos que correspondem à forma como os mecanismos de busca interpretam seu arquivo robots.txt.
Posso testar diferentes bots de busca?
Sim! A ferramenta suporta teste com muitos rastreadores de mecanismos de busca populares:
- Googlebot: Rastreador web principal do Google
- Googlebot-Image: Para Google Pesquisa de Imagens
- Googlebot-News: Para Google Notícias
- Googlebot-Video: Para Google Pesquisa de Vídeos
- Bingbot: Rastreador do Microsoft Bing
- Slurp: Rastreador web do Yahoo
- DuckDuckBot: Rastreador do DuckDuckGo
- Baiduspider: Baidu (mecanismo de busca chinês)
- YandexBot: Yandex (mecanismo de busca russo)
- Bots de redes sociais: Facebook, Twitter, LinkedIn
- Personalizado: Teste qualquer string de user-agent
Diferentes bots podem ter regras diferentes no seu robots.txt, e esta ferramenta permite testar cada um individualmente para garantir que se comportem conforme esperado.
O que são wildcards no robots.txt?
Robots.txt suporta dois wildcards importantes:
1. Asterisco (*) - Corresponde a qualquer sequência de caracteres
Exemplos:
- Disallow: /*.pdf$ (bloqueia todos os arquivos PDF)
- Disallow: /admin/* (bloqueia tudo sob /admin/)
- Allow: /public/*.html (permite todos os HTML em /public/)
2. Cifrão ($) - Corresponde ao final da URL
Exemplos:
- Disallow: /*.pdf$ (bloqueia URLs terminando em .pdf)
- Disallow: /admin$ (bloqueia /admin mas não /admin/page)
- Allow: /search$ (permite exatamente /search, não /search/results)
Sem $, uma regra corresponde a qualquer URL começando com esse padrão:
- Disallow: /admin (corresponde /admin, /admin/, /admin/page, /administrator)
- Disallow: /admin$ (corresponde apenas /admin)
Nosso testador trata corretamente ambos os wildcards para testar suas regras com precisão.
Erros comuns no robots.txt
Evite estes erros comuns no robots.txt:
1. Bloquear arquivos CSS/JS: Não bloqueie recursos que o Google precisa para renderizar páginas
- Ruim: Disallow: /*.css$
- Isso pode prejudicar o SEO pois o Google não consegue renderizar seu site adequadamente
2. Erros de digitação e sintaxe: Robots.txt é sensível a maiúsculas e minúsculas
- Use 'Disallow:', não 'disallow:' ou 'DisAllow:'
- Use 'User-agent:', não 'User-Agent:' (embora a maioria dos bots aceite ambos)
3. Bloquear site inteiro não intencionalmente:
- Disallow: / (bloqueia tudo!)
- Certifique-se de que isso é intencional
4. Usar robots.txt para segurança: Não é uma ferramenta de segurança
- Bots maliciosos o ignoram
- Use autenticação adequada em vez disso
5. Esquecer a diretiva Allow:
- Você pode desbloquear subdiretórios de diretórios bloqueados
- Disallow: /admin/ então Allow: /admin/public/
Use este testador para detectar esses erros antes de implantar seu robots.txt!
Meus dados estão seguros?
Sim, seus dados estão completamente seguros:
- Todo o teste acontece no seu navegador
- Nenhum conteúdo do robots.txt é enviado para qualquer servidor
- Não armazenamos ou registramos nenhum dado que você testa
- Funciona completamente offline após o carregamento da página
- Sem rastreamento ou análise dos seus dados de teste
- Processamento cliente de código aberto
Você pode verificar a privacidade checando a aba de rede do seu navegador - nenhuma solicitação é feita ao testar regras de robots.txt.
Recursos Principais
- Teste qualquer conteúdo de robots.txt
- Suporte para todos os principais bots de mecanismos de busca
- Teste de user-agent personalizado
- Implementação precisa de precedência de regras
- Suporte a wildcards (* e $)
- Análise visual de todas as regras
- Detecção Allow/Disallow
- Destaque da regra correspondente
- Robots.txt de exemplo para teste rápido
- Validação em tempo real
- Suporte ao modo escuro
- 100% de processamento do lado do cliente
- Nenhum dado enviado para servidores
- Funciona offline
- Design amigável para dispositivos móveis