O arquivo robots.txt é muito importante para as ferramentas de busca, pois é através dela
que é possível bloquear determinados diretórios do seu site ou crawlers de busca.

Como criar o meu robots.txt?

Escolha a opção nas caixas abaixo e então clique no botão "Criar Robots.txt".
Se você clicar sem mudar nada, ele habilita seu site para todas as ferramentas de busca.

Padrão para todos os Robôs:
Robôs de Busca Googlebot
Yahoo! Slurp
MSN Search: MSNBot
Robôs de Busca Multimídia googlebot-image
yahoo-mmcrawler
psbot
Diretórios Bloqueados Diretório 1: Diretório 2:
Diretório 3: Diretório 4:

Se preferir, entenda mais sobre robots ou conheça outras ferramentas SEO .
Robots.txt fornecido por Marketing de Busca