[PT] – Config robots.txt

O arquivo robots.txt é configurado em um site para estabelecer o protocolo que os bots que analisam um site devem seguir. Por exemplo, a partir do arquivo robots.txt é possível evitar que o robô um mecanismo de pesquisa indexe uma parte de um site, ou que analise material sensível ou que se deseje manter oculto.

Outra função dos arquivos robots.txt é estabelecer quais robôs podem verificar o site, já que a verificação de fontes não confiáveis ​​pode causar problemas e consumir recursos em seu site.

Recomendamos a criação do arquivo robots.txt, informando que ele só pode ser verificado pelo Google, Yahoo e MSN. Para isso, você deve simplesmente criar um arquivo chamado robots.txt na raiz do site, que contém as seguintes linhas:

 

User-agent: *
Disallow: /
User-agent: Googlebot
Allow: /
User-agent: Slurp
Allow: /
User-Agent: msnbot
Disallow: