robots.txt
O robots.txt é um aspeto importante na forma como as "spider" (altavista, google, hotbot, etc.) indexam homepages.
Caso você pretenda, por alguma razão que o seu site não seja indexado, existe um standard que pode ser usado. Crie um file chamado de robots.txt e coloque no diretório principal do seu webserver com a seguinte informação:
User-agent: *
Disallow: /
Dessa forma, o seu webserver não será indexado por "spider" que respeitam o robots standard. Caso pretenda que apenas alguns diretórios não sejam indexados use
User-agent: *
Disallow: /tmp
A terceira e última hipótese é não deixar o seu webserver ser indexado por certos "spider". A forma de fazer é:
User-agent: webcrawler
Disallow: /tmp
User-agent: lycra
Disallow: /
User-agent: *
Disallow: /tmp
Disallow: /logs
Caso queira que o seu site seja indexado sem qualquer limitação basta criar um robots.txt em branco ou nem criar qualquer file.
Categoria: HTML
Criado em: 25-03-2000 01:11
Ref. #: 17
Modificado em: 05-01-2001 17:57
Voltar FAQ