robots.txt

Partilhar isto
" Voltar ao Índice do Glossário

Robots.txt é uma norma utilizada no desenvolvimento Web que serve de orientação para os robots da Web, normalmente motor de busca[2] crawlers, navegando num sítio Web[4]. Proposto por Martijn Koster em 1994, funciona como uma ferramenta de comunicação, pedindo aos robôs que evitem determinados ficheiros ou secções do sítio Web. Este ficheiro é colocado na raiz de um sítio Web e é particularmente importante para otimização de motores de busca[1] (SEO), uma vez que ajuda a controlar as partes do sítio que são indexadas. Embora não exista um mecanismo de aplicação legal ou técnica, a conformidade com esta norma é crucial para um rastreio eficiente e seguro do sítio Web. É de salientar que a norma tem evoluído ao longo do tempo, com actualizações que reflectem as alterações webmaster[3] e que compreender as suas nuances é imperativo para uma SEO eficaz.

Definições de termos
1. otimização de motores de busca. A otimização dos motores de busca, normalmente designada por SEO, é uma estratégia de marketing digital fundamental. Com origem em meados dos anos 90, a SEO consiste em melhorar os sítios Web para obter classificações mais elevadas nas páginas de resultados dos motores de busca. Este processo é essencial para aumentar o tráfego na Web e converter visitantes em clientes. A SEO utiliza várias técnicas, incluindo a conceção de páginas, a otimização de palavras-chave e a atualização de conteúdos, para melhorar a visibilidade de um sítio Web. Envolve também a utilização de ferramentas para monitorizar e adaptar-se às actualizações dos motores de busca. As práticas de SEO variam entre os métodos éticos de "chapéu branco" e as técnicas reprovadas de "chapéu preto", sendo que o "chapéu cinzento" se situa entre ambos. Embora a SEO não seja adequada para todos os sítios Web, a sua eficácia nas campanhas de marketing na Internet não pode ser subestimada. As tendências recentes do sector, como a utilização da Web móvel que ultrapassa a utilização do computador, realçam a paisagem em evolução da SEO.
2. motor de busca. Um motor de pesquisa é uma ferramenta vital que funciona como parte de um sistema de computação distribuído. É um sistema de software que responde às consultas dos utilizadores fornecendo uma lista de hiperligações, resumos e imagens. Utiliza um sistema de indexação complexo, que é continuamente atualizado por web crawlers que extraem dados de servidores Web. No entanto, alguns conteúdos permanecem inacessíveis a estes rastreadores. A velocidade e a eficiência de um motor de pesquisa dependem muito do seu sistema de indexação. Os utilizadores interagem com os motores de pesquisa através de um navegador Web ou de uma aplicação, introduzindo consultas e recebendo sugestões à medida que escrevem. Os resultados podem ser filtrados para tipos específicos e o sistema pode ser acedido em vários dispositivos. Esta ferramenta é importante porque permite aos utilizadores navegar na vasta Web, encontrar conteúdos relevantes e recuperar informações de forma eficiente.
robots.txt (Wikipédia)

robots.txt é o nome de ficheiro utilizado para implementar o Protocolo de exclusão de robôs, uma norma utilizada por sítios Web para indicar aos visitantes rastreadores da web e outros robôs da web que partes do sítio Web estão autorizadas a visitar.

Exemplo de um ficheiro robots.txt simples, que indica que um agente de utilizador chamado "Mallorybot" não está autorizado a rastrear nenhuma das páginas do sítio Web e que outros agentes de utilizador não podem rastrear mais de uma página a cada 20 segundos e não estão autorizados a rastrear a pasta "secret".

A norma, desenvolvida em 1994, baseia-se em cumprimento voluntário. Os bots maliciosos podem utilizar o ficheiro como um diretório das páginas a visitar, embora os organismos de normalização desencorajem a utilização de segurança através da obscuridade. Alguns sítios de arquivo ignoram o robots.txt. A norma foi utilizada na década de 1990 para mitigar servidor sobrecarga; na década de 2020, muitos sítios Web começaram a recusar bots que recolhem informações para inteligência artificial generativa.

O ficheiro "robots.txt" pode ser utilizado em conjunto com mapas de sítiosoutra norma de inclusão de robôs para sítios Web.

" Voltar ao Índice do Glossário
pt_PT_ao90PT
Deslocar para o topo