Note that "recursive" here doesn't limit the definition to any specific traversal algorithm; even if a robot applies some heuristic to the selection and order of documents to visit and spaces out requests over a long space of time, it is still a robot.
Normal Web browsers are not robots, because they are operated by a human, and don't automatically retrieve referenced documents (other than inline images).
Web robots are sometimes referred to as Web Wanderers, Web Crawlers, or Spiders. These names are a bit misleading as they give the impression the software itself moves between sites like a virus; this not the case, a robot simply visits sites by requesting documents from them.
O que é um robô WWW?
Um robô é um programa que automaticamente movimenta a estrutura da teia de hipertexto através da recuperação de um documento, e recursivamente recuperando todos os documentos que são referenciados.
Note que "recursiva" aqui não se limita a definição a qualquer algoritmo de passagem específico; mesmo um robô aplica alguns heurística para a seleção e ordem de documentos para visitar e espaços para pedidos de mais de um espaço de tempo, ainda é um robô .
Navegadores da Web normais não são robôs, porque eles são operados por um ser humano, e não automaticamente documentos referenciados (excepto imagens inline).
Robôs da Web são por vezes referido como Wanderers Web, Web crawlers, ou aranhas.Estes nomes são um pouco enganador como eles dão a impressão que o software se move entre os sites como um vírus, o que não for o caso, um robô simplesmente visita sites desolicitar os documentos deles.
Note que "recursiva" aqui não se limita a definição a qualquer algoritmo de passagem específico; mesmo um robô aplica alguns heurística para a seleção e ordem de documentos para visitar e espaços para pedidos de mais de um espaço de tempo, ainda é um robô .
Navegadores da Web normais não são robôs, porque eles são operados por um ser humano, e não automaticamente documentos referenciados (excepto imagens inline).
Robôs da Web são por vezes referido como Wanderers Web, Web crawlers, ou aranhas.Estes nomes são um pouco enganador como eles dão a impressão que o software se move entre os sites como um vírus, o que não for o caso, um robô simplesmente visita sites desolicitar os documentos deles.
Nenhum comentário:
Postar um comentário
Não escreva o que não gostaria de ler ...