Sendo um pouco pedante: *web crawler* ou *spider* explora a web em profundidade e tenta recuperar o máximo de informações (exemplo de uso: Google); BuscaPé/JáCotei/afins empregam *scrapers* que exploram sites específicos na horizontal e só consideram os dados que seguem um schema bem-definido.<div>

Acho importante fazer essa distinção :)<br><div><div><br>ABS()<br><br>
<br><br><div class="gmail_quote">2012/1/13 Nelson Ferraz <span dir="ltr"><<a href="mailto:nferraz@gmail.com">nferraz@gmail.com</a>></span><br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">

Do site:<br>
<br>
> RESUMO: Como automatizar a navegação web com scripts Perl. Capturar, tratar e apresentar<br>
> informações capturadas na web com Perl. O conteúdo será ministrado por uma<br>
> explicação teórica seguida de exercícios/prática.<br>
<br>
Poderia incluir alguma informação prática sobre o que são web<br>
crawlers. Algo como:<br>
<br>
Web crawlers, também conhecidos como "spiders" ou "bots", são<br>
programas criados para navegar na web automaticamente, coletando<br>
informações. Este tipo de programa é frequentemente usado em<br>
ferramentas de busca (como o Google), sites de comparação de preços<br>
(como o Buscapé, KuantoKusta, e JáCotei), ou qualquer outro sistema<br>
que precise coletar informações da web.<br>
<div class="HOEnZb"><div class="h5">=begin disclaimer<br>
   Sao Paulo Perl Mongers: <a href="http://sao-paulo.pm.org/" target="_blank">http://sao-paulo.pm.org/</a><br>
 SaoPaulo-pm mailing list: <a href="mailto:SaoPaulo-pm@pm.org">SaoPaulo-pm@pm.org</a><br>
 L<<a href="http://mail.pm.org/mailman/listinfo/saopaulo-pm" target="_blank">http://mail.pm.org/mailman/listinfo/saopaulo-pm</a>><br>
=end disclaimer<br>
</div></div></blockquote></div><br></div></div></div>