[SP-pm] WWW::Curl::Multi

Blabos de Blebe blabos at gmail.com
Thu Sep 3 12:18:23 PDT 2009


Um coisa é uma coisa, outra coisa é outra coisa.

já experimentou isso?
http://search.cpan.org/~dlux/Parallel-ForkManager-0.7.5/ForkManager.pm


2009/9/3 jimmy <jimmy.tty em gmail.com>:
> On Thu, Sep 03, 2009 at 03:38:32PM +0200, Nelson Ferraz wrote:
>> 2009/9/3 jimmy <jimmy.tty em gmail.com>:
>> > obrigado Nelson, o mechanize também é muito útil, o descobri aqui com
>> > vocês, e estou estudando ele para usá-lo em outras aplicações, nessa em
>> > específico eu "preciso" de performance porque são alguns milhares de
>> > requisições diárias.
>>
>> Bom, olhando para a documentacao, *parece* que o WWW::Curl::Multi
>> funciona como uma pilha de objetos WWW::Curl::Easy
>>
>>            my $curl = new WWW::Curl::Easy;
>>
>>            # prepare your $curl object, and then...
>>
>>            my $curlm = new WWW::Curl::Multi;
>>
>>            $curlm->add_handler( $curl );
>>
>>            $curlm->perform;
>>
>> A questão que fica é como extrair o resultado depois do perform.
>>
>> (Realmente a documentacao do WWW::Curl deixa muito a desejar.)
>> _______________________________________________
>
> então mais ou menos eu poderia ter um array com todas as páginas que
> preciso requisitar remotamente, passar de alguma forma esse array para o
> WWW::Curl::Multi e mesmo assim eu teria que esperar uma requisição
> terminar para que ele disparasse a próxima?
> _______________________________________________
> SaoPaulo-pm mailing list
> SaoPaulo-pm em pm.org
> http://mail.pm.org/mailman/listinfo/saopaulo-pm
>


More information about the SaoPaulo-pm mailing list