[SP-pm] WWW::Curl::Multi

jimmy jimmy.tty at gmail.com
Thu Sep 3 13:16:20 PDT 2009


On Thu, Sep 03, 2009 at 04:18:23PM -0300, Blabos de Blebe wrote:
> Um coisa é uma coisa, outra coisa é outra coisa.
> 
> já experimentou isso?
> http://search.cpan.org/~dlux/Parallel-ForkManager-0.7.5/ForkManager.pm
não, já comecei a fazer testes e darei um retorno,
contudo continuo sem entender em que situção o WWW::Curl::Multi seria
útil.

> 
> 
> 2009/9/3 jimmy <jimmy.tty em gmail.com>:
> > On Thu, Sep 03, 2009 at 03:38:32PM +0200, Nelson Ferraz wrote:
> >> 2009/9/3 jimmy <jimmy.tty em gmail.com>:
> >> > obrigado Nelson, o mechanize também é muito útil, o descobri aqui com
> >> > vocês, e estou estudando ele para usá-lo em outras aplicações, nessa em
> >> > específico eu "preciso" de performance porque são alguns milhares de
> >> > requisições diárias.
> >>
> >> Bom, olhando para a documentacao, *parece* que o WWW::Curl::Multi
> >> funciona como uma pilha de objetos WWW::Curl::Easy
> >>
> >>            my $curl = new WWW::Curl::Easy;
> >>
> >>            # prepare your $curl object, and then...
> >>
> >>            my $curlm = new WWW::Curl::Multi;
> >>
> >>            $curlm->add_handler( $curl );
> >>
> >>            $curlm->perform;
> >>
> >> A questão que fica é como extrair o resultado depois do perform.
> >>
> >> (Realmente a documentacao do WWW::Curl deixa muito a desejar.)
> >> _______________________________________________
> >
> > então mais ou menos eu poderia ter um array com todas as páginas que
> > preciso requisitar remotamente, passar de alguma forma esse array para o
> > WWW::Curl::Multi e mesmo assim eu teria que esperar uma requisição
> > terminar para que ele disparasse a próxima?
> > _______________________________________________


More information about the SaoPaulo-pm mailing list