[SP-pm] Capturar dados de sites

Marcio - Google marciorp at gmail.com
Thu May 9 09:47:03 PDT 2013


Daniel,

Sim. Qual a vantagem/diferença entre as opções expostas?

Abs,


Marcio

========================================
########### Campanha Ajude o Marcio! ###########
http://sosmarcio.blogspot.com.br/
http://www.vakinha.com.br/VaquinhaP.aspx?e=195793
========================================


Em 9 de maio de 2013 12:44, Marcio - Google <marciorp em gmail.com> escreveu:

> Marcio,
>
> O telelist foi apenas exemplo. É que não tenho como fornecer acesso ao
> site para vocês verem, roda apenas na intranet.
> É provável que não precise revisitar.
> Estou ajudando um amigo apenas. Nem ele sabe direito o que ele quer, como
> estou parado e preciso ocupar a cabeça resolvi ajudar, sem compromisso.
> Ele presta serviço para um empresa, essa página que quero ler as
> informações é o relatório de comissões dele, pois toda semana ele tem que
> imprimir essa página e digitar as informações novamente em uma planilha que
> ele usa para calcular as comissões dos vendedores dele.
> Então a ideia é capturar de forma automática, pois é muita coisa, guardar
> em MySql e exportar pra um arquivo CVS que ele poderá importar para o Excel.
> Já revirei bastante o negocio. O relatório que pede o período e lista as
> informações abaixo, usando o DataGrid do Asp.Net. Ela lista as 50 primeiras
> linhas, quando clica no botão próximo ela lista as próximas 50 e assim vai.
> Essa é a primeira parte.
> Ai com essas informações eu tenho que entrar em outra página onde entro
> com o código da venda (linhas da página anterior) e listar os dados, para
> poder pegar o código do vendedor dele para calcular a comissão individual.
> Pois a primeira página dá a comissão total, da revenda.
> Essa é a segunda parte.
>
> Abs,
>
> Marcio
>
> ========================================
> ########### Campanha Ajude o Marcio! ###########
> http://sosmarcio.blogspot.com.br/
> http://www.vakinha.com.br/VaquinhaP.aspx?e=195793
> ========================================
>
>
> Em 9 de maio de 2013 12:22, Stanislaw Pusep <creaktive em gmail.com>escreveu:
>
> <jabá>
>> use LWP::Protocol::Net::Curl;
>> use WWW::Mechanize;
>>
>> # pronto: WWW::Mechanize usará libcurl por baixo dos panos :)
>> </jabá>
>>
>>
>> ABS()
>>
>>
>> 2013/5/9 Eduardo Almeida <eduardo em web2solutions.com.br>
>>
>>>  Esqueceram de mencionar o curl
>>>
>>>
>>> On 09/05/2013 13:04, Marcio - Google wrote:
>>>
>>>  Stan,
>>>
>>>  Em lote. A sequencia é assim:
>>> 1. Entrar usuário e senha e conferir se autenticou;
>>> 2. Entrar com uma palavra chave em um campo especifico, pois o site só
>>> aceita o método post;
>>> 3. Submeter o form;
>>> 4. Capturar vários dados;
>>>  5. Acionar o botão próximo;
>>> 6. Capturar mais dados até não ter mais o botão próximo.
>>>
>>>  Com esses dados, vou entrar em outra parte do site e fazer a mesma
>>> coisa:
>>>  1. Entrar usuário e senha e conferir se autenticou;
>>> 2. Entrar com uma palavra chave em um campo especifico, pois o site só
>>> aceita o método post. Essa palavra-chave é o resultado da captura anterior;
>>> 3. Submeter o form;
>>>  4. Entrar em um link;
>>>  5. Capturar vários dados;
>>> 6. Repetir a partir do 2.
>>>
>>>
>>>  [...]'s
>>>
>>> Marcio
>>>
>>>  ========================================
>>> ########### Campanha Ajude o Marcio! ###########
>>> http://sosmarcio.blogspot.com.br/
>>> http://www.vakinha.com.br/VaquinhaP.aspx?e=195793
>>>  ========================================
>>>
>>>
>>> Em 9 de maio de 2013 11:47, Stanislaw Pusep <creaktive em gmail.com>escreveu:
>>>
>>>> Depende! Você precisa fazer isso "on-fly"? Ou em lote? Se for em lote,
>>>> você quer percorrer o site todo? Ou tem uma lista de palavras-chaves?
>>>>
>>>>
>>>> ABS()
>>>>
>>>>
>>>>  2013/5/9 Marcio - Google <marciorp em gmail.com>
>>>>
>>>>>   Mestres,
>>>>>
>>>>>  Estou procurando uma forma de fazer um aplicativo que navegue em um
>>>>> determinado site, capture algumas informações e grave em BD.
>>>>>
>>>>>  Pra ficar mais fácil de entender, vai um exemplo.
>>>>> Entrar no site telelistas.net, preencher uma determinada
>>>>> palavra-chave para busca, acionar o botão buscar e pegar os nomes e
>>>>> telefones para salvar no BD. Isso sem interação/intervenção do usuário.
>>>>>
>>>>>  Alguma ideia? Módulo? Mágica?
>>>>>
>>>>>  Ah, o site alvo é Asp.Net.
>>>>>
>>>>>  Abs,
>>>>>
>>>>>
>>>>> Marcio
>>>>>
>>>>>  ========================================
>>>>> ########### Campanha Ajude o Marcio! ###########
>>>>> http://sosmarcio.blogspot.com.br/
>>>>>  http://www.vakinha.com.br/VaquinhaP.aspx?e=195793
>>>>>  ========================================
>>>>>
>>>>>  =begin disclaimer
>>>>>    Sao Paulo Perl Mongers: http://sao-paulo.pm.org/
>>>>>  SaoPaulo-pm mailing list: SaoPaulo-pm em pm.org
>>>>>  L<http://mail.pm.org/mailman/listinfo/saopaulo-pm>
>>>>> =end disclaimer
>>>>>
>>>>>
>>>>
>>>> =begin disclaimer
>>>>    Sao Paulo Perl Mongers: http://sao-paulo.pm.org/
>>>>  SaoPaulo-pm mailing list: SaoPaulo-pm em pm.org
>>>>  L<http://mail.pm.org/mailman/listinfo/saopaulo-pm>
>>>> =end disclaimer
>>>>
>>>>
>>>
>>>
>>> =begin disclaimer
>>>    Sao Paulo Perl Mongers: http://sao-paulo.pm.org/
>>>  SaoPaulo-pm mailing list: SaoPaulo-pm em pm.org
>>>  L<http://mail.pm.org/mailman/listinfo/saopaulo-pm> <http://mail.pm.org/mailman/listinfo/saopaulo-pm>
>>> =end disclaimer
>>>
>>>
>>>
>>> --
>>> Eduardo Almeida - Software Engineer
>>> eduardo em web2solutions.com.br - 27 3021-2430 / 27 9839 3755
>>>
>>> *WEB2 Solutions* - Inovando, sempre!
>>>
>>> =begin disclaimer
>>>    Sao Paulo Perl Mongers: http://sao-paulo.pm.org/
>>>  SaoPaulo-pm mailing list: SaoPaulo-pm em pm.org
>>>  L<http://mail.pm.org/mailman/listinfo/saopaulo-pm>
>>> =end disclaimer
>>>
>>>
>>
>> =begin disclaimer
>>    Sao Paulo Perl Mongers: http://sao-paulo.pm.org/
>>  SaoPaulo-pm mailing list: SaoPaulo-pm em pm.org
>>  L<http://mail.pm.org/mailman/listinfo/saopaulo-pm>
>> =end disclaimer
>>
>>
>
-------------- Pr?xima Parte ----------
Um anexo em HTML foi limpo...
URL: <http://mail.pm.org/pipermail/saopaulo-pm/attachments/20130509/6a61bf7c/attachment-0001.html>


More information about the SaoPaulo-pm mailing list