[SP-pm] Capturar dados de sites

Marcio - Google marciorp at gmail.com
Thu May 9 09:44:41 PDT 2013


Marcio,

O telelist foi apenas exemplo. É que não tenho como fornecer acesso ao site
para vocês verem, roda apenas na intranet.
É provável que não precise revisitar.
Estou ajudando um amigo apenas. Nem ele sabe direito o que ele quer, como
estou parado e preciso ocupar a cabeça resolvi ajudar, sem compromisso.
Ele presta serviço para um empresa, essa página que quero ler as
informações é o relatório de comissões dele, pois toda semana ele tem que
imprimir essa página e digitar as informações novamente em uma planilha que
ele usa para calcular as comissões dos vendedores dele.
Então a ideia é capturar de forma automática, pois é muita coisa, guardar
em MySql e exportar pra um arquivo CVS que ele poderá importar para o Excel.
Já revirei bastante o negocio. O relatório que pede o período e lista as
informações abaixo, usando o DataGrid do Asp.Net. Ela lista as 50 primeiras
linhas, quando clica no botão próximo ela lista as próximas 50 e assim vai.
Essa é a primeira parte.
Ai com essas informações eu tenho que entrar em outra página onde entro com
o código da venda (linhas da página anterior) e listar os dados, para poder
pegar o código do vendedor dele para calcular a comissão individual. Pois a
primeira página dá a comissão total, da revenda.
Essa é a segunda parte.

Abs,

Marcio

========================================
########### Campanha Ajude o Marcio! ###########
http://sosmarcio.blogspot.com.br/
http://www.vakinha.com.br/VaquinhaP.aspx?e=195793
========================================


Em 9 de maio de 2013 12:22, Stanislaw Pusep <creaktive em gmail.com> escreveu:

> <jabá>
> use LWP::Protocol::Net::Curl;
> use WWW::Mechanize;
>
> # pronto: WWW::Mechanize usará libcurl por baixo dos panos :)
> </jabá>
>
>
> ABS()
>
>
> 2013/5/9 Eduardo Almeida <eduardo em web2solutions.com.br>
>
>>  Esqueceram de mencionar o curl
>>
>>
>> On 09/05/2013 13:04, Marcio - Google wrote:
>>
>>  Stan,
>>
>>  Em lote. A sequencia é assim:
>> 1. Entrar usuário e senha e conferir se autenticou;
>> 2. Entrar com uma palavra chave em um campo especifico, pois o site só
>> aceita o método post;
>> 3. Submeter o form;
>> 4. Capturar vários dados;
>>  5. Acionar o botão próximo;
>> 6. Capturar mais dados até não ter mais o botão próximo.
>>
>>  Com esses dados, vou entrar em outra parte do site e fazer a mesma
>> coisa:
>>  1. Entrar usuário e senha e conferir se autenticou;
>> 2. Entrar com uma palavra chave em um campo especifico, pois o site só
>> aceita o método post. Essa palavra-chave é o resultado da captura anterior;
>> 3. Submeter o form;
>>  4. Entrar em um link;
>>  5. Capturar vários dados;
>> 6. Repetir a partir do 2.
>>
>>
>>  [...]'s
>>
>> Marcio
>>
>>  ========================================
>> ########### Campanha Ajude o Marcio! ###########
>> http://sosmarcio.blogspot.com.br/
>> http://www.vakinha.com.br/VaquinhaP.aspx?e=195793
>>  ========================================
>>
>>
>> Em 9 de maio de 2013 11:47, Stanislaw Pusep <creaktive em gmail.com>escreveu:
>>
>>> Depende! Você precisa fazer isso "on-fly"? Ou em lote? Se for em lote,
>>> você quer percorrer o site todo? Ou tem uma lista de palavras-chaves?
>>>
>>>
>>> ABS()
>>>
>>>
>>>  2013/5/9 Marcio - Google <marciorp em gmail.com>
>>>
>>>>   Mestres,
>>>>
>>>>  Estou procurando uma forma de fazer um aplicativo que navegue em um
>>>> determinado site, capture algumas informações e grave em BD.
>>>>
>>>>  Pra ficar mais fácil de entender, vai um exemplo.
>>>> Entrar no site telelistas.net, preencher uma determinada palavra-chave
>>>> para busca, acionar o botão buscar e pegar os nomes e telefones para salvar
>>>> no BD. Isso sem interação/intervenção do usuário.
>>>>
>>>>  Alguma ideia? Módulo? Mágica?
>>>>
>>>>  Ah, o site alvo é Asp.Net.
>>>>
>>>>  Abs,
>>>>
>>>>
>>>> Marcio
>>>>
>>>>  ========================================
>>>> ########### Campanha Ajude o Marcio! ###########
>>>> http://sosmarcio.blogspot.com.br/
>>>>  http://www.vakinha.com.br/VaquinhaP.aspx?e=195793
>>>>  ========================================
>>>>
>>>>  =begin disclaimer
>>>>    Sao Paulo Perl Mongers: http://sao-paulo.pm.org/
>>>>  SaoPaulo-pm mailing list: SaoPaulo-pm em pm.org
>>>>  L<http://mail.pm.org/mailman/listinfo/saopaulo-pm>
>>>> =end disclaimer
>>>>
>>>>
>>>
>>> =begin disclaimer
>>>    Sao Paulo Perl Mongers: http://sao-paulo.pm.org/
>>>  SaoPaulo-pm mailing list: SaoPaulo-pm em pm.org
>>>  L<http://mail.pm.org/mailman/listinfo/saopaulo-pm>
>>> =end disclaimer
>>>
>>>
>>
>>
>> =begin disclaimer
>>    Sao Paulo Perl Mongers: http://sao-paulo.pm.org/
>>  SaoPaulo-pm mailing list: SaoPaulo-pm em pm.org
>>  L<http://mail.pm.org/mailman/listinfo/saopaulo-pm> <http://mail.pm.org/mailman/listinfo/saopaulo-pm>
>> =end disclaimer
>>
>>
>>
>> --
>> Eduardo Almeida - Software Engineer
>> eduardo em web2solutions.com.br - 27 3021-2430 / 27 9839 3755
>>
>> *WEB2 Solutions* - Inovando, sempre!
>>
>> =begin disclaimer
>>    Sao Paulo Perl Mongers: http://sao-paulo.pm.org/
>>  SaoPaulo-pm mailing list: SaoPaulo-pm em pm.org
>>  L<http://mail.pm.org/mailman/listinfo/saopaulo-pm>
>> =end disclaimer
>>
>>
>
> =begin disclaimer
>    Sao Paulo Perl Mongers: http://sao-paulo.pm.org/
>  SaoPaulo-pm mailing list: SaoPaulo-pm em pm.org
>  L<http://mail.pm.org/mailman/listinfo/saopaulo-pm>
> =end disclaimer
>
>
-------------- Pr?xima Parte ----------
Um anexo em HTML foi limpo...
URL: <http://mail.pm.org/pipermail/saopaulo-pm/attachments/20130509/edfcf997/attachment.html>


More information about the SaoPaulo-pm mailing list