[Moscow.pm] Web-spider

Alessandro Gorohovski an.gorohovski на gmail.com
Пт Июн 1 22:52:46 PDT 2012


Гнатына Александр <gnatyna на ya.ru> писал(а) в своём письме Fri, 01 Jun 2012  
23:03:05 +0300:

> wget
>
> Огласите требования.

Требования, вроде бы, не хитрые --- нужно сохранить всю инфу web-страницы  
в html -файл.

Обычно, поступал так, например:

my $url = 'http://www.адрес';


my $agent = LWP::UserAgent->new;
$agent->agent("Opera");

my $request = HTTP::Request->new( GET => $url );
$request->header('Accept' => 'text/html');

open(FILE, ">info.html");
print FILE_S $response->content;
close FILE;

Но сейчас столкнулся с тем, что для Web-страниц, содержащих JavaScript
все содержимое не могу получить,
т.е. то что вижу в броузере (Opera or others) нет в сохранённом файле.

Понимаю, что здесь проблема для меня с отработкой JavaScript, которые  
выполняются в броузере.

Вопрос в том, есть ли какой Perl-модуль или что-то консольное, выполняющее  
все что делает броузер
с возможностью сохранения этого результата?


> В Птн, 01/06/2012 в 21:58 +0300, Alessandro Gorohovski пишет:
>> Уважаемое сообщество,
>> Доброго времени суток!
>>
>> Посоветуйте модуль (кому реально приходилось пользоваться)
>> хорошего Web-spider.
>>
>> P.s.
>> На CPAN смотрел, их бескрайнее множество.
>>
>> Спасибо
>
>


-- 
Alessandro


Подробная информация о списке рассылки Moscow-pm