<!DOCTYPE html PUBLIC "-//W3C//DTD HTML 4.01 Transitional//EN">
<html>
<head>
  <meta content="text/html;charset=UTF-8" http-equiv="Content-Type">
</head>
<body bgcolor="#ffffff" text="#000000">
Fui conferir uma opção no perlrun e acabei achando um truque novo,
solução rápida para linha de comando:<br>
<br>
<small><small><tt>$ cat arqtxt_105MB_iso88591.html | perl -C2 -ne
'print' - &gt; arqtxt_105MB_utf8.html</tt></small></small><br>
<br>
Esta operação demora pouco mais de 5s no meu pc, é bem razoável.<br>
<br>
O recode, que acabei de parar de usar, faz em 15s usando aditivos:<br>
<br>
<small><small><tt>$ cat arqtxt_105MB_iso88591.html | recode
--sequence=memory l1..u8 &gt; arqtxt_105MB_utf8.html</tt></small></small><br>
<br>
O iconv consegue fazer em 2s:<br>
<br>
<small><small><tt>$ cat arqtxt_105MB_iso88591.html | iconv -f latin1 -t
utf-8 - &gt; arqtxt_105MB_utf8.html</tt></small></small><br>
<br>
Claro que tem outras formas de fazer em Perl mas imagino que não há
razão para o -C2 usar uma <br>
implementação que não seja a mais eficiente.<br>
<br>
<br>
-Silvio<br>
<br>
<br>
<br>
<a class="moz-txt-link-abbreviated" href="mailto:fernandolouis@terra.com.br">fernandolouis@terra.com.br</a> wrote:
<blockquote cite="mid:000b01c843ec$36660e60$1301a8c0@servidorliz"
 type="cite">
  <pre wrap="">Boa tarde pessoal.

Seguinte...fiz um .pl que gera todos sitemaps com todas as urls do meu site.

Um arquivo com 50.000 urls fica com quase 10MB, então usei o gzip para 
deixá-lo compactado (até porque economizo banda toda vez que o google puxar)

Só que antes de compactar os arquivos xml, tenho que convertê-los para 
UTF-8... há alguma maneira pra fazer isso em perl?

[]s
Fernando 

_______________________________________________
Cascavel-pm mailing list
<a class="moz-txt-link-abbreviated" href="mailto:Cascavel-pm@pm.org">Cascavel-pm@pm.org</a>
<a class="moz-txt-link-freetext" href="http://mail.pm.org/mailman/listinfo/cascavel-pm">http://mail.pm.org/mailman/listinfo/cascavel-pm</a>

  </pre>
</blockquote>
<br>
</body>
</html>