<a href="http://search.cpan.org/dist/NL-File-Lock/lib/NL/File/Lock.pm">http://search.cpan.org/dist/NL-File-Lock/lib/NL/File/Lock.pm</a><br><br><div class="gmail_quote">22 марта 2010 г. 10:32 пользователь Kaltashkin Eugene <span dir="ltr">&lt;<a href="mailto:zhecka@gmail.com">zhecka@gmail.com</a>&gt;</span> написал:<br>
<blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex;">Доброе время суток.<br>
<br>
Наткнулся на проблему. Пока не знаю как решить.<br>
Есть squid, который при запуске поднимает 32 одинаковых процесса.<br>
Каждый из процессов не является ничьим форком, просто тупо копия. В начале каждого процесса стоит команда очистки хранилища.<br>
В каждом процессе по идее должен инитится конфиг, но возникает ситуация, что процессы перетирают данные друг друга в объединённом хранилище. Вариант с lock файлом, который выставляется при запуске &quot;первого&quot; процесса хорош, но иногда не срабатывает и два процесса всё равно загружают данные в хранилище перетирая друг друга. Писать демона который будет висеть на сокете и регистрировать процессы внутри себя конечно возможен, но по моему это немного перебор. Сделал 2х секундную задержку, но не помогает.<br>

<br>
Может посоветуете чтонить ?<br><font color="#888888">
--<br>
Moscow.pm mailing list<br>
<a href="mailto:moscow-pm@pm.org" target="_blank">moscow-pm@pm.org</a> | <a href="http://moscow.pm.org" target="_blank">http://moscow.pm.org</a><br>
</font></blockquote></div><br>