<br><br><div class="gmail_quote">5 августа 2012 г., 15:06 пользователь Михаил Монашёв <span dir="ltr"><<a href="mailto:postmaster@softsearch.ru" target="_blank">postmaster@softsearch.ru</a>></span> написал:<br><blockquote class="gmail_quote" style="margin:0 0 0 .8ex;border-left:1px #ccc solid;padding-left:1ex">
Здравствуйте, Andrei.<br>
<div class="im"><br>
> Я сначала хотел порекомендовать прокачать железо, в частности диски,<br>
> но  теперь  я  вижу,  что проблема может быть решена немножко иначе.<br>
> Если один процесс обновляет много записей, то имеет смысл объединять<br>
> много  мелких  запросов  в один. Если же это не тот случай, то можно<br>
> рассмотреть вариант некого сервиса, который будет получать данные от<br>
> разных  процессов,  объединять  их  в  большие запросы и скармливать<br>
> мускулу.   Или  нескольким  мускулам.  Сеть,  конечно,  должна  быть<br>
> толстой.<br>
<br>
</div>Железо  лучше  не бывает, сеть 2Г/с. Группировка нескольких инсертов в<br>
один реализована, но это нечего не менят, ведь на диск писаться меньше<br>
данных не начинает и сами они тормозить не перестают.<br></blockquote><div><br><br>Вопрос не в том, сколько данных записывается, а в том, как часто. Я бы сказал, что не меньше одной-две тысячи записей за запрос может сильно упростить жизнь. Опять же можно поиграться с размером пакета, т.е. сделать так, чтобы запрос помещался в один пакет, чтобы мускул не ждал пока запрос соберётся из нескольких, прежде чем его распарсить. Т.е. если данных много, и запрос в пакет не вмещается, то разбить такой запрос на несколько.<br clear="all">
</div></div><br>-- <br>Andrei Protasovitski<br>< andrei[dot]protasovitski[at]gmail[dot]com ><br>Diemen, Netherlands<br>