[Cologne-pm] Hallo Zusammen
j.huettemeister@gmx.net
j.huettemeister at gmx.net
Tue Jul 5 11:22:10 PDT 2005
Am Dienstag, 5. Juli 2005 18:27 schrieb A. Pagaltzis:
> * j.huettemeister at gmx.net <j.huettemeister at gmx.net> [2005-07-05 17:55]:
> > Also hoffentlich gibts euch noch und ihr geht auch noch
> > mittwochs ins Sansibar(?).
>
> Ja, morgen.
>
Na Klasse!
> > Ich sitz ÃŒbrigens zZ an nem projektchen wo ich nen Haufen
> > Server mit rrdtool, logtail und perl monitoren will. Wenn Ihr
> > das schon mal gehört habt und mir helfen wollt zu
> > brainzustormen sagt Bescheid.
>
> Naja, wenn du keine Fragen stellst, können wir keine Antworten
> geben⊠:)
Also:
ich will ne große Anzahl server mit rrdtool überwachen. Bisher verfahr ich
folgendermaßen:
über einen minütlichen cronjobs wird per ssh logtail auf einem remote Server
aufgeführt. Der output wird geparsed, nach Sekunden sortiert und in eine rrd
Datei geschrieben. Der step der rrd Datei ist 60 Sekunden, ich mache die
updates dennoch auf Sekundenbasis, da logtail die Daten nicht etwa bis zur
*vollen* Minute zurückgibt, sondern bis zum Dateiende.
Jetzt kann das ganze aber zu einem performance Problem werden, da jetzt noch
nochmal 40 Server dazu kommen und pro server können das mehrere Logfiles
werden.
Um hier performance rauszuholen könnte ich die Daten *zwischenpuffern* und nur
immer bis zur letzten Minute das rrd update fahren. Über Dateien auf Platte
würd das gehen, oder, damit ich mal was lerne, vielleicht auch mit Threads?
Ich dache an ne queue in die ein Thread schreibt und ein anderer immer bis
zur vollen Minute rausholt... Macht das Sinn?
Hinzukommend: ich möchte nicht 100te Cronjobs haben, sondern nur ein skript,
das die einzelnen jobs minütlich anstößt. Da wäre Threads natürlich auch
toll, aber wie kann ich die minütlich anstoßen. Ich bräuchte ja sowas wie
einen scheduler.
Bestimmt gibts noch ganz andere und bessere Ideen ;-)
>
> Regards,
einer von uns beiden hat nen Zeichensatzproblem.
cheers, Johannes.
More information about the Cologne-pm
mailing list