Hallo Tomas,

> auch die Standardmethode. Ich habe jedoch täglich ca. 3 - 5 GB an
> Logdaten zu verarbeiten, zusätzlich muss diese Groesse nicht nur
> Komprimiert und vor Analyse gefiltert werden etc. sondern an andere
> Systeme übertragen werden (Archivierung etc.)..
> Und genau das Kostet erheblich Zeit und Platz, mal eben >3 GB
> zu Greppen das ist zumindest 1 CPU 100%... und es dauert...

Die Geschwindigkeit von grep kann manchmal zu gering sein.
Insbesondere, wenn nach mehreren Argumenten gefiltert werden soll
oder im schlimmsten Fall sogar mehrere grep-Läufe notwendig sind.
Bei großen Logdateien und/oder umfangreichen Kriterien empfehle ich
Dir den Einsatz von awk, Perl oder C/C++. Bei geschickter Programmierung
kannst Du dadurch Performancevorteile von 300% oder mehr erreichen
(je nach Aufgabenstellung).

Viele Grüße
 Marcus Reimann
 M. Reimann Systemberatung
 http://www.reimann-systemberatung.de



--------------------------------------------------------------------------
                Apache HTTP Server Mailing List "users-de" 
      unsubscribe-Anfragen an [EMAIL PROTECTED]
           sonstige Anfragen an [EMAIL PROTECTED]
--------------------------------------------------------------------------

Antwort per Email an