Hallo Tomas, > auch die Standardmethode. Ich habe jedoch täglich ca. 3 - 5 GB an > Logdaten zu verarbeiten, zusätzlich muss diese Groesse nicht nur > Komprimiert und vor Analyse gefiltert werden etc. sondern an andere > Systeme übertragen werden (Archivierung etc.).. > Und genau das Kostet erheblich Zeit und Platz, mal eben >3 GB > zu Greppen das ist zumindest 1 CPU 100%... und es dauert...
Die Geschwindigkeit von grep kann manchmal zu gering sein. Insbesondere, wenn nach mehreren Argumenten gefiltert werden soll oder im schlimmsten Fall sogar mehrere grep-Läufe notwendig sind. Bei großen Logdateien und/oder umfangreichen Kriterien empfehle ich Dir den Einsatz von awk, Perl oder C/C++. Bei geschickter Programmierung kannst Du dadurch Performancevorteile von 300% oder mehr erreichen (je nach Aufgabenstellung). Viele Grüße Marcus Reimann M. Reimann Systemberatung http://www.reimann-systemberatung.de -------------------------------------------------------------------------- Apache HTTP Server Mailing List "users-de" unsubscribe-Anfragen an [EMAIL PROTECTED] sonstige Anfragen an [EMAIL PROTECTED] --------------------------------------------------------------------------