>gibt es eine Moeglichkeit dem Squid zu sagen, da? er nachts (wenn
>wenig lost ist) ein paar Seiten, die ich regelmaessig besuche laedt
>und so schon mal einen gro?teil der Daten vorab chached?
>
>Ich wurde spontan folgendes ausprobieren:
>
>Mit wget nachts die Seiten abholen, dabei proxy verwenden und einfach
>nach /dev/null schicken. So muesste squid am naechsten Morgen  die
>Seiten noch recht frisch im speicher haben und es dauert nicht 5
>Minuten, bis sich zB die KDE-Screenshot-Seite aufgebaut hat.
>
>Geht das auch ohne den Umweg ueber wget?
Nicht gerade platzsparend, aber eine Alternative: wwwoffle, da hat man den 
Vorteil, dass man die
Seiten auch spaeter noch offline lesen kann.
Bei mir ist die Konfiguration so:

Client -> wwwoffle -> squid ---> Angebot im Web

So werden die guten Caching-Funktionalitaeten des Squid und die 
Offline-Faehigkeiten des wwwoffle
ausgenutzt.
Nachteil - die Daten werden natuerlich zweimal auf der Platte gecacht, die 
Plattenindustrie freut sich.

Gruss Peter
--
Um aus der Liste ausgetragen zu werden, eine Mail an [EMAIL PROTECTED]
schicken, mit dem Text: unsubscribe suse-linux

Antwort per Email an