Hallo, entschuldigt die technische (off topic) Frage. Hier ist offensichtlich einiges (mir fehlendes) Wissen ueber P2P-Netze versammelt, so dass ich nicht widerstehen kann, die Frage hier loszuwerden;-)
Auf einer australischen Linux-Mailingliste ist die Frage aufgetaucht, wie man grosse Platten einer Farm von ueber 200 Linux-Rechnern, verbunden mit Netzgeschwindigkeit von 1GB/sec, zu einem grossen Speicher organisiert, so dass man mittels simpler Get/Push/Remove-Befehle gelegentlich grosse Files (>500M) draufschiebt. Die Speichersoftware sollte den vorhandenen Plattenplatz selbst organisieren, um eine gleichmaessige Nutzung zu gewaehrleisten, und die Speicherung sollte redundant sein, so dass Ausfaelle einzelner Knoten nicht zu Datenverlust fuehren. Ist eine der P2P-Netz-Techniken dazu zu "missbrauchen"? Danke fuer Antworten Peter -- To unsubscribe, e-mail: [EMAIL PROTECTED] For additional commands, e-mail: [EMAIL PROTECTED]
