hallo michael,
ich denke, daß eure i/o tests wenig aussagen.
mit dd lest ihr eine einzige datei seriell aus. das optimiert alle buffer und tricks. bei der imageübertragung werden aber viele viele wahhlfreie zugriffe gleichzeitig auf dieselbe datei durchgeführt. das hebelt den cache paraktisch aus. zumindest den hw cache auf der platte. etwas helfen kann es, wenn der plattencache des linux größer ist, als die dateigröße des images. aber auch hier ist die verwaltung des cache eine blackbox. ich kann mir vorstellen, daß torrent da etwas eigenes macht, da dies ja ganz genau auf dieses szenario ausgelegt ist.

ich würde folgendermaßen anfangen (etwas für die herbstferien :-):
neuere ssd besorgen (also eine mit min 450 schreiben und lesen).
das komplette lml system (je nach größe ohne userdateien) auf diese ssd spiegeln und bootbar machen. wohlgemerkt keine virtualisierung, nur den lml sewrver.

sich einen neueren client mit 6gb sata krallen (so i5 sollte es schon sein), schaun, daß der nicht grad ne schund nic drin hat, den mit min 32gb ram ausstatten und dann mal mit diesem als server (an derselben netz infrastruktur) bei ein paar clients die caches füllen (erst 1 dann 2 dann 3 dann 4, schon steht... ääh nein, das kommt erst..., clients gleichzeitig. möglichst auch mit torrent) und die rate aufschreiben.

danach den ganzen virtuellen kram aus dem server ausbauen und stattdessen die ssd einbauen und den server hiermit starten.
dann dasselbe testen wie zuvor.

die beiden messungen sollten dir schonmal sagen, ob du am netz, am server oder an der virtualisierung weiter suchen solltest...

jonny
_______________________________________________
linuxmuster-user mailing list
linuxmuster-user@lists.linuxmuster.net
https://mail.lehrerpost.de/mailman/listinfo/linuxmuster-user

Antwort per Email an