> Super Tipp!!!
> Jetzt habe ich bei der Netzqwerkkarte bei Multiqueues 2 eingetragen.
Hi ... das klingt ja gut. Dann werde ich das auch mal aktivieren. Hatte
es bisher nur gelesen aber nicht aktiviert ... dort steht ja, dass man
die max. Performance hat, wenn man die Anzahl der multiqueues gena
Hallo Michael,
Mir ist eine Proxmox-Option ins Auge gefallen, die ich bisher nie
benutzt habe. In den Settings der virt. Netzwerkkarte kann man die
Option "Multiqueue" anwählen.
Genaueres steht in der Hilfe oder hier:
https://pve.proxmox.com/wiki/Virtio-net-multiqueues
Hat das mal jemand ausprob
> http://www.linuxmuster.net/wiki/linuxmusternet:bugs:start
Könntest du das übernehmen -- bei mir erscheint:
FEHLER #15: Sie sind nicht berechtigt, eine Ticket anzulegen!
(einen Account habe ich dort aber eigentlich?!? ...)
___
linuxmuster-user mailin
Am 05.11.2016 um 20:00 schrieb Michael Hagedorn:
>> Ich vermute ja, sie sind alte Einträge und haben zu Zeiten von 100Mbit/s
>> gute Dienste geleistet. Ich habe bisher in unserem Schulnetz keine
>> Nachteile erkennen können.
> Wie gesagt -- dazu sollte sich mal jemand melden, der das damals
> einge
> Ich vermute ja, sie sind alte Einträge und haben zu Zeiten von 100Mbit/s
> gute Dienste geleistet. Ich habe bisher in unserem Schulnetz keine
> Nachteile erkennen können.
Wie gesagt -- dazu sollte sich mal jemand melden, der das damals
eingetragen/aktiviert hat ... liest hier einer mit?
___
# Most people will find that this option gives better performance.
# See smb.conf(5) and /usr/share/doc/samba-doc/htmldocs/speed.html
# for details
Also -- warum sind diese Werte aktiv?
Ich vermute ja, sie sind alte Einträge und haben zu Zeiten von 100Mbit/s
gute Dienste geleistet. Ich habe
>
> Ich vermute dieser Eintrag stammt von den Linuxmuster-Entwicklern: In
> meiner Erinnerung werden in der Debian-smb.conf keine Socket options
> gesetzt. Ich will damit sagen, die Werte können durchaus mit Bedacht
> gesetzt worden sein und mein Erhöhen der Buffergrößen kann mir irgendwo
> ander
Am 23.09.2016 um 19:20 schrieb Michael Hagedorn:
Daher die
Frage: Wie sieht das bei euch aus? Welche Übertragungsraten werden bei
euch angzeigt? Wo ist das Nadelöhr?
Meine späte Antwort ist etwas Off-Topic, aber bei uns ist gerade
Praktikumszeit: Ruhe um ein paar Experimente durchzuführen.
Aus
Hallo,
das ist garnicht so einfach zu erkennen, ob eine Karte active oder passive ist.
Ich plane grade dem Umstieg auf 10GBit über eine Cisco Sup V-10GE
(WS-X4516-10GE)
über CX4 an den Server. Dazu finden sich passende NIC:
* EXPX9502CX4 Intel 10GbE PCI-e Dual-Port 10GBase CX4 Server Adapter (~1
Hallo Michael,
Am 23.09.16 schrieb Michael Hagedorn :
>
> Daher die
> Frage: Wie sieht das bei euch aus? Welche Übertragungsraten werden bei
> euch angzeigt? Wo ist das Nadelöhr?
>
nicht zu vergessen: Die CPU im Client-PC.
Zwar rolle ich die Images mit FOG aus, allerdings zeigt sich bei mir
auc
Hallo Jens,
gestern mit Realtec habe ich Übertragungsraten bis 950 MBit/s gehabt. Auch
mehrere Clients gleichzeitig wurden mit 700 MBit/s mit einem neuen Image
per Multicast versehen.
Wir hatten allerdings in einem Raum das Problem dass die Übertragung
grottellahm war. Es stellte sich heraus, das
Hallo,
> sich einen neueren client mit 6gb sata krallen (so i5 sollte es schon sein),
> schaun, daß der nicht grad ne schund nic drin hat, den mit min 32gb ram
> ausstatten und dann mal mit diesem als server (an derselben netz
> infrastruktur) bei ein
Schund-NIC im Sinne von Realtek r8169?
Ich
Hallo Holger!
> Außerdem mischt ihr Aussagen über Mbyte/s und MB/s. Zweiteres sind
> MegaBit und nicht MegaByte!
Entschuldige bitte wenn ich jetzt mal oberlehrere. Aber der Aussage muss der
Datenverarbeitungstechniker in mir, dir widersprechen:
Die Masseinheiten sind wie immer case-sensitive!
Hallo,
> Man kann das LVM auf dem Server durchaus mounten. Ich habe das
> einmal gebraucht, weiß es grade aber nicht mehr auswendig.
> Im LVM ist zunächst mal eine Partitionstabelle untergebracht, wie
> bei jeder normalen HDD.
man muss ein LVM Volume erst "aufschließen": eben wegen der
Partitions
hallo michael,
ich denke, daß eure i/o tests wenig aussagen.
mit dd lest ihr eine einzige datei seriell aus. das optimiert alle
buffer und tricks.
bei der imageübertragung werden aber viele viele wahhlfreie zugriffe
gleichzeitig auf dieselbe datei durchgeführt. das hebelt den cache
paraktisch a
Hi.
Wäre schön, wenn jemand genaueres zu Geschwindigkeitsvergleichen sagen
könnte. Was lohnt sich einzustellen und was nicht? Jonny: du meintest
ja, dass es an "ganz allgemein" ein I/O-Problem sein kann. Wie kann man
das einkreisen?
> Man kann das LVM auf dem Server durchaus mounten. Ich habe das
Hallo Michael,
ich glaube es zumindest, dass der Durchsatz über das LVM besser ist.
(Ich meine, ich hätte das mal gelesen)
Man kann das LVM auf dem Server durchaus mounten. Ich habe das
einmal gebraucht, weiß es grade aber nicht mehr auswendig.
Im LVM ist zunächst mal eine Partitionstabelle unter
Nachtrag:
Mir ist eine Proxmox-Option ins Auge gefallen, die ich bisher nie
benutzt habe. In den Settings der virt. Netzwerkkarte kann man die
Option "Multiqueue" anwählen.
Genaueres steht in der Hilfe oder hier:
https://pve.proxmox.com/wiki/Virtio-net-multiqueues
Hat das mal jemand ausprobiert? K
> wir nehmen auf dem Proxmox ein LVM2 und weisen dem paedml
> gleich ein LVM-Volume als HDD zu. Das heißt letztendlich, dass die
> Bremse beim Zugriff auf die Datei (also das qcow) wegfällt.
Ich glaube, dass neue Proxmox-Installationen seit 4.2 das jetzt
automatisch so machen (thin-LVM). Es soll s
Hallo,
ich habe einen Server auf dem Blech installiert und einen mit XEN. Beide
Server verfügen über einen Hardware-Raidcontroler mit einem Raid 5. Bei
beiden beträgt die Übertragungsrate bis 980 Mbits/sec. DIe Werte knicken
mit zunehmender Zahl der am Multicast beteiligten Rechner ein. Beschicke
> Sieht ziemlich flott aus?! Der Server ist über eine virtIO-NIC
> angebunden. Mehr als 127 MB/s kann der dann scheinbar nicht?? Oder kann
> man auch da ein virt. bond einrichten um den Durchsatz zu steigern?
... das war natürlich Quatsch.
Es geht ja jetzt um den Disk-Controller und nicht um die
Hallo.
> Ob das Nadelöhr die Festplatten oder die Virtualisierung oder das
> Netzwerk oder etwas ganz anderes ist, ist schwer herauszubekommen.
Ich vermute das Nadelöhr im Moment eher auf der
Proxmox-/Virtualisierungs-Seite.
Wir haben da ein RAID-10 (aus 4 Platten bestehend) installiert.
> server1
Hallo Liste!
Ob das Nadelöhr die Festplatten oder die Virtualisierung oder das
Netzwerk oder etwas ganz anderes ist, ist schwer herauszubekommen.
Vielleicht helfen diese Tests etwas weiter:
Ich habe auf unserem - per KVM unter Ubuntu 16.04 virtualisiertem -
Server eine uralte und daher siche
Hallo Michael,
>> Netzwerkverbindung schauen, sondern auch auf das StorageBackend im Server.
> Ja, das dachte ich mir schon ... ich virtualisiere ja mit Proxmox und
> qcow2-Images. D.h. der Server dauernd auf die virt. HDDs zugreifen ...
> ich hätte aber nicht vermutet, dass DAS langsamer sein kö
hallo michael,
87000 sind wohl 87 megabyte pro sekunde (oder mibi-blah).
Das *bleibt* aber eine völlig andere Hausnummer als bei mir
Ich habe nochmal nachgesehen: Im Proxmox benutze ich bereits .raw
anstelle von .qcow2 (soll schneller sein). Hier macht sich *echte*
Server-Hardware wahrschei
> 87000 sind wohl 87 megabyte pro sekunde (oder mibi-blah).
Das *bleibt* aber eine völlig andere Hausnummer als bei mir
Ich habe nochmal nachgesehen: Im Proxmox benutze ich bereits .raw
anstelle von .qcow2 (soll schneller sein). Hier macht sich *echte*
Server-Hardware wahrscheinlich dann doch
ps:
87000 sind 87 megabyte pro sekunde (oder mibi-blah).
da fehlt ein "wohl". es soll also heißen:
87000 sind wohl 87 megabyte pro sekunde (oder mibi-blah).
___
linuxmuster-user mailing list
linuxmuster-user@lists.linuxmuster.net
https://mail.lehrerp
hallo michael,
das sind die geschwindigkeitswerte, die der torrent download anzeigt.
87000 sind 87 megabyte pro sekunde (oder mibi-blah).
jonny
nur server und 1 client: ca 87000
In welcher Einheit?
Ist es das, was LINBO direkt anzeigt oder woher stammen die Werte bei dir?
_
> nur server und 1 client: ca 87000
In welcher Einheit?
Ist es das, was LINBO direkt anzeigt oder woher stammen die Werte bei dir?
Michael
___
linuxmuster-user mailing list
linuxmuster-user@lists.linuxmuster.net
https://mail.lehrerpost.de/mailman/list
Hi.
> Netzwerkverbindung schauen, sondern auch auf das StorageBackend im Server.
Ja, das dachte ich mir schon ... ich virtualisiere ja mit Proxmox und
qcow2-Images. D.h. der Server dauernd auf die virt. HDDs zugreifen ...
ich hätte aber nicht vermutet, dass DAS langsamer sein könnte als die
Netzwe
hallo,
auf nem asus desktop board mit nem i5, 32gig ram und interner nic, von
ner kingston ssd mit lml 6.0 ohne raid mit torrent als verteilsystem und
nem billigen tp-link gbit switch. zahlen jeweils pro client:
nur server und 1 client: ca 87000
nur server und 2 clients: 77-82000
nur server un
Hallo Stefan und Michael,
>>> Maximalgeschwindigkeit (ca 40-45 Mbyte/s).
>> Das ist ja schon ne andere Hausnummer als bei mir -- hast du die Angabe
>> auch direkt bei LINBO abgelesen oder woher kommt sie?
> XEN-Center: Reiter "Performance" der Server-VM (wie geschrieben: ca. 30
> Clients gleichzei
Hallo Michael,
Maximalgeschwindigkeit (ca 40-45 Mbyte/s).
Das ist ja schon ne andere Hausnummer als bei mir -- hast du die Angabe
auch direkt bei LINBO abgelesen oder woher kommt sie?
XEN-Center: Reiter "Performance" der Server-VM (wie geschrieben: ca. 30
Clients gleichzeitig)
Scheinbar ist
> Maximalgeschwindigkeit (ca 40-45 Mbyte/s).
Das ist ja schon ne andere Hausnummer als bei mir -- hast du die Angabe
auch direkt bei LINBO abgelesen oder woher kommt sie?
Scheinbar ist ja der theoretische Wert 1 GBit/s = 125 MB/s wirklich nur
Theorie?! Wieviel overhead produziert denn so eine bit
Hallo,
ich habe mich auch gefragt, wieso mein Server (virtualisiert unter XEN)
mit 1Gbit/s angeschlossen an Hauptschitch mit 1Gbit/s über Nebenswitche
1Gbit/s beim Ausrollen von Images auf z.B. 30 Clients gleichzeitg in
versch. Gebäudeteilen (also über versch. Nebenswitche) nicht volle
Netzwe
Hallo.
Ich bin gerade dabei, hier alles auf VLANs & Subnetting umzustellen.
Dabei fiel natürlich auch ein Auge auf die Übertragungsraten, die ich
mit lml 6.1 und dem neuen Cisco-Switch hinkriege. Da alles 1 GBit Karten
(als 4-fach bond zum Server realisiert: also 4 x 1 GBit; aber nicht 4
GBit), ha
36 matches
Mail list logo