2012/6/11 m3t30r m3t30r <sarmaledev...@gmail.com>: > Banui deci ca problema ca e ca DRBD-ul (pt HA la master) face de 2.5 ori > mai mult IO decat replicarea master slave. SI ca pe nodul cu DRBD mysql-ul > e oprit. > > Am identificat problema ? >
Nu. Master ------> slave1 \-------> slave2-1 <---(drbd)--> slave2-2 perechea slave 2-1 <-> 2-2 este pusa in drbd active/passive (deci nu e nevoie de gfs, fs-ul ala e montat o singura data) si, unlike slave1 nici macar nu primeste queries de la clienti, asa ca ar fi de asteptat sa faca mai putin io. Comparatia o fac intre numerele pe care le vad pe drbd0 pe slave2-1 si cele pe care le vad pe sda pe slave1 (cu tot cu binlogs, relaylogs si tot tacamul). Configurile de mysql sunt identice, versiunile de mysql sunt identice, diferenta principala e ca ala cu drbd are ext4 si ca e pe 64bit. Nu discut de ce face anume drbd cu sda-ul pe care e (pentru ca nu acolo am bottleneck-ul ci chiar in device-ul drbd). Opritul drbd-ului nu ajuta decat putin problema, dar in continuare vad aceeasi diferenta de writes/s intre slaves, banuiesc ca e vreo schema cu jurnalul de ext4 sau mai stiu eu ce (prin literatura pe care am citit-o parerile erau impartite intra ext4 si xfs, asa ca am zis ca merg tot pe ext din ratiuni operationale). Pana una alta incerc sa tunez diverse alte chestii care n-au legatura directa cu FS-ul, dar tot ma intriga diferenta aia de iops. -- Petre. _______________________________________________ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug