Re: [FUG-BR] tunning para um futuro servidor manicomio-share
Em 12/07/2012 10:45, vic escreveu: > Em 2012-07-12 9:54, Marcelo Gondim escreveu: >> ahhaha que jeito bom de começar uma nova thread :D >> >> Pessoal vou começar a thread com os dados técnicos para quem não >> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o >> número >> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados >> do >> site: >> >> Peers: 436.180 >> Users: 94.733 >> Torrents: 99.282 >> >> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS >> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i. >> >> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS >> ou >> UFS2+SUJ > Heehehe.. Gondim vc trocou k por M, mato a princesa e comeu o > dragão!![1] :P > > Nessa situação aí não sei dizer o que tem mais peformance, só que no > caso do ZFS você terá que usar 1 SSD para o ARC e outro para o ZIL, > deixando os discos só para os dados e mais memória para a aplicação[2]. > > > [1]: > http://www.chrisb.com.br/blog/como-matar-o-dragao-e-salvar-a-princesa-pelos-programador/ HahahahaHahahAhAhA espetacular esse texto. Fiz igual ao programador assembler ahahahahah > [2]: > http://constantin.glez.de/blog/2011/02/frequently-asked-questions-about-flash-memory-ssds-and-zfs > Vou ler esse aqui pra me inteirar. Valeu!!! - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] tunning para um futuro servidor manicomio-share
Vale lembrar que se você ativar a compressão no zfs ele reduz o IO do disco. -- >From mobile On 12/07/2012, at 11:01 AM, Marcelo Gondim wrote: > Em 12/07/2012 10:43, William Grzybowski escreveu: >> 2012/7/12 Marcelo Gondim : >>> Em 12/07/2012 10:07, Leonardo Augusto escreveu: 2012/7/12 Marcelo Gondim : > ahhaha que jeito bom de começar uma nova thread :D > > Pessoal vou começar a thread com os dados técnicos para quem não > acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número > de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do > site: > > Peers: 436.180 > Users: 94.733 > Torrents: 99.282 > > O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS > 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i. > > 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou > UFS2+SUJ > 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles: > > sysctl.conf: > == > kern.ipc.somaxconn=4096 > kern.ipc.shmmax=2147483648 > kern.ipc.maxsockets=204800 > kern.ipc.nmbclusters=262144 > kern.ps_arg_cache_limit=4096 > kern.maxfiles=204800 > kern.maxfilesperproc=20 > kern.maxvnodes=20 > kern.timecounter.hardware=HPET > net.inet.tcp.rfc1323=1 > net.inet.tcp.delayed_ack=0 > net.inet.ip.portrange.first=1024 > net.inet.ip.portrange.last=65535 > net.inet.ip.rtminexpire=2 > net.inet.ip.rtmaxcache=1024 > net.inet.ip.redirect=0 > net.inet.ip.sourceroute=0 > net.inet.ip.accept_sourceroute=0 > net.inet.icmp.maskrepl=0 > net.inet.icmp.log_redirect=0 > net.inet.icmp.drop_redirect=1 > net.inet.tcp.drop_synfin=1 > net.inet.udp.blackhole=1 > net.inet.tcp.blackhole=2 > net.inet6.icmp6.nodeinfo=0 > net.inet6.ip6.use_tempaddr=1 > net.inet6.ip6.prefer_tempaddr=1 > net.inet6.icmp6.rediraccept=0 > net.inet.ip.ttl=128 > net.inet.tcp.msl=5000 > net.inet.tcp.maxtcptw=20 > net.inet.tcp.fast_finwait2_recycle=1 > net.inet.ip.intr_queue_maxlen=4096 > net.inet.ip.dummynet.io_fast=1 > vfs.ufs.dirhash_maxmem=67108864 > vfs.read_max=64 > net.inet.tcp.ecn.enable=1 > net.inet.ip.fw.dyn_buckets=65536 > net.inet.ip.fw.dyn_max=65536 > net.inet.ip.fw.dyn_ack_lifetime=120 > net.inet.ip.fw.dyn_syn_lifetime=10 > net.inet.ip.fw.dyn_fin_lifetime=2 > net.inet.ip.fw.dyn_short_lifetime=10 > > loader.conf: > == > aio_load="YES" > net.inet.tcp.syncache.hashsize=32768 > net.inet.tcp.syncache.bucketlimit=32 > net.inet.tcp.syncache.cachelimit=1048576 > net.inet.tcp.hostcache.hashsize=65536 > net.inet.tcp.hostcache.cachelimit=1966080 > net.inet.tcp.tcbhashsize=4096 > vm.pmap.pg_ps_enabled=1 > > Sabemos que essa parte de tunning é uma característica muitas das vezes > até do tipo do servidor e da carga que esse recebe mas é sempre bom > comentar sobre o que temos e ouvir a experiência daqueles que já > passaram por diversos problemas. :) > > Gondim Marcelo, A primeira coisa que eu faria seria abolir esse RAID 0, se um hd pifar, para e perde tudo, raid 0 só em lugares onde tem apenas read e tem cluster... senao o sistema para mesmo em caso de falha fisica de algum hd. Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em read/write(o 10 tem melhor read) e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada. raid 0 sera uma catastrofe. >>> E se no lugar do raid 10 fizesse um raidz2 com ZFS? Será que a >>> performance no ZFS seria melhor ou pior que fazendo o raid 10 e usando o >>> UFS2+SUJ? >> ZFS é um cara complicado, tem que tunar _muito_ bem, e achar o meio >> termo entre desempenho e uso de memória (come muuita). >> Sobre raidz2, é bom lembrar que ele tem uma penalidade se comparado ao >> raidz (algo em torno de 30-40%). Não é oficial mas isso é com base nos >> diversos testes que realizamos na empresa que trabalho. >> >> Eu sou fã do ZFS mas com o hardware que você tem eu faria um hardware >> RAID10 e usaria UFS. >> >> > Show e realmente preciso de performance mesmo de i/o no disco. > > > - > Histórico: http://www.fug.com.br/historico/html/freebsd/ > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] tunning para um futuro servidor manicomio-share
Em 12/07/2012 10:43, William Grzybowski escreveu: > 2012/7/12 Marcelo Gondim : >> Em 12/07/2012 10:07, Leonardo Augusto escreveu: >>> 2012/7/12 Marcelo Gondim : ahhaha que jeito bom de começar uma nova thread :D Pessoal vou começar a thread com os dados técnicos para quem não acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do site: Peers: 436.180 Users: 94.733 Torrents: 99.282 O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i. 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou UFS2+SUJ 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles: sysctl.conf: == kern.ipc.somaxconn=4096 kern.ipc.shmmax=2147483648 kern.ipc.maxsockets=204800 kern.ipc.nmbclusters=262144 kern.ps_arg_cache_limit=4096 kern.maxfiles=204800 kern.maxfilesperproc=20 kern.maxvnodes=20 kern.timecounter.hardware=HPET net.inet.tcp.rfc1323=1 net.inet.tcp.delayed_ack=0 net.inet.ip.portrange.first=1024 net.inet.ip.portrange.last=65535 net.inet.ip.rtminexpire=2 net.inet.ip.rtmaxcache=1024 net.inet.ip.redirect=0 net.inet.ip.sourceroute=0 net.inet.ip.accept_sourceroute=0 net.inet.icmp.maskrepl=0 net.inet.icmp.log_redirect=0 net.inet.icmp.drop_redirect=1 net.inet.tcp.drop_synfin=1 net.inet.udp.blackhole=1 net.inet.tcp.blackhole=2 net.inet6.icmp6.nodeinfo=0 net.inet6.ip6.use_tempaddr=1 net.inet6.ip6.prefer_tempaddr=1 net.inet6.icmp6.rediraccept=0 net.inet.ip.ttl=128 net.inet.tcp.msl=5000 net.inet.tcp.maxtcptw=20 net.inet.tcp.fast_finwait2_recycle=1 net.inet.ip.intr_queue_maxlen=4096 net.inet.ip.dummynet.io_fast=1 vfs.ufs.dirhash_maxmem=67108864 vfs.read_max=64 net.inet.tcp.ecn.enable=1 net.inet.ip.fw.dyn_buckets=65536 net.inet.ip.fw.dyn_max=65536 net.inet.ip.fw.dyn_ack_lifetime=120 net.inet.ip.fw.dyn_syn_lifetime=10 net.inet.ip.fw.dyn_fin_lifetime=2 net.inet.ip.fw.dyn_short_lifetime=10 loader.conf: == aio_load="YES" net.inet.tcp.syncache.hashsize=32768 net.inet.tcp.syncache.bucketlimit=32 net.inet.tcp.syncache.cachelimit=1048576 net.inet.tcp.hostcache.hashsize=65536 net.inet.tcp.hostcache.cachelimit=1966080 net.inet.tcp.tcbhashsize=4096 vm.pmap.pg_ps_enabled=1 Sabemos que essa parte de tunning é uma característica muitas das vezes até do tipo do servidor e da carga que esse recebe mas é sempre bom comentar sobre o que temos e ouvir a experiência daqueles que já passaram por diversos problemas. :) Gondim >>> Marcelo, >>> >>> A primeira coisa que eu faria seria abolir esse RAID 0, se um hd >>> pifar, para e perde tudo, >>> raid 0 só em lugares onde tem apenas read e tem cluster... senao o >>> sistema para mesmo >>> em caso de falha fisica de algum hd. >>> >>> Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em >>> read/write(o 10 tem melhor read) >>> e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada. >>> raid 0 sera uma catastrofe. >> E se no lugar do raid 10 fizesse um raidz2 com ZFS? Será que a >> performance no ZFS seria melhor ou pior que fazendo o raid 10 e usando o >> UFS2+SUJ? > ZFS é um cara complicado, tem que tunar _muito_ bem, e achar o meio > termo entre desempenho e uso de memória (come muuita). > Sobre raidz2, é bom lembrar que ele tem uma penalidade se comparado ao > raidz (algo em torno de 30-40%). Não é oficial mas isso é com base nos > diversos testes que realizamos na empresa que trabalho. > > Eu sou fã do ZFS mas com o hardware que você tem eu faria um hardware > RAID10 e usaria UFS. > > Show e realmente preciso de performance mesmo de i/o no disco. - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] tunning para um futuro servidor manicomio-share
Em 2012-07-12 9:54, Marcelo Gondim escreveu: > ahhaha que jeito bom de começar uma nova thread :D > > Pessoal vou começar a thread com os dados técnicos para quem não > acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o > número > de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados > do > site: > > Peers: 436.180 > Users: 94.733 > Torrents: 99.282 > > O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS > 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i. > > 1ª) pergunta o que teria a melhor performance para essa situação? ZFS > ou > UFS2+SUJ Heehehe.. Gondim vc trocou k por M, mato a princesa e comeu o dragão!![1] :P Nessa situação aí não sei dizer o que tem mais peformance, só que no caso do ZFS você terá que usar 1 SSD para o ARC e outro para o ZIL, deixando os discos só para os dados e mais memória para a aplicação[2]. [1]: http://www.chrisb.com.br/blog/como-matar-o-dragao-e-salvar-a-princesa-pelos-programador/ [2]: http://constantin.glez.de/blog/2011/02/frequently-asked-questions-about-flash-memory-ssds-and-zfs -- vic http://choppnerd.com http://donttrack.us | http://dontbubble.us - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] tunning para um futuro servidor manicomio-share
2012/7/12 Marcelo Gondim : > Em 12/07/2012 10:07, Leonardo Augusto escreveu: >> 2012/7/12 Marcelo Gondim : >>> ahhaha que jeito bom de começar uma nova thread :D >>> >>> Pessoal vou começar a thread com os dados técnicos para quem não >>> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número >>> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do >>> site: >>> >>> Peers: 436.180 >>> Users: 94.733 >>> Torrents: 99.282 >>> >>> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS >>> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i. >>> >>> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou >>> UFS2+SUJ >>> 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles: >>> >>> sysctl.conf: >>> == >>> kern.ipc.somaxconn=4096 >>> kern.ipc.shmmax=2147483648 >>> kern.ipc.maxsockets=204800 >>> kern.ipc.nmbclusters=262144 >>> kern.ps_arg_cache_limit=4096 >>> kern.maxfiles=204800 >>> kern.maxfilesperproc=20 >>> kern.maxvnodes=20 >>> kern.timecounter.hardware=HPET >>> net.inet.tcp.rfc1323=1 >>> net.inet.tcp.delayed_ack=0 >>> net.inet.ip.portrange.first=1024 >>> net.inet.ip.portrange.last=65535 >>> net.inet.ip.rtminexpire=2 >>> net.inet.ip.rtmaxcache=1024 >>> net.inet.ip.redirect=0 >>> net.inet.ip.sourceroute=0 >>> net.inet.ip.accept_sourceroute=0 >>> net.inet.icmp.maskrepl=0 >>> net.inet.icmp.log_redirect=0 >>> net.inet.icmp.drop_redirect=1 >>> net.inet.tcp.drop_synfin=1 >>> net.inet.udp.blackhole=1 >>> net.inet.tcp.blackhole=2 >>> net.inet6.icmp6.nodeinfo=0 >>> net.inet6.ip6.use_tempaddr=1 >>> net.inet6.ip6.prefer_tempaddr=1 >>> net.inet6.icmp6.rediraccept=0 >>> net.inet.ip.ttl=128 >>> net.inet.tcp.msl=5000 >>> net.inet.tcp.maxtcptw=20 >>> net.inet.tcp.fast_finwait2_recycle=1 >>> net.inet.ip.intr_queue_maxlen=4096 >>> net.inet.ip.dummynet.io_fast=1 >>> vfs.ufs.dirhash_maxmem=67108864 >>> vfs.read_max=64 >>> net.inet.tcp.ecn.enable=1 >>> net.inet.ip.fw.dyn_buckets=65536 >>> net.inet.ip.fw.dyn_max=65536 >>> net.inet.ip.fw.dyn_ack_lifetime=120 >>> net.inet.ip.fw.dyn_syn_lifetime=10 >>> net.inet.ip.fw.dyn_fin_lifetime=2 >>> net.inet.ip.fw.dyn_short_lifetime=10 >>> >>> loader.conf: >>> == >>> aio_load="YES" >>> net.inet.tcp.syncache.hashsize=32768 >>> net.inet.tcp.syncache.bucketlimit=32 >>> net.inet.tcp.syncache.cachelimit=1048576 >>> net.inet.tcp.hostcache.hashsize=65536 >>> net.inet.tcp.hostcache.cachelimit=1966080 >>> net.inet.tcp.tcbhashsize=4096 >>> vm.pmap.pg_ps_enabled=1 >>> >>> Sabemos que essa parte de tunning é uma característica muitas das vezes >>> até do tipo do servidor e da carga que esse recebe mas é sempre bom >>> comentar sobre o que temos e ouvir a experiência daqueles que já >>> passaram por diversos problemas. :) >>> >>> Gondim >> Marcelo, >> >> A primeira coisa que eu faria seria abolir esse RAID 0, se um hd >> pifar, para e perde tudo, >> raid 0 só em lugares onde tem apenas read e tem cluster... senao o >> sistema para mesmo >> em caso de falha fisica de algum hd. >> >> Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em >> read/write(o 10 tem melhor read) >> e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada. >> raid 0 sera uma catastrofe. > > E se no lugar do raid 10 fizesse um raidz2 com ZFS? Será que a > performance no ZFS seria melhor ou pior que fazendo o raid 10 e usando o > UFS2+SUJ? ZFS é um cara complicado, tem que tunar _muito_ bem, e achar o meio termo entre desempenho e uso de memória (come muuita). Sobre raidz2, é bom lembrar que ele tem uma penalidade se comparado ao raidz (algo em torno de 30-40%). Não é oficial mas isso é com base nos diversos testes que realizamos na empresa que trabalho. Eu sou fã do ZFS mas com o hardware que você tem eu faria um hardware RAID10 e usaria UFS. -- William Grzybowski -- Agência Livre - www.agencialivre.com.br Curitiba/PR - Brasil - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] tunning para um futuro servidor manicomio-share
Em 12 de julho de 2012 10:36, Marcelo Gondim escreveu: > Em 12/07/2012 10:07, Leonardo Augusto escreveu: >> 2012/7/12 Marcelo Gondim : >>> ahhaha que jeito bom de começar uma nova thread :D >>> >>> Pessoal vou começar a thread com os dados técnicos para quem não >>> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número >>> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do >>> site: >>> >>> Peers: 436.180 >>> Users: 94.733 >>> Torrents: 99.282 >>> >>> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS >>> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i. >>> >>> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou >>> UFS2+SUJ >>> 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles: >>> >>> sysctl.conf: >>> == >>> kern.ipc.somaxconn=4096 >>> kern.ipc.shmmax=2147483648 >>> kern.ipc.maxsockets=204800 >>> kern.ipc.nmbclusters=262144 >>> kern.ps_arg_cache_limit=4096 >>> kern.maxfiles=204800 >>> kern.maxfilesperproc=20 >>> kern.maxvnodes=20 >>> kern.timecounter.hardware=HPET >>> net.inet.tcp.rfc1323=1 >>> net.inet.tcp.delayed_ack=0 >>> net.inet.ip.portrange.first=1024 >>> net.inet.ip.portrange.last=65535 >>> net.inet.ip.rtminexpire=2 >>> net.inet.ip.rtmaxcache=1024 >>> net.inet.ip.redirect=0 >>> net.inet.ip.sourceroute=0 >>> net.inet.ip.accept_sourceroute=0 >>> net.inet.icmp.maskrepl=0 >>> net.inet.icmp.log_redirect=0 >>> net.inet.icmp.drop_redirect=1 >>> net.inet.tcp.drop_synfin=1 >>> net.inet.udp.blackhole=1 >>> net.inet.tcp.blackhole=2 >>> net.inet6.icmp6.nodeinfo=0 >>> net.inet6.ip6.use_tempaddr=1 >>> net.inet6.ip6.prefer_tempaddr=1 >>> net.inet6.icmp6.rediraccept=0 >>> net.inet.ip.ttl=128 >>> net.inet.tcp.msl=5000 >>> net.inet.tcp.maxtcptw=20 >>> net.inet.tcp.fast_finwait2_recycle=1 >>> net.inet.ip.intr_queue_maxlen=4096 >>> net.inet.ip.dummynet.io_fast=1 >>> vfs.ufs.dirhash_maxmem=67108864 >>> vfs.read_max=64 >>> net.inet.tcp.ecn.enable=1 >>> net.inet.ip.fw.dyn_buckets=65536 >>> net.inet.ip.fw.dyn_max=65536 >>> net.inet.ip.fw.dyn_ack_lifetime=120 >>> net.inet.ip.fw.dyn_syn_lifetime=10 >>> net.inet.ip.fw.dyn_fin_lifetime=2 >>> net.inet.ip.fw.dyn_short_lifetime=10 >>> >>> loader.conf: >>> == >>> aio_load="YES" >>> net.inet.tcp.syncache.hashsize=32768 >>> net.inet.tcp.syncache.bucketlimit=32 >>> net.inet.tcp.syncache.cachelimit=1048576 >>> net.inet.tcp.hostcache.hashsize=65536 >>> net.inet.tcp.hostcache.cachelimit=1966080 >>> net.inet.tcp.tcbhashsize=4096 >>> vm.pmap.pg_ps_enabled=1 >>> >>> Sabemos que essa parte de tunning é uma característica muitas das vezes >>> até do tipo do servidor e da carga que esse recebe mas é sempre bom >>> comentar sobre o que temos e ouvir a experiência daqueles que já >>> passaram por diversos problemas. :) >>> >>> Gondim >> Marcelo, >> >> A primeira coisa que eu faria seria abolir esse RAID 0, se um hd >> pifar, para e perde tudo, >> raid 0 só em lugares onde tem apenas read e tem cluster... senao o >> sistema para mesmo >> em caso de falha fisica de algum hd. >> >> Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em >> read/write(o 10 tem melhor read) >> e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada. >> raid 0 sera uma catastrofe. > > E se no lugar do raid 10 fizesse um raidz2 com ZFS? Será que a > performance no ZFS seria melhor ou pior que fazendo o raid 10 e usando o > UFS2+SUJ? > > > - > Histórico: http://www.fug.com.br/historico/html/freebsd/ > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd melhor jeito seria testando mesmo, so assim iria acabar com duvida. -- Alessandro de Souza Rocha Administrador de Redes e Sistemas FreeBSD-BR User #117 Long live FreeBSD Powered by (__) \\\'',) \/ \ ^ .\._/_) www.FreeBSD.org - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] tunning para um futuro servidor manicomio-share
Em 12/07/2012 10:07, Leonardo Augusto escreveu: > 2012/7/12 Marcelo Gondim : >> ahhaha que jeito bom de começar uma nova thread :D >> >> Pessoal vou começar a thread com os dados técnicos para quem não >> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número >> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do >> site: >> >> Peers: 436.180 >> Users: 94.733 >> Torrents: 99.282 >> >> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS >> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i. >> >> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou >> UFS2+SUJ >> 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles: >> >> sysctl.conf: >> == >> kern.ipc.somaxconn=4096 >> kern.ipc.shmmax=2147483648 >> kern.ipc.maxsockets=204800 >> kern.ipc.nmbclusters=262144 >> kern.ps_arg_cache_limit=4096 >> kern.maxfiles=204800 >> kern.maxfilesperproc=20 >> kern.maxvnodes=20 >> kern.timecounter.hardware=HPET >> net.inet.tcp.rfc1323=1 >> net.inet.tcp.delayed_ack=0 >> net.inet.ip.portrange.first=1024 >> net.inet.ip.portrange.last=65535 >> net.inet.ip.rtminexpire=2 >> net.inet.ip.rtmaxcache=1024 >> net.inet.ip.redirect=0 >> net.inet.ip.sourceroute=0 >> net.inet.ip.accept_sourceroute=0 >> net.inet.icmp.maskrepl=0 >> net.inet.icmp.log_redirect=0 >> net.inet.icmp.drop_redirect=1 >> net.inet.tcp.drop_synfin=1 >> net.inet.udp.blackhole=1 >> net.inet.tcp.blackhole=2 >> net.inet6.icmp6.nodeinfo=0 >> net.inet6.ip6.use_tempaddr=1 >> net.inet6.ip6.prefer_tempaddr=1 >> net.inet6.icmp6.rediraccept=0 >> net.inet.ip.ttl=128 >> net.inet.tcp.msl=5000 >> net.inet.tcp.maxtcptw=20 >> net.inet.tcp.fast_finwait2_recycle=1 >> net.inet.ip.intr_queue_maxlen=4096 >> net.inet.ip.dummynet.io_fast=1 >> vfs.ufs.dirhash_maxmem=67108864 >> vfs.read_max=64 >> net.inet.tcp.ecn.enable=1 >> net.inet.ip.fw.dyn_buckets=65536 >> net.inet.ip.fw.dyn_max=65536 >> net.inet.ip.fw.dyn_ack_lifetime=120 >> net.inet.ip.fw.dyn_syn_lifetime=10 >> net.inet.ip.fw.dyn_fin_lifetime=2 >> net.inet.ip.fw.dyn_short_lifetime=10 >> >> loader.conf: >> == >> aio_load="YES" >> net.inet.tcp.syncache.hashsize=32768 >> net.inet.tcp.syncache.bucketlimit=32 >> net.inet.tcp.syncache.cachelimit=1048576 >> net.inet.tcp.hostcache.hashsize=65536 >> net.inet.tcp.hostcache.cachelimit=1966080 >> net.inet.tcp.tcbhashsize=4096 >> vm.pmap.pg_ps_enabled=1 >> >> Sabemos que essa parte de tunning é uma característica muitas das vezes >> até do tipo do servidor e da carga que esse recebe mas é sempre bom >> comentar sobre o que temos e ouvir a experiência daqueles que já >> passaram por diversos problemas. :) >> >> Gondim > Marcelo, > > A primeira coisa que eu faria seria abolir esse RAID 0, se um hd > pifar, para e perde tudo, > raid 0 só em lugares onde tem apenas read e tem cluster... senao o > sistema para mesmo > em caso de falha fisica de algum hd. > > Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em > read/write(o 10 tem melhor read) > e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada. > raid 0 sera uma catastrofe. E se no lugar do raid 10 fizesse um raidz2 com ZFS? Será que a performance no ZFS seria melhor ou pior que fazendo o raid 10 e usando o UFS2+SUJ? - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] tunning para um futuro servidor manicomio-share
2012/7/12 Leonardo Augusto : > > Marcelo, > > A primeira coisa que eu faria seria abolir esse RAID 0, se um hd > pifar, para e perde tudo, > raid 0 só em lugares onde tem apenas read e tem cluster... senao o > sistema para mesmo > em caso de falha fisica de algum hd. > > Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em > read/write(o 10 tem melhor read) > e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada. > raid 0 sera uma catastrofe. > > abraco > - > Histórico: http://www.fug.com.br/historico/html/freebsd/ > Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd Geralmente eu sou até mais paranoico, dependendo do ambiente eu uso RAID6. -- Atenciosamente, Antônio Pessoa - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
Re: [FUG-BR] tunning para um futuro servidor manicomio-share
2012/7/12 Marcelo Gondim : > ahhaha que jeito bom de começar uma nova thread :D > > Pessoal vou começar a thread com os dados técnicos para quem não > acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número > de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do > site: > > Peers: 436.180 > Users: 94.733 > Torrents: 99.282 > > O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS > 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i. > > 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou > UFS2+SUJ > 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles: > > sysctl.conf: > == > kern.ipc.somaxconn=4096 > kern.ipc.shmmax=2147483648 > kern.ipc.maxsockets=204800 > kern.ipc.nmbclusters=262144 > kern.ps_arg_cache_limit=4096 > kern.maxfiles=204800 > kern.maxfilesperproc=20 > kern.maxvnodes=20 > kern.timecounter.hardware=HPET > net.inet.tcp.rfc1323=1 > net.inet.tcp.delayed_ack=0 > net.inet.ip.portrange.first=1024 > net.inet.ip.portrange.last=65535 > net.inet.ip.rtminexpire=2 > net.inet.ip.rtmaxcache=1024 > net.inet.ip.redirect=0 > net.inet.ip.sourceroute=0 > net.inet.ip.accept_sourceroute=0 > net.inet.icmp.maskrepl=0 > net.inet.icmp.log_redirect=0 > net.inet.icmp.drop_redirect=1 > net.inet.tcp.drop_synfin=1 > net.inet.udp.blackhole=1 > net.inet.tcp.blackhole=2 > net.inet6.icmp6.nodeinfo=0 > net.inet6.ip6.use_tempaddr=1 > net.inet6.ip6.prefer_tempaddr=1 > net.inet6.icmp6.rediraccept=0 > net.inet.ip.ttl=128 > net.inet.tcp.msl=5000 > net.inet.tcp.maxtcptw=20 > net.inet.tcp.fast_finwait2_recycle=1 > net.inet.ip.intr_queue_maxlen=4096 > net.inet.ip.dummynet.io_fast=1 > vfs.ufs.dirhash_maxmem=67108864 > vfs.read_max=64 > net.inet.tcp.ecn.enable=1 > net.inet.ip.fw.dyn_buckets=65536 > net.inet.ip.fw.dyn_max=65536 > net.inet.ip.fw.dyn_ack_lifetime=120 > net.inet.ip.fw.dyn_syn_lifetime=10 > net.inet.ip.fw.dyn_fin_lifetime=2 > net.inet.ip.fw.dyn_short_lifetime=10 > > loader.conf: > == > aio_load="YES" > net.inet.tcp.syncache.hashsize=32768 > net.inet.tcp.syncache.bucketlimit=32 > net.inet.tcp.syncache.cachelimit=1048576 > net.inet.tcp.hostcache.hashsize=65536 > net.inet.tcp.hostcache.cachelimit=1966080 > net.inet.tcp.tcbhashsize=4096 > vm.pmap.pg_ps_enabled=1 > > Sabemos que essa parte de tunning é uma característica muitas das vezes > até do tipo do servidor e da carga que esse recebe mas é sempre bom > comentar sobre o que temos e ouvir a experiência daqueles que já > passaram por diversos problemas. :) > > Gondim Marcelo, A primeira coisa que eu faria seria abolir esse RAID 0, se um hd pifar, para e perde tudo, raid 0 só em lugares onde tem apenas read e tem cluster... senao o sistema para mesmo em caso de falha fisica de algum hd. Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em read/write(o 10 tem melhor read) e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada. raid 0 sera uma catastrofe. abraco - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
[FUG-BR] tunning para um futuro servidor manicomio-share
ahhaha que jeito bom de começar uma nova thread :D Pessoal vou começar a thread com os dados técnicos para quem não acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do site: Peers: 436.180 Users: 94.733 Torrents: 99.282 O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i. 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou UFS2+SUJ 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles: sysctl.conf: == kern.ipc.somaxconn=4096 kern.ipc.shmmax=2147483648 kern.ipc.maxsockets=204800 kern.ipc.nmbclusters=262144 kern.ps_arg_cache_limit=4096 kern.maxfiles=204800 kern.maxfilesperproc=20 kern.maxvnodes=20 kern.timecounter.hardware=HPET net.inet.tcp.rfc1323=1 net.inet.tcp.delayed_ack=0 net.inet.ip.portrange.first=1024 net.inet.ip.portrange.last=65535 net.inet.ip.rtminexpire=2 net.inet.ip.rtmaxcache=1024 net.inet.ip.redirect=0 net.inet.ip.sourceroute=0 net.inet.ip.accept_sourceroute=0 net.inet.icmp.maskrepl=0 net.inet.icmp.log_redirect=0 net.inet.icmp.drop_redirect=1 net.inet.tcp.drop_synfin=1 net.inet.udp.blackhole=1 net.inet.tcp.blackhole=2 net.inet6.icmp6.nodeinfo=0 net.inet6.ip6.use_tempaddr=1 net.inet6.ip6.prefer_tempaddr=1 net.inet6.icmp6.rediraccept=0 net.inet.ip.ttl=128 net.inet.tcp.msl=5000 net.inet.tcp.maxtcptw=20 net.inet.tcp.fast_finwait2_recycle=1 net.inet.ip.intr_queue_maxlen=4096 net.inet.ip.dummynet.io_fast=1 vfs.ufs.dirhash_maxmem=67108864 vfs.read_max=64 net.inet.tcp.ecn.enable=1 net.inet.ip.fw.dyn_buckets=65536 net.inet.ip.fw.dyn_max=65536 net.inet.ip.fw.dyn_ack_lifetime=120 net.inet.ip.fw.dyn_syn_lifetime=10 net.inet.ip.fw.dyn_fin_lifetime=2 net.inet.ip.fw.dyn_short_lifetime=10 loader.conf: == aio_load="YES" net.inet.tcp.syncache.hashsize=32768 net.inet.tcp.syncache.bucketlimit=32 net.inet.tcp.syncache.cachelimit=1048576 net.inet.tcp.hostcache.hashsize=65536 net.inet.tcp.hostcache.cachelimit=1966080 net.inet.tcp.tcbhashsize=4096 vm.pmap.pg_ps_enabled=1 Sabemos que essa parte de tunning é uma característica muitas das vezes até do tipo do servidor e da carga que esse recebe mas é sempre bom comentar sobre o que temos e ouvir a experiência daqueles que já passaram por diversos problemas. :) Gondim - Histórico: http://www.fug.com.br/historico/html/freebsd/ Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd