Re: [FUG-BR] tunning para um futuro servidor manicomio-share

2012-07-12 Por tôpico Marcelo Gondim
Em 12/07/2012 10:45, vic escreveu:
> Em 2012-07-12 9:54, Marcelo Gondim escreveu:
>> ahhaha que jeito bom de começar uma nova thread :D
>>
>> Pessoal vou começar a thread com os dados técnicos para quem não
>> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o
>> número
>> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados
>> do
>> site:
>>
>> Peers: 436.180
>> Users: 94.733
>> Torrents: 99.282
>>
>> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS
>> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i.
>>
>> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS
>> ou
>> UFS2+SUJ
> Heehehe.. Gondim vc trocou k por M, mato a princesa e comeu o
> dragão!![1] :P
>
> Nessa situação aí não sei dizer o que tem mais peformance, só que no
> caso do ZFS você terá que usar 1 SSD para o ARC e outro para o ZIL,
> deixando os discos só para os dados e mais memória para a aplicação[2].
>
>
> [1]:
> http://www.chrisb.com.br/blog/como-matar-o-dragao-e-salvar-a-princesa-pelos-programador/
HahahahaHahahAhAhA espetacular esse texto. Fiz igual ao programador 
assembler ahahahahah

> [2]:
> http://constantin.glez.de/blog/2011/02/frequently-asked-questions-about-flash-memory-ssds-and-zfs
>
Vou ler esse aqui pra me inteirar. Valeu!!!

-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] tunning para um futuro servidor manicomio-share

2012-07-12 Por tôpico Matheus L. Abreu
Vale lembrar que se você ativar a compressão no zfs ele reduz o IO do disco.

--
>From mobile

On 12/07/2012, at 11:01 AM, Marcelo Gondim  wrote:

> Em 12/07/2012 10:43, William Grzybowski escreveu:
>> 2012/7/12 Marcelo Gondim :
>>> Em 12/07/2012 10:07, Leonardo Augusto escreveu:
 2012/7/12 Marcelo Gondim :
> ahhaha que jeito bom de começar uma nova thread :D
> 
> Pessoal vou começar a thread com os dados técnicos para quem não
> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número
> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do
> site:
> 
> Peers: 436.180
> Users: 94.733
> Torrents: 99.282
> 
> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS
> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i.
> 
> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou
> UFS2+SUJ
> 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles:
> 
> sysctl.conf:
> ==
> kern.ipc.somaxconn=4096
> kern.ipc.shmmax=2147483648
> kern.ipc.maxsockets=204800
> kern.ipc.nmbclusters=262144
> kern.ps_arg_cache_limit=4096
> kern.maxfiles=204800
> kern.maxfilesperproc=20
> kern.maxvnodes=20
> kern.timecounter.hardware=HPET
> net.inet.tcp.rfc1323=1
> net.inet.tcp.delayed_ack=0
> net.inet.ip.portrange.first=1024
> net.inet.ip.portrange.last=65535
> net.inet.ip.rtminexpire=2
> net.inet.ip.rtmaxcache=1024
> net.inet.ip.redirect=0
> net.inet.ip.sourceroute=0
> net.inet.ip.accept_sourceroute=0
> net.inet.icmp.maskrepl=0
> net.inet.icmp.log_redirect=0
> net.inet.icmp.drop_redirect=1
> net.inet.tcp.drop_synfin=1
> net.inet.udp.blackhole=1
> net.inet.tcp.blackhole=2
> net.inet6.icmp6.nodeinfo=0
> net.inet6.ip6.use_tempaddr=1
> net.inet6.ip6.prefer_tempaddr=1
> net.inet6.icmp6.rediraccept=0
> net.inet.ip.ttl=128
> net.inet.tcp.msl=5000
> net.inet.tcp.maxtcptw=20
> net.inet.tcp.fast_finwait2_recycle=1
> net.inet.ip.intr_queue_maxlen=4096
> net.inet.ip.dummynet.io_fast=1
> vfs.ufs.dirhash_maxmem=67108864
> vfs.read_max=64
> net.inet.tcp.ecn.enable=1
> net.inet.ip.fw.dyn_buckets=65536
> net.inet.ip.fw.dyn_max=65536
> net.inet.ip.fw.dyn_ack_lifetime=120
> net.inet.ip.fw.dyn_syn_lifetime=10
> net.inet.ip.fw.dyn_fin_lifetime=2
> net.inet.ip.fw.dyn_short_lifetime=10
> 
> loader.conf:
> ==
> aio_load="YES"
> net.inet.tcp.syncache.hashsize=32768
> net.inet.tcp.syncache.bucketlimit=32
> net.inet.tcp.syncache.cachelimit=1048576
> net.inet.tcp.hostcache.hashsize=65536
> net.inet.tcp.hostcache.cachelimit=1966080
> net.inet.tcp.tcbhashsize=4096
> vm.pmap.pg_ps_enabled=1
> 
> Sabemos que essa parte de tunning é uma característica muitas das vezes
> até do tipo do servidor e da carga que esse recebe mas é sempre bom
> comentar sobre o que temos e ouvir a experiência daqueles que já
> passaram por diversos problemas.  :)
> 
> Gondim
 Marcelo,
 
 A primeira coisa que eu faria seria abolir esse RAID 0, se um hd
 pifar, para e perde tudo,
 raid 0 só em lugares onde tem apenas read e tem cluster... senao o
 sistema para mesmo
 em caso de falha fisica de algum hd.
 
 Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em
 read/write(o 10 tem melhor read)
 e o principal, se amanha pifar um hd, vc nao para o servidor nem perde 
 nada.
 raid 0 sera uma catastrofe.
>>> E se no lugar do raid 10 fizesse um raidz2 com ZFS? Será que a
>>> performance no ZFS seria melhor ou pior que fazendo o raid 10 e usando o
>>> UFS2+SUJ?
>> ZFS é um cara complicado, tem que tunar _muito_ bem, e achar o meio
>> termo entre desempenho e uso de memória (come muuita).
>> Sobre raidz2, é bom lembrar que ele tem uma penalidade se comparado ao
>> raidz (algo em torno de 30-40%). Não é oficial mas isso é com base nos
>> diversos testes que realizamos na empresa que trabalho.
>> 
>> Eu sou fã do ZFS mas com o hardware que você tem eu faria um hardware
>> RAID10 e usaria UFS.
>> 
>> 
> Show e realmente preciso de performance mesmo de i/o no disco.
> 
> 
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] tunning para um futuro servidor manicomio-share

2012-07-12 Por tôpico Marcelo Gondim
Em 12/07/2012 10:43, William Grzybowski escreveu:
> 2012/7/12 Marcelo Gondim :
>> Em 12/07/2012 10:07, Leonardo Augusto escreveu:
>>> 2012/7/12 Marcelo Gondim :
 ahhaha que jeito bom de começar uma nova thread :D

 Pessoal vou começar a thread com os dados técnicos para quem não
 acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número
 de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do
 site:

 Peers: 436.180
 Users: 94.733
 Torrents: 99.282

 O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS
 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i.

 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou
 UFS2+SUJ
 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles:

 sysctl.conf:
 ==
 kern.ipc.somaxconn=4096
 kern.ipc.shmmax=2147483648
 kern.ipc.maxsockets=204800
 kern.ipc.nmbclusters=262144
 kern.ps_arg_cache_limit=4096
 kern.maxfiles=204800
 kern.maxfilesperproc=20
 kern.maxvnodes=20
 kern.timecounter.hardware=HPET
 net.inet.tcp.rfc1323=1
 net.inet.tcp.delayed_ack=0
 net.inet.ip.portrange.first=1024
 net.inet.ip.portrange.last=65535
 net.inet.ip.rtminexpire=2
 net.inet.ip.rtmaxcache=1024
 net.inet.ip.redirect=0
 net.inet.ip.sourceroute=0
 net.inet.ip.accept_sourceroute=0
 net.inet.icmp.maskrepl=0
 net.inet.icmp.log_redirect=0
 net.inet.icmp.drop_redirect=1
 net.inet.tcp.drop_synfin=1
 net.inet.udp.blackhole=1
 net.inet.tcp.blackhole=2
 net.inet6.icmp6.nodeinfo=0
 net.inet6.ip6.use_tempaddr=1
 net.inet6.ip6.prefer_tempaddr=1
 net.inet6.icmp6.rediraccept=0
 net.inet.ip.ttl=128
 net.inet.tcp.msl=5000
 net.inet.tcp.maxtcptw=20
 net.inet.tcp.fast_finwait2_recycle=1
 net.inet.ip.intr_queue_maxlen=4096
 net.inet.ip.dummynet.io_fast=1
 vfs.ufs.dirhash_maxmem=67108864
 vfs.read_max=64
 net.inet.tcp.ecn.enable=1
 net.inet.ip.fw.dyn_buckets=65536
 net.inet.ip.fw.dyn_max=65536
 net.inet.ip.fw.dyn_ack_lifetime=120
 net.inet.ip.fw.dyn_syn_lifetime=10
 net.inet.ip.fw.dyn_fin_lifetime=2
 net.inet.ip.fw.dyn_short_lifetime=10

 loader.conf:
 ==
 aio_load="YES"
 net.inet.tcp.syncache.hashsize=32768
 net.inet.tcp.syncache.bucketlimit=32
 net.inet.tcp.syncache.cachelimit=1048576
 net.inet.tcp.hostcache.hashsize=65536
 net.inet.tcp.hostcache.cachelimit=1966080
 net.inet.tcp.tcbhashsize=4096
 vm.pmap.pg_ps_enabled=1

 Sabemos que essa parte de tunning é uma característica muitas das vezes
 até do tipo do servidor e da carga que esse recebe mas é sempre bom
 comentar sobre o que temos e ouvir a experiência daqueles que já
 passaram por diversos problemas.  :)

 Gondim
>>> Marcelo,
>>>
>>> A primeira coisa que eu faria seria abolir esse RAID 0, se um hd
>>> pifar, para e perde tudo,
>>> raid 0 só em lugares onde tem apenas read e tem cluster... senao o
>>> sistema para mesmo
>>> em caso de falha fisica de algum hd.
>>>
>>> Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em
>>> read/write(o 10 tem melhor read)
>>> e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada.
>>> raid 0 sera uma catastrofe.
>> E se no lugar do raid 10 fizesse um raidz2 com ZFS? Será que a
>> performance no ZFS seria melhor ou pior que fazendo o raid 10 e usando o
>> UFS2+SUJ?
> ZFS é um cara complicado, tem que tunar _muito_ bem, e achar o meio
> termo entre desempenho e uso de memória (come muuita).
> Sobre raidz2, é bom lembrar que ele tem uma penalidade se comparado ao
> raidz (algo em torno de 30-40%). Não é oficial mas isso é com base nos
> diversos testes que realizamos na empresa que trabalho.
>
> Eu sou fã do ZFS mas com o hardware que você tem eu faria um hardware
> RAID10 e usaria UFS.
>
>
Show e realmente preciso de performance mesmo de i/o no disco.


-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] tunning para um futuro servidor manicomio-share

2012-07-12 Por tôpico vic
Em 2012-07-12 9:54, Marcelo Gondim escreveu:
> ahhaha que jeito bom de começar uma nova thread :D
>
> Pessoal vou começar a thread com os dados técnicos para quem não
> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o 
> número
> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados 
> do
> site:
>
> Peers: 436.180
> Users: 94.733
> Torrents: 99.282
>
> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS
> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i.
>
> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS 
> ou
> UFS2+SUJ

Heehehe.. Gondim vc trocou k por M, mato a princesa e comeu o 
dragão!![1] :P

Nessa situação aí não sei dizer o que tem mais peformance, só que no 
caso do ZFS você terá que usar 1 SSD para o ARC e outro para o ZIL, 
deixando os discos só para os dados e mais memória para a aplicação[2].


[1]: 
http://www.chrisb.com.br/blog/como-matar-o-dragao-e-salvar-a-princesa-pelos-programador/
[2]: 
http://constantin.glez.de/blog/2011/02/frequently-asked-questions-about-flash-memory-ssds-and-zfs

-- 
vic
http://choppnerd.com
http://donttrack.us   |   http://dontbubble.us
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] tunning para um futuro servidor manicomio-share

2012-07-12 Por tôpico William Grzybowski
2012/7/12 Marcelo Gondim :
> Em 12/07/2012 10:07, Leonardo Augusto escreveu:
>> 2012/7/12 Marcelo Gondim :
>>> ahhaha que jeito bom de começar uma nova thread :D
>>>
>>> Pessoal vou começar a thread com os dados técnicos para quem não
>>> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número
>>> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do
>>> site:
>>>
>>> Peers: 436.180
>>> Users: 94.733
>>> Torrents: 99.282
>>>
>>> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS
>>> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i.
>>>
>>> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou
>>> UFS2+SUJ
>>> 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles:
>>>
>>> sysctl.conf:
>>> ==
>>> kern.ipc.somaxconn=4096
>>> kern.ipc.shmmax=2147483648
>>> kern.ipc.maxsockets=204800
>>> kern.ipc.nmbclusters=262144
>>> kern.ps_arg_cache_limit=4096
>>> kern.maxfiles=204800
>>> kern.maxfilesperproc=20
>>> kern.maxvnodes=20
>>> kern.timecounter.hardware=HPET
>>> net.inet.tcp.rfc1323=1
>>> net.inet.tcp.delayed_ack=0
>>> net.inet.ip.portrange.first=1024
>>> net.inet.ip.portrange.last=65535
>>> net.inet.ip.rtminexpire=2
>>> net.inet.ip.rtmaxcache=1024
>>> net.inet.ip.redirect=0
>>> net.inet.ip.sourceroute=0
>>> net.inet.ip.accept_sourceroute=0
>>> net.inet.icmp.maskrepl=0
>>> net.inet.icmp.log_redirect=0
>>> net.inet.icmp.drop_redirect=1
>>> net.inet.tcp.drop_synfin=1
>>> net.inet.udp.blackhole=1
>>> net.inet.tcp.blackhole=2
>>> net.inet6.icmp6.nodeinfo=0
>>> net.inet6.ip6.use_tempaddr=1
>>> net.inet6.ip6.prefer_tempaddr=1
>>> net.inet6.icmp6.rediraccept=0
>>> net.inet.ip.ttl=128
>>> net.inet.tcp.msl=5000
>>> net.inet.tcp.maxtcptw=20
>>> net.inet.tcp.fast_finwait2_recycle=1
>>> net.inet.ip.intr_queue_maxlen=4096
>>> net.inet.ip.dummynet.io_fast=1
>>> vfs.ufs.dirhash_maxmem=67108864
>>> vfs.read_max=64
>>> net.inet.tcp.ecn.enable=1
>>> net.inet.ip.fw.dyn_buckets=65536
>>> net.inet.ip.fw.dyn_max=65536
>>> net.inet.ip.fw.dyn_ack_lifetime=120
>>> net.inet.ip.fw.dyn_syn_lifetime=10
>>> net.inet.ip.fw.dyn_fin_lifetime=2
>>> net.inet.ip.fw.dyn_short_lifetime=10
>>>
>>> loader.conf:
>>> ==
>>> aio_load="YES"
>>> net.inet.tcp.syncache.hashsize=32768
>>> net.inet.tcp.syncache.bucketlimit=32
>>> net.inet.tcp.syncache.cachelimit=1048576
>>> net.inet.tcp.hostcache.hashsize=65536
>>> net.inet.tcp.hostcache.cachelimit=1966080
>>> net.inet.tcp.tcbhashsize=4096
>>> vm.pmap.pg_ps_enabled=1
>>>
>>> Sabemos que essa parte de tunning é uma característica muitas das vezes
>>> até do tipo do servidor e da carga que esse recebe mas é sempre bom
>>> comentar sobre o que temos e ouvir a experiência daqueles que já
>>> passaram por diversos problemas.  :)
>>>
>>> Gondim
>> Marcelo,
>>
>> A primeira coisa que eu faria seria abolir esse RAID 0, se um hd
>> pifar, para e perde tudo,
>> raid 0 só em lugares onde tem apenas read e tem cluster... senao o
>> sistema para mesmo
>> em caso de falha fisica de algum hd.
>>
>> Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em
>> read/write(o 10 tem melhor read)
>> e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada.
>> raid 0 sera uma catastrofe.
>
> E se no lugar do raid 10 fizesse um raidz2 com ZFS? Será que a
> performance no ZFS seria melhor ou pior que fazendo o raid 10 e usando o
> UFS2+SUJ?

ZFS é um cara complicado, tem que tunar _muito_ bem, e achar o meio
termo entre desempenho e uso de memória (come muuita).
Sobre raidz2, é bom lembrar que ele tem uma penalidade se comparado ao
raidz (algo em torno de 30-40%). Não é oficial mas isso é com base nos
diversos testes que realizamos na empresa que trabalho.

Eu sou fã do ZFS mas com o hardware que você tem eu faria um hardware
RAID10 e usaria UFS.


-- 
William Grzybowski
--
Agência Livre - www.agencialivre.com.br
Curitiba/PR - Brasil
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] tunning para um futuro servidor manicomio-share

2012-07-12 Por tôpico Alessandro de Souza Rocha
Em 12 de julho de 2012 10:36, Marcelo Gondim  escreveu:
> Em 12/07/2012 10:07, Leonardo Augusto escreveu:
>> 2012/7/12 Marcelo Gondim :
>>> ahhaha que jeito bom de começar uma nova thread :D
>>>
>>> Pessoal vou começar a thread com os dados técnicos para quem não
>>> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número
>>> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do
>>> site:
>>>
>>> Peers: 436.180
>>> Users: 94.733
>>> Torrents: 99.282
>>>
>>> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS
>>> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i.
>>>
>>> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou
>>> UFS2+SUJ
>>> 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles:
>>>
>>> sysctl.conf:
>>> ==
>>> kern.ipc.somaxconn=4096
>>> kern.ipc.shmmax=2147483648
>>> kern.ipc.maxsockets=204800
>>> kern.ipc.nmbclusters=262144
>>> kern.ps_arg_cache_limit=4096
>>> kern.maxfiles=204800
>>> kern.maxfilesperproc=20
>>> kern.maxvnodes=20
>>> kern.timecounter.hardware=HPET
>>> net.inet.tcp.rfc1323=1
>>> net.inet.tcp.delayed_ack=0
>>> net.inet.ip.portrange.first=1024
>>> net.inet.ip.portrange.last=65535
>>> net.inet.ip.rtminexpire=2
>>> net.inet.ip.rtmaxcache=1024
>>> net.inet.ip.redirect=0
>>> net.inet.ip.sourceroute=0
>>> net.inet.ip.accept_sourceroute=0
>>> net.inet.icmp.maskrepl=0
>>> net.inet.icmp.log_redirect=0
>>> net.inet.icmp.drop_redirect=1
>>> net.inet.tcp.drop_synfin=1
>>> net.inet.udp.blackhole=1
>>> net.inet.tcp.blackhole=2
>>> net.inet6.icmp6.nodeinfo=0
>>> net.inet6.ip6.use_tempaddr=1
>>> net.inet6.ip6.prefer_tempaddr=1
>>> net.inet6.icmp6.rediraccept=0
>>> net.inet.ip.ttl=128
>>> net.inet.tcp.msl=5000
>>> net.inet.tcp.maxtcptw=20
>>> net.inet.tcp.fast_finwait2_recycle=1
>>> net.inet.ip.intr_queue_maxlen=4096
>>> net.inet.ip.dummynet.io_fast=1
>>> vfs.ufs.dirhash_maxmem=67108864
>>> vfs.read_max=64
>>> net.inet.tcp.ecn.enable=1
>>> net.inet.ip.fw.dyn_buckets=65536
>>> net.inet.ip.fw.dyn_max=65536
>>> net.inet.ip.fw.dyn_ack_lifetime=120
>>> net.inet.ip.fw.dyn_syn_lifetime=10
>>> net.inet.ip.fw.dyn_fin_lifetime=2
>>> net.inet.ip.fw.dyn_short_lifetime=10
>>>
>>> loader.conf:
>>> ==
>>> aio_load="YES"
>>> net.inet.tcp.syncache.hashsize=32768
>>> net.inet.tcp.syncache.bucketlimit=32
>>> net.inet.tcp.syncache.cachelimit=1048576
>>> net.inet.tcp.hostcache.hashsize=65536
>>> net.inet.tcp.hostcache.cachelimit=1966080
>>> net.inet.tcp.tcbhashsize=4096
>>> vm.pmap.pg_ps_enabled=1
>>>
>>> Sabemos que essa parte de tunning é uma característica muitas das vezes
>>> até do tipo do servidor e da carga que esse recebe mas é sempre bom
>>> comentar sobre o que temos e ouvir a experiência daqueles que já
>>> passaram por diversos problemas.  :)
>>>
>>> Gondim
>> Marcelo,
>>
>> A primeira coisa que eu faria seria abolir esse RAID 0, se um hd
>> pifar, para e perde tudo,
>> raid 0 só em lugares onde tem apenas read e tem cluster... senao o
>> sistema para mesmo
>> em caso de falha fisica de algum hd.
>>
>> Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em
>> read/write(o 10 tem melhor read)
>> e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada.
>> raid 0 sera uma catastrofe.
>
> E se no lugar do raid 10 fizesse um raidz2 com ZFS? Será que a
> performance no ZFS seria melhor ou pior que fazendo o raid 10 e usando o
> UFS2+SUJ?
>
>
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


melhor jeito seria testando mesmo, so assim iria acabar com duvida.
-- 
Alessandro de Souza Rocha
Administrador de Redes e Sistemas
FreeBSD-BR User #117
 Long live FreeBSD

 Powered by 

  (__)
   \\\'',)
 \/  \ ^
 .\._/_)

 www.FreeBSD.org
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] tunning para um futuro servidor manicomio-share

2012-07-12 Por tôpico Marcelo Gondim
Em 12/07/2012 10:07, Leonardo Augusto escreveu:
> 2012/7/12 Marcelo Gondim :
>> ahhaha que jeito bom de começar uma nova thread :D
>>
>> Pessoal vou começar a thread com os dados técnicos para quem não
>> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número
>> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do
>> site:
>>
>> Peers: 436.180
>> Users: 94.733
>> Torrents: 99.282
>>
>> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS
>> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i.
>>
>> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou
>> UFS2+SUJ
>> 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles:
>>
>> sysctl.conf:
>> ==
>> kern.ipc.somaxconn=4096
>> kern.ipc.shmmax=2147483648
>> kern.ipc.maxsockets=204800
>> kern.ipc.nmbclusters=262144
>> kern.ps_arg_cache_limit=4096
>> kern.maxfiles=204800
>> kern.maxfilesperproc=20
>> kern.maxvnodes=20
>> kern.timecounter.hardware=HPET
>> net.inet.tcp.rfc1323=1
>> net.inet.tcp.delayed_ack=0
>> net.inet.ip.portrange.first=1024
>> net.inet.ip.portrange.last=65535
>> net.inet.ip.rtminexpire=2
>> net.inet.ip.rtmaxcache=1024
>> net.inet.ip.redirect=0
>> net.inet.ip.sourceroute=0
>> net.inet.ip.accept_sourceroute=0
>> net.inet.icmp.maskrepl=0
>> net.inet.icmp.log_redirect=0
>> net.inet.icmp.drop_redirect=1
>> net.inet.tcp.drop_synfin=1
>> net.inet.udp.blackhole=1
>> net.inet.tcp.blackhole=2
>> net.inet6.icmp6.nodeinfo=0
>> net.inet6.ip6.use_tempaddr=1
>> net.inet6.ip6.prefer_tempaddr=1
>> net.inet6.icmp6.rediraccept=0
>> net.inet.ip.ttl=128
>> net.inet.tcp.msl=5000
>> net.inet.tcp.maxtcptw=20
>> net.inet.tcp.fast_finwait2_recycle=1
>> net.inet.ip.intr_queue_maxlen=4096
>> net.inet.ip.dummynet.io_fast=1
>> vfs.ufs.dirhash_maxmem=67108864
>> vfs.read_max=64
>> net.inet.tcp.ecn.enable=1
>> net.inet.ip.fw.dyn_buckets=65536
>> net.inet.ip.fw.dyn_max=65536
>> net.inet.ip.fw.dyn_ack_lifetime=120
>> net.inet.ip.fw.dyn_syn_lifetime=10
>> net.inet.ip.fw.dyn_fin_lifetime=2
>> net.inet.ip.fw.dyn_short_lifetime=10
>>
>> loader.conf:
>> ==
>> aio_load="YES"
>> net.inet.tcp.syncache.hashsize=32768
>> net.inet.tcp.syncache.bucketlimit=32
>> net.inet.tcp.syncache.cachelimit=1048576
>> net.inet.tcp.hostcache.hashsize=65536
>> net.inet.tcp.hostcache.cachelimit=1966080
>> net.inet.tcp.tcbhashsize=4096
>> vm.pmap.pg_ps_enabled=1
>>
>> Sabemos que essa parte de tunning é uma característica muitas das vezes
>> até do tipo do servidor e da carga que esse recebe mas é sempre bom
>> comentar sobre o que temos e ouvir a experiência daqueles que já
>> passaram por diversos problemas.  :)
>>
>> Gondim
> Marcelo,
>
> A primeira coisa que eu faria seria abolir esse RAID 0, se um hd
> pifar, para e perde tudo,
> raid 0 só em lugares onde tem apenas read e tem cluster... senao o
> sistema para mesmo
> em caso de falha fisica de algum hd.
>
> Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em
> read/write(o 10 tem melhor read)
> e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada.
> raid 0 sera uma catastrofe.

E se no lugar do raid 10 fizesse um raidz2 com ZFS? Será que a 
performance no ZFS seria melhor ou pior que fazendo o raid 10 e usando o 
UFS2+SUJ?


-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] tunning para um futuro servidor manicomio-share

2012-07-12 Por tôpico Antônio Pessoa
2012/7/12 Leonardo Augusto :
>
> Marcelo,
>
> A primeira coisa que eu faria seria abolir esse RAID 0, se um hd
> pifar, para e perde tudo,
> raid 0 só em lugares onde tem apenas read e tem cluster... senao o
> sistema para mesmo
> em caso de falha fisica de algum hd.
>
> Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em
> read/write(o 10 tem melhor read)
> e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada.
> raid 0 sera uma catastrofe.
>
> abraco
> -
> Histórico: http://www.fug.com.br/historico/html/freebsd/
> Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd

Geralmente eu sou até mais paranoico, dependendo do ambiente eu uso RAID6.

-- 
Atenciosamente,

Antônio Pessoa
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


Re: [FUG-BR] tunning para um futuro servidor manicomio-share

2012-07-12 Por tôpico Leonardo Augusto
2012/7/12 Marcelo Gondim :
> ahhaha que jeito bom de começar uma nova thread :D
>
> Pessoal vou começar a thread com os dados técnicos para quem não
> acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número
> de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do
> site:
>
> Peers: 436.180
> Users: 94.733
> Torrents: 99.282
>
> O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS
> 15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i.
>
> 1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou
> UFS2+SUJ
> 2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles:
>
> sysctl.conf:
> ==
> kern.ipc.somaxconn=4096
> kern.ipc.shmmax=2147483648
> kern.ipc.maxsockets=204800
> kern.ipc.nmbclusters=262144
> kern.ps_arg_cache_limit=4096
> kern.maxfiles=204800
> kern.maxfilesperproc=20
> kern.maxvnodes=20
> kern.timecounter.hardware=HPET
> net.inet.tcp.rfc1323=1
> net.inet.tcp.delayed_ack=0
> net.inet.ip.portrange.first=1024
> net.inet.ip.portrange.last=65535
> net.inet.ip.rtminexpire=2
> net.inet.ip.rtmaxcache=1024
> net.inet.ip.redirect=0
> net.inet.ip.sourceroute=0
> net.inet.ip.accept_sourceroute=0
> net.inet.icmp.maskrepl=0
> net.inet.icmp.log_redirect=0
> net.inet.icmp.drop_redirect=1
> net.inet.tcp.drop_synfin=1
> net.inet.udp.blackhole=1
> net.inet.tcp.blackhole=2
> net.inet6.icmp6.nodeinfo=0
> net.inet6.ip6.use_tempaddr=1
> net.inet6.ip6.prefer_tempaddr=1
> net.inet6.icmp6.rediraccept=0
> net.inet.ip.ttl=128
> net.inet.tcp.msl=5000
> net.inet.tcp.maxtcptw=20
> net.inet.tcp.fast_finwait2_recycle=1
> net.inet.ip.intr_queue_maxlen=4096
> net.inet.ip.dummynet.io_fast=1
> vfs.ufs.dirhash_maxmem=67108864
> vfs.read_max=64
> net.inet.tcp.ecn.enable=1
> net.inet.ip.fw.dyn_buckets=65536
> net.inet.ip.fw.dyn_max=65536
> net.inet.ip.fw.dyn_ack_lifetime=120
> net.inet.ip.fw.dyn_syn_lifetime=10
> net.inet.ip.fw.dyn_fin_lifetime=2
> net.inet.ip.fw.dyn_short_lifetime=10
>
> loader.conf:
> ==
> aio_load="YES"
> net.inet.tcp.syncache.hashsize=32768
> net.inet.tcp.syncache.bucketlimit=32
> net.inet.tcp.syncache.cachelimit=1048576
> net.inet.tcp.hostcache.hashsize=65536
> net.inet.tcp.hostcache.cachelimit=1966080
> net.inet.tcp.tcbhashsize=4096
> vm.pmap.pg_ps_enabled=1
>
> Sabemos que essa parte de tunning é uma característica muitas das vezes
> até do tipo do servidor e da carga que esse recebe mas é sempre bom
> comentar sobre o que temos e ouvir a experiência daqueles que já
> passaram por diversos problemas.  :)
>
> Gondim

Marcelo,

A primeira coisa que eu faria seria abolir esse RAID 0, se um hd
pifar, para e perde tudo,
raid 0 só em lugares onde tem apenas read e tem cluster... senao o
sistema para mesmo
em caso de falha fisica de algum hd.

Te aconselho a adotar o RAID 10 ou o RAID 5, eles tem uma boa media em
read/write(o 10 tem melhor read)
e o principal, se amanha pifar um hd, vc nao para o servidor nem perde nada.
raid 0 sera uma catastrofe.

abraco
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd


[FUG-BR] tunning para um futuro servidor manicomio-share

2012-07-12 Por tôpico Marcelo Gondim
ahhaha que jeito bom de começar uma nova thread :D

Pessoal vou começar a thread com os dados técnicos para quem não 
acompanhou um tempo atrás. Detalhe, com a aplicação do memcache o número 
de conexões ao MySQL caiu de perto de 4000 para 2721. Vamos aos dados do 
site:

Peers: 436.180
Users: 94.733
Torrents: 99.282

O I/O de disco é também intenso e hoje é um servidor com 4 discos SAS 
15k rpm 147Gb em raid 0 com controladora LSI MegaRAID SAS 9260-4i.

1ª) pergunta o que teria a melhor performance para essa situação? ZFS ou 
UFS2+SUJ
2ª) Abaixo o sysctl.conf e loader.conf e o que vocês acham sobre eles:

sysctl.conf:
==
kern.ipc.somaxconn=4096
kern.ipc.shmmax=2147483648
kern.ipc.maxsockets=204800
kern.ipc.nmbclusters=262144
kern.ps_arg_cache_limit=4096
kern.maxfiles=204800
kern.maxfilesperproc=20
kern.maxvnodes=20
kern.timecounter.hardware=HPET
net.inet.tcp.rfc1323=1
net.inet.tcp.delayed_ack=0
net.inet.ip.portrange.first=1024
net.inet.ip.portrange.last=65535
net.inet.ip.rtminexpire=2
net.inet.ip.rtmaxcache=1024
net.inet.ip.redirect=0
net.inet.ip.sourceroute=0
net.inet.ip.accept_sourceroute=0
net.inet.icmp.maskrepl=0
net.inet.icmp.log_redirect=0
net.inet.icmp.drop_redirect=1
net.inet.tcp.drop_synfin=1
net.inet.udp.blackhole=1
net.inet.tcp.blackhole=2
net.inet6.icmp6.nodeinfo=0
net.inet6.ip6.use_tempaddr=1
net.inet6.ip6.prefer_tempaddr=1
net.inet6.icmp6.rediraccept=0
net.inet.ip.ttl=128
net.inet.tcp.msl=5000
net.inet.tcp.maxtcptw=20
net.inet.tcp.fast_finwait2_recycle=1
net.inet.ip.intr_queue_maxlen=4096
net.inet.ip.dummynet.io_fast=1
vfs.ufs.dirhash_maxmem=67108864
vfs.read_max=64
net.inet.tcp.ecn.enable=1
net.inet.ip.fw.dyn_buckets=65536
net.inet.ip.fw.dyn_max=65536
net.inet.ip.fw.dyn_ack_lifetime=120
net.inet.ip.fw.dyn_syn_lifetime=10
net.inet.ip.fw.dyn_fin_lifetime=2
net.inet.ip.fw.dyn_short_lifetime=10

loader.conf:
==
aio_load="YES"
net.inet.tcp.syncache.hashsize=32768
net.inet.tcp.syncache.bucketlimit=32
net.inet.tcp.syncache.cachelimit=1048576
net.inet.tcp.hostcache.hashsize=65536
net.inet.tcp.hostcache.cachelimit=1966080
net.inet.tcp.tcbhashsize=4096
vm.pmap.pg_ps_enabled=1

Sabemos que essa parte de tunning é uma característica muitas das vezes 
até do tipo do servidor e da carga que esse recebe mas é sempre bom 
comentar sobre o que temos e ouvir a experiência daqueles que já 
passaram por diversos problemas.  :)

Gondim
-
Histórico: http://www.fug.com.br/historico/html/freebsd/
Sair da lista: https://www.fug.com.br/mailman/listinfo/freebsd