Alguien sabe como se usa bonding en Linux o quizás sabe alguna dirección en
Internetgracias
próxima parte
Se ha borrado un adjunto en formato HTML...
URL:
https://listas.inf.utfsm.cl/pipermail/linux/attachments/20040322/d67c4c3d/attachment-0001.htm
From [EMAIL
Hola chicos:
Tengo una máquina con Centos 5.3, y le puse 2 tarjetas D-link
Gigabit con full duplex etcel sistema las reconoce sin problemas,
hago el bonding de la siguiente manera:
configure los sigiuentes archivos:
/etc/modprobe.conf:
alias bond0 bonding miimon=250 mode=0
los
RX bytes:996841 (973.4 KiB) TX bytes:41886 (40.9 KiB)
Interrupt:209 Base address:0xb000
Hice un bonding (bond0) sobre la eth0 y eth1, y un bond1 sobre la eth2,eth3:
bond0 Link encap:Ethernet HWaddr 00:17:31:1A:59:19
inet addr:192.168.100.101 Bcast:192.168.100.255
2009/6/12 Juan Andres Ramirez :
> Hola chicos:
Hola.
[...]
> Reinicio la red y me envia el siguiente mensaje
> bonding: bond0: Warning: the permanent HWaddr of eth0 -
> 00:17:31:AD:53:BB - is still in use by bond0. Set the HWaddr of eth0
> to a different
> address to avoid con
, y le puse 2 tarjetas D-link
> Gigabit con full duplex etcel sistema las reconoce sin problemas,
> hago el bonding de la siguiente manera:
>
> configure los sigiuentes archivos:
>
> /etc/modprobe.conf:
>
> alias bond0 bonding miimon=250 mode=0
>
> los archivos de las
Genérale una dirección para el bonding de tarjetas diferente y ahí te
tendría que funcionar
Walter Peña
Soporte
-Mensaje original-
De: linux-boun...@listas.inf.utfsm.cl
[mailto:linux-boun...@listas.inf.utfsm.cl] En nombre de Juan Andres Ramirez
Enviado el: Viernes, 12 de Junio de 2009
El vie, 12-06-2009 a las 15:35 -0400, Juan Andres Ramirez escribió:
> Hola chicos:
> Tengo una máquina con Centos 5.3, y le puse 2 tarjetas D-link
> Gigabit con full duplex etcel sistema las reconoce sin problemas,
> hago el bonding de la siguiente manera:
>
> config
2009/6/13 Pedro GM :
> El vie, 12-06-2009 a las 15:35 -0400, Juan Andres Ramirez escribió:
>> Hola chicos:
>> Tengo una máquina con Centos 5.3, y le puse 2 tarjetas D-link
>> Gigabit con full duplex etcel sistema las reconoce sin problemas,
>> hago el bon
engo una máquina con Centos 5.3, y le puse 2 tarjetas D-link
>>> Gigabit con full duplex etcel sistema las reconoce sin problemas,
>>> hago el bonding de la siguiente manera:
>>>
>>> configure los sigiuentes archivos:
>>>
>>> /etc/modprob
/aliases
alias bond0 bonding
alias eth0 e1000
alias eth1 e1000
options bonding mode=6 miimon=100
tambien agregue las siguientes lineas al archivo /etc/modprobe.d/arch/i386
=
alias bond0 bonding
options bonding mode=6 miimon=100
#options bonding mode=6 miimon=100
Despues de seguir tratando de configurar bien las tarjetas, aplique el comando
ifenslave bond1 eth2 eth3 , me arrojo esto:
Apr 23 16:51:53 luna kernel: bonding: bond1: Warning: failed to get
speed and duplex from eth3, assumed to be 100Mb/sec and Full.
Para las 2 tarjetas de red
Al reiniciar el
El jue, 23-04-2009 a las 17:08 -0400, Juan Andres Ramirez escribió:
> Despues de seguir tratando de configurar bien las tarjetas, aplique el comando
>
> ifenslave bond1 eth2 eth3 , me arrojo esto:
>
> Apr 23 16:51:53 luna kernel: bonding: bond1: Warning: failed to get
> spe
2009/4/23 Pedro GM :
> El jue, 23-04-2009 a las 17:08 -0400, Juan Andres Ramirez escribió:
>> Despues de seguir tratando de configurar bien las tarjetas, aplique el
>> comando
>>
>> ifenslave bond1 eth2 eth3 , me arrojo esto:
>>
>> Apr 23 16:51:53 luna ker
revisa este enlace, quizás pueda ser de ayuda:
http://www.alcancelibre.org/staticpages/index.php/como-bonding
saludos
El 24 de abril de 2009 10:26, Juan Andres Ramirez
escribió:
> 2009/4/23 Pedro GM :
> > El jue, 23-04-2009 a las 17:08 -0400, Juan Andres Ramirez escribió:
> &
IPv4. Lo que estoy tratando de hacer
> es un gateway interno para poder filtrar usuarios de la red interna
> hacia afuera, y como son varios usuarios lo estoy haciendo con bonding
> 2 tarjetas de entrada y 2 de salida, porque son como 50 usuarios.
> Deshabilitando el reenvio de paquetes IP
a que se
>> desactivo el reenvio de paquetes IPv4. Lo que estoy tratando de hacer
>> es un gateway interno para poder filtrar usuarios de la red interna
>> hacia afuera, y como son varios usuarios lo estoy haciendo con bonding
>> 2 tarjetas de entrada y 2 de salida, porque so
cive las conecciones de la lan y funciona super bien.
?!
Para que funcione Bonding debes configurar _ambas_ puntas: el switch y
el servidor. Mira el mono:
http://en.wikipedia.org/wiki/Link_aggregation
Tiene sentido si tienes un switch "decente":
- que el backplane sea mayor que las bocas
ador windows, le di la puerta del bond0 que es
>> el que recive las conecciones de la lan y funciona super bien.
>
> ?!
>
> Para que funcione Bonding debes configurar _ambas_ puntas: el switch y
> el servidor. Mira el mono:
> http://en.wikipedia.org/wiki/Link_aggregation
>
2009/4/27 Aldrin Martoq :
> On Mon, 2009-04-27 at 10:18 -0400, Juan Andres Ramirez wrote:
>> 2009/4/26 Aldrin Martoq :
[...]
> Para que funcione Bonding debes configurar _ambas_ puntas: el switch y
> el servidor. Mira el mono:
> http://en.wikipedia.org/wiki/Link_aggregation
&g
Hola a todos, trataré de ser corto y preciso.
datos:
- 2x intel nehalem quadcore
- 36gb ram
- centos 5.3 64bits
- actualizado a la fecha con repos oficiales
(son dos máquinas iguales instaladas iguales)
el problema:
tengo un problema armando un bonding para balanceo de carga, tengo 2
2009/7/7 Felipe Román Márquez :
>
> Hola a todos, trataré de ser corto y preciso.
>
> datos:
> de antemano gracias.
>
Como estas midiendo para saber que no balancean??
Probaste en modo 4??
Aqui va una referencia...http://kbase.redhat.com/faq
por traspaso de archivos con scp, rsync y por como sincroniza los
discos drbd.
con las tarjetas viejas de 100mbps al usar un bonding el traspaso de
archivos se hace a aproximadamente 20mbps a 25mbps, al desconectar una
tarjeta mientras se copia el archivo la velocidad baja a 10mbps a
2009/7/8 Felipe Román Márquez :
> por traspaso de archivos con scp, rsync y por como sincroniza los discos
> drbd.
Haz otra prueba para medir, probablemente estas midiendo tu
performance en disco y/o en cpu.
> con las tarjetas viejas de 100mbps al usar un bonding el traspaso de
>
bonding en todo caso). pero no es estable, los bridges
que genera para xen hacen que se caiga la red cada vez que se reinicia
la máquina y además misteriosamente los archivos de configuración de
las interfaces de red se borran, sin mencionar que no encontré soporte
ni para heartbeat ni para
On Fri, 2009-07-10 at 17:13 -0400, Felipe Román Márquez wrote:
> tiene 6 discos sas de 15.000rpm en raid0 (cada server) en velocidad
> peak da casi 800mbps, y no baja de 480mbps en velocidad sostenida.
> y en cpu, tiene 2 x quadcore nehalem (no hay nada más potente en el
> mercado hasta ahora)
probé en fedora 11 y funciona sin problemas, con 3 tarjetas da 90mbps
en promedio.
pero no hay xen en fedora 11, solo kvm y necesito xen si o si. (y es
casi 100% necesario usar centos)
:( creo que tendré que comprar unas infiniband
gracias.
El 10-07-2009, a las 19:29, Aldrin Martoq escribi
On Sun, 2009-07-19 at 20:37 -0400, Felipe Román Márquez wrote:
> probé en fedora 11 y funciona sin problemas, con 3 tarjetas da 90mbps
> en promedio.
Que probaste? rsync, scp, mi programa? Comparaste con localhost?
Que unidades son esas? b con minusculas es bit, B con mayusculas es
Byte. 90mbps
Que probaste? rsync, scp, mi programa? Comparaste con localhost?
si, probé de todo y tengo 3 veces mejor performance en fedora con el
bonding funcionando que en centos.
Que unidades son esas? b con minusculas es bit, B con mayusculas es
Byte. 90mbps esta LEJOS de gigabit.
http
2009/7/19 Felipe Román Márquez
>
>
>> Que probaste? rsync, scp, mi programa? Comparaste con localhost?
>>
>
> si, probé de todo y tengo 3 veces mejor performance en fedora con el
> bonding funcionando que en centos.
¿Qué protocolo exactamente estás probando?
Atte,
JCO
un poco más detallado.
es para un cluster activo/pasivo que usa drbd y es vital para el
rendimiento de esto el performance de la red.
ya hice pruebas a los discos, locales y remotas, y todo lo sugerido
en los post anteriores.
con las mismas pruebas usando fedora 11 con un bonding modo 6 el
las mismas pruebas usando fedora 11 con un bonding modo 6 el performance
> es 3 veces lo que da en centos.
> si le sacaba un cable de una tarjeta de red bajaba a 60MB/ss aprox
> con 1 daba 30MB/s y con las 3 cercano a los 90-100MB/s
Nones! tu problema no es que el balanceo no funciona, sino q
as a los discos, locales y remotas, y todo lo sugerido en los
> > post anteriores.
> > con las mismas pruebas usando fedora 11 con un bonding modo 6 el performance
> > es 3 veces lo que da en centos.
> > si le sacaba un cable de una tarjeta de red bajaba a 60MB/ss aprox
> &g
32 matches
Mail list logo