Mircea Mitu wrote:
> On Tue, 2007-10-09 at 12:54 +0300, Daniel Petre wrote:
>> (mai) exista wiki pentru rlug? poate am timp sa postez si howto cum am
>> procedat dupa ce finalizez configurarea..
>
>
> http://wiki.lug.ro/
>
multumesc si puteti considera discutia pornita de mine incheiata :)
>
On Tue, 2007-10-09 at 12:54 +0300, Daniel Petre wrote:
>
> (mai) exista wiki pentru rlug? poate am timp sa postez si howto cum am
> procedat dupa ce finalizez configurarea..
http://wiki.lug.ro/
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.l
> Ma bucur ca ti-ai rezolvat treaba insa problema este ca acum din
> cauza ta s-a declansat un flame (pe tema "cit fac 32*33M/8?" - nu stie
> nimeni si se discuta in presupuneri, amenintari, etc), deci tre' sa te
> pedepsim cumva.
>
Nu auzi ma ca vine controlleru de disc si papa 75% din
On Tue, 9 Oct 2007, David Williams wrote:
pai 800Mbps trecea cumva prin un dual GbE intel card fara sa intre pe
HDD sau sa iese de pe HDD? Ca la 800Mbit un SATA2 HDD nu tzine, eu scot
Nu ai citit atent si reply-ul tau arata mai degraba ca un forward.
--
Any views or opinions presented
David Williams wrote:
> -Original Message-
> From: [EMAIL PROTECTED] [mailto:[EMAIL PROTECTED] On Behalf
> Of Alexandru Dragoi
> Sent: Tuesday, 9 October 2007 10:21 PM
> To: Romanian Linux Users Group
> Subject: Re: [rlug] linux "portchannel" ?
>
> Tarho
-Original Message-
From: [EMAIL PROTECTED] [mailto:[EMAIL PROTECTED] On Behalf
Of Alexandru Dragoi
Sent: Tuesday, 9 October 2007 10:21 PM
To: Romanian Linux Users Group
Subject: Re: [rlug] linux "portchannel" ?
Tarhon-Onu Victor wrote:
> On Tue, 9 Oct 2007, Alexandru
Tarhon-Onu Victor wrote:
> On Tue, 9 Oct 2007, Alexandru Dragoi wrote:
>
>> Aia 10mbiti la ce se refereau?
>
> La cit s-ar fi ajuns in plus care anu ar fi fost si overheadul
> introdus pe CPU de tagging. Oricum, overheadul pe CPU cel mai puternic
> era facut de qos-ul de pe masina aia.
>
>> Ori
On Tue, 9 Oct 2007, Alexandru Dragoi wrote:
Aia 10mbiti la ce se refereau?
La cit s-ar fi ajuns in plus care anu ar fi fost si overheadul
introdus pe CPU de tagging. Oricum, overheadul pe CPU cel mai puternic era
facut de qos-ul de pe masina aia.
Oricum thread-ul nu mai e on-topic, s-au
Tarhon-Onu Victor wrote:
> On Tue, 9 Oct 2007, Alexandru Dragoi wrote:
>
>> Da, o placa pe 32 biti de 33MHz care a face 800Mbiti in+out (cu
>> vlan-uri cu tot). Acum scuze daca am inceput sa explic consumul
>> foarte mic de CPU. Lasand atitudinea asta de "habar nu aveti sa
>> adunati", tagging-ul i
On Tue, 9 Oct 2007, Alexandru Dragoi wrote:
Da, o placa pe 32 biti de 33MHz care a face 800Mbiti in+out (cu vlan-uri
cu tot). Acum scuze daca am inceput sa explic consumul foarte mic de
CPU. Lasand atitudinea asta de "habar nu aveti sa adunati", tagging-ul
inseamna doar 4bytes la fiecare frame
On Tue, 9 Oct 2007, Catalin Muresan wrote:
1024 si multiplii lui merg doar la capacitati de stocare/memorii, nu
si la latimi de banda, sa nu le amestecam.
http://en.wikipedia.org/wiki/Gigabytes
32*3300/8 = 13200 adica 1.32Gbps.
1Gbps si 100Mbps de la placile de retea inseamna 1000
Nu pot sa ma abtin:
On 10/9/07, Tarhon-Onu Victor <[EMAIL PROTECTED]> wrote:
> La 33MHz poti transmite maxim 33M stari pe secunda, deci 33Mbps.
> Tradus in bytes (1 byte = 8 biti - pentru cei care se incurca la calcule)
> pe secunda si apoi megabytes pe secunda, asta ajunge la:
>
>
> >
> Da, o placa pe 32 biti de 33MHz care a face 800Mbiti in+out (cu vlan-
> uri
> cu tot). Acum scuze daca am inceput sa explic consumul foarte mic de
> CPU.
> Lasand atitudinea asta de "habar nu aveti sa adunati", tagging-ul
> inseamna doar 4bytes la fiecare frame, adica 18/1518(1.18%) la frame-
Tarhon-Onu Victor wrote:
> On Tue, 9 Oct 2007, Alexandru Dragoi wrote:
>
>> Cand comentezi jumatate de text te numesti academician, sau cum?
>
> Evident. Problema este ca eu nici nu tre' sa fac asta ca sa fiu
> academician.
>
>> Prima fraza se referea la marele consum de procesor pe care 8021q
On Tue, 9 Oct 2007, Alexandru Dragoi wrote:
Cand comentezi jumatate de text te numesti academician, sau cum?
Evident. Problema este ca eu nici nu tre' sa fac asta ca sa fiu
academician.
Prima fraza se referea la marele consum de procesor pe care 8021q il
face, a doua arata ca s-au facut m
Tarhon-Onu Victor wrote:
> On Tue, 9 Oct 2007, Daniel Petre wrote:
>
>> pai pina la urma raman cu cele doua placi (una onboard si una pe pci)
>> legate intr-un 3560:
>
> Ma bucur ca ti-ai rezolvat treaba insa problema este ca acum din
> cauza ta s-a declansat un flame (pe tema "cit fac 32*3
Tarhon-Onu Victor wrote:
> On Tue, 9 Oct 2007, Alexandru Dragoi wrote:
>
>> Nu prea are treaba cu dot1q, forwardez pe PCI64 peste 300Mbiti pe 2
>> placi, una intel si alta broadcom pe un pentium3 la 800MHz (pe un fir a
>
> Eu cred ca vorbesc singur. De fapt daca tu pe pci64 te plimbi in
> jurul
> -Original Message-
> From: [EMAIL PROTECTED] [mailto:[EMAIL PROTECTED] On
> Behalf Of Dragos CHIRIAC
> Sent: Tuesday, 9 October 2007 7:41 PM
> To: Romanian Linux Users Group
> Subject: Re: [rlug] linux "portchannel" ?
>
> David Williams wrote:
> &
> PCI
> 32bit
> 33Mhz
> 127.2 MByte/sec
Si in calculul tau 127 mbyte/sec este egal cu 250 mbit ? :)
32 bit/clock * 3300 = aproximativ 1056 mbit/sec
De vreo 4 ori peste cit ai spus tu.
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro
On Tue, 9 Oct 2007, Alexandru Dragoi wrote:
Nu prea are treaba cu dot1q, forwardez pe PCI64 peste 300Mbiti pe 2
placi, una intel si alta broadcom pe un pentium3 la 800MHz (pe un fir a
Eu cred ca vorbesc singur. De fapt daca tu pe pci64 te plimbi in
jurul lui 300Mbps iti dai seama ca eu cu 25
Tarhon-Onu Victor wrote:
> On Tue, 9 Oct 2007, Tarhon-Onu Victor wrote:
>
>> sinteti norocosi. Mie unul nu mi-a trecut niciodata de 250 full
>> duplex (si cred ca asta se intimpla cu placi intel gigabit cu NAPI
>> activat (sa intrerupa cit mai rar facind buffering en-gros) in P4
>> northwood la 2.8
On Tue, 9 Oct 2007, Daniel Petre wrote:
pai pina la urma raman cu cele doua placi (una onboard si una pe pci)
legate intr-un 3560:
Ma bucur ca ti-ai rezolvat treaba insa problema este ca acum din
cauza ta s-a declansat un flame (pe tema "cit fac 32*33M/8?" - nu stie
nimeni si se discuta in
On Tue, 9 Oct 2007, Tarhon-Onu Victor wrote:
sinteti norocosi. Mie unul nu mi-a trecut niciodata de 250 full duplex (si
cred ca asta se intimpla cu placi intel gigabit cu NAPI activat (sa intrerupa
cit mai rar facind buffering en-gros) in P4 northwood la 2.8 sau 3GHz.
Ma rog, poate daca nu e
Dragos CHIRIAC wrote:
> Daniel Petre wrote:
>> Tarhon-Onu Victor wrote:
>>
>>> On Tue, 9 Oct 2007, Daniel Petre wrote:
>>>
>>>
1. bridging cu ip pe br0 si ambele interfete intr-un switch cisco
(3560G) ? serverul ruleaza servicii email, dns, web..
2. bonding ?
i
On Tue, 9 Oct 2007, David Williams wrote:
PCI bus de 33Mhz = 250Mbit maximum bandwidth,
Ia mai calculeaza tu din nou.
David, ii voi ajuta eu cu calculele, ca saracii de ei au alte
probleme mai importante.
Intr-un hert poti transmite o stare, deci sa zicem un 0 sau un 1.
Deci un bit. c
David Williams wrote:
PCI
32bit
33Mhz
127.2 MByte/sec
deci de 4 ori mai mult in Mbit si de 2 ori mai putin in MByte, adica
1.07Gbps (din amintiri).
64-bit PCI 2.1
64bit
66Mhz
508.6 MByte/sec
DW
Nu mai pune reply sub semnatura, plese, ca la mine (si la altii) se vede
ca parte di
-Original Message-
From: [EMAIL PROTECTED] [mailto:[EMAIL PROTECTED] On Behalf
Of Vali Dragnuta
Sent: Tuesday, 9 October 2007 7:14 PM
To: Romanian Linux Users Group
Subject: RE: [rlug] linux "portchannel" ?
> PCI bus de 33Mhz = 250Mbit maximum bandwidth,
Ia mai calculeaz
Daniel Petre wrote:
Tarhon-Onu Victor wrote:
On Tue, 9 Oct 2007, Daniel Petre wrote:
1. bridging cu ip pe br0 si ambele interfete intr-un switch cisco
(3560G) ? serverul ruleaza servicii email, dns, web..
2. bonding ?
ideea e sa am 200M largime de banda macar..
Bonding. I
> PCI bus de 33Mhz = 250Mbit maximum bandwidth,
Ia mai calculeaza tu din nou.
___
RLUG mailing list
RLUG@lists.lug.ro
http://lists.lug.ro/mailman/listinfo/rlug
Tarhon-Onu Victor wrote:
On Tue, 9 Oct 2007, Daniel Petre wrote:
mai irosesc 2 interfete gigabit in 3560g, o sa incerc in 2 interfete pe
un 2960 sa vad cum se comporta 100M la 100M..
Nu stiu daca 2960 stie portchannel dar 3550/3560 stiu sigur. Parca
2950 si 2900xl nu stiau, uita-te pe
On Tue, 9 Oct 2007, Daniel Petre wrote:
mai irosesc 2 interfete gigabit in 3560g, o sa incerc in 2 interfete pe
un 2960 sa vad cum se comporta 100M la 100M..
Nu stiu daca 2960 stie portchannel dar 3550/3560 stiu sigur. Parca
2950 si 2900xl nu stiau, uita-te pe site la cisco sa fii sigur, ca
> -Original Message-
> From: [EMAIL PROTECTED] [mailto:[EMAIL PROTECTED] On
> Behalf Of Vali Dragnuta
> Sent: Tuesday, 9 October 2007 5:51 PM
> To: Romanian Linux Users Group
> Subject: Re: [rlug] linux "portchannel" ?
>
> On Tue, 2007-10-09
On Tue, 2007-10-09 at 10:24 +0300, Daniel Petre wrote:
> salutare,
>
> am o situatie in care un server IBM are doua placi de retea intel 100M
> si nu reusesc sa gasesc o interfata gigabit pe PCI sa il pot folosi
> intr-un switch gigabit.
Cum nu gasesti ? Eu am pus in niste netfinity-uri mai vechi
Tarhon-Onu Victor wrote:
> On Tue, 9 Oct 2007, Daniel Petre wrote:
>
>> 1. bridging cu ip pe br0 si ambele interfete intr-un switch cisco
>> (3560G) ? serverul ruleaza servicii email, dns, web..
>>
>> 2. bonding ?
>>
>> ideea e sa am 200M largime de banda macar..
>
> Bonding. In primul caz
Ratiu Petru wrote:
> On 10/9/07, Daniel Petre <[EMAIL PROTECTED]> wrote:
>> salutare,
>>
>> am o situatie in care un server IBM are doua placi de retea intel 100M
>> si nu reusesc sa gasesc o interfata gigabit pe PCI sa il pot folosi
>> intr-un switch gigabit. cred ca oricum nu se justifica bandw
On Tue, 2007-10-09 at 10:24 +0300, Daniel Petre wrote:
> salutare,
>
> am o situatie in care un server IBM are doua placi de retea intel 100M
> si nu reusesc sa gasesc o interfata gigabit pe PCI sa il pot folosi
> intr-un switch gigabit. cred ca oricum nu se justifica bandwidthul pe
> busul pci..
On Tue, 9 Oct 2007, Daniel Petre wrote:
1. bridging cu ip pe br0 si ambele interfete intr-un switch cisco
(3560G) ? serverul ruleaza servicii email, dns, web..
2. bonding ?
ideea e sa am 200M largime de banda macar..
Bonding. In primul caz si pe bridge ca rula o instanta de
spanning-tree (
On 10/9/07, Daniel Petre <[EMAIL PROTECTED]> wrote:
> salutare,
>
> am o situatie in care un server IBM are doua placi de retea intel 100M
> si nu reusesc sa gasesc o interfata gigabit pe PCI sa il pot folosi
> intr-un switch gigabit. cred ca oricum nu se justifica bandwidthul pe
> busul pci..
>
>
Daniel Petre wrote:
ce optiuni as avea ca sa folosesc ambele placi de retea ale serverului?
1. bridging cu ip pe br0 si ambele interfete intr-un switch cisco
(3560G) ? serverul ruleaza servicii email, dns, web..
Se cheama bucla :)
2. bonding ?
Ai suport in kernel
http://linux-net.osdl.or
Daniel Petre wrote:
salutare,
am o situatie in care un server IBM are doua placi de retea intel 100M
si nu reusesc sa gasesc o interfata gigabit pe PCI sa il pot folosi
intr-un switch gigabit. cred ca oricum nu se justifica bandwidthul pe
busul pci..
ce optiuni as avea ca sa folosesc ambele pla
40 matches
Mail list logo