Re: [rlug] openstack si openvswitch-ul aferent
2015-11-06 12:35 GMT+01:00 Mihai Badici : > >> >> 192.168.133.112 este local_ip in >> /etc/neutron/plugins/openvswitch/ovs_neutron_plugin.ini >> Practic e folosit ca adresa pentru capatul local al tunelului deci nu >> are importanta daca e pus pe interfata fizica, vlan, bridge atata timp >> cat ai conectivitate cu adresele remote_ip. >> > > Ah, acum ma dumiresc: in exemplul din install se presupune ca am un link > intre eth2 de pe controller si eth2 de pe compute, just? > Eu am avut initial acest link, pentru ca am folosit interfetele din vrack; > acum am scos una din interfete deci nu mai am link intre ele. Da, daca ai urmat diagrama urmatoare ai reteaua Tunnel network, pe interfata 2 folosita doar pentru traficul de overlay networks: http://docs.openstack.org/kilo/install-guide/install/apt/content/figures/1/a/common/figures/installguidearch-neutron-networks.png Teoretic ai nevoie de conectivitate L3 pentru tunele deci cred ca daca setezi corect local_ip pe noduri si te asiguri ca ai conectivitate intre local_ip si remote_ip ar trebui sa mearga. Recomandarea este, insa, sa ai o retea dedicata peste care sa pui retelele overlay. > > >> > Mihai Badici[1] >> > >> > >> > [1] http://mihai.badici.ro >> > ___ >> > RLUG mailing list >> > RLUG@lists.lug.ro >> > http://lists.lug.ro/mailman/listinfo/rlug >> >> ___ >> RLUG mailing list >> RLUG@lists.lug.ro >> http://lists.lug.ro/mailman/listinfo/rlug-- > Mihai Badici[1] > > > [1] http://mihai.badici.ro > ___ > RLUG mailing list > RLUG@lists.lug.ro > http://lists.lug.ro/mailman/listinfo/rlug ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] openstack si openvswitch-ul aferent
> > 192.168.133.112 este local_ip in > /etc/neutron/plugins/openvswitch/ovs_neutron_plugin.ini > Practic e folosit ca adresa pentru capatul local al tunelului deci nu > are importanta daca e pus pe interfata fizica, vlan, bridge atata timp > cat ai conectivitate cu adresele remote_ip. > Ah, acum ma dumiresc: in exemplul din install se presupune ca am un link intre eth2 de pe controller si eth2 de pe compute, just? Eu am avut initial acest link, pentru ca am folosit interfetele din vrack; acum am scos una din interfete deci nu mai am link intre ele. > > Mihai Badici[1] > > > > > > [1] http://mihai.badici.ro > > ___ > > RLUG mailing list > > RLUG@lists.lug.ro > > http://lists.lug.ro/mailman/listinfo/rlug > > ___ > RLUG mailing list > RLUG@lists.lug.ro > http://lists.lug.ro/mailman/listinfo/rlug-- Mihai Badici[1] [1] http://mihai.badici.ro ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] openstack si openvswitch-ul aferent
2015-11-06 12:05 GMT+01:00 Mihai Badici : > On Friday 06 November 2015 11:40:51 Adrian Joian wrote: >> Salut, >> >> In functie de ce distributie de openstack ai (pentru ca nu ai mentionat) >> configuratia pentru GRE o gasesti in /etc/neutron/plugins/openvswitch >> >> integration_bridge=br-int >> tunnel_id_ranges=1:1000 >> enable_tunneling=True >> tunnel_bridge=br-tun >> *tenant_network_type=gre* >> >> Nu iti trebuie bridge-uri pe interfete - sunt explicate pe net toate >> flowurile atat pe compute-uri cat si din neutron sunt slide-uri de la >> hastexo cat si pe blogul de la rdo. > La hastexo zice ca ar trebui sa fie asa: > > ovs -vsctl show > [...] > Bridge br -tun > Port br -tun > Interface br -tun > Port patch -int > Interface patch -int > options: {peer=patch -tun} > Port "gre -1" > Interface "gre -1" > options: {in_key=flow , local_ip ="192.168.133.112" , \ > out_key=flow , remote_ip ="192.168.133.114"} > 1.1 > Ori mie imi lipseste complet interfata asta gre -1 > Banuiesc ca ar trebui sa fie facuta automat de catre neutron-openvswitch > agent; din cate imi dau eu seama in nici un config de pe compute node nu > am scris care e "remote_ip" , cel de pe network node adica. > Cele doua ip-uri cu 192.168.133.112 trebuie sa fie asignate la ceva? Cred > ca la eth2 , nu? 192.168.133.112 este local_ip in /etc/neutron/plugins/openvswitch/ovs_neutron_plugin.ini Practic e folosit ca adresa pentru capatul local al tunelului deci nu are importanta daca e pus pe interfata fizica, vlan, bridge atata timp cat ai conectivitate cu adresele remote_ip. > > Mihai Badici[1] > > > [1] http://mihai.badici.ro > ___ > RLUG mailing list > RLUG@lists.lug.ro > http://lists.lug.ro/mailman/listinfo/rlug ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] openstack si openvswitch-ul aferent
2015-11-06 10:52 GMT+01:00 Mihai Badici : > Salut, > Dupa ce m-am jucat ce m-am jucat cu openstack m-am apucat sa ii stric > interfetele din openvswitch. Ma rog, am avut si un motiv, dar principalul > este ca e mai bine sa imi prind urechile inainte de a-i da drumul in > productie. > > Evident ca am reusit sa le stric si acum incerc sa le repar cumva in asa fel > incat sa inteleg si eu ceva, pentru ca documentatia pare foarte putina. > > So: > > Inteleg asa: pe compute node imi face un br-int care e bridge-ul pentru > toate masinile virtuale. Aici pare clar: > > ovs-vsctl list-ports br-int : > > patch-tun > qvo713031b4-8b > qvo82ea0616-9b > Am doua masini, deci doua interfete plus acest patch-tun care se infige in > br-tun: > ovs-vsctl list-ports br-tun : > > patch-int > > Prima intrebare: aici nu ar trebui sa am si o interfata fizica? Teoretic ar > trebui sa am o interfata ( in manual e 10.0.1.31) dar nu imi e clar cum se > cupleaza cu tunelul patch-int leaga br-tun de br-int print patch-tun: Port patch-tun Interface patch-tun type: patch options: {peer=patch-int} Port patch-int Interface patch-int type: patch options: {peer=patch-tun} > A doua intrebare: cum ii spun ca e tunel GRE? > Exemplul de la openvswitch e asa: > Add a port for the GRE tunnel: > ovs-vsctl add-port br0 gre0 -- set interface gre0 type=gre > options:remote_ip=// > In configul neutron nu vad sa ii specific nicaieri care e remote end pentru > tunel; sa zicem ca se prinde el din configuri: cum verific ca e intr-adevar > declarat tunel gre? tunnel_types in /etc/neutron/plugins/openvswitch/ovs_neutron_plugin.ini Apoi mai ai in /etc/neutron/plugin.ini type_drivers si tenant_network_types > Dincolo, pe controller, care e si network node ca sa nu fac risipa, am: > > root@controller:~# ovs-vsctl list-ports br-int > int-br-ex > patch-tun > qr-1485c4bc-bf > > Nu trebuie sa am si aici o interfata fizica? Asocierea dintre bridge si physical_network se face prin bridge_mappings in /etc/neutron/plugins/openvswitch/ovs_neutron_plugin.ini. Crearea bridge-urilor folosite cat si adaugarea interfetelor fizice nu e facuta de Openstack. De exemplu br-ex si adaugarea unei interfete in br-ex se face manual(sau de installer). Link-uri utile care explica networking-ul: http://docs.openstack.org/networking-guide/scenario_legacy_ovs.html http://docs.openstack.org/networking-guide/scenario_provider_ovs.html > > > > > > > > > > Mihai Badici[1] > > > [1] http://mihai.badici.ro > ___ > RLUG mailing list > RLUG@lists.lug.ro > http://lists.lug.ro/mailman/listinfo/rlug ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] openstack si openvswitch-ul aferent
Trebuie sa se formeze full mesh network cu celelalte compute-uri si cu neutronul si arata la type GRE Interface "gre-8" type: gre options: {in_key=flow, out_key=flow, remote_ip="1..."} 2015-11-06 12:05 GMT+01:00 Mihai Badici : > On Friday 06 November 2015 11:40:51 Adrian Joian wrote: > > Salut, > > > > In functie de ce distributie de openstack ai (pentru ca nu ai mentionat) > > configuratia pentru GRE o gasesti in /etc/neutron/plugins/openvswitch > > > > integration_bridge=br-int > > tunnel_id_ranges=1:1000 > > enable_tunneling=True > > tunnel_bridge=br-tun > > *tenant_network_type=gre* > > > > Nu iti trebuie bridge-uri pe interfete - sunt explicate pe net toate > > flowurile atat pe compute-uri cat si din neutron sunt slide-uri de la > > hastexo cat si pe blogul de la rdo. > La hastexo zice ca ar trebui sa fie asa: > > ovs -vsctl show > [...] > Bridge br -tun > Port br -tun > Interface br -tun > Port patch -int > Interface patch -int > options: {peer=patch -tun} > Port "gre -1" > Interface "gre -1" > options: {in_key=flow , local_ip ="192.168.133.112" , \ > out_key=flow , remote_ip ="192.168.133.114"} > 1.1 > Ori mie imi lipseste complet interfata asta gre -1 > Banuiesc ca ar trebui sa fie facuta automat de catre neutron-openvswitch > agent; din cate imi dau eu seama in nici un config de pe compute node nu > am scris care e "remote_ip" , cel de pe network node adica. > Cele doua ip-uri cu 192.168.133.112 trebuie sa fie asignate la ceva? Cred > ca la eth2 , nu? > > > Mihai Badici[1] > > > [1] http://mihai.badici.ro > ___ > RLUG mailing list > RLUG@lists.lug.ro > http://lists.lug.ro/mailman/listinfo/rlug > -- Adrian ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] openstack si openvswitch-ul aferent
On Friday 06 November 2015 11:40:51 Adrian Joian wrote: > Salut, > > In functie de ce distributie de openstack ai (pentru ca nu ai mentionat) > configuratia pentru GRE o gasesti in /etc/neutron/plugins/openvswitch > > integration_bridge=br-int > tunnel_id_ranges=1:1000 > enable_tunneling=True > tunnel_bridge=br-tun > *tenant_network_type=gre* > > Nu iti trebuie bridge-uri pe interfete - sunt explicate pe net toate > flowurile atat pe compute-uri cat si din neutron sunt slide-uri de la > hastexo cat si pe blogul de la rdo. La hastexo zice ca ar trebui sa fie asa: ovs -vsctl show [...] Bridge br -tun Port br -tun Interface br -tun Port patch -int Interface patch -int options: {peer=patch -tun} Port "gre -1" Interface "gre -1" options: {in_key=flow , local_ip ="192.168.133.112" , \ out_key=flow , remote_ip ="192.168.133.114"} 1.1 Ori mie imi lipseste complet interfata asta gre -1 Banuiesc ca ar trebui sa fie facuta automat de catre neutron-openvswitch agent; din cate imi dau eu seama in nici un config de pe compute node nu am scris care e "remote_ip" , cel de pe network node adica. Cele doua ip-uri cu 192.168.133.112 trebuie sa fie asignate la ceva? Cred ca la eth2 , nu? Mihai Badici[1] [1] http://mihai.badici.ro ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] openstack si openvswitch-ul aferent
On Friday 06 November 2015 11:40:51 Adrian Joian wrote: > Salut, > > In functie de ce distributie de openstack ai (pentru ca nu ai mentionat) > configuratia pentru GRE o gasesti in /etc/neutron/plugins/openvswitch > > integration_bridge=br-int > tunnel_id_ranges=1:1000 > enable_tunneling=True > tunnel_bridge=br-tun > *tenant_network_type=gre* > > Nu iti trebuie bridge-uri pe interfete - sunt explicate pe net toate > flowurile atat pe compute-uri cat si din neutron sunt slide-uri de la > hastexo cat si pe blogul de la rdo. E kilo. Intre timp am dat de pdf-ul de la hastexo, acum citesc. Setarile de care zici le am ( sunt distribuite in ml2_conf.ini si ovs_neutron_plugin.ini dar cred ca e ok) Cea care lipseste e tenant_network_type=gre ; am in schimb tunnel_types=gre dar nu cred ca e echivalent. Chestia e ca mai jos: ovs-vsctl show f8bc2f60-ee4b-4aa1-9a1d-4a76aa0d373d Bridge br-tun fail_mode: secure Port patch-int Interface patch-int type: patch options: {peer=patch-tun} Port br-tun Interface br-tun type: internal Bridge br-int fail_mode: secure Port "qvo82ea0616-9b" tag: 1 Interface "qvo82ea0616-9b" Port br-int Interface br-int type: internal Port "qvo713031b4-8b" tag: 2 Interface "qvo713031b4-8b" Port patch-tun Interface patch-tun type: patch options: {peer=patch-int} ovs_version: "2.3.0" Nu e nici un gre pe nicaieri, nu ar trebui sa am ceva cu gre pe aici? Openvswitch de unde stie ca trebuie sa fie gre? Nu ar trebui sa fie un parametru la o interfata? ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug
Re: [rlug] openstack si openvswitch-ul aferent
Salut, In functie de ce distributie de openstack ai (pentru ca nu ai mentionat) configuratia pentru GRE o gasesti in /etc/neutron/plugins/openvswitch integration_bridge=br-int tunnel_id_ranges=1:1000 enable_tunneling=True tunnel_bridge=br-tun *tenant_network_type=gre* Nu iti trebuie bridge-uri pe interfete - sunt explicate pe net toate flowurile atat pe compute-uri cat si din neutron sunt slide-uri de la hastexo cat si pe blogul de la rdo. -- Adrian 2015-11-06 10:52 GMT+01:00 Mihai Badici : > Salut, > Dupa ce m-am jucat ce m-am jucat cu openstack m-am apucat sa ii stric > interfetele din openvswitch. Ma rog, am avut si un motiv, dar principalul > este ca e mai bine sa imi prind urechile inainte de a-i da drumul in > productie. > > Evident ca am reusit sa le stric si acum incerc sa le repar cumva in asa > fel > incat sa inteleg si eu ceva, pentru ca documentatia pare foarte putina. > > So: > > Inteleg asa: pe compute node imi face un br-int care e bridge-ul pentru > toate masinile virtuale. Aici pare clar: > > ovs-vsctl list-ports br-int : > > patch-tun > qvo713031b4-8b > qvo82ea0616-9b > Am doua masini, deci doua interfete plus acest patch-tun care se infige in > br-tun: > ovs-vsctl list-ports br-tun : > > patch-int > > Prima intrebare: aici nu ar trebui sa am si o interfata fizica? Teoretic ar > trebui sa am o interfata ( in manual e 10.0.1.31) dar nu imi e clar cum se > cupleaza cu tunelul > A doua intrebare: cum ii spun ca e tunel GRE? > Exemplul de la openvswitch e asa: > Add a port for the GRE tunnel: > ovs-vsctl add-port br0 gre0 -- set interface gre0 type=gre > options:remote_ip=// > In configul neutron nu vad sa ii specific nicaieri care e remote end pentru > tunel; sa zicem ca se prinde el din configuri: cum verific ca e intr-adevar > declarat tunel gre? > Dincolo, pe controller, care e si network node ca sa nu fac risipa, am: > > root@controller:~# ovs-vsctl list-ports br-int > int-br-ex > patch-tun > qr-1485c4bc-bf > > Nu trebuie sa am si aici o interfata fizica? > > > > > > > > > > > Mihai Badici[1] > > > [1] http://mihai.badici.ro > ___ > RLUG mailing list > RLUG@lists.lug.ro > http://lists.lug.ro/mailman/listinfo/rlug > -- Adrian ___ RLUG mailing list RLUG@lists.lug.ro http://lists.lug.ro/mailman/listinfo/rlug