Carlos, me sigue creando los dos archivos con 1024M de tamaño.
Mi consulta sobre el swap es que en el proceso figuran dos disco, uno debe
ser el disco y el otro el swap:

/dev/onapp-iem20qdroptb03/pal1y3rnshyidn
/dev/onapp-iem20qdroptb03/bnggfsp9c31rql

Yo estoy realizando el snapshot de cada uno y por cada uno crea dos
archivos:

brw-rw---- 1 root disk 253, 10 jul 12 13:11 onapp--iem20qdroptb03-bck_export
brw-rw---- 1 root disk 253, 22 jul 12 13:11
onapp--iem20qdroptb03-bck_export_2
brw-rw---- 1 root disk 253, 26 jul 12 13:11
onapp--iem20qdroptb03-bck_export_2-cow
brw-rw---- 1 root disk 253, 21 jul 12 13:11
onapp--iem20qdroptb03-bck_export-cow
brw-rw---- 1 root disk 253, 27 jul 12 13:11 onapp--iem20qdroptb03-bkp_VM_1
brw-rw---- 1 root disk 253, 28 jul 12 13:11
onapp--iem20qdroptb03-bkp_VM_1-cow
brw-rw---- 1 root disk 253, 29 jul 12 13:11 onapp--iem20qdroptb03-bkp_VM_2
brw-rw---- 1 root disk 253, 30 jul 12 13:11
onapp--iem20qdroptb03-bkp_VM_2-cow

Otra consulta, como puedo eliminar los snapshot ya creados?

Muchas gracias,

El 12 de julio de 2012 12:37, Carlos Restrepo <restrcar...@gmail.com>escribió:

> El 12 de julio de 2012 10:06, Federico Don <federico.do...@gmail.com
> >escribió:
>
> > Carlos, gracias una vez mas, te cuento lo que estoy haciendo, en el
> > hipervisor solo deje corriendo una MV la cual en el proceso se puede ver:
> >
> > /usr/libexec/qemu-kvm -S -M rhel5.4.0 -m 4096 -smp
> > 1,sockets=1,cores=1,threads=1 -name faxfssq4woowe2 -uuid
> > 3266131e-19ef-1b75-1629-638256e4ab7b -monitor
> > unix:/var/lib/libvirt/qemu/faxfssq4woowe2.monitor,server,nowait
> > -no-kvm-pit-reinjection -boot a -drive
> > file=/onapp/tools/grub.img,if=floppy,unit=0,readonly=on,format=raw -drive
> >
> >
> file=/dev/onapp-iem20qdroptb03/bnggfsp9c31rql,if=ide,bus=0,unit=0,format=raw
> > -drive
> >
> >
> file=/dev/onapp-iem20qdroptb03/pal1y3rnshyidn,if=ide,bus=0,unit=1,format=raw
> > -net nic,macaddr=00:16:3e:85:f5:69,vlan=0,model=e1000 -net
> tap,fd=18,vlan=0
> > -serial none -parallel none -usb -usbdevice tablet -vnc 0.0.0.0:0
> ,password
> > -vga cirrus -balloon virtio
> >
> > Verifico el nombre de la MV:
> >
> > # virsh list --all
> >  Id Nombre               Estado
> > ----------------------------------
> >  12 faxfssq4woowe2       ejecutando
> >
> > Si ejecuto la instrucción "virsh shutdown faxfssq4woowe2":
> >
> > # virsh shutdown faxfssq4woowe2
> > El dominio faxfssq4woowe2 está siendo apagado
> >
> > Pero nunca se apaga!
> > Puedo apagar la MV desde una consola
> >
> > El disco de mi maquina virtual es el que se ve en el
> > proceso /dev/onapp-iem20qdroptb03/bnggfsp9c31rql
> > y /dev/onapp-iem20qdroptb03/pal1y3rnshyidn, supongo que uno es el disco y
> > el otro es el swap, para crear el snapshot realice lo siguiente:
> >
> > lvcreate -L 512M -s -n bck_export
> /dev/onapp-iem20qdroptb03/bnggfsp9c31rql
> >
> > y en /dev/mapper/ encuentro lo siguiente:
> >
> > brw-rw---- 1 root disk 253, 10 jul 12 11:55
> > onapp--iem20qdroptb03-bck_export
> > brw-rw---- 1 root disk 253, 21 jul 12 11:55
> > onapp--iem20qdroptb03-bck_export-cow
> >
> > Luego realice el snapshot del otro disco:
> >
> > lvcreate -L 512M -s -n bck_export_2
> > /dev/onapp-iem20qdroptb03/pal1y3rnshyidn
> >
> > y en /dev/mapper/ apareció lo siguiente:
> >
> > brw-rw---- 1 root disk 253, 22 jul 12 12:01
> > onapp--iem20qdroptb03-bck_export_2
> > brw-rw---- 1 root disk 253, 26 jul 12 12:01
> > onapp--iem20qdroptb03-bck_export_2-cow
> >
> > La consulta que te quería realizar es, cuando quiera realizar el volcado
> de
> > los snapshot a un archivo de imagen, cual debería utilizar? como
> identifico
> > cual es el disco y cual es el swap?
> >
> > Gracias una vez mas por tu tiempo y saludos.
> >
> >
> >
> > El 11 de julio de 2012 23:53, Carlos Restrepo <restrcar...@gmail.com
> > >escribió:
> >
> > > El 11 de julio de 2012 20:35, Federico Don <federico.do...@gmail.com
> > > >escribió:
> > >
> > > > Muchas gracias Carlos por tu respuesta, te paso lo pedido:
> > > >
> > > > # cd /etc/libvirt/qemu
> > > > # ls
> > > > networks
> > > >
> > > > # lvs
> > > >   /dev/sdb: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > >   /dev/sdc: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > >   /dev/sdf: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > >   /dev/sdg: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > >   LV             VG                   Attr   LSize   Origin Snap%
>  Move
> > > Log
> > > > Copy%  Convert
> > > >   bnggfsp9c31rql onapp-iem20qdroptb03 -wi-ao  50,00G
> > > >
> > > >   ckvj9retkzbtvs onapp-iem20qdroptb03 -wi-a- 150,00G
> > > >
> > > >   de72lrn08efdj1 onapp-iem20qdroptb03 -wi-a-  12,00G
> > > >
> > > >   e2ncwc1d6eso09 onapp-iem20qdroptb03 -wi---   2,00G
> > > >
> > > >   egluyk8h74tfr2 onapp-iem20qdroptb03 -wi---   8,00G
> > > >
> > > >   ejmpm7ywsy51xt onapp-iem20qdroptb03 -wi-a-   4,00G
> > > >
> > > >   f0alz5l70t4gol onapp-iem20qdroptb03 -wi-ao 200,00G
> > > >
> > > >   felwpybp84nse1 onapp-iem20qdroptb03 -wi---  20,00G
> > > >
> > > >   frzo43jzwrtlvc onapp-iem20qdroptb03 -wi-ao 100,00G
> > > >
> > > >   g0ie06va7zhysi onapp-iem20qdroptb03 -wi-a-   4,00G
> > > >
> > > >   g2jfdgn26dslev onapp-iem20qdroptb03 -wi-a- 100,00G
> > > >
> > > >   ghlodviapupakd onapp-iem20qdroptb03 -wi---   6,00G
> > > >
> > > >   gocvb8cdca11nk onapp-iem20qdroptb03 -wi-a-  40,00G
> > > >
> > > >   h025lmrb2s72ds onapp-iem20qdroptb03 -wi---  30,00G
> > > >
> > > >   hclohf4u3iklmy onapp-iem20qdroptb03 -wi-a-   8,00G
> > > >
> > > >   htox3xluu850rh onapp-iem20qdroptb03 -wi-a-  50,00G
> > > >
> > > >   ikw5rphgnx0795 onapp-iem20qdroptb03 -wi---   5,00G
> > > >
> > > >   k8f2s5dwqecong onapp-iem20qdroptb03 -wi-a-  50,00G
> > > >
> > > >   kq1zt63vjzpap8 onapp-iem20qdroptb03 -wi-a-  40,00G
> > > >
> > > >   l0kkyfe4if2aom onapp-iem20qdroptb03 -wi-a-   4,00G
> > > >
> > > >   l4x5ogvc3s8khk onapp-iem20qdroptb03 -wi---   5,00G
> > > >
> > > >   nors374zt6xhzs onapp-iem20qdroptb03 -wi-a-   4,00G
> > > >
> > > >   o4fmn261j5om2s onapp-iem20qdroptb03 -wi---   4,00G
> > > >
> > > >   ojzxd63208q7dy onapp-iem20qdroptb03 -wi---  16,00G
> > > >
> > > >   ow8y3eczaie1if onapp-iem20qdroptb03 -wi---   8,00G
> > > >
> > > >   oyrhrpsx1joyuu onapp-iem20qdroptb03 -wi---  50,00G
> > > >
> > > >   pal1y3rnshyidn onapp-iem20qdroptb03 -wi-ao   8,00G
> > > >
> > > >   pgayu9dd4251o1 onapp-iem20qdroptb03 -wi-a- 200,00G
> > > >
> > > >   plf0s4vu0wa2ef onapp-iem20qdroptb03 -wi---  20,00G
> > > >
> > > >   pzc7y79m6x59qj onapp-iem20qdroptb03 -wi---  40,00G
> > > >
> > > >   qbi5e2omke27kj onapp-iem20qdroptb03 -wi-a-  20,00G
> > > >
> > > >   u3e0eyuq9ci9q8 onapp-iem20qdroptb03 -wi-a-  16,00G
> > > >
> > > >   uvpnx7upnrss6n onapp-iem20qdroptb03 -wi--- 150,00G
> > > >
> > > >   vma5hv37arfbwz onapp-iem20qdroptb03 -wi-a-  40,00G
> > > >
> > > >   we2kni39jq8y37 onapp-iem20qdroptb03 -wi---  40,00G
> > > >
> > > >   wv5ulhzgf18s2t onapp-iem20qdroptb03 -wi---  10,00G
> > > >
> > > > # vgs
> > > >   /dev/sdb: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > >   /dev/sdc: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > >   /dev/sdf: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > >   /dev/sdg: read failed after 0 of 4096 at 0: Error de entrada/salida
> > > >   VG                   #PV #LV #SN Attr   VSize   VFree
> > > >   onapp-iem20qdroptb03   1  36   0 wz--n-   2,00T 533,95G
> > > >   onapp-jufdxsvobzvj42   1   0   0 wz--n- 410,08G 410,08G
> > > >
> > > > # df -h
> > > > S.ficheros          Tamaño Usado  Disp Uso% Montado en
> > > > /dev/sda5              48G  2,8G   43G   7% /
> > > > /dev/sda1             152M   46M   99M  32% /boot
> > > > tmpfs                  36G  8,0K   36G   1% /dev/shm
> > > > 192.168.0.229:/backup/onappadmin
> > > >                       9,0T  6,2T  2,4T  72% /onapp/backups
> > > >
> > > > Gracias nuevamente y espero tus comentarios,
> > > >
> > > > Saludos,
> > > >
> > > > El 11 de julio de 2012 19:37, Carlos Restrepo <restrcar...@gmail.com
> > > > >escribió:
> > > >
> > > > > El 11 de julio de 2012 15:35, Federico Don <
> federico.do...@gmail.com
> > > > > >escribió:
> > > > >
> > > > > > Buenas, tengo la siguiente consulta y estaba en busca de alguien
> > que
> > > > > > conozca de qemu-kvm y me pueda ayudar, tengo corriendo una vm de
> la
> > > > gente
> > > > > > de http://onapp.com/, básicamente es un centos corriendo
> qemu-kvm,
> > > en
> > > > > los
> > > > > > procesos puedo ver lo siguiente:
> > > > > >
> > > > > > /usr/libexec/qemu-kvm -S -M rhel5.4.0 -m 4096 -smp
> > > > > > 2,sockets=2,cores=1,threads=1 -name xjkwn2qs8m846g -uuid
> > > > > > 042e0c80-a511-85b1-e745-c75b98537d0a -monitor
> > > > > > unix:/var/lib/libvirt/qemu/xjkwn2qs8m846g.monitor,server,nowait
> > > > > > -no-kvm-pit-reinjection -boot c -drive
> > > > > >
> > > > > >
> > > > >
> > > >
> > >
> >
> file=/dev/onapp-iem20qdroptb03/frzo43jzwrtlvc,if=ide,bus=0,unit=0,boot=on,format=raw
> > > > > > -net nic,macaddr=00:16:3e:91:bc:13,vlan=0 -net tap,fd=19,vlan=0
> > > -serial
> > > > > > none -parallel none -usb -usbdevice tablet -vnc 0.0.0.0:1
> ,password
> > > > -vga
> > > > > > cirrus -balloon virtio
> > > > > > You have new mail in /var/spool/mail/root
> > > > > >
> > > > > > Mi pregunta es, de donde puedo sacar el disco de la vm en formato
> > > .img
> > > > o
> > > > > > .raw para poder importarlo en otra plataforma??
> > > > > >
> > > > > > La gente de http://onapp.com/ no me proporciona información....
> > > > > >
> > > > > > Gracias por su tiempo y colaboración!
> > > > > >
> > > > > > Saludos,
> > > > > > _______________________________________________
> > > > > > CentOS-es mailing list
> > > > > > CentOS-es@centos.org
> > > > > > http://lists.centos.org/mailman/listinfo/centos-es
> > > > > >
> > > > >
> > > > > Cordial saludo.
> > > > >
> > > > >
> > > > > Federico, para saber la ubicación primero debes saber si la maquina
> > te
> > > la
> > > > > crearon en dispositivos de bloque o es una imagen.
> > > > >
> > > > > Busca en la siguiente ruta a ver si hayas un archivo con el nombre
> la
> > > > > máquina virtual: /etc/libvirt/qemu
> > > > >
> > > > > Si en esa ruta no encuentras ningun archivo es posible que este en
> un
> > > > > dispositivo de bloques, valida lo anterior con el siguiente
> comando y
> > > si
> > > > te
> > > > > es posible pega la salida del mismo:
> > > > >
> > > > > lvs
> > > > >
> > > > > y tambien ejecuta los comandos vgs y df -h y pega las salidas de
> > ellos
> > > > para
> > > > > colaborarte.
> > > > >
> > > > > --
> > > > > Carlos R!.
> > > > > _______________________________________________
> > > > > CentOS-es mailing list
> > > > > CentOS-es@centos.org
> > > > > http://lists.centos.org/mailman/listinfo/centos-es
> > > > >
> > > > _______________________________________________
> > > > CentOS-es mailing list
> > > > CentOS-es@centos.org
> > > > http://lists.centos.org/mailman/listinfo/centos-es
> > > >
> > >
> > > Ok, eso quiere decir que la MV esta en dispositivo de bloques. Ahora en
> > ese
> > > listado cual es tu maquina?
> > >
> > > Tu maquina esta en el VG --> onapp-iem20qdroptb03
> > >
> > > una vez tengas identificada tu maquina en el listado que enviaste te
> > > sugiero la bajes para que realices un snapshot en frio de la misma
> > > empleando la siguiente instruccion:
> > >
> > > -  virsh shutdown "nombre_maquina_virtual"
> > > Verifica que este abajo con la siguiente instrucción:
> > >
> > > - virsh list --all    (te la debe mostrar en estado off)
> > >
> > > ahora haces el snapshot de la siguiente manera:
> > >
> > > lvcrete -L 512M -s -n bck_"nombre_maquina_virtual
> > > /dev/mapper/onapp-iem20qdroptb03
> > >
> > > cuando te confirme que esta creada, vuelve a subir la maquina virtual
> con
> > > la siquiente instrucción:
> > >
> > > virsh start "nombre_maquina_virtual"
> > >
> > > ahora debes realizar el volcado del snapshot a un archivo imagen, esto
> se
> > > hace de la siguiente manera:
> > >
> > > dd if=/dev/mapper/onapp-iem20qdroptb03-bck_"nombre_maquina_virtual"
> > > of=/"ruta/maquina_virtual.img BS=1M
> > >
> > > Recomendaciones obligatorias:
> > >
> > > - Ten presente que el sitio donde realizaras el volcado de la maquina
> > > virtual (archivo imagen) debe ser igual o superior al tamaño de la
> > maquina
> > > virtual.
> > >
> > > - Una vez termine el volcado podras trasladar el archivo .img que
> > creaste a
> > > partir del snapshot.
> > > - Tambien deberas trasladar el archivo xml que controla tu maquina
> > virtual
> > > al nuevo anfitrion donde ubicaras tu maquina virtual. el archivo se
> > > encuentra en /etc/libvirt/qemu, ese archivo tendras que afinarlo en el
> > > nuevo anfitrión.
> > >
> > >
> > > --
> > > Carlos R!.
> > > _______________________________________________
> > > CentOS-es mailing list
> > > CentOS-es@centos.org
> > > http://lists.centos.org/mailman/listinfo/centos-es
> > >
> > _______________________________________________
> > CentOS-es mailing list
> > CentOS-es@centos.org
> > http://lists.centos.org/mailman/listinfo/centos-es
> >
>
> No Federico, el cow no es el swap. Cuando realices el volcado toma el que
> no lleva esa extensión (cow). Dejame y averiguo por que te crea ese archivo
> con esa extensión, en los snapshot que realizo con las mismas instrucciones
> no me genera ese segundo archivo.
>
> Prueba haciendo el snapshot nuevamente pero con un tamaño mayor a 512M, por
> lo menos 1024 a ver si te crea un segundo archivo con extensión cow.
>
>
>
> --
> Carlos R!.
> _______________________________________________
> CentOS-es mailing list
> CentOS-es@centos.org
> http://lists.centos.org/mailman/listinfo/centos-es
>
_______________________________________________
CentOS-es mailing list
CentOS-es@centos.org
http://lists.centos.org/mailman/listinfo/centos-es

Responder a