Re: Простой интерфейс для QEMU/KVM

2015-07-15 Пенетрантность Dmitri V. Ivanov
On Tue, Jul 14, 2015 at 11:52:35PM +0300, Dmitri V. Ivanov wrote:
  Даже не знаю что сказать. А как оно по вашему будет работать, если средства
  для виртуализации и управления предоставляет библиотека libvirt?
 
 Ну так все управление там идет через unix/tcp/udp. socat, screen и куча 
 скриптов
 по идее решают проблему. Вот только нет ли другого, чем libvirt, готового?

Вот прямо по запросу socat qemu
http://www.nico.schottelius.org/blog/control-and-shutdown-qemu-kvm-vm-via-unix-socket/


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: https://lists.debian.org/20150715173740.ga14...@intex.spb.ru



Re: Простой интерфейс для QEMU/KVM

2015-07-14 Пенетрантность Hleb Valoshka
On 7/13/15, Hleb Valoshka 375...@gmail.com wrote:

 На aqemu смотрели?

И не смотрите, во-первых, забаговано, во-вторых, не умеет нужного.


Re: Простой интерфейс для QEMU/KVM

2015-07-14 Пенетрантность Dmitri V. Ivanov
On Tue, Jul 14, 2015 at 07:56:08AM +0300, Aleksandr Sytar wrote:
 13 июля 2015 г., 21:25 пользователь Victor Wagner vi...@wagner.pp.ru
 написал:
 
  Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI
  для управления QEMU/KVM, что бы не тащило за собой libvirt.
 
 
 Даже не знаю что сказать. А как оно по вашему будет работать, если средства
 для виртуализации и управления предоставляет библиотека libvirt?

Ну так все управление там идет через unix/tcp/udp. socat, screen и куча скриптов
по идее решают проблему. Вот только нет ли другого, чем libvirt, готового?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: https://lists.debian.org/20150714205235.ga4...@intex.spb.ru



Re: Простой интерфейс для QEMU/KVM

2015-07-13 Пенетрантность Stanislav Vlasov
14 июля 2015 г., 9:56 пользователь Aleksandr Sytar
sytar.a...@gmail.com написал:
 Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI
 для управления QEMU/KVM, что бы не тащило за собой libvirt.


 Даже не знаю что сказать. А как оно по вашему будет работать, если средства
 для виртуализации и управления предоставляет библиотека libvirt?

Ой не надо нам военных песен...
Запустить kvm с нужными опциями можно и в командной строке, потом
можно подцепляться к сокету и пихать туда команды и подключаться к
консоли по vnc или spice.
Но это неудобно при неодноразовом запуске.
А libvirt - монстр, придуманный для управления десятками виртуалок,
который нафиг не нужен, если их пара штук. К тому же, обладает
противоестественным интеллектом в тех местах, где это нафиг не надо.
К сожалению, до чего-то, аналогичного virtualbox (всё запускается под
пользователем только на время, нужное для работы виртуалки без лишних
демонов и с управлением из гуя) в приложении к qemu не встречал...

-- 
Stanislav


Re: Простой интерфейс для QEMU/KVM

2015-07-13 Пенетрантность Aleksandr Sytar
13 июля 2015 г., 21:25 пользователь Victor Wagner vi...@wagner.pp.ru
написал:

 Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI
 для управления QEMU/KVM, что бы не тащило за собой libvirt.


Даже не знаю что сказать. А как оно по вашему будет работать, если средства
для виртуализации и управления предоставляет библиотека libvirt?


Re: Простой интерфейс для QEMU/KVM

2015-07-13 Пенетрантность Hleb Valoshka
On 7/13/15, Victor Wagner vi...@wagner.pp.ru wrote:

 Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI
 для управления QEMU/KVM, что бы не тащило за собой libvirt.

На aqemu смотрели?

 Требуется в общем-то немного - оперативно подцеплять к виртуальной
 машине хостовые устройства. В принципе даже достаточно только USB. Но
 чтобы удобно было.

Чесно, говоря, не уверен, что оно это умеет, ибо не было нужды.


Простой интерфейс для QEMU/KVM

2015-07-13 Пенетрантность Victor Wagner
Коллеги, а не подскажет ли кто, что можно использовать в качестве GUI
для управления QEMU/KVM, что бы не тащило за собой libvirt.

Требуется в общем-то немного - оперативно подцеплять к виртуальной
машине хостовые устройства. В принципе даже достаточно только USB. Но
чтобы удобно было.

virt-manager этоу задачу решает, но решает криво. Во-перовых, он тащит
за собой libvirt и libvirtd, во-вторых, он эти устройства запоминает и
потом не стартует виртуальную машину, если устройства не найдет, пока
его оттуда не удалишь.

Сначала я всё-таки надеялся добиться успеха от virt-manager, надеясь
засунуть под его управление не только kvm-ные машины, но и
lxc-контейнеры. Сейчас повозился и понял, что lxc-контейнеры лучше
управляются средствами собственно lxc, а libvirt с ними работает крайне
криво. Держать libvirt (именно libvirt с ее демоном, а не собственно
virt-manager) ради одной виртуальной машины, куда нужно периодически
цеплять eToken крайне не хочется. 

Поэтому хочется найти чего попроще. Ориентированное именно на работу в
режими workstation и управление removable устройствами.

Попробовал qemuctl, он в общем выглядит как то, что надо, но только не
работает - не показывает на Connect/USB/Host Device вообще ничего.

virtualbricks на первый взгляд - совсем не про то.

Менять kvm на более другую систему виртуализации не вижу смысла. На мой
взгляд, основным его преимуществом (как и lxc) является то, что там вся
ядерная поддержка в дистрибутивном ядре. И в результате security update
ядра или установки ядра с бэкпортов у меня внезапно не сломаются
виртуальные машины, как не раз бывало с vmware.


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: https://lists.debian.org/20150713212539.20e16...@arkturus.wagner.home



KVM

2013-03-20 Пенетрантность Dmitry E. Oboukhov
по работе пришлось столкнуться с сабжем.
создал диск qemu-img, поставил систему под qemu

но вот чет ничего не нашел на тему общей инфраструктуры:
- запуск инстансов
- мониторинг (какой запущен/какой нет)

итп

есть ли для KVM (qemu?) аналоги vzctl и прочие init-скрипты/оснастка?
-- 

. ''`.   Dmitry E. Oboukhov
: :’  :   email: un...@debian.org jabber://un...@uvw.ru
`. `~’  GPGKey: 1024D / F8E26537 2006-11-21
  `- 1B23 D4F8 8EC0 D902 0555  E438 AB8C 00CF F8E2 6537


signature.asc
Description: Digital signature


Re: KVM

2013-03-20 Пенетрантность Stanislav Vlasov
20 марта 2013 г., 13:31 пользователь Dmitry E. Oboukhov
un...@debian.org написал:
 по работе пришлось столкнуться с сабжем.
 создал диск qemu-img, поставил систему под qemu

 но вот чет ничего не нашел на тему общей инфраструктуры:

kvm - это кирпичик такой... К нему инфраструктура - отдельно.

 - запуск инстансов
 - мониторинг (какой запущен/какой нет)

 итп

 есть ли для KVM (qemu?) аналоги vzctl и прочие init-скрипты/оснастка?

libvirt вроде как может.
Еще рекомендую посмотреть, как сделано в Proxmox VE.

-- 
Stanislav


Re: KVM

2013-03-20 Пенетрантность Dmitry A. Zhiglov
20 марта 2013 г., 11:31 пользователь Dmitry E. Oboukhov
un...@debian.org написал:
 по работе пришлось столкнуться с сабжем.
 создал диск qemu-img, поставил систему под qemu

 но вот чет ничего не нашел на тему общей инфраструктуры:
 - запуск инстансов
 - мониторинг (какой запущен/какой нет)

 итп

 есть ли для KVM (qemu?) аналоги vzctl и прочие init-скрипты/оснастка?

На сервере libvirt-bin
Графическая оболочка для удаленного администрирования virt-manager


Re: KVM

2013-03-20 Пенетрантность Korona Auto Ltd.\ Andrey N. Prokofiev

20.03.2013 11:31, Dmitry E. Oboukhov пишет:

по работе пришлось столкнуться с сабжем.
создал диск qemu-img, поставил систему под qemu

но вот чет ничего не нашел на тему общей инфраструктуры:
- запуск инстансов
- мониторинг (какой запущен/какой нет)

итп

есть ли для KVM (qemu?) аналоги vzctl и прочие init-скрипты/оснастка?


virsh

--
WBR, Andrey N. Prokofiev
Phone: +7-812-645-3616 ext. 240


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/5149824e.7040...@korona-auto.com



Re: ванильные ядра 3.7.х и kvm (на debian testing)[solved]

2013-03-05 Пенетрантность -=Devil_InSide=-
сам спросил, сам ответил:
копать в документацию к едру:

src/kernels/3.8.2/linux-3.8.2/arch/x86/kvm/Kconfig:

if VIRTUALIZATION

config KVM
tristate Kernel-based Virtual Machine (KVM) support
depends on HAVE_KVM
depends on HIGH_RES_TIMERS
-=-=-=-=-=-
как и замечал в последних ядрах, опции переползают в другие подменю и при 
этом оказываюстя выключенными.
включил HIGH_RES_TIMERS, опции модулей квм появились.
компилю.
)

,-[-=Devil_InSide=-, 3 March 2013 15:03]:

 ,-[-=Devil_InSide=-, 3 March 2013 14:58]:
 
 ,-[Alexander Sitnik, 3 March 2013 10:23]:
 
 02.03.2013 15:09, -=Devil_InSide=- пишет:
 стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса.
 и, внезапно, куда то делся kvm при сборке первого же ядра из ветки
 3.7.х я как бы слегка молчу про отключение нат в нетфильтр и
 переползании (с отключением) модулей для вебкамеры - их я хотя бы нашел
 и включил. а опции виртуализации ...
 | ++ |
 | |--- Virtualization  | |
 | |M   Kernel-based Virtual Machine (KVM) support| |
 | |M KVM for Intel processors support| |
 | |M KVM for AMD processors support  | |
 | |[ ] Audit KVM MMU   | |
 | |M   Host kernel accelerator for virtio net (EXPERI| |
 | |TCM_VHOST fabric module (EXPERIMENTAL)| |
 | || |
 | ++ |
 ++ |
Select Exit  Help   |
 ++
  
 
 в моем случае на 3.7.х не было)
 
 
 
┌───┐
 │
   │ │  --- Virtualization
   │ │  M   Host kernel accelerator for virtio net
 (EXPERIMENTAL)
   │ │  Linux hypervisor example code
 
 
 соберу 3.8, погляжу.
 )
 
 -=-=-=-
 .config - Linux/i386 3.8.1 Kernel Configuration
 +--- Virtualization   |
   | |  --- Virtualization
   | |  M   Host kernel accelerator for virtio net
 (EXPERIMENTAL)
   | |  Linux hypervisor example code
 -=-=-=-
 смешно
 )
 
 

-- 
__
mpd status: [stopped]
**
*  jabber:  devil_ins...@jabber.ru   *
*   Registered linux user #450844*
**



-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/kh5gj0$des$1...@ger.gmane.org



Re: ванильные ядра 3.7.х и kvm (на debian testing)

2013-03-03 Пенетрантность -=Devil_InSide=-
,-[Alexander Sitnik, 3 March 2013 10:23]:

 02.03.2013 15:09, -=Devil_InSide=- пишет:
 стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса.
 и, внезапно, куда то делся kvm при сборке первого же ядра из ветки 3.7.х
 я как бы слегка молчу про отключение нат в нетфильтр и переползании (с
 отключением) модулей для вебкамеры - их я хотя бы нашел и включил.
 а опции виртуализации ...
 какие то модули в исходниках есть.
 
 linux-3.7.6/arch/x86/kvm
 linux-3.7.6/arch/x86/kvm/kvm_cache_regs.h
 linux-3.7.6/arch/x86/include/asm/kvm_emulate.h
 linux-3.7.6/arch/x86/include/asm/kvm_host.h
 linux-3.7.6/arch/x86/include/asm/kvm_para.h
 linux-3.7.6/arch/x86/include/asm/kvm.h
 linux-3.7.6/arch/x86/kernel/kvmclock.c
 linux-3.7.6/arch/x86/kernel/kvm.c
 ===
 правда, называются как то без разделения на kvm_amd и kvm_intel
 и не компилятся.

 
 CONFIG_HAVE_KVM=y
 CONFIG_VIRTUALIZATION=y
 
 Ничего не поменялось, всё осталось на месте. Можете взять из
 experimental ядро 3.8 и посмотреть его конфиг. Там есть следующее:
 
 CONFIG_HAVE_KVM=y
 CONFIG_HAVE_KVM_IRQCHIP=y
 CONFIG_HAVE_KVM_EVENTFD=y
 CONFIG_KVM_APIC_ARCHITECTURE=y
 CONFIG_KVM_MMIO=y
 CONFIG_KVM_ASYNC_PF=y
 CONFIG_HAVE_KVM_MSI=y
 CONFIG_HAVE_KVM_CPU_RELAX_INTERCEPT=y
 CONFIG_VIRTUALIZATION=y
 CONFIG_KVM=m
 CONFIG_KVM_INTEL=m
 CONFIG_KVM_AMD=m
 
 Если настраивать ядро через menuconfig, то настройки прямо на первом
 уровне, в разделе Virtualization:
 
 | ++ |
 | |--- Virtualization  | |
 | |M   Kernel-based Virtual Machine (KVM) support| |
 | |M KVM for Intel processors support| |
 | |M KVM for AMD processors support  | |
 | |[ ] Audit KVM MMU   | |
 | |M   Host kernel accelerator for virtio net (EXPERI| |
 | |TCM_VHOST fabric module (EXPERIMENTAL)| |
 | || |
 | ++ |
 ++ |
Select Exit  Help   |
 ++
  

в моем случае на 3.7.х не было)

Arrow keys navigate the menu.  Enter selects submenus ---.  Highlighted 
letters are hotkeys.  │  
  │  Pressing Y includes, N excludes, M modularizes features.  Press 
EscEsc to exit, ? for│  
  │  Help, / for Search.  Legend: [*] built-in  [ ] excluded  M module  
  module capable 
┌───┐
 
│  
  │ │  --- Virtualization   

  │ │  M   Host kernel accelerator for virtio net 
(EXPERIMENTAL)
  │ │  Linux hypervisor example code
  
├───┤
  
  │   Select Exit  Help   
  
│  
  
└───┘
  


соберу 3.8, погляжу.
)


 
 
 
 
 единственные подходящие опции, которые я нашел.
 
 # find /lib/modules/`uname -r`/ -iname *kvm*
 #
 Скобки вокруг имени забыли:
 
 % find /lib/modules/`uname -r`/ -iname *kvm*
 /lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm
 /lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm/kvm-amd.ko
 /lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm/kvm.ko
 /lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm/kvm-intel.ko
 

:~$ find /lib/modules/`uname -r`/ -iname *kvm*
:~$ 
скобки сути не меняют
)
(кавычки, кстати))

 Это самосборное 3.8.1 с конфигом от дебиановского 3.8-trunk
 (http://packages.debian.org/experimental/linux-image-3.8-trunk-amd64)

сегодня соберу, погляжу.
как бы только чего еще не переползло.
на ядрах 3.6.х-3.7.х уже дважды чинил камеру.
)


 
 как то тоже пусто.

 не то , чтоб это было для домашенго компа сильно актуально, но - куда
 копать?
 )
 гугл пока внятного ответа не дал.
 на работе стоит ядро 3.6.х, там kvm работает.
 )





-- 
__
mpd status: [stopped]
**
*  jabber:  devil_ins...@jabber.ru   *
*   Registered linux user #450844*
**



-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/kgvabm$iq0$1...@ger.gmane.org



Re: ванильные ядра 3.7.х и kvm (на debian testing)

2013-03-03 Пенетрантность -=Devil_InSide=-
,-[-=Devil_InSide=-, 3 March 2013 14:58]:

 ,-[Alexander Sitnik, 3 March 2013 10:23]:
 
 02.03.2013 15:09, -=Devil_InSide=- пишет:
 стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса.
 и, внезапно, куда то делся kvm при сборке первого же ядра из ветки 3.7.х
 я как бы слегка молчу про отключение нат в нетфильтр и переползании (с
 отключением) модулей для вебкамеры - их я хотя бы нашел и включил.
 а опции виртуализации ...
 | ++ |
 | |--- Virtualization  | |
 | |M   Kernel-based Virtual Machine (KVM) support| |
 | |M KVM for Intel processors support| |
 | |M KVM for AMD processors support  | |
 | |[ ] Audit KVM MMU   | |
 | |M   Host kernel accelerator for virtio net (EXPERI| |
 | |TCM_VHOST fabric module (EXPERIMENTAL)| |
 | || |
 | ++ |
 ++ |
Select Exit  Help   |
 ++
  
 
 в моем случае на 3.7.х не было)
 
 
┌───┐
 │
   │ │  --- Virtualization
   │ │  M   Host kernel accelerator for virtio net
 (EXPERIMENTAL)
   │ │  Linux hypervisor example code

 
 соберу 3.8, погляжу.
 )

-=-=-=-
.config - Linux/i386 3.8.1 Kernel Configuration 
 
+--- Virtualization   |   
  | |  --- Virtualization
  | |  M   Host kernel accelerator for virtio net 
(EXPERIMENTAL)
  | |  Linux hypervisor example code
-=-=-=-
смешно
)


-- 
__
mpd status: [stopped]
**
*  jabber:  devil_ins...@jabber.ru   *
*   Registered linux user #450844*
**



-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/kgvam9$jvl$1...@ger.gmane.org



Re: ванильные ядра 3.7.х и kvm (на debian testing)

2013-03-03 Пенетрантность Скубриев Владимир

03.03.2013 15:03, -=Devil_InSide=- пишет:

соберу 3.8, погляжу.
)

-=-=-=-
.config - Linux/i386 3.8.1 Kernel Configuration
+--- Virtualization   |
   | |  --- Virtualization
   | |  M   Host kernel accelerator for virtio net
(EXPERIMENTAL)
   | |  Linux hypervisor example code
-=-=-=-
смешно
)



вот это да - надо будет учесть сей момент!

--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/51342e21.1050...@skubriev.ru



ванильные ядра 3.7.х и kvm (на debian testing)

2013-03-02 Пенетрантность -=Devil_InSide=-
стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса.
и, внезапно, куда то делся kvm при сборке первого же ядра из ветки 3.7.х
я как бы слегка молчу про отключение нат в нетфильтр и переползании (с 
отключением) модулей для вебкамеры - их я хотя бы нашел и включил.
а опции виртуализации ... 
какие то модули в исходниках есть.

linux-3.7.6/arch/x86/kvm
linux-3.7.6/arch/x86/kvm/kvm_cache_regs.h
linux-3.7.6/arch/x86/include/asm/kvm_emulate.h
linux-3.7.6/arch/x86/include/asm/kvm_host.h
linux-3.7.6/arch/x86/include/asm/kvm_para.h
linux-3.7.6/arch/x86/include/asm/kvm.h
linux-3.7.6/arch/x86/kernel/kvmclock.c
linux-3.7.6/arch/x86/kernel/kvm.c
===
правда, называются как то без разделения на kvm_amd и kvm_intel
и не компилятся.


CONFIG_HAVE_KVM=y
CONFIG_VIRTUALIZATION=y

единственные подходящие опции, которые я нашел.

# find /lib/modules/`uname -r`/ -iname *kvm*
# 

как то тоже пусто.

не то , чтоб это было для домашенго компа сильно актуально, но - куда 
копать?
)
гугл пока внятного ответа не дал.
на работе стоит ядро 3.6.х, там kvm работает.
)

-- 
__
mpd status: [paused]
Ария - Дезертир
**
*  jabber:  devil_ins...@jabber.ru   *
*   Registered linux user #450844*
**



-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/kgsmlq$aim$1...@ger.gmane.org



Re: ванильные ядра 3.7.х и kvm (на debian testing)

2013-03-02 Пенетрантность Alexander Sitnik

02.03.2013 15:09, -=Devil_InSide=- пишет:

стояла у у меня kvm, на которую перекинул кучку машин с виртуалбокса.
и, внезапно, куда то делся kvm при сборке первого же ядра из ветки 3.7.х
я как бы слегка молчу про отключение нат в нетфильтр и переползании (с
отключением) модулей для вебкамеры - их я хотя бы нашел и включил.
а опции виртуализации ...
какие то модули в исходниках есть.

linux-3.7.6/arch/x86/kvm
linux-3.7.6/arch/x86/kvm/kvm_cache_regs.h
linux-3.7.6/arch/x86/include/asm/kvm_emulate.h
linux-3.7.6/arch/x86/include/asm/kvm_host.h
linux-3.7.6/arch/x86/include/asm/kvm_para.h
linux-3.7.6/arch/x86/include/asm/kvm.h
linux-3.7.6/arch/x86/kernel/kvmclock.c
linux-3.7.6/arch/x86/kernel/kvm.c
===
правда, называются как то без разделения на kvm_amd и kvm_intel
и не компилятся.


CONFIG_HAVE_KVM=y
CONFIG_VIRTUALIZATION=y


Ничего не поменялось, всё осталось на месте. Можете взять из 
experimental ядро 3.8 и посмотреть его конфиг. Там есть следующее:


CONFIG_HAVE_KVM=y
CONFIG_HAVE_KVM_IRQCHIP=y
CONFIG_HAVE_KVM_EVENTFD=y
CONFIG_KVM_APIC_ARCHITECTURE=y
CONFIG_KVM_MMIO=y
CONFIG_KVM_ASYNC_PF=y
CONFIG_HAVE_KVM_MSI=y
CONFIG_HAVE_KVM_CPU_RELAX_INTERCEPT=y
CONFIG_VIRTUALIZATION=y
CONFIG_KVM=m
CONFIG_KVM_INTEL=m
CONFIG_KVM_AMD=m

Если настраивать ядро через menuconfig, то настройки прямо на первом 
уровне, в разделе Virtualization:


| ++ |
| |--- Virtualization  | |
| |M   Kernel-based Virtual Machine (KVM) support| |
| |M KVM for Intel processors support| |
| |M KVM for AMD processors support  | |
| |[ ] Audit KVM MMU   | |
| |M   Host kernel accelerator for virtio net (EXPERI| |
| |TCM_VHOST fabric module (EXPERIMENTAL)| |
| || |
| ++ | 
++ | 
  Select Exit  Help   | 
++ 







единственные подходящие опции, которые я нашел.

# find /lib/modules/`uname -r`/ -iname *kvm*
#

Скобки вокруг имени забыли:

% find /lib/modules/`uname -r`/ -iname *kvm*
/lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm
/lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm/kvm-amd.ko
/lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm/kvm.ko
/lib/modules/3.8.1-1-amd64/kernel/arch/x86/kvm/kvm-intel.ko

Это самосборное 3.8.1 с конфигом от дебиановского 3.8-trunk 
(http://packages.debian.org/experimental/linux-image-3.8-trunk-amd64)




как то тоже пусто.

не то , чтоб это было для домашенго компа сильно актуально, но - куда
копать?
)
гугл пока внятного ответа не дал.
на работе стоит ядро 3.6.х, там kvm работает.
)




--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/5132ec78.8020...@gmail.com



одна мышь и одна клавиатура для хоста и гостя kvm

2013-01-30 Пенетрантность Скубриев Владимир

Хочу собрать медиацентр на базе debian + xbmc под телевизор.

Основной будет debian. Одним из гостей будет Windows с проброшенной в 
него видеокартой с hdmi выходом.


Windows нужен чтобы играть в игры с джойстиком на телевизоре. Проброс 
видеокарты нужен, чтобы использовать всего один компьютер.


Очень сложно сейчас представить будет ли это работать - ведь планируется 
в том числе играть на высоком разрешении пусть и в простые игры.


Как можно обойтись только одной клавиатурой и мышью для управления и 
основной ОС и Гостем Windows?


Одно из решений которое я себе представляю:

1. Выводить экран гостевой машины на виртуальную консоль linux (например 
tty2)


   Будет ли передаваться звук через HDMI из гостевой машины?
   Как это реализовать ? (Если можно вкратце что с чем связать)

Я конечно понимаю, что местами планируемое решение огород еще тот. Но у 
меня есть оправдания:


1. Я люблю огороды )
2. Очень интересно как оно будет работать.
3. Данное решение - практично и независимо (т.к. используется linux)
4. Можно сэкономить на железе, электричестве, шуме
5. Можно использовать данный компьютер для рабочей виртуальной машины, в 
которой сосредоточить все свои наработки и рабочие программы


Плюсов много. Но есть также как минимум один минус: Всеобщая сложность.

Хотел бы услышать ваше мнение ?

--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/510919b4.4060...@skubriev.ru



Re: одна мышь и одна клавиатура для хоста и гостя kvm

2013-01-30 Пенетрантность Dmitry Nezhevenko
On Wed, Jan 30, 2013 at 05:01:40PM +0400, Скубриев Владимир wrote:
 Хочу собрать медиацентр на базе debian + xbmc под телевизор.
 
 Основной будет debian. Одним из гостей будет Windows с проброшенной
 в него видеокартой с hdmi выходом.
 
 Windows нужен чтобы играть в игры с джойстиком на телевизоре.
 Проброс видеокарты нужен, чтобы использовать всего один компьютер.
 
 Очень сложно сейчас представить будет ли это работать - ведь
 планируется в том числе играть на высоком разрешении пусть и в
 простые игры.
 
 Как можно обойтись только одной клавиатурой и мышью для управления и
 основной ОС и Гостем Windows?


А как планируется обходиться одной видеокартой?

Будет ли передаваться звук через HDMI из гостевой машины?
Как это реализовать ? (Если можно вкратце что с чем связать)

Если будет проброшена видеокарта то будет. В Xen во всяком случае
работает.
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: одна мышь и одна клавиатура для хоста и гостя kvm

2013-01-30 Пенетрантность Скубриев Владимир

30.01.2013 17:18, Dmitry Nezhevenko пишет:

On Wed, Jan 30, 2013 at 05:01:40PM +0400, Скубриев Владимир wrote:

Хочу собрать медиацентр на базе debian + xbmc под телевизор.

Основной будет debian. Одним из гостей будет Windows с проброшенной
в него видеокартой с hdmi выходом.

Windows нужен чтобы играть в игры с джойстиком на телевизоре.
Проброс видеокарты нужен, чтобы использовать всего один компьютер.

Очень сложно сейчас представить будет ли это работать - ведь
планируется в том числе играть на высоком разрешении пусть и в
простые игры.

Как можно обойтись только одной клавиатурой и мышью для управления и
основной ОС и Гостем Windows?


А как планируется обходиться одной видеокартой?
Еще будет использоваться встроенная в процессор видеокарты, т.е. она 
будет отдана основной системе. А внешняя в PCI-E будет отдана гостю Windows.



Будет ли передаваться звук через HDMI из гостевой машины?
Как это реализовать ? (Если можно вкратце что с чем связать)

Если будет проброшена видеокарта то будет. В Xen во всяком случае
работает.
  



--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/5109fac9.3020...@skubriev.ru



Проброс PCI-устройства в KVM и XEN. Error: Cannot connect to the monitor. И error: psi_stub no own 01:00.0

2012-10-22 Пенетрантность alexander
Преведя)
Вот ковыряюсь месятс, не могу пробросить PCI устройство в виртуальную
машину(( хнюкся((. В grub'e ввожу в строку linux kernel..
intel_iommu=on вроде запускается intel_iommu. Еще ввожу на всяк случ
pciback.hide=(01:00:0) и xen-pciback=(01:00.0), но в KVM еррор Cannot
connect to the monitor (( А в Xen еррор psi_stub no own pci device
(01:00.0). Хнюкс( Чо за лажа?( Блин.. все перепробовал. Не переносится
PCI устройство(. Чо делать, други мои?( Включайте мегамозг!! а-а-а!
HELP! Чо за лажовые виртуальные машины? А в корпорации такая же лажовая
виртуализация? O_o Хоть прям на венду вазвросчайси) хех) HELP!!!


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/2012105309.47bc6...@omen.dyndns-ip.com



Re: Проброс PCI-устройства в KVM и XEN. Error: Cannot connect to the monitor. И error: psi_stub no own 01:00.0

2012-10-22 Пенетрантность Скубриев Владимир

22.10.2012 15:53, alexander пишет:

Преведя)
Вот ковыряюсь месятс, не могу пробросить PCI устройство в виртуальную
машину(( хнюкся((. В grub'e ввожу в строку linux kernel..
intel_iommu=on вроде запускается intel_iommu. Еще ввожу на всяк случ
pciback.hide=(01:00:0) и xen-pciback=(01:00.0), но в KVM еррор Cannot
connect to the monitor (( А в Xen еррор psi_stub no own pci device
(01:00.0). Хнюкс( Чо за лажа?( Блин.. все перепробовал. Не переносится
PCI устройство(. Чо делать, други мои?( Включайте мегамозг!! а-а-а!
HELP! Чо за лажовые виртуальные машины? А в корпорации такая же лажовая
виртуализация? O_o Хоть прям на венду вазвросчайси) хех) HELP!!!



Ты сам хоть понял что написал )))

Ты все таки в официальной рассылке находишься. Уважай её участников и 
себе самого. Пиши правильно.


Уже не в первый раз за тобой замечаю такой странный стиль изложения. 
Поэтому делаю замечание.


--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/50853572.1040...@skubriev.ru



Re: Проброс PCI-устройства в KVM и XEN. Error: Cannot connect to the monitor. И error: psi_stub no own 01:00.0

2012-10-22 Пенетрантность alexander
В Mon, 22 Oct 2012 16:00:50 +0400
Скубриев Владимир vladi...@skubriev.ru пишет:

 22.10.2012 15:53, alexander пишет:
  Преведя)
  Вот ковыряюсь месятс, не могу пробросить PCI устройство в
  виртуальную машину(( хнюкся((. В grub'e ввожу в строку linux
  kernel.. intel_iommu=on вроде запускается intel_iommu. Еще ввожу на
  всяк случ pciback.hide=(01:00:0) и xen-pciback=(01:00.0), но в KVM
  еррор Cannot connect to the monitor (( А в Xen еррор psi_stub no
  own pci device (01:00.0). Хнюкс( Чо за лажа?( Блин.. все
  перепробовал. Не переносится PCI устройство(. Чо делать, други
  мои?( Включайте мегамозг!! а-а-а! HELP! Чо за лажовые виртуальные
  машины? А в корпорации такая же лажовая виртуализация? O_o Хоть
  прям на венду вазвросчайси) хех) HELP!!!
 
 
 Ты сам хоть понял что написал )))
 
 Ты все таки в официальной рассылке находишься. Уважай её участников и 
 себе самого. Пиши правильно.
 
 Уже не в первый раз за тобой замечаю такой странный стиль изложения. 
 Поэтому делаю замечание.
 

хех) ланя) Сашога учтет)


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20121022231348.39343...@omen.dyndns-ip.com



Re: Проброс PCI-устройства в KVM и XEN. Error: Cannot connect to the monitor. И error: psi_stub no own 01:00.0

2012-10-22 Пенетрантность Dmitry A. Zhiglov
22 октября 2012 г., 15:53 пользователь alexander toyman...@gmail.com написал:
  А в корпорации такая же лажовая
 виртуализация? O_o Хоть прям на венду вазвросчайси) хех) HELP!!!

Да, возвращайтесь на венду )


Прошу поделится опытом использования свободных технологий для организации VDI. Особенно KVM и SPICE.

2012-10-17 Пенетрантность Скубриев Владимир

Возник вопрос можно ли внедрить VDI не платя при этом за ПО.

Организация 30 ПК.

Предположим нужно перенести в VDI около 15 рабочих мест менеджеров по 
работе с клиентами (windows xp, 7), бухгалтеров, директоров и т.д.


Сейчас там используется местами kvm+libvirt+debian местами hyper-v. В 
зависимости от того, есть ли на данный момент возможность использования 
linux в качестве системы хоста.


Насколько мне известно существуют как свободные и/или бесплатные так и 
платные решения.


Из них:

Свободные и/или бесплатные:

1. linux-kvm.org
2. xen.org
3. virtualbox.org

остальные по идее платные:

1. Citrix XenDesktop,
3. Vmware View
3. Инфраструктура виртуальных настольных ПК Майкрософт
4. Oracle Virtual Desktop Infrastructure

Конечно предпочтение я отдаю связке kvm+libvirt+debian+SPICE.
Так как наиболее хорошо с ней знаком, оно opensource и уже используется 
мной на нескольких серверах. Но не для VDI.



Поделитесь пожалуйста опытом использования свободных технологий для 
организации VDI. Особенно интересен KVM и SPICE.





--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/507e5266.6020...@skubriev.ru



Re: Прошу поделится опытом использования свободных технологий для организации VDI. Особенно KVM и SPICE.

2012-10-17 Пенетрантность Stanislav Vlasov
17 октября 2012 г., 12:38 пользователь Скубриев Владимир
vladi...@skubriev.ru написал:

 Сейчас там используется местами kvm+libvirt+debian местами hyper-v. В
 зависимости от того, есть ли на данный момент возможность использования
 linux в качестве системы хоста.

VDI в смысле просто рабочая станция в виртуалке или таки полноценная
VDI-инфраструктура с возможностью генерации рабочего места с нужной
конфигурацией установленного софта без его повторной установки на
новую виртуалку?

 Свободные и/или бесплатные:
 1. linux-kvm.org
 2. xen.org
 3. virtualbox.org

К сожалению, не помню среди них ничего, что было больше, чем просто
система виртуализации.

А рабочие станции в виртуалках делались... В моём случае это был Xen +
vnc для доступа к рабочему столу.

-- 
Stanislav


Re: Прошу поделится опытом использования свободных технологий для организации VDI. Особенно KVM и SPICE.

2012-10-17 Пенетрантность Скубриев Владимир

17.10.2012 10:47, Stanislav Vlasov пишет:

17 октября 2012 г., 12:38 пользователь Скубриев Владимир
vladi...@skubriev.ru написал:


Сейчас там используется местами kvm+libvirt+debian местами hyper-v. В
зависимости от того, есть ли на данный момент возможность использования
linux в качестве системы хоста.

VDI в смысле просто рабочая станция в виртуалке или таки полноценная
VDI-инфраструктура с возможностью генерации рабочего места с нужной
конфигурацией установленного софта без его повторной установки на
новую виртуалку?

VDI в смысле просто рабочая станция в виртуалке
Желательно чтобы как можно больше аппаратного обеспечения можно было 
пробросить внутрь виртуальной машины.


Например используются: кард-ридеры дисконтных магнитных карточек 
(serial), сканеры штрихкодов(usb, serial), принтеры (usb, serial), 
кассовые аппараты (serial)



Свободные и/или бесплатные:
1. linux-kvm.org
2. xen.org
3. virtualbox.org

К сожалению, не помню среди них ничего, что было больше, чем просто
система виртуализации.

А рабочие станции в виртуалках делались... В моём случае это был Xen +
vnc для доступа к рабочему столу.

Ну это уж слишком просто. У меня сейчас в виртуалках клиенты банков, 
электронная отчетность, работы со специфическим по и все по Rdp.

Это прекрасно работает, спасибо opensource.

А вот VDI, т.е. чтобы можно было заменить кассовый компьютер при сбое 
настроить пробросы и даже не лезть внутрь виртуальной машины - вот это 
мечта, ради которой и затевается переход на VDI.


Хотя не только ради кассовых компьютеров, но все же.

--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/507e57db.8060...@skubriev.ru



Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error

2012-09-26 Пенетрантность alexander
В Thu, 20 Sep 2012 23:02:26 +1100
alexander toyman...@gmail.com пишет:

 В Thu, 20 Sep 2012 15:47:34 +0400
 Скубриев Владимир vladi...@skubriev.ru пишет:
 
  20.09.2012 15:19, alexander пишет:
   В Thu, 20 Sep 2012 12:31:39 +0400
   Скубриев Владимир vladi...@skubriev.ru пишет:
  
   20.09.2012 12:10, alexander пишет:
   No IOMMU found.
   проверьте в данный момент поддерживается виртуализация вообще:
  
   cat /proc/cpuinfo | egrep flags.*'svm|vmx'
   вывод этой команды должен быть не пустым там должна быть строка с
   svm или vmx в зависимости от платформы intel vs amd
   alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
   Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo |
   egrep flags.*'svm|vmx'
   flags : fpu vme de pse tsc msr pae mce
   cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr
   sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc
   arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc
   aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3
   cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer
   aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts
   dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms
   flags : fpu vme de pse tsc msr pae mce cx8 apic sep
   mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss
   ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts
   rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq
   dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid
   sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c
   rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow
   vnmi flexpriority ept vpid fsgsbase smep erms
   flags : fpu vme de pse tsc msr pae mce cx8 apic
   sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse
   sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon
   pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni
   pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm
   pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx
   f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm
   tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms
   flags : fpu vme de pse tsc msr pae mce cx8 apic
   sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse
   sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon
   pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni
   pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm
   pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx
   f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm
   tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms
   alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
   Civilization 5.Deluxe Edition.v 1.0.0.20$
  
  поддержка виртуализации есть и она от intel, т.к. vmx
  это видно из того, что нашел grep
   проверьте включен ли у вас IOMMU (если платформа AMD)  или VT-d
   (если платформа Intel) в BIOS. Он включается отдельно зачастую.
   IOMMU в BIOS'e не нашел.
  его и не должно быть, т.к. так технология проброса устройств и и.п. 
  называется у amd
  тебе надо искать vt-d
  
  хотя иногда даже слова vt-d нету в bios, но сама опция есть, только
  по другому называется.
   и самый неприятный момент поддержка iommu или vt-d может
   отсутствовать у процессора (может быть и системной платы). в этом
   случае пробросить устройство не получится.
  
   alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
   Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e
   IOMMU [0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS
   ACRPRDCT 0001 1025 0004) [0.027340] DMAR: Host address
   width 36 [0.027343] DMAR: DRHD base: 0x00fed9 flags:
   0x0 [0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap
   c020e60262 ecap f0101a [0.027353] DMAR: DRHD base:
   0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr
   fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362]
   DMAR: RMRR base: 0x00a6e8f000 end: 0x00a6eaefff
   [0.027364] DMAR: RMRR base: 0x00a780 end:
   0x00af9f [0.027437] IOAPIC id 0 under DRHD base
   0xfed91000 IOMMU 1
  
  
   т.е. у вас может не поддерживаться проброс устройств, даже если
   поддерживается виртуализация в целом как процессором так и
   платой.
  
  
  
   да вроде все поддерживается. Удалось пробросить некоторые PCI
   устройства. А то устройство которое мне больше всего нужно - это
   видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums
   (через Bumblebeed).
  
  
  тогда не знаю даже. может быть не совместимость связана с
  видеочипом nvidia gt 640M
  раньше на сайте kvm был список поддерживаемых видео адаптеров
  
  и этот список был очень мал
  
 
 Хотя погарячился я насчет успешного проброса PCI

KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error

2012-09-20 Пенетрантность alexander
Привет)
Установил KVM (kernel virtual machine). Модерирую ее через
virt-manager. Хост ОС - Debian Wheezy testing/sid for amd64. Гость -
Windows 7 32 bit Ultimate. Пытаюсь в virt-manager пробросить дискретную
видеокарту (PCI устройство) в венду. Но появляется ошибка. Вот текст
ошибки:

Ошибка запуска : Unable to read from monitor: Connection reset by peer

Traceback (most recent call last):
  File /usr/share/virt-manager/virtManager/asyncjob.py, line 45, in
cb_wrapper callback(asyncjob, *args, **kwargs)
  File /usr/share/virt-manager/virtManager/asyncjob.py, line 66, in
tmpcb callback(*args, **kwargs)
  File /usr/share/virt-manager/virtManager/domain.py, line 1114, in
startup self._backend.create()
  File /usr/lib/python2.7/dist-packages/libvirt.py, line 620, in
create if ret == -1: raise libvirtError ('virDomainCreate() failed',
dom=self) libvirtError: Unable to read from monitor: Connection reset
by peer

Но я знаю, что такого быть не должно!( Что за баг такой? Как починить?
Ничо не нагуглил( HELP!


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120920185644.2ccee...@omen.dyndns-ip.com



Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error

2012-09-20 Пенетрантность alexander
В Thu, 20 Sep 2012 18:56:44 +1100
alexander toyman...@gmail.com пишет:

 Привет)
 Установил KVM (kernel virtual machine). Модерирую ее через
 virt-manager. Хост ОС - Debian Wheezy testing/sid for amd64. Гость -
 Windows 7 32 bit Ultimate. Пытаюсь в virt-manager пробросить
 дискретную видеокарту (PCI устройство) в венду. Но появляется ошибка.
 Вот текст ошибки:
 
 Ошибка запуска : Unable to read from monitor: Connection reset by peer
 
 Traceback (most recent call last):
   File /usr/share/virt-manager/virtManager/asyncjob.py, line 45, in
 cb_wrapper callback(asyncjob, *args, **kwargs)
   File /usr/share/virt-manager/virtManager/asyncjob.py, line 66, in
 tmpcb callback(*args, **kwargs)
   File /usr/share/virt-manager/virtManager/domain.py, line 1114, in
 startup self._backend.create()
   File /usr/lib/python2.7/dist-packages/libvirt.py, line 620, in
 create if ret == -1: raise libvirtError ('virDomainCreate() failed',
 dom=self) libvirtError: Unable to read from monitor: Connection reset
 by peer
 
 Но я знаю, что такого быть не должно!( Что за баг такой? Как починить?
 Ничо не нагуглил( HELP!

а это появилось после того как я выполнил:
#virsh managedsave-remove MyDomain


шибка запуска : internal error process exited while connecting to
monitor: char device redirected to /dev/pts/3 No IOMMU found.  Unable
to assign device hostdev0 kvm: -device
pci-assign,host=01:00.0,id=hostdev0,configfd=21,bus=pci.0,addr=0x3:
Device 'pci-assign' could not be initialized


Traceback (most recent call last):
  File /usr/share/virt-manager/virtManager/asyncjob.py, line 45, in
cb_wrapper callback(asyncjob, *args, **kwargs)
  File /usr/share/virt-manager/virtManager/asyncjob.py, line 66, in
tmpcb callback(*args, **kwargs)
  File /usr/share/virt-manager/virtManager/domain.py, line 1114, in
startup self._backend.create()
  File /usr/lib/python2.7/dist-packages/libvirt.py, line 620, in
create if ret == -1: raise libvirtError ('virDomainCreate() failed',
dom=self) libvirtError: internal error process exited while connecting
to monitor: char device redirected to /dev/pts/3 No IOMMU found.
Unable to assign device hostdev0 kvm: -device
pci-assign,host=01:00.0,id=hostdev0,configfd=21,bus=pci.0,addr=0x3:
Device 'pci-assign' could not be initialized


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120920191023.17763...@omen.dyndns-ip.com



Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error

2012-09-20 Пенетрантность Скубриев Владимир

20.09.2012 12:10, alexander пишет:

No IOMMU found.

проверьте в данный момент поддерживается виртуализация вообще:

cat /proc/cpuinfo | egrep flags.*'svm|vmx'

вывод этой команды должен быть не пустым там должна быть строка с svm 
или vmx в зависимости от платформы intel vs amd


проверьте включен ли у вас IOMMU (если платформа AMD)  или VT-d (если 
платформа Intel) в BIOS. Он включается отдельно зачастую.


и самый неприятный момент поддержка iommu или vt-d может отсутствовать у 
процессора (может быть и системной платы). в этом случае пробросить 
устройство не получится.


т.е. у вас может не поддерживаться проброс устройств, даже если 
поддерживается виртуализация в целом как процессором так и платой.






--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/505ad46b.6030...@skubriev.ru



Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error

2012-09-20 Пенетрантность Kirill Shilov
А твоя система(процессов\материнская плата) точно IOMMU поддерживает?
потому что ругается именно на него.

2012/9/20 alexander toyman...@gmail.com:
 В Thu, 20 Sep 2012 18:56:44 +1100
 alexander toyman...@gmail.com пишет:

 Привет)
 Установил KVM (kernel virtual machine). Модерирую ее через
 virt-manager. Хост ОС - Debian Wheezy testing/sid for amd64. Гость -
 Windows 7 32 bit Ultimate. Пытаюсь в virt-manager пробросить
 дискретную видеокарту (PCI устройство) в венду. Но появляется ошибка.
 Вот текст ошибки:

 Ошибка запуска : Unable to read from monitor: Connection reset by peer

 Traceback (most recent call last):
   File /usr/share/virt-manager/virtManager/asyncjob.py, line 45, in
 cb_wrapper callback(asyncjob, *args, **kwargs)
   File /usr/share/virt-manager/virtManager/asyncjob.py, line 66, in
 tmpcb callback(*args, **kwargs)
   File /usr/share/virt-manager/virtManager/domain.py, line 1114, in
 startup self._backend.create()
   File /usr/lib/python2.7/dist-packages/libvirt.py, line 620, in
 create if ret == -1: raise libvirtError ('virDomainCreate() failed',
 dom=self) libvirtError: Unable to read from monitor: Connection reset
 by peer

 Но я знаю, что такого быть не должно!( Что за баг такой? Как починить?
 Ничо не нагуглил( HELP!

 а это появилось после того как я выполнил:
 #virsh managedsave-remove MyDomain


 шибка запуска : internal error process exited while connecting to
 monitor: char device redirected to /dev/pts/3 No IOMMU found.  Unable
 to assign device hostdev0 kvm: -device
 pci-assign,host=01:00.0,id=hostdev0,configfd=21,bus=pci.0,addr=0x3:
 Device 'pci-assign' could not be initialized


 Traceback (most recent call last):
   File /usr/share/virt-manager/virtManager/asyncjob.py, line 45, in
 cb_wrapper callback(asyncjob, *args, **kwargs)
   File /usr/share/virt-manager/virtManager/asyncjob.py, line 66, in
 tmpcb callback(*args, **kwargs)
   File /usr/share/virt-manager/virtManager/domain.py, line 1114, in
 startup self._backend.create()
   File /usr/lib/python2.7/dist-packages/libvirt.py, line 620, in
 create if ret == -1: raise libvirtError ('virDomainCreate() failed',
 dom=self) libvirtError: internal error process exited while connecting
 to monitor: char device redirected to /dev/pts/3 No IOMMU found.
 Unable to assign device hostdev0 kvm: -device
 pci-assign,host=01:00.0,id=hostdev0,configfd=21,bus=pci.0,addr=0x3:
 Device 'pci-assign' could not be initialized


 --
 To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
 with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
 Archive: http://lists.debian.org/20120920191023.17763...@omen.dyndns-ip.com



--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: 
http://lists.debian.org/CAGWE0TBabnBkCW=-u2ADBY_VnYKk+ZnYxXdXnM5sZ5sF=cj...@mail.gmail.com



Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error

2012-09-20 Пенетрантность alexander
В Thu, 20 Sep 2012 12:31:39 +0400
Скубриев Владимир vladi...@skubriev.ru пишет:

 20.09.2012 12:10, alexander пишет:
  No IOMMU found.
 проверьте в данный момент поддерживается виртуализация вообще:
 
 cat /proc/cpuinfo | egrep flags.*'svm|vmx'
 вывод этой команды должен быть не пустым там должна быть строка с svm 
 или vmx в зависимости от платформы intel vs amd

alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo | egrep
flags.*'svm|vmx'
flags   : fpu vme de pse tsc msr pae mce
cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse
sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs
bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64
monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2
x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida
arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid
fsgsbase smep erms flags: fpu vme de pse tsc msr pae
mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr
sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon
pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq
dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1
sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand
lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi
flexpriority ept vpid fsgsbase smep erms flags  : fpu vme
de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush
dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm
constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc
aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16
xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave
avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow
vnmi flexpriority ept vpid fsgsbase smep erms flags :
fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36
clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm
constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc
aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16
xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave
avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow
vnmi flexpriority ept vpid fsgsbase smep erms
alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
Civilization 5.Deluxe Edition.v 1.0.0.20$ 


 
 проверьте включен ли у вас IOMMU (если платформа AMD)  или VT-d (если 
 платформа Intel) в BIOS. Он включается отдельно зачастую.

IOMMU в BIOS'e не нашел.

 
 и самый неприятный момент поддержка iommu или vt-d может
 отсутствовать у процессора (может быть и системной платы). в этом
 случае пробросить устройство не получится.
 

alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e IOMMU
[0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS ACRPRDCT
0001 1025 0004) [0.027340] DMAR: Host address width 36
[0.027343] DMAR: DRHD base: 0x00fed9 flags: 0x0
[0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap
c020e60262 ecap f0101a [0.027353] DMAR: DRHD base:
0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr
fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362] DMAR:
RMRR base: 0x00a6e8f000 end: 0x00a6eaefff [0.027364] DMAR:
RMRR base: 0x00a780 end: 0x00af9f [0.027437] IOAPIC
id 0 under DRHD base  0xfed91000 IOMMU 1


 т.е. у вас может не поддерживаться проброс устройств, даже если 
 поддерживается виртуализация в целом как процессором так и платой.
 
 
 
да вроде все поддерживается. Удалось пробросить некоторые PCI
устройства. А то устройство которое мне больше всего нужно - это
видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums
(через Bumblebeed).


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120920221914.3b81e...@omen.dyndns-ip.com



Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error

2012-09-20 Пенетрантность alexander
В Thu, 20 Sep 2012 22:19:14 +1100
alexander toyman...@gmail.com пишет:

 В Thu, 20 Sep 2012 12:31:39 +0400
 Скубриев Владимир vladi...@skubriev.ru пишет:
 
  20.09.2012 12:10, alexander пишет:
   No IOMMU found.
  проверьте в данный момент поддерживается виртуализация вообще:
  
  cat /proc/cpuinfo | egrep flags.*'svm|vmx'
  вывод этой команды должен быть не пустым там должна быть строка с
  svm или vmx в зависимости от платформы intel vs amd
 
 alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
 Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo | egrep
 flags.*'svm|vmx'
 flags : fpu vme de pse tsc msr pae mce
 cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse
 sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs
 bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq
 dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1
 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand
 lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi
 flexpriority ept vpid fsgsbase smep erms flags: fpu
 vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36
 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm
 constant_tsc arch_perfmon pebs bts rep_good nopl xtopology
 nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est
 tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt
 tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb
 xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid
 fsgsbase smep erms flags  : fpu vme de pse tsc msr pae
 mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx
 fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc
 arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf
 pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm
 pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx
 f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow
 vnmi flexpriority ept vpid fsgsbase smep erms flags   :
 fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat
 pse36 clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx
 rdtscp lm constant_tsc arch_perfmon pebs bts rep_good nopl xtopology
 nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est
 tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt
 tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb
 xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid
 fsgsbase smep erms alexander@alexander:~/Gamez/Civ5/drive_c/Program
 Files/Sid Meiers Civilization 5.Deluxe Edition.v 1.0.0.20$ 
 
 
  
  проверьте включен ли у вас IOMMU (если платформа AMD)  или VT-d
  (если платформа Intel) в BIOS. Он включается отдельно зачастую.
 
 IOMMU в BIOS'e не нашел.
 
  
  и самый неприятный момент поддержка iommu или vt-d может
  отсутствовать у процессора (может быть и системной платы). в этом
  случае пробросить устройство не получится.
  
 
 alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
 Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e
 IOMMU [0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS
 ACRPRDCT 0001 1025 0004) [0.027340] DMAR: Host address
 width 36 [0.027343] DMAR: DRHD base: 0x00fed9 flags: 0x0
 [0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap
 c020e60262 ecap f0101a [0.027353] DMAR: DRHD base:
 0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr
 fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362] DMAR:
 RMRR base: 0x00a6e8f000 end: 0x00a6eaefff [0.027364] DMAR:
 RMRR base: 0x00a780 end: 0x00af9f [0.027437]
 IOAPIC id 0 under DRHD base  0xfed91000 IOMMU 1
 
 
  т.е. у вас может не поддерживаться проброс устройств, даже если 
  поддерживается виртуализация в целом как процессором так и платой.
  
  
  
 да вроде все поддерживается. Удалось пробросить некоторые PCI
 устройства. А то устройство которое мне больше всего нужно - это
 видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой 
Optirums
 (через Bumblebeed).
Optimus то есть


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120920222340.0331a...@omen.dyndns-ip.com



Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error

2012-09-20 Пенетрантность Скубриев Владимир

20.09.2012 15:19, alexander пишет:

В Thu, 20 Sep 2012 12:31:39 +0400
Скубриев Владимир vladi...@skubriev.ru пишет:


20.09.2012 12:10, alexander пишет:

No IOMMU found.

проверьте в данный момент поддерживается виртуализация вообще:

cat /proc/cpuinfo | egrep flags.*'svm|vmx'
вывод этой команды должен быть не пустым там должна быть строка с svm
или vmx в зависимости от платформы intel vs amd

alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo | egrep
flags.*'svm|vmx'
flags   : fpu vme de pse tsc msr pae mce
cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse
sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs
bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64
monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2
x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida
arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid
fsgsbase smep erms flags: fpu vme de pse tsc msr pae
mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr
sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon
pebs bts rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq
dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1
sse4_2 x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand
lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi
flexpriority ept vpid fsgsbase smep erms flags  : fpu vme
de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush
dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm
constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc
aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16
xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave
avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow
vnmi flexpriority ept vpid fsgsbase smep erms flags :
fpu vme de pse tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36
clflush dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm
constant_tsc arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc
aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3 cx16
xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer aes xsave
avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts dtherm tpr_shadow
vnmi flexpriority ept vpid fsgsbase smep erms
alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
Civilization 5.Deluxe Edition.v 1.0.0.20$


поддержка виртуализации есть и она от intel, т.к. vmx
это видно из того, что нашел grep

проверьте включен ли у вас IOMMU (если платформа AMD)  или VT-d (если
платформа Intel) в BIOS. Он включается отдельно зачастую.

IOMMU в BIOS'e не нашел.
его и не должно быть, т.к. так технология проброса устройств и и.п. 
называется у amd

тебе надо искать vt-d

хотя иногда даже слова vt-d нету в bios, но сама опция есть, только по 
другому называется.

и самый неприятный момент поддержка iommu или vt-d может
отсутствовать у процессора (может быть и системной платы). в этом
случае пробросить устройство не получится.


alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e IOMMU
[0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS ACRPRDCT
0001 1025 0004) [0.027340] DMAR: Host address width 36
[0.027343] DMAR: DRHD base: 0x00fed9 flags: 0x0
[0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap
c020e60262 ecap f0101a [0.027353] DMAR: DRHD base:
0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr
fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362] DMAR:
RMRR base: 0x00a6e8f000 end: 0x00a6eaefff [0.027364] DMAR:
RMRR base: 0x00a780 end: 0x00af9f [0.027437] IOAPIC
id 0 under DRHD base  0xfed91000 IOMMU 1



т.е. у вас может не поддерживаться проброс устройств, даже если
поддерживается виртуализация в целом как процессором так и платой.




да вроде все поддерживается. Удалось пробросить некоторые PCI
устройства. А то устройство которое мне больше всего нужно - это
видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums
(через Bumblebeed).


тогда не знаю даже. может быть не совместимость связана с видеочипом 
nvidia gt 640M

раньше на сайте kvm был список поддерживаемых видео адаптеров

и этот список был очень мал

--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http

Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error

2012-09-20 Пенетрантность alexander
В Thu, 20 Sep 2012 15:47:34 +0400
Скубриев Владимир vladi...@skubriev.ru пишет:

 20.09.2012 15:19, alexander пишет:
  В Thu, 20 Sep 2012 12:31:39 +0400
  Скубриев Владимир vladi...@skubriev.ru пишет:
 
  20.09.2012 12:10, alexander пишет:
  No IOMMU found.
  проверьте в данный момент поддерживается виртуализация вообще:
 
  cat /proc/cpuinfo | egrep flags.*'svm|vmx'
  вывод этой команды должен быть не пустым там должна быть строка с
  svm или vmx в зависимости от платформы intel vs amd
  alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
  Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo | egrep
  flags.*'svm|vmx'
  flags   : fpu vme de pse tsc msr pae mce
  cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr
  sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc
  arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc
  aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3
  cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer
  aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts
  dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms
  flags   : fpu vme de pse tsc msr pae mce cx8 apic sep
  mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss
  ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts
  rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64
  monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2
  x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm
  ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority
  ept vpid fsgsbase smep erms flags   : fpu vme de pse
  tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush
  dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm
  constant_tsc arch_perfmon pebs bts rep_good nopl xtopology
  nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est
  tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt
  tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb
  xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid
  fsgsbase smep erms flags: fpu vme de pse tsc msr
  pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi
  mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc
  arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc
  aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3
  cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer
  aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts
  dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms
  alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
  Civilization 5.Deluxe Edition.v 1.0.0.20$
 
 поддержка виртуализации есть и она от intel, т.к. vmx
 это видно из того, что нашел grep
  проверьте включен ли у вас IOMMU (если платформа AMD)  или VT-d
  (если платформа Intel) в BIOS. Он включается отдельно зачастую.
  IOMMU в BIOS'e не нашел.
 его и не должно быть, т.к. так технология проброса устройств и и.п. 
 называется у amd
 тебе надо искать vt-d
 
 хотя иногда даже слова vt-d нету в bios, но сама опция есть, только
 по другому называется.
  и самый неприятный момент поддержка iommu или vt-d может
  отсутствовать у процессора (может быть и системной платы). в этом
  случае пробросить устройство не получится.
 
  alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
  Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e
  IOMMU [0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS
  ACRPRDCT 0001 1025 0004) [0.027340] DMAR: Host address
  width 36 [0.027343] DMAR: DRHD base: 0x00fed9 flags: 0x0
  [0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap
  c020e60262 ecap f0101a [0.027353] DMAR: DRHD base:
  0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr
  fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362] DMAR:
  RMRR base: 0x00a6e8f000 end: 0x00a6eaefff [0.027364]
  DMAR: RMRR base: 0x00a780 end: 0x00af9f
  [0.027437] IOAPIC id 0 under DRHD base  0xfed91000 IOMMU 1
 
 
  т.е. у вас может не поддерживаться проброс устройств, даже если
  поддерживается виртуализация в целом как процессором так и платой.
 
 
 
  да вроде все поддерживается. Удалось пробросить некоторые PCI
  устройства. А то устройство которое мне больше всего нужно - это
  видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums
  (через Bumblebeed).
 
 
 тогда не знаю даже. может быть не совместимость связана с видеочипом 
 nvidia gt 640M
 раньше на сайте kvm был список поддерживаемых видео адаптеров
 
 и этот список был очень мал
 

Хотя погарячился я насчет успешного проброса PCI ( Ща опять ошибки
какие то показываются.. типо устройство занято или что то типо того.
Мож я и не успешно пробросил хз) хех) Но вот ща нашол статью на гугле,
там написано что

Re: KVM: проброс PCI устройства в виртуальную машину (PCI видеокарта). error

2012-09-20 Пенетрантность Скубриев Владимир

20.09.2012 16:02, alexander пишет:

В Thu, 20 Sep 2012 15:47:34 +0400
Скубриев Владимир vladi...@skubriev.ru пишет:


20.09.2012 15:19, alexander пишет:

В Thu, 20 Sep 2012 12:31:39 +0400
Скубриев Владимир vladi...@skubriev.ru пишет:


20.09.2012 12:10, alexander пишет:

No IOMMU found.

проверьте в данный момент поддерживается виртуализация вообще:

cat /proc/cpuinfo | egrep flags.*'svm|vmx'
вывод этой команды должен быть не пустым там должна быть строка с
svm или vmx в зависимости от платформы intel vs amd

alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
Civilization 5.Deluxe Edition.v 1.0.0.20$ cat /proc/cpuinfo | egrep
flags.*'svm|vmx'
flags   : fpu vme de pse tsc msr pae mce
cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr
sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc
arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc
aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3
cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer
aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts
dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms
flags   : fpu vme de pse tsc msr pae mce cx8 apic sep
mtrr pge mca cmov pat pse36 clflush dts acpi mmx fxsr sse sse2 ss
ht tm pbe syscall nx rdtscp lm constant_tsc arch_perfmon pebs bts
rep_good nopl xtopology nonstop_tsc aperfmperf pni pclmulqdq dtes64
monitor ds_cpl vmx est tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2
x2apic popcnt tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm
ida arat epb xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority
ept vpid fsgsbase smep erms flags   : fpu vme de pse
tsc msr pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush
dts acpi mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm
constant_tsc arch_perfmon pebs bts rep_good nopl xtopology
nonstop_tsc aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est
tm2 ssse3 cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt
tsc_deadline_timer aes xsave avx f16c rdrand lahf_lm ida arat epb
xsaveopt pln pts dtherm tpr_shadow vnmi flexpriority ept vpid
fsgsbase smep erms flags: fpu vme de pse tsc msr
pae mce cx8 apic sep mtrr pge mca cmov pat pse36 clflush dts acpi
mmx fxsr sse sse2 ss ht tm pbe syscall nx rdtscp lm constant_tsc
arch_perfmon pebs bts rep_good nopl xtopology nonstop_tsc
aperfmperf pni pclmulqdq dtes64 monitor ds_cpl vmx est tm2 ssse3
cx16 xtpr pdcm pcid sse4_1 sse4_2 x2apic popcnt tsc_deadline_timer
aes xsave avx f16c rdrand lahf_lm ida arat epb xsaveopt pln pts
dtherm tpr_shadow vnmi flexpriority ept vpid fsgsbase smep erms
alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
Civilization 5.Deluxe Edition.v 1.0.0.20$


поддержка виртуализации есть и она от intel, т.к. vmx
это видно из того, что нашел grep

проверьте включен ли у вас IOMMU (если платформа AMD)  или VT-d
(если платформа Intel) в BIOS. Он включается отдельно зачастую.

IOMMU в BIOS'e не нашел.

его и не должно быть, т.к. так технология проброса устройств и и.п.
называется у amd
тебе надо искать vt-d

хотя иногда даже слова vt-d нету в bios, но сама опция есть, только
по другому называется.

и самый неприятный момент поддержка iommu или vt-d может
отсутствовать у процессора (может быть и системной платы). в этом
случае пробросить устройство не получится.


alexander@alexander:~/Gamez/Civ5/drive_c/Program Files/Sid Meiers
Civilization 5.Deluxe Edition.v 1.0.0.20$ dmesg | grep -e DMAR -e
IOMMU [0.00] ACPI: DMAR a6fd8000 000B8 (v01 ACRSYS
ACRPRDCT 0001 1025 0004) [0.027340] DMAR: Host address
width 36 [0.027343] DMAR: DRHD base: 0x00fed9 flags: 0x0
[0.027351] IOMMU 0: reg_base_addr fed9 ver 1:0 cap
c020e60262 ecap f0101a [0.027353] DMAR: DRHD base:
0x00fed91000 flags: 0x1 [0.027359] IOMMU 1: reg_base_addr
fed91000 ver 1:0 cap c9008020660262 ecap f0105a [0.027362] DMAR:
RMRR base: 0x00a6e8f000 end: 0x00a6eaefff [0.027364]
DMAR: RMRR base: 0x00a780 end: 0x00af9f
[0.027437] IOAPIC id 0 under DRHD base  0xfed91000 IOMMU 1



т.е. у вас может не поддерживаться проброс устройств, даже если
поддерживается виртуализация в целом как процессором так и платой.




да вроде все поддерживается. Удалось пробросить некоторые PCI
устройства. А то устройство которое мне больше всего нужно - это
видеокарта GeForce GT 640M. (на шине PCI) - с поддержкой Optirums
(через Bumblebeed).



тогда не знаю даже. может быть не совместимость связана с видеочипом
nvidia gt 640M
раньше на сайте kvm был список поддерживаемых видео адаптеров

и этот список был очень мал


Хотя погарячился я насчет успешного проброса PCI ( Ща опять ошибки
какие то показываются.. типо устройство занято или что то типо того.
Мож я и не успешно пробросил хз) хех) Но вот ща нашол статью на гугле,
там написано что проброс PCI плохо реализован в KVM, лучше пробовать
Xen. Ну не знаю, помучаю еще несколько дней KVM, если не

Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-03 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 23:20 пользователь Mikhail A Antonov b...@solarnet.ru написал:
 01.06.2012 22:51, Dmitry A. Zhiglov пишет:
 Как себя поведет система при выходе из строя одного диска в случае,
 если своп разделы были с одинаковым приоритетом на разных дисках?
 В лучшем случае ядро впадёт в панику, перемонтирует всё в RO и
 тормознёт. В другом - ну представь что у тебя в том куске свопа был
 кусок БД или ещё что-нибудь интересное. Кусок памяти, отданный в
 виртуалку, внутри которой крутится терминальный сервер, внутри которого
 бухгалтерская база. Можно инфу похерить сильно.

Замысел мой в том, что swap при одинаковом приоритете может работать
как страйп. Естественно не всем это надо и тем более в то время когда
оперативной памяти должно хватать на всех.

Так как у меня нет под руками железа, попробовал провести эксперимент на kvm+lvm

Сделал виртуальный debian с 64 МБ оперативной памяти и 2 диска с swap
и приоритетом для всех =5. Что бы уж совсем тяжело было, установил gdm
и зашел.

Далее в lvm на одном из swap-разделов установил права на RO и
началось. Ничего не упало, но тормозило. Процессорное время тратилось
на io, который был только на чтение в основном, на запись практически
ничего не видел или это был не swap. В dmesg было много сообщений от
ядра. Мне удалось даже выключить gdm при такой деградации, но все
работало.

Затем, восстановил в lvm права на раздел в RW и как будто ничего и не
было - все тип-топ.

Конечно, это не чистый эксперимент и возможно торможения связаны из-за
того, что система видит swap, но записать на него ничего не может и
вроде есть и вроде нет.

Было бы интересно узнать как все же на физическом, полном отваливании
диска с swap-разделом поведет система, так как  это для меня важно.
Был бы благодарен за проведение и подтверждение эксперимента. Ну или
кто либо подскажет, как можно по-другому сымитировать полное
отключение диска в lvm или как либо иначе.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-03 Пенетрантность Stanislav Maslovski
On Sun, Jun 03, 2012 at 12:00:21PM +0400, Dmitry A. Zhiglov wrote:
 Было бы интересно узнать как все же на физическом, полном отваливании
 диска с swap-разделом поведет система, так как  это для меня важно.

Как повезет, так и поведет. Смотря что было в свопе на момент падения
раздела.

-- 
Stanislav


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/20120603083830.GA26188@kaiba.homelan



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-03 Пенетрантность Alexander
03.06.2012, 09:06, Mikhail A Antonov b...@solarnet.ru:
 От себя добавлю что для гостевых linux я на железке выдаю отдельный
 lv, внутри которого чаще всего всё тем же lvm делаю нарезку. И ресайз
 оно переживает, и все преимущества от lvm остаются и внутри гостя. Редко
 когда внутрь linux передаю два диска. Например, так было когда
 система была на sas-рейде, а для файлохранилища был проброшен
 отдельный sata-диск.


 Для линуксов (как гостевых, так и гипервизора) я обычно ещё так делаю:
 --
 # cat /etc/sysctl.d/vmswappiness.conf
 vm.swappiness = 0
 --
 Так своп будет использоваться только когда оперативки реально не
 хватает. Если такое случается - я получаю сообщения от мониторинга (zabbix).


спасибо большое, Михаил! ценная для меня информация


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/432571338713...@web22g.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
01.06.2012, 23:04, Mikhail A Antonov b...@solarnet.ru:
 Итак.
 md0 - /boot на 300-500м. (ext2)
 md1 - pv для lvm
 Для каждой виртуалки отдельный lv.
 Всё.
 Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
 страдать. Диски просто так не вылетают.
 Мониторить смартом и mdadm.
 Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid,
 а хардварный, но бьётся всё так же и сути не меняет.


т.е. не заморачиваться с отдельным md под саму систему-гипервизор? просто 
корень держать на отдельном lv и виртуалки в отдельных lv - но все это в 
пределах одного pv/md? в общем то наверное соглашусь, упрощает схему, тем более 
у вас отработано на практике) спасибо!


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/210291338620...@web1h.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
01.06.2012, 23:04, Mikhail A Antonov b...@solarnet.ru:
 Итак.
 md0 - /boot на 300-500м. (ext2)
 md1 - pv для lvm
 Для каждой виртуалки отдельный lv.
 Всё.
 Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
 страдать. Диски просто так не вылетают.
 Мониторить смартом и mdadm.
 Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid,
 а хардварный, но бьётся всё так же и сути не меняет.


а кстати куда своп то девать?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/303491338620...@web19e.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Dmitry Nezhevenko
On Sat, Jun 02, 2012 at 10:57:27AM +0400, Alexander wrote:
 а кстати куда своп то девать?
 

А он нужен? У каждой виртуалки своп свой будет.. Так что туда же. 
Отдельными LV.
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Mikhail A Antonov
02.06.2012 10:57, Alexander пишет:
 01.06.2012, 23:04, Mikhail A Antonov b...@solarnet.ru:
 Итак.
 md0 - /boot на 300-500м. (ext2)
 md1 - pv для lvm
 Для каждой виртуалки отдельный lv.
 Всё.
 Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
 страдать. Диски просто так не вылетают.
 Мониторить смартом и mdadm.
 Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid,
 а хардварный, но бьётся всё так же и сути не меняет.
 а кстати куда своп то девать?
В отдельный lv, если нужен.

-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был отдан под 
виртуалку windows server r2 в качестве винта, и при установке создалось 2 
раздела на винте.
fdisk -l /dev/dm-1
показывает их как:
/dev/dm-1p1
/dev/dm-1p2
но вот смаунтить и отформатировать их не могу - нет таких устройств - можно ли 
до них как-то добраться?
пробовал также:
/dev/vg1/lv1p1
/dev/vg1/lv1p2
и
/dev/mapper/vg1-lv1p1
/dev/mapper/vg1-lv1p2
результат отрицательный. при этом помню, что вроде как делал такое раньше


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/279031338649...@web19f.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Dmitry Nezhevenko
On Sat, Jun 02, 2012 at 07:00:41PM +0400, Alexander wrote:
 господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был
 отдан под виртуалку windows server r2 в качестве винта, и при установке
 создалось 2 раздела на винте.

Правильный ответ -- никогда так не делать.. Ибо resize и прочие плюшки
такого бутерброда сильно усложняются... Для виртуалок лучший вариант --
один LV == один раздел. Впрочем венда скорее всего не умеет так...

 но вот смаунтить и отформатировать их не могу - нет таких устройств -
 можно ли до них как-то добраться?

kpartx по идее умеет создавать такие устройства. (с KDE ничего общего не
имеет)
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
02.06.2012, 22:48, Dmitry Nezhevenko d...@inhex.net:
 On Sat, Jun 02, 2012 at 07:00:41PM +0400, Alexander wrote:

  господа, а как примаунтить раздел в lvm-томе?.. например, lvm-том был
  отдан под виртуалку windows server r2 в качестве винта, и при установке
  создалось 2 раздела на винте.

 Правильный ответ -- никогда так не делать.. Ибо resize и прочие плюшки
 такого бутерброда сильно усложняются... Для виртуалок лучший вариант --
 один LV == один раздел. Впрочем венда скорее всего не умеет так...

  но вот смаунтить и отформатировать их не могу - нет таких устройств -
  можно ли до них как-то добраться?

 kpartx по идее умеет создавать такие устройства. (с KDE ничего общего не
 имеет)

 --
 WBR, Dmitry

эм.. я отдаю LVM-том как винт виртуальной системе - которая естественно 
разбивает видимый ею физический диск так как привыкла. и мне кажется, что не 
важно винда или линукс - разделы будут в любом случае. вопрос в том, могу ли я 
работать с разделами непосредственно из гипервизора, а не из виртуалки.
собственно говоря я сильно удивился когда не смог сходу сделать озвученное в 
вопросе. ибо LVM это типо блочное устройство, как физический диск или md - с 
которыми подобных проблем нет.
собственно говоря задача тривиальна - скопировать образы акронис на винт 
виртуалки - чтобы развернуть их. ибо проброс usb-винта непосрественно в 
виртуалку хоть и работает, но скорость копирования исчилсяемая десятками часов 
особо не рабудет


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/117051338671...@web13d.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Dmitry Nezhevenko
On Sun, Jun 03, 2012 at 01:08:30AM +0400, Alexander wrote:
 эм.. я отдаю LVM-том как винт виртуальной системе - которая естественно
 разбивает видимый ею физический диск так как привыкла. и мне кажется,
 что не важно винда или линукс - разделы будут в любом случае. вопрос в
 том, могу ли я работать с разделами непосредственно из гипервизора, а не
 из виртуалки.

В случае гостевого linux так делать не нужно. Потому что всегда может
оказаться что места чуть маловато. Если был проброшен один LV, который был
разбит на /, возможно /var и swap, то увеличивать это будет весьма
нетривиально.

В случае, если каждый раздел был проброшен своим LV, увеличение очень
просто (lvresize + resize2fs). 

xen-create-image именно так и делает.
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Mikhail A Antonov
02.06.2012 19:00, Alexander пишет:
 господа, а как примаунтить раздел в lvm-томе?
kpartx -a /dev/mapper/vg1-lv1
mkdir /mnt/lv1p1
mount /dev/mapper/vg1-lv11 /mnt/lv1p1

Я так монтирую когда бэкапы делаю. Остановка машины не требуется.
...
# монтируем что бэкапим
# делаем снапшот
lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
# достаём раздел
kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
# потом монтируем
mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g
|| true
...

Лучше не создавать больше одного раздела на одном lv - не удобно будет
resize делать, в случае чего.
А ещё не удобно lv называть lvномер. Удобнее называть их именем
виртуальной машины или по целям. lv для свопа логичнее будет назвать swap.
Например есть виртмашина с именем win2k3 внутри которой хочется иметь
два раздела - один поменьше для системы (диск C) и один побольше для
файлов (диск D).
Делаем два lv - win2k3sys и win2k3data и передаём оба внутрь виртуалки.
У меня такая конфигурация переживала resize в обе стороны. Не на лету,
но переживала.


-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Alexander
03.06.2012, 02:46, Mikhail A Antonov b...@solarnet.ru:
 02.06.2012 19:00, Alexander пишет:

  господа, а как примаунтить раздел в lvm-томе?

 kpartx -a /dev/mapper/vg1-lv1
 mkdir /mnt/lv1p1
 mount /dev/mapper/vg1-lv11 /mnt/lv1p1

 Я так монтирую когда бэкапы делаю. Остановка машины не требуется.
 ...
 # монтируем что бэкапим
 # делаем снапшот
 lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
 # достаём раздел
 kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
 # потом монтируем
 mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g
 || true
 ...

 Лучше не создавать больше одного раздела на одном lv - не удобно будет
 resize делать, в случае чего.
 А ещё не удобно lv называть lvномер. Удобнее называть их именем
 виртуальной машины или по целям. lv для свопа логичнее будет назвать swap.
 Например есть виртмашина с именем win2k3 внутри которой хочется иметь
 два раздела - один поменьше для системы (диск C) и один побольше для
 файлов (диск D).
 Делаем два lv - win2k3sys и win2k3data и передаём оба внутрь виртуалки.
 У меня такая конфигурация переживала resize в обе стороны. Не на лету,
 но переживала.


спасибо огромное!
имена lv и vg привел вымышленные для удобства :)
подскажите, а как быть с windows7/server2008r2 - они создают маленький 
boot-раздел 100мб при установке

 Dmitry Nezhevenko
 В случае гостевого linux так делать не нужно. Потому что всегда может
 оказаться что места чуть маловато. Если был проброшен один LV,
 который был разбит на /, возможно /var и swap,
 то увеличивать это будет весьма нетривиально.

спасибо! пока только винды в гостях, но если были бы linux, то точно разбивал 
бы один lvm-том на разделы.
теперь так делать не буду :)


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/666341338693...@web9e.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-02 Пенетрантность Mikhail A Antonov
03.06.2012 07:19, Alexander пишет:
 спасибо огромное! имена lv и vg привел вымышленные для удобства :)
 подскажите, а как быть с windows7/server2008r2 - они создают маленький
 boot-раздел 100мб при установке 
Никак не быть - он не будет мешать. Его не надо ресайзить.
Ну и монтировать не первый раздел, а второй, если файлы выцепить надо.

 Dmitry Nezhevenko
 В случае гостевого linux так делать не нужно. Потому что всегда может
 оказаться что места чуть маловато. Если был проброшен один LV,
 который был разбит на /, возможно /var и swap,
 то увеличивать это будет весьма нетривиально.
 спасибо! пока только винды в гостях, но если были бы linux, то точно разбивал 
 бы один lvm-том на разделы.
 теперь так делать не буду :)
Я несколько раз пытался перечитать фразу Дмитрия, но так и не смог
понять того, что он хотел этим сказать. Много слов по теме, но ничего
конкретного.
От себя добавлю что для гостевых linux я на железке выдаю отдельный
lv, внутри которого чаще всего всё тем же lvm делаю нарезку. И ресайз
оно переживает, и все преимущества от lvm остаются и внутри гостя. Редко
когда внутрь linux передаю два диска. Например, так было когда
система была на sas-рейде, а для файлохранилища был проброшен
отдельный sata-диск.

Вот несколько примеров:
--

(жирная машина)
root@zimbra:~# pvs
  PV VG Fmt  Attr PSize  PFree
  /dev/vda1  zimbra lvm2 --   50,00g0
root@zimbra:~# vgs
  VG #PV #LV #SN Attr   VSize  VFree
  zimbra   1   3   0 wz--n- 50,00g0
root@zimbra:~# lvs
  LV   VG Attr   LSize  Origin Snap%  Move Log Copy%  Convert
  opt  zimbra -wi-ao 43,00g 
  root zimbra -wi-ao  5,00g 
  swap zimbra -wi-ao  2,00g 
root@zimbra:~# df -h
Файловая система  Разм  Исп  Дост  Исп% смонтирована на
/dev/mapper/zimbra-root
  5,0G  1,5G  3,3G  31% /
tmpfs 2,0G 0  2,0G   0% /lib/init/rw
udev  2,0G  116K  2,0G   1% /dev
tmpfs 2,0G 0  2,0G   0% /dev/shm
/dev/mapper/zimbra-opt
   43G  4,2G   37G  11% /opt

--

(мелкий шлюз)
root@gw:~# pvs
  PV VG   Fmt  Attr PSize  PFree
  /dev/vda1  gw   lvm2 a-   20,00g 9,75g
root@gw:~# vgs
  VG   #PV #LV #SN Attr   VSize  VFree
  gw 1   2   0 wz--n- 20,00g 9,75g
root@gw:~# lvs
  LV   VG   Attr   LSize   Origin Snap%  Move Log Copy%  Convert
  root gw   -wi-ao   9,31g 
  swap gw   -wi-ao 952,00m 
root@gw:~# df -h
Файловая система  Разм  Исп  Дост  Исп% смонтирована на
/dev/mapper/gw-root   9,2G  809M  8,0G  10% /
tmpfs 502M 0  502M   0% /lib/init/rw
udev  497M  164K  497M   1% /dev
tmpfs 502M 0  502M   0% /dev/shm

--

(файлохранилище)
f0:~# df -h
FilesystemSize  Used Avail Use% Mounted on
/dev/vda1 2.8G  1.8G  934M  66% /
tmpfs 252M 0  252M   0% /lib/init/rw
udev  247M  100K  247M   1% /dev
tmpfs 252M 0  252M   0% /dev/shm
/dev/vdb1 696G  410G  286G  59% /data

(здесь нет lvm внутри гостя)

--

Для линуксов (как гостевых, так и гипервизора) я обычно ещё так делаю:
--
# cat /etc/sysctl.d/vmswappiness.conf
vm.swappiness = 0
--
Так своп будет использоваться только когда оперативки реально не
хватает. Если такое случается - я получаю сообщения от мониторинга (zabbix).


-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Alexander

Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:
1) boot на md-raid1 (осн. раздел диска1 + осн. раздел диска2) - md0
2) swap на md-raid1 (1-ый лог. раздел диска1 + 1-ый лог. раздел диска2) 
- md1
3) / на lvm поверх md-raid1 (2-ой лог. раздел диска1 + 2-ой лог. раздел 
диска2) - сама система с гипервизором - vg1/lv1 на md2
4) все остальное пространство - md-raid1 (3-ий лог. раздел диска1 + 3-ий 
лог. раздел диска2) - md3 - на нем группа томов vg2 на все пространство 
и отдельные lvm-тома нужного размера под каждую виртуалку


Собственно говоря смущает пункт №4 - думаю может делать отдельные md под 
каждую виртуалку? т.е. свой md+vg+lv на каждую виртуалку - есть ли в 
этом смысл?
Просто если повредится зеркало из п.4 то перестраиваться будет весь 
большой md (а это долго), а если сделать несколько md поменьше вместо 
одного большого, то соответственно только поврежденный md.
Далее у меня возник такой вопрос -  возможно ли такое вообще, что 
повредится отдельный md? ведь все md на одних и тех же физических 
устройствах - т.е. если уж и повредится что-то, то не по отдельности, а 
сразу все md - и получим ситуацию вместо восстановления одного большого 
md - одновременное восстановление нескольких маленьких md - что как я 
понимаю хуже - ибо они изнасилуют жесткие диски одновременной 
перестройкой? или md-драйвер такую ситуацию обрабатывает грамотно? т.е. 
не позволит одновременное восстановление массива на одних и тех же физ. 
устройствах?..
Я понимаю, что если выйдет из строя жесткий диск, то естественно 
развалятся все md. Но теоретически может же быть например bad-сектор, 
попадающий только в один md - соответственно только он и развалится, а 
остальные нет - так?


В общем, господа, поделитесь мыслями и опытом :)


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4fc8a9d0.9050...@yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 15:38 пользователь Alexander ag...@yandex.ru написал:
 Здраствуйте!
 имеется сервер с 2 винтами
 сейчас продумываю структуру дискового хранилища гипервизора KVM.
 Пока остановился на следующей схеме:

Можно перефразирую задачу?

Есть 2 диска.
Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
Разделы рейдов содержать:
md0 - boot
md1 - swap
md2 - lvm с vg1
md3 - lvm с vg2

vg1 - система и гипервизор
vg2 - нарезка под виртуальные lv

Вопросы:
- Может было бы правильней  делать отдельные рейд-разделы под каждую
виртуалку, т.е. свой md+vg+lv?

Причина так думать: если повредится зеркало md3 то перестраиваться
будет весь большой md (а это долго), а если сделать несколько md
поменьше вместо одного большого, то соответственно только поврежденный
md.

- А возможно ли такое вообще, что повредится отдельный md?

Причина так думать :ведь все md на одних и тех же физических
устройствах - т.е. если уж и повредится что-то, то не по отдельности,
а сразу все md - и получим ситуацию вместо восстановления одного
большого md - одновременное восстановление нескольких маленьких md -
что как я понимаю хуже - ибо они изнасилуют жесткие диски
одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает
грамотно? т.е. не позволит одновременное восстановление массива на
одних и тех же физ. устройствах?..

Я понимаю, что если выйдет из строя жесткий диск, то естественно
развалятся все md. Но теоретически может же быть например bad-сектор,
попадающий только в один md - соответственно только он и развалится, а
остальные нет - так?


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov
dmitry.zhig...@gmail.com написал:
 1 июня 2012 г., 15:38 пользователь Alexander ag...@yandex.ru написал:
 Здраствуйте!
 имеется сервер с 2 винтами
 сейчас продумываю структуру дискового хранилища гипервизора KVM.
 Пока остановился на следующей схеме:

 Можно перефразирую задачу?

 Есть 2 диска.
 Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
 Разделы рейдов содержать:
 md0 - boot
 md1 - swap
 md2 - lvm с vg1
 md3 - lvm с vg2

В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
на 2 диска. Приоритеты по swap установить в fstab'e.

 vg1 - система и гипервизор
 vg2 - нарезка под виртуальные lv

 Вопросы:
 - Может было бы правильней  делать отдельные рейд-разделы под каждую
 виртуалку, т.е. свой md+vg+lv?

 Причина так думать: если повредится зеркало md3 то перестраиваться
 будет весь большой md (а это долго), а если сделать несколько md
 поменьше вместо одного большого, то соответственно только поврежденный
 md.

Стоит оставить так, как запланировано сейчас. В вашем случае скорей
всего потеряется прелесть lvm и потенциальные проблемы нарезать
разделы на дисках на живую, перезагрзуки и т.д.


 - А возможно ли такое вообще, что повредится отдельный md?

Такое возможно.


 Причина так думать :ведь все md на одних и тех же физических
 устройствах - т.е. если уж и повредится что-то, то не по отдельности,
 а сразу все md - и получим ситуацию вместо восстановления одного
 большого md - одновременное восстановление нескольких маленьких md -
 что как я понимаю хуже - ибо они изнасилуют жесткие диски
 одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает
 грамотно? т.е. не позволит одновременное восстановление массива на
 одних и тех же физ. устройствах?..
 Я понимаю, что если выйдет из строя жесткий диск, то естественно
 развалятся все md. Но теоретически может же быть например bad-сектор,
 попадающий только в один md - соответственно только он и развалится, а
 остальные нет - так?

Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь
диск придется, а это само собой  затронет все raid-разделы. При
перестроении разделы перестраиваются последовательно. К тому же с
какой скоростью будет перестроение настраивается и по умолчанию
лимитировано (не буду искать цифру)


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Скубриев Владимир

01.06.2012 16:40, Dmitry A. Zhiglov написал:

1 июня 2012 г., 15:38 пользователь Alexanderag...@yandex.ru  написал:

Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:

Можно перефразирую задачу?

Есть 2 диска.
Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
Разделы рейдов содержать:
md0 - boot
md1 - swap
md2 - lvm с vg1
md3 - lvm с vg2

vg1 - система и гипервизор
vg2 - нарезка под виртуальные lv

Вопросы:
- Может было бы правильней  делать отдельные рейд-разделы под каждую
виртуалку, т.е. свой md+vg+lv?

Причина так думать: если повредится зеркало md3 то перестраиваться
будет весь большой md (а это долго), а если сделать несколько md
поменьше вместо одного большого, то соответственно только поврежденный
md.

- А возможно ли такое вообще, что повредится отдельный md?

Причина так думать :ведь все md на одних и тех же физических
устройствах - т.е. если уж и повредится что-то, то не по отдельности,
а сразу все md - и получим ситуацию вместо восстановления одного
большого md - одновременное восстановление нескольких маленьких md -
что как я понимаю хуже - ибо они изнасилуют жесткие диски
одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает
грамотно? т.е. не позволит одновременное восстановление массива на
одних и тех же физ. устройствах?..

Я понимаю, что если выйдет из строя жесткий диск, то естественно
развалятся все md. Но теоретически может же быть например bad-сектор,
попадающий только в один md - соответственно только он и развалится, а
остальные нет - так?
профессионально +1, сам голову сломал, пока разобрался в том, что же 
человек хочет.


--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4fc8.3010...@skubriev.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Скубриев Владимир

01.06.2012 15:38, Alexander написал:

Здраствуйте!
имеется сервер с 2 винтами
сейчас продумываю структуру дискового хранилища гипервизора KVM.
Пока остановился на следующей схеме:
1) boot на md-raid1 (осн. раздел диска1 + осн. раздел диска2) - md0
2) swap на md-raid1 (1-ый лог. раздел диска1 + 1-ый лог. раздел 
диска2) - md1
3) / на lvm поверх md-raid1 (2-ой лог. раздел диска1 + 2-ой лог. 
раздел диска2) - сама система с гипервизором - vg1/lv1 на md2
4) все остальное пространство - md-raid1 (3-ий лог. раздел диска1 + 
3-ий лог. раздел диска2) - md3 - на нем группа томов vg2 на все 
пространство и отдельные lvm-тома нужного размера под каждую виртуалку


Собственно говоря смущает пункт №4 - думаю может делать отдельные md 
под каждую виртуалку? т.е. свой md+vg+lv на каждую виртуалку - есть ли 
в этом смысл?
Просто если повредится зеркало из п.4 то перестраиваться будет весь 
большой md (а это долго), а если сделать несколько md поменьше вместо 
одного большого, то соответственно только поврежденный md.
Далее у меня возник такой вопрос -  возможно ли такое вообще, что 
повредится отдельный md? ведь все md на одних и тех же физических 
устройствах - т.е. если уж и повредится что-то, то не по отдельности, 
а сразу все md - и получим ситуацию вместо восстановления одного 
большого md - одновременное восстановление нескольких маленьких md - 
что как я понимаю хуже - ибо они изнасилуют жесткие диски 
одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает 
грамотно? т.е. не позволит одновременное восстановление массива на 
одних и тех же физ. устройствах?..
Я понимаю, что если выйдет из строя жесткий диск, то естественно 
развалятся все md. Но теоретически может же быть например bad-сектор, 
попадающий только в один md - соответственно только он и развалится, а 
остальные нет - так?


В общем, господа, поделитесь мыслями и опытом :)


После установки системы установите grub, также и на /dev/sdb (# 
grub-install /dev/sdb), дабы в случае, если bios захочет загрузиться с 
другого диска или вы просто перепутаете кабели местами то сервер смог бы 
загрузится.


По поводу bad-секторов и разных md девайсов может быть дело и выгорет - 
но тут думаю скорее важно узнать мнение тех, кто конкретно с таким 
случаем сталкивался.


В остальном дождусь ГУРУ. Самому интересно, т.к. то как вы разместили бы 
разделы и тома даже в голову не приходило - если честно.


--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4fc8bb25.4050...@skubriev.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Alexander
Dmitry A. Zhiglov большое спасибо за перевод :) извиняюсь, что перемудрил

насчет маленьких md я задумался когда наблюдал у себя перестройку 
развалившегося терабайтного рейда. при этом реальных данных было на 50гб, а 
перестраивалось естественно все на блочном уровне - т.е. весь 1тб
т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в группу 
томов и создать один малюсенький lvm-том на 10гб и в него поставить виртуалку 
продакшн, то в случае развала рейда эта несчастная виртуалка будет ощущать на 
себе все прелести восстановления терабайтного рейда в течении долгого времени

01.06.2012, 16:51, Dmitry A. Zhiglov dmitry.zhig...@gmail.com:
 1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov
 dmitry.zhig...@gmail.com написал:

  1 июня 2012 г., 15:38 пользователь Alexander ag...@yandex.ru написал:
  Здраствуйте!
  имеется сервер с 2 винтами
  сейчас продумываю структуру дискового хранилища гипервизора KVM.
  Пока остановился на следующей схеме:
  Можно перефразирую задачу?

  Есть 2 диска.
  Разбиты и собраны все разделы в raid1 следующим образом: md0, md1, md2, md3
  Разделы рейдов содержать:
  md0 - boot
  md1 - swap
  md2 - lvm с vg1
  md3 - lvm с vg2

 В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
 на 2 диска. Приоритеты по swap установить в fstab'e.

  vg1 - система и гипервизор
  vg2 - нарезка под виртуальные lv

  Вопросы:
  - Может было бы правильней  делать отдельные рейд-разделы под каждую
  виртуалку, т.е. свой md+vg+lv?

  Причина так думать: если повредится зеркало md3 то перестраиваться
  будет весь большой md (а это долго), а если сделать несколько md
  поменьше вместо одного большого, то соответственно только поврежденный
  md.

 Стоит оставить так, как запланировано сейчас. В вашем случае скорей
 всего потеряется прелесть lvm и потенциальные проблемы нарезать
 разделы на дисках на живую, перезагрзуки и т.д.

  - А возможно ли такое вообще, что повредится отдельный md?

 Такое возможно.

  Причина так думать :ведь все md на одних и тех же физических
  устройствах - т.е. если уж и повредится что-то, то не по отдельности,
  а сразу все md - и получим ситуацию вместо восстановления одного
  большого md - одновременное восстановление нескольких маленьких md -
  что как я понимаю хуже - ибо они изнасилуют жесткие диски
  одновременной перестройкой? или md-драйвер такую ситуацию обрабатывает
  грамотно? т.е. не позволит одновременное восстановление массива на
  одних и тех же физ. устройствах?..
  Я понимаю, что если выйдет из строя жесткий диск, то естественно
  развалятся все md. Но теоретически может же быть например bad-сектор,
  попадающий только в один md - соответственно только он и развалится, а
  остальные нет - так?

 Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь
 диск придется, а это само собой  затронет все raid-разделы. При
 перестроении разделы перестраиваются последовательно. К тому же с
 какой скоростью будет перестроение настраивается и по умолчанию
 лимитировано (не буду искать цифру)


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/25281338559...@web19e.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry Nezhevenko
On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote:
 насчет маленьких md я задумался когда наблюдал у себя перестройку
 развалившегося терабайтного рейда. при этом реальных данных было на
 50гб, а перестраивалось естественно все на блочном уровне - т.е. весь
 1тб т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в
 группу томов и создать один малюсенький lvm-том на 10гб и в него
 поставить виртуалку продакшн, то в случае развала рейда эта несчастная
 виртуалка будет ощущать на себе все прелести восстановления терабайтного
 рейда в течении долгого времени

Рейды просто так не разваливаются, если отвалился, то что-то произошло. И
скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка
неизбежна.

IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость.
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Alexander
в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, md0 и 
md1 (подкачка и корень) не были развалены - нормально функционировали 
(физические диски те же самые)

01.06.2012, 18:24, Dmitry Nezhevenko d...@inhex.net:
 On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote:

  насчет маленьких md я задумался когда наблюдал у себя перестройку
  развалившегося терабайтного рейда. при этом реальных данных было на
  50гб, а перестраивалось естественно все на блочном уровне - т.е. весь
  1тб т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в
  группу томов и создать один малюсенький lvm-том на 10гб и в него
  поставить виртуалку продакшн, то в случае развала рейда эта несчастная
  виртуалка будет ощущать на себе все прелести восстановления терабайтного
  рейда в течении долгого времени

 Рейды просто так не разваливаются, если отвалился, то что-то произошло. И
 скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка
 неизбежна.

 IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость.

 --
 WBR, Dmitry


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/74301338568...@web29h.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry Nezhevenko
On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote:
 в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками,
 md0 и md1 (подкачка и корень) не были развалены - нормально
 функционировали (физические диски те же самые)

А из-за чего он перестраиваться начал тогда?
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
Можно вас попросить писать ответы внизу, следом по смыслу текста, но
не вверху. Разбираться в таких письмах желания мало.

И еще. Удаляйте лишний текст в ответах, но оставляйте осмысленные
строчки на которые пишите ответ. (квотирование)

1 июня 2012 г., 18:07 пользователь Alexander ag...@yandex.ru написал:
 01.06.2012, 16:51, Dmitry A. Zhiglov dmitry.zhig...@gmail.com:
 1 июня 2012 г., 16:40 пользователь Dmitry A. Zhiglov
 dmitry.zhig...@gmail.com написал:

 Если raid-раздел и рассыпется, из-за сбойного диска, то и менять весь
 диск придется, а это само собой  затронет все raid-разделы. При
 перестроении разделы перестраиваются последовательно. К тому же с
 какой скоростью будет перестроение настраивается и по умолчанию
 лимитировано (не буду искать цифру)

 Dmitry A. Zhiglov большое спасибо за перевод :) извиняюсь, что перемудрил

 насчет маленьких md я задумался когда наблюдал у себя перестройку 
 развалившегося терабайтного рейда. при этом реальных данных было на 50гб, а 
 перестраивалось естественно все на блочном уровне - т.е. весь 1тб
 т.е. вот даже если создать рейд на 1тб-пространстве и вогнать его в группу 
 томов и создать один малюсенький lvm-том на 10гб и в него поставить виртуалку 
 продакшн, то в случае развала рейда эта несчастная виртуалка будет ощущать на 
 себе все прелести восстановления терабайтного рейда в течении долгого времени

Таковы уж издержки и от них скорей всего никуда не деться.
Кроме того, по умолчанию md раз в месяц перепроверяет консистенцию
ваших read-дисков - читайте как перестраивает.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 20:38 пользователь Alexander ag...@yandex.ru написал:
 01.06.2012, 18:24, Dmitry Nezhevenko d...@inhex.net:
 On Fri, Jun 01, 2012 at 06:07:49PM +0400, Alexander wrote:

 Рейды просто так не разваливаются, если отвалился, то что-то произошло. И
 скорее всего прийдется менять как минимум 1 винт. Т.е. перестройка
 неизбежна.

 IMHO вся эта идея с кучей мелких рейдов на одних дисках -- глупость.

 в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками, md0 
 и md1 (подкачка и корень) не были развалены - нормально функционировали 
 (физические диски те же самые)


Вы точно уверены, что он развалился? Он мог просто проверять свою консистенцию.
Кстати, а мониторинг стоит какой либо? Поставьте если нет.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Alexander


01.06.2012, 21:01, Dmitry Nezhevenko d...@inhex.net:
 On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote:

  в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками,
  md0 и md1 (подкачка и корень) не были развалены - нормально
  функционировали (физические диски те же самые)

 А из-за чего он перестраиваться начал тогда?

 --
 WBR, Dmitry

ошибки в smart, похоже умирает один винт
в качестве мониторинга использую smartd (smartmontools)
чем рейд мониторить можно? пока пришло в голову только скрипт по крону, может 
есть какие то спец. пакеты?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/170481338575...@web6e.yandex.ru



Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 22:15 пользователь Степан Голосунов
ste...@golosunov.pp.ru написал:
 Dmitry A. Zhiglov dmitry.zhig...@gmail.com writes:
 В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
 на 2 диска. Приоритеты по swap установить в fstab'e.

 Это для того, чтобы сервер упал когда отвалится один диск?

Спасибо за замечание. Учтено.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 22:30 пользователь Alexander ag...@yandex.ru написал:

 01.06.2012, 21:01, Dmitry Nezhevenko d...@inhex.net:
 On Fri, Jun 01, 2012 at 08:38:36PM +0400, Alexander wrote:

  в тот самый момент когда я наблюдал перестройку 800гб md2 с виртуалками,
  md0 и md1 (подкачка и корень) не были развалены - нормально
  функционировали (физические диски те же самые)

 А из-за чего он перестраиваться начал тогда?

 ошибки в smart, похоже умирает один винт
 в качестве мониторинга использую smartd (smartmontools)
 чем рейд мониторить можно? пока пришло в голову только скрипт по крону, может 
 есть какие то спец. пакеты?

mdadm умеет писать письма см. тут: man mdadm.conf
Использую munin для мониторинга
Статус можно брать из /proc/mdstat, если решите сами что-то пилить.


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Mikhail A Antonov
01.06.2012 16:51, Dmitry A. Zhiglov пишет:
 В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
 на 2 диска. Приоритеты по swap установить в fstab'e.
Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет
раком. НИКОГДА не делай так.
Своп ВСЕГДА должен быть на рейде, если это возможно.



-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry A. Zhiglov
1 июня 2012 г., 22:44 пользователь Mikhail A Antonov b...@solarnet.ru написал:
 01.06.2012 16:51, Dmitry A. Zhiglov пишет:
 В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
 на 2 диска. Приоритеты по swap установить в fstab'e.
 Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет
 раком. НИКОГДА не делай так.
 Своп ВСЕГДА должен быть на рейде, если это возможно.

Как себя поведет система при выходе из строя одного диска в случае,
если своп разделы были с одинаковым приоритетом на разных дисках?


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Mikhail A Antonov
01.06.2012 15:38, Alexander пишет:
 Здраствуйте!
 имеется сервер с 2 винтами
 сейчас продумываю структуру дискового хранилища гипервизора KVM.
 Пока остановился на следующей схеме:
... (Дальше много букаф.)
Итак.
md0 - /boot на 300-500м. (ext2)
md1 - pv для lvm
Для каждой виртуалки отдельный lv.
Всё.
Если диск вылетел зачем-то - значит менять/проверять диск, а не хернёй
страдать. Диски просто так не вылетают.
Мониторить смартом и mdadm.
Имею такую конфигурацию на ~20 железяках. Местами, правда там не mdraid,
а хардварный, но бьётся всё так же и сути не меняет.

-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Mikhail A Antonov
01.06.2012 22:51, Dmitry A. Zhiglov пишет:
 1 июня 2012 г., 22:44 пользователь Mikhail A Antonov b...@solarnet.ru 
 написал:
 01.06.2012 16:51, Dmitry A. Zhiglov пишет:
 В челом все гуд, но swap надо не в рейде делать, а 2 отдельных раздела
 на 2 диска. Приоритеты по swap установить в fstab'e.
 Так делать НЕЛЬЗЯ! Если сдохнет диск, на котором был своп - ВСЁ встанет
 раком. НИКОГДА не делай так.
 Своп ВСЕГДА должен быть на рейде, если это возможно.
 Как себя поведет система при выходе из строя одного диска в случае,
 если своп разделы были с одинаковым приоритетом на разных дисках?
В лучшем случае ядро впадёт в панику, перемонтирует всё в RO и
тормознёт. В другом - ну представь что у тебя в том куске свопа был
кусок БД или ещё что-нибудь интересное. Кусок памяти, отданный в
виртуалку, внутри которой крутится терминальный сервер, внутри которого
бухгалтерская база. Можно инфу похерить сильно.

-- 
Best regards,
Mikhail
-
WWW: http://www.antmix.pp.ru/
XMPP: ant...@stopicq.ru



signature.asc
Description: OpenPGP digital signature


Re: RAID + гостевые системы KVM на отдельных LVM-томах

2012-06-01 Пенетрантность Dmitry Nezhevenko
On Fri, Jun 01, 2012 at 10:30:14PM +0400, Alexander wrote:
 ошибки в smart, похоже умирает один винт

Т.е. винт на замену. Значит перестраивать все равно все данные. 
 
-- 
WBR, Dmitry


signature.asc
Description: Digital signature


Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-09 Пенетрантность -=Devil_InSide=-
,-[Alexander, 6 March 2012 17:11]:

 02.03.2012, 16:32, Alexey Boyko ale...@boyko.km.ua:
 Подключаюсь через virt-manager с удаленной машины через ssh-туннель.
 Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе
 подключения.

 Проверь, запускает ли libvirtd во время такого зависания udevadm.
 У меня зависал udevadm. Если после перезагрузки сделать udev restart,
 то udevadm не зависал, и virt-manager конектился.

 service udev restart после перезагрузки не помогает.
 
 Выяснил следующее - оказывается virt-manager не намертво зависает - если
 дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2!
 После этого все работает вроде нормально (внутри virt-manager), если его
 закрыть и запустить по новой - опять висит 4-5 минут. От системы, с
 которой запускается virt-manager это не зависит - на 32 и 64 битных
 системах с разными ядрами (2.6.32 или 3.2) одинаковое поведение - висит
 4-5 минут на стадии коннекта через ssh-туннель к гипервизору

попробуйте выкинуть прослойку в виде говнолибсов каких то там из конфига 
клиента.
GSSAPIAuthentication. и прочее гссапи.
)
дикое странное говно, которое перебирает двеститыщпицот вариантов шифрования 
и пытается всегда запустить неподдерживаемый.
)
как раз минут почти пять у него и уходит обычно.
)

-- 
__
mpd status: [playing]
Psycho Motel - Rage
**
*  jabber:  devil_ins...@jabber.ru   *
*   Registered linux user #450844*
**



-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/jjcj9c$pce$1...@dough.gmane.org



Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-09 Пенетрантность Alexander
  Выяснил следующее - оказывается virt-manager не намертво зависает - если
  дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2!
  После этого все работает вроде нормально (внутри virt-manager), если его
  закрыть и запустить по новой - опять висит 4-5 минут. От системы, с
  которой запускается virt-manager это не зависит - на 32 и 64 битных
  системах с разными ядрами (2.6.32 или 3.2) одинаковое поведение - висит
  4-5 минут на стадии коннекта через ssh-туннель к гипервизору

 попробуйте выкинуть прослойку в виде говнолибсов каких то там из конфига
 клиента.
 GSSAPIAuthentication. и прочее гссапи.
 дикое странное говно, которое перебирает двеститыщпицот вариантов шифрования
 и пытается всегда запустить неподдерживаемый.
 как раз минут почти пять у него и уходит обычно.

расскажите, если можно, поподробнее - как выкинуть говнолибсы? :)


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/409081331298...@web67.yandex.ru



Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-09 Пенетрантность -=Devil_InSide=-
,-[Alexander, 9 March 2012 17:16]:

 Выяснил следующее - оказывается virt-manager не намертво зависает - если
 дать ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2!
 После этого все работает вроде нормально (внутри virt-manager), если его
 закрыть и запустить по новой - опять висит 4-5 минут. От системы, с
 которой запускается virt-manager это не зависит - на 32 и 64 битных
 системах с разными ядрами (2.6.32 или 3.2) одинаковое поведение - висит
 4-5 минут на стадии коннекта через ssh-туннель к гипервизору

 попробуйте выкинуть прослойку в виде говнолибсов каких то там из конфига
 клиента.
 GSSAPIAuthentication. и прочее гссапи.
 дикое странное говно, которое перебирает двеститыщпицот вариантов
 шифрования и пытается всегда запустить неподдерживаемый.
 как раз минут почти пять у него и уходит обычно.

 расскажите, если можно, поподробнее - как выкинуть говнолибсы? :)
 
 
man ssh_config
man vim
vim /blabla/blabla/blabla/bla.config
/GSSAPIenter
do.something.anything
:wq

ы?
)

-- 
__
mpd status: [paused]
Psycho Motel - Excuse Me
**
*  jabber:  devil_ins...@jabber.ru   *
*   Registered linux user #450844*
**



-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/jjdc3h$uvt$1...@dough.gmane.org



Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-06 Пенетрантность Alexander
02.03.2012, 16:32, Alexey Boyko ale...@boyko.km.ua:
  Подключаюсь через virt-manager с удаленной машины через ssh-туннель.
  Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе
  подключения.

 Проверь, запускает ли libvirtd во время такого зависания udevadm.
 У меня зависал udevadm. Если после перезагрузки сделать udev restart,
 то udevadm не зависал, и virt-manager конектился.

service udev restart после перезагрузки не помогает.

Выяснил следующее - оказывается virt-manager не намертво зависает - если дать 
ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2! После этого 
все работает вроде нормально (внутри virt-manager), если его закрыть и 
запустить по новой - опять висит 4-5 минут. От системы, с которой запускается 
virt-manager это не зависит - на 32 и 64 битных системах с разными ядрами 
(2.6.32 или 3.2) одинаковое поведение - висит 4-5 минут на стадии коннекта 
через ssh-туннель к гипервизору


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/150161331039...@web82.yandex.ru



Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-06 Пенетрантность Скубриев Владимир

06.03.2012 17:11, Alexander пишет:

02.03.2012, 16:32, Alexey Boykoale...@boyko.km.ua:

  Подключаюсь через virt-manager с удаленной машины через ssh-туннель.
  Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе
  подключения.

Проверь, запускает ли libvirtd во время такого зависания udevadm.
У меня зависал udevadm. Если после перезагрузки сделать udev restart,
то udevadm не зависал, и virt-manager конектился.


service udev restart после перезагрузки не помогает.

Выяснил следующее - оказывается virt-manager не намертво зависает - если дать 
ему 4-5 минут, то он таки подключится к гипервизору с ядром 3.2! После этого 
все работает вроде нормально (внутри virt-manager), если его закрыть и 
запустить по новой - опять висит 4-5 минут. От системы, с которой запускается 
virt-manager это не зависит - на 32 и 64 битных системах с разными ядрами 
(2.6.32 или 3.2) одинаковое поведение - висит 4-5 минут на стадии коннекта 
через ssh-туннель к гипервизору


кстати у меня также везде. очень долго virt-manager подключается к 
libvirt'у. Минуты 3-4 а то и все пять. От чего это зависит я так и не 
понял. Но могу сказать, что использовал последние версии libvirt из 
sid'a и fedora 16 с её последним virt-manager'ом




--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru



Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-06 Пенетрантность Alexander
07.03.2012, 09:44, Скубриев Владимир vladi...@skubriev.ru:
 06.03.2012 17:11, Alexander пишет: 02.03.2012, 16:32, Alexey Boyko 
 ale...@boyko.km.ua:
  Подключаюсь через virt-manager с удаленной машины через ssh-туннель.  
 Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе  
 подключения.

 Проверь, запускает ли libvirtd во время такого зависания udevadm. У меня 
 зависал udevadm. Если после перезагрузки сделать udev restart, то udevadm 
 не зависал, и virt-manager конектился.

 service udev restart после перезагрузки не помогает. Выяснил следующее - 
 оказывается virt-manager не намертво зависает - если дать ему 4-5 минут, то 
 он таки подключится к гипервизору с ядром 3.2! После этого все работает 
 вроде нормально (внутри virt-manager), если его закрыть и запустить по новой 
 - опять висит 4-5 минут. От системы, с которой запускается virt-manager это 
 не зависит - на 32 и 64 битных системах с разными ядрами (2.6.32 или 3.2) 
 одинаковое поведение - висит 4-5 минут на стадии коннекта через ssh-туннель 
 к гипервизору
 кстати у меня также везде. очень долго virt-manager подключается к libvirt'у. 
 Минуты 3-4 а то и все пять. От чего это зависит я так и не понял. Но могу 
 сказать, что использовал последние версии libvirt из sid'a и fedora 16 с её 
 последним virt-manager'ом

а, ну так вот это ненормальное поведение, ибо если на debian 6.0.4 оставить все 
как есть по умолчанию без использования дополнительных репозиториев (т.е. ядро 
2.6.32 и пакеты из stable), то virt-manager подключается к гипервизору за 3-4 
секунды


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/92391331100...@web83.yandex.ru



Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-06 Пенетрантность Alexander


07.03.2012, 11:03, Скубриев Владимир vladi...@skubriev.ru:
 07.03.2012 10:01, Alexander пишет:

  07.03.2012, 09:44, Скубриев Владимирvladi...@skubriev.ru:
  06.03.2012 17:11, Alexander пишет:  02.03.2012, 16:32, Alexey 
 Boykoale...@boyko.km.ua:
    Подключаюсь через virt-manager с удаленной машины через ssh-туннель.  
 Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе  
 подключения.
  Проверь, запускает ли libvirtd во время такого зависания udevadm. У меня 
 зависал udevadm. Если после перезагрузки сделать udev restart, то udevadm 
 не зависал, и virt-manager конектился.
  service udev restart после перезагрузки не помогает. Выяснил следующее - 
 оказывается virt-manager не намертво зависает - если дать ему 4-5 минут, 
 то он таки подключится к гипервизору с ядром 3.2! После этого все работает 
 вроде нормально (внутри virt-manager), если его закрыть и запустить по 
 новой - опять висит 4-5 минут. От системы, с которой запускается 
 virt-manager это не зависит - на 32 и 64 битных системах с разными ядрами 
 (2.6.32 или 3.2) одинаковое поведение - висит 4-5 минут на стадии коннекта 
 через ssh-туннель к гипервизору
  кстати у меня также везде. очень долго virt-manager подключается к 
 libvirt'у. Минуты 3-4 а то и все пять. От чего это зависит я так и не 
 понял. Но могу сказать, что использовал последние версии libvirt из sid'a и 
 fedora 16 с её последним virt-manager'ом
  а, ну так вот это ненормальное поведение, ибо если на debian 6.0.4 оставить 
 все как есть по умолчанию без использования дополнительных репозиториев 
 (т.е. ядро 2.6.32 и пакеты из stable), то virt-manager подключается к 
 гипервизору за 3-4 секунды

 хорошее замечание! только вот я ведь не просто так использую пакеты из
 sid'a ))

Вот кстати интересно для чего?
У меня все ванильное, кроме вот ядра - 3.2 из backports поставил, но это тоже 
как бы официальный стабильный репозиторий. Особенно если учитывать, что 3.2 это 
lts релиз и поддержка 2.6.32 уже официально прекратилась.
Все работает стабильно сейчас на уровне возможностей железа по ощущениям.
Использую несколько Windows 2008 и Windows 2008 R2 в продакшене.
Скажите в чем смысл использовать что-то из sid - стоит ли оно того?
Спрашиваю абсолютно искренне безо всяких подоплек)


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/345991331104...@web16.yandex.ru



Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-06 Пенетрантность Скубриев Владимир

07.03.2012 11:13, Alexander пишет:


07.03.2012, 11:03, Скубриев Владимирvladi...@skubriev.ru:

07.03.2012 10:01, Alexander пишет:


  07.03.2012, 09:44, Скубриев Владимирvladi...@skubriev.ru:

  06.03.2012 17:11, Alexander пишет:02.03.2012, 16:32, Alexey 
Boykoale...@boyko.km.ua:

Подключаюсь через virt-manager с удаленной машины через ssh-туннель.  Если 
ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе  подключения.

  Проверь, запускает ли libvirtd во время такого зависания udevadm. У меня 
зависал udevadm. Если после перезагрузки сделать udev restart, то udevadm не 
зависал, и virt-manager конектился.

  service udev restart после перезагрузки не помогает. Выяснил следующее - 
оказывается virt-manager не намертво зависает - если дать ему 4-5 минут, то он 
таки подключится к гипервизору с ядром 3.2! После этого все работает вроде 
нормально (внутри virt-manager), если его закрыть и запустить по новой - опять 
висит 4-5 минут. От системы, с которой запускается virt-manager это не зависит 
- на 32 и 64 битных системах с разными ядрами (2.6.32 или 3.2) одинаковое 
поведение - висит 4-5 минут на стадии коннекта через ssh-туннель к гипервизору

  кстати у меня также везде. очень долго virt-manager подключается к libvirt'у. 
Минуты 3-4 а то и все пять. От чего это зависит я так и не понял. Но могу 
сказать, что использовал последние версии libvirt из sid'a и fedora 16 с её 
последним virt-manager'ом

  а, ну так вот это ненормальное поведение, ибо если на debian 6.0.4 оставить 
все как есть по умолчанию без использования дополнительных репозиториев (т.е. 
ядро 2.6.32 и пакеты из stable), то virt-manager подключается к гипервизору за 
3-4 секунды

хорошее замечание! только вот я ведь не просто так использую пакеты из
sid'a ))


Вот кстати интересно для чего?
У меня все ванильное, кроме вот ядра - 3.2 из backports поставил, но это тоже 
как бы официальный стабильный репозиторий. Особенно если учитывать, что 3.2 это 
lts релиз и поддержка 2.6.32 уже официально прекратилась.
Все работает стабильно сейчас на уровне возможностей железа по ощущениям.
Использую несколько Windows 2008 и Windows 2008 R2 в продакшене.
Скажите в чем смысл использовать что-то из sid - стоит ли оно того?
Спрашиваю абсолютно искренне безо всяких подоплек)



верю про искренность, ну не могу я щас вспомнить уже ((

--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4f570d8a.20...@skubriev.ru



Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-02 Пенетрантность Скубриев Владимир

02.03.2012 15:38, Alexander пишет:

Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в 
перезагрузку по причине bluescreen.
В логах винды ничего по этому поводу нет.
Ядро Debian Squezze 2.6.32-5-amd64
используется qemu-kvm 0.12.5

Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют.

Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не 
перезагружалось, то есть проблема ушла. Однако в этом случае не мог 
приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на ядро 
2.6.32-5-amd64 - проблема вернулась.

Кто-нибудь сталкивался?



по моему проще решить проблему с virt-manager и забыть о проблеме
а что за проблема с ним ?

--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4f50b50b.1030...@skubriev.ru



Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-02 Пенетрантность Alexander


02.03.2012, 15:54, Скубриев Владимир vladi...@skubriev.ru:
 02.03.2012 15:38, Alexander пишет:

  Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в 
 перезагрузку по причине bluescreen.
  В логах винды ничего по этому поводу нет.
  Ядро Debian Squezze 2.6.32-5-amd64
  используется qemu-kvm 0.12.5

  Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют.

  Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не 
 перезагружалось, то есть проблема ушла. Однако в этом случае не мог 
 приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на ядро 
 2.6.32-5-amd64 - проблема вернулась.

  Кто-нибудь сталкивался?

 по моему проще решить проблему с virt-manager и забыть о проблеме
 а что за проблема с ним ?

Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро 
гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Я согласен, 
что если эту проблему решить, то про ядро 2.6.32 можно просто забыть и юзать 3.2


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/153941330689...@web76.yandex.ru



Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-02 Пенетрантность Скубриев Владимир

02.03.2012 16:06, Alexander пишет:


02.03.2012, 15:54, Скубриев Владимирvladi...@skubriev.ru:

02.03.2012 15:38, Alexander пишет:


  Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в 
перезагрузку по причине bluescreen.
  В логах винды ничего по этому поводу нет.
  Ядро Debian Squezze 2.6.32-5-amd64
  используется qemu-kvm 0.12.5

  Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют.

  Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не 
перезагружалось, то есть проблема ушла. Однако в этом случае не мог 
приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на ядро 
2.6.32-5-amd64 - проблема вернулась.

  Кто-нибудь сталкивался?

по моему проще решить проблему с virt-manager и забыть о проблеме
а что за проблема с ним ?


Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если ядро 
гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Я согласен, 
что если эту проблему решить, то про ядро 2.6.32 можно просто забыть и юзать 3.2


у меня стоит debian squeeze  и ядро 3.0.0-1-amd64 все работает нормально 
на двух серверах.


попробуйте поставить его. вот более подробно о нем

root@storhost:~# aptitude -t sid show linux-image-3.0.0-1-amd64
Пакет: linux-image-3.0.0-1-amd64
Новый: да
Состояние: установлен
Автоматически установлен: нет
Версия: 3.0.0-4
Приоритет: необязательный
Раздел: kernel
Сопровождающий: Debian Kernel Team debian-ker...@lists.debian.org
Размер в распакованном виде: 109 M
Зависимости: module-init-tools, linux-base (= 3~), initramfs-tools (= 
0.99~) | linux-initramfs-tool

Предварительные зависимости: debconf | debconf-2.0
Рекомендуются: firmware-linux-free (= 3~)
Предлагаются: linux-doc-3.0.0, grub-pc | extlinux | lilo (= 22.8-8.2~)
Ломают: initramfs-tools ( 0.99~), lilo ( 22.8-8.2~)
Предоставляют: linux-image, linux-modules-3.0.0-1-amd64
Описание: Linux 3.0.0 for 64-bit PCs
 The Linux kernel 3.0.0 and modules for use on PCs with AMD64 or Intel 
64 processors.


 This kernel also runs on a Xen hypervisor.  It supports both 
privileged (dom0) and unprivileged (domU) operation.


Это ядро из sid-а

И почему именно 3.2, что в нем такого, чего нет в 3.0.0-1-amd64 ))) ?
А как поставить подскажу если надо.

--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4f50bc47.4020...@skubriev.ru



Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-02 Пенетрантность Alexey Boyko
Подключаюсь через virt-manager с удаленной машины через ssh-туннель.  
Если ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе  
подключения.


Проверь, запускает ли libvirtd во время такого зависания udevadm.
У меня зависал udevadm. Если после перезагрузки сделать udev restart,
то udevadm не зависал, и virt-manager конектился.

--
xmpp:ale...@boyko.km.ua

Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-02 Пенетрантность Alexander
02.03.2012, 16:25, Скубриев Владимир vladi...@skubriev.ru:
 02.03.2012 16:06, Alexander пишет:

  02.03.2012, 15:54, Скубриев Владимирvladi...@skubriev.ru:
  02.03.2012 15:38, Alexander пишет:
    Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в 
 перезагрузку по причине bluescreen.
    В логах винды ничего по этому поводу нет.
    Ядро Debian Squezze 2.6.32-5-amd64
    используется qemu-kvm 0.12.5

    Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют.

    Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не 
 перезагружалось, то есть проблема ушла. Однако в этом случае не мог 
 приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на 
 ядро 2.6.32-5-amd64 - проблема вернулась.

    Кто-нибудь сталкивался?
  по моему проще решить проблему с virt-manager и забыть о проблеме
  а что за проблема с ним ?
  Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если 
 ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Я 
 согласен, что если эту проблему решить, то про ядро 2.6.32 можно просто 
 забыть и юзать 3.2

 у меня стоит debian squeeze  и ядро 3.0.0-1-amd64 все работает нормально
 на двух серверах.

 попробуйте поставить его. вот более подробно о нем

 root@storhost:~# aptitude -t sid show linux-image-3.0.0-1-amd64
 Пакет: linux-image-3.0.0-1-amd64
 Новый: да
 Состояние: установлен
 Автоматически установлен: нет
 Версия: 3.0.0-4
 Приоритет: необязательный
 Раздел: kernel
 Сопровождающий: Debian Kernel Team debian-ker...@lists.debian.org
 Размер в распакованном виде: 109 M
 Зависимости: module-init-tools, linux-base (= 3~), initramfs-tools (=
 0.99~) | linux-initramfs-tool
 Предварительные зависимости: debconf | debconf-2.0
 Рекомендуются: firmware-linux-free (= 3~)
 Предлагаются: linux-doc-3.0.0, grub-pc | extlinux | lilo (= 22.8-8.2~)
 Ломают: initramfs-tools ( 0.99~), lilo ( 22.8-8.2~)
 Предоставляют: linux-image, linux-modules-3.0.0-1-amd64
 Описание: Linux 3.0.0 for 64-bit PCs
   The Linux kernel 3.0.0 and modules for use on PCs with AMD64 or Intel
 64 processors.

   This kernel also runs on a Xen hypervisor.  It supports both
 privileged (dom0) and unprivileged (domU) operation.

 Это ядро из sid-а

 И почему именно 3.2, что в нем такого, чего нет в 3.0.0-1-amd64 ))) ?
 А как поставить подскажу если надо.

Просто 3.2 в backports, ну и посвежее, ну и LTS :) по-моему причин более чем 
достаточно чем 3.0 из sid ;)
из sid ставить как то боязно.
Сейчас попробую подключиться удаленно с абсолютно аналогичного дистра (debian6 
x64) с тем же самым ядром 3.2 из бэкпортс. Ибо сейчас подключаюсь с debian6 x32 
и ядро 2.6.32. Может не будет виснуть


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/362371330691...@web16.yandex.ru



Re: KVM - гостевой windows server 2008 периодически перезагружается

2012-03-02 Пенетрантность Скубриев Владимир

02.03.2012 16:37, Alexander пишет:

02.03.2012, 16:25, Скубриев Владимирvladi...@skubriev.ru:

02.03.2012 16:06, Alexander пишет:


  02.03.2012, 15:54, Скубриев Владимирvladi...@skubriev.ru:

  02.03.2012 15:38, Alexander пишет:

Стабильно один раз в 2-3 дня гостевой windows server 2008 x64 уходит в 
перезагрузку по причине bluescreen.
В логах винды ничего по этому поводу нет.
Ядро Debian Squezze 2.6.32-5-amd64
используется qemu-kvm 0.12.5

Параллельно стоит пара гостей 2008 R2 x64 - подобной проблемы не имеют.

Ставил из бэкпортов ядро 3.2.0-0 - все работало стабильно - ничего не 
перезагружалось, то есть проблема ушла. Однако в этом случае не мог 
приконнектится virt-manager'ом через ssh-туннель. Откатился обратно на ядро 
2.6.32-5-amd64 - проблема вернулась.

Кто-нибудь сталкивался?

  по моему проще решить проблему с virt-manager и забыть о проблеме
  а что за проблема с ним ?

  Подключаюсь через virt-manager с удаленной машины через ssh-туннель. Если 
ядро гипервизора 3.2 - то virt-manager тупо виснет на этапе подключения. Я 
согласен, что если эту проблему решить, то про ядро 2.6.32 можно просто забыть 
и юзать 3.2

у меня стоит debian squeeze  и ядро 3.0.0-1-amd64 все работает нормально
на двух серверах.

попробуйте поставить его. вот более подробно о нем

root@storhost:~# aptitude -t sid show linux-image-3.0.0-1-amd64
Пакет: linux-image-3.0.0-1-amd64
Новый: да
Состояние: установлен
Автоматически установлен: нет
Версия: 3.0.0-4
Приоритет: необязательный
Раздел: kernel
Сопровождающий: Debian Kernel Teamdebian-ker...@lists.debian.org
Размер в распакованном виде: 109 M
Зависимости: module-init-tools, linux-base (= 3~), initramfs-tools (=
0.99~) | linux-initramfs-tool
Предварительные зависимости: debconf | debconf-2.0
Рекомендуются: firmware-linux-free (= 3~)
Предлагаются: linux-doc-3.0.0, grub-pc | extlinux | lilo (= 22.8-8.2~)
Ломают: initramfs-tools (  0.99~), lilo (  22.8-8.2~)
Предоставляют: linux-image, linux-modules-3.0.0-1-amd64
Описание: Linux 3.0.0 for 64-bit PCs
   The Linux kernel 3.0.0 and modules for use on PCs with AMD64 or Intel
64 processors.

   This kernel also runs on a Xen hypervisor.  It supports both
privileged (dom0) and unprivileged (domU) operation.

Это ядро из sid-а

И почему именно 3.2, что в нем такого, чего нет в 3.0.0-1-amd64 ))) ?
А как поставить подскажу если надо.


Просто 3.2 в backports, ну и посвежее, ну и LTS :) по-моему причин более чем 
достаточно чем 3.0 из sid ;)
из sid ставить как то боязно.
Сейчас попробую подключиться удаленно с абсолютно аналогичного дистра (debian6 
x64) с тем же самым ядром 3.2 из бэкпортс. Ибо сейчас подключаюсь с debian6 x32 
и ядро 2.6.32. Может не будет виснуть




О сути использования пакетов из sid. Нужно это для того, чтобы можно 
было использовать не только свежее ядро. Но и новый kvm, qemu, libvirt и 
т.д.


libvirt так вообще лучше использовать самый последний всегда.

--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4f50c55e.7050...@skubriev.ru



Re: Производительность KVM на LVM

2012-03-01 Пенетрантность Mikhail A Antonov
01.03.2012 11:37, Alexander пишет:
 еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб 
 (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы получим 
 файл-образ размером 300гб?... я так понимаю это долгая и неэффективная 
 процедура((
 Это получается единственный вариант бэкапа системы целиком в случае 
 использования lvm?.. или может еще есть какие то варианты? Мне еще приходит в 
 голову только сжатие этого образа при копировании, что еще более увеличит 
 время создания образа и непонятно насколько уменьшит его размер(
 Если так, то получается бэкап акронисом (в случае windows-систем) эффективнее 
 гораздо... :(
# делаем снапшот
lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
# достаём раздел
kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
# потом монтируем
mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g

Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск
можно раз в месяц и образом.
После того как бэкап закончился - снапшот не нужен больше.

# отмонтируем что бэкапили
umount /mnt/win2k3data
/sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP
/usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP


-- 
Best regards,
Mikhail.
-
XMPP: ant...@stopicq.ru
WWW: http://www.antmix.pp.ru/



signature.asc
Description: OpenPGP digital signature


Re: Производительность KVM на LVM

2012-03-01 Пенетрантность Alexander

01.03.2012, 11:46, Stanislav Vlasov stanislav@gmail.com:
 1 марта 2012 г. 13:37 пользователь Alexander ag...@yandex.ru написал:

  Делать снапшот и потом копировать.
  dd if=/dev/VG/LVM-snap of=/mnt/backup/virt-`date +%F`.img
  Остальные опции по вкусу.

  Размер снапшота зависит от того, сколько данных понапишет виртуалка,
  пока ты его копируешь. Но бекапы так не делаются, ибо при накрывании
  системы медным тазом фиг чего восстановишь обычно. Бекапы делаются
  через копирование снапшота в другое место.

  Остановить виртуалку и записать в lvm-том старое содержимое
  практически также, как копировал его.
  т.е. опять через dd влить напрямую в lvm-том?

 Да.

  еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб 
 (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы 
 получим файл-образ размером 300гб?... я так понимаю это долгая и 
 неэффективная процедура((

 Ну... Сжимать по дороге. Можно с малой степенью сжатия.
 Собственно, так и делал - dd if=... | gzip | ssh user@backup cat dd.img.gz

спасибо за то, что делитесь опытом


  Это получается единственный вариант бэкапа системы целиком в случае 
 использования lvm?.. или может еще есть какие то варианты? Мне еще приходит 
 в голову только сжатие этого образа при копировании, что еще более увеличит 
 время создания образа и непонятно насколько уменьшит его размер(

 Если сжимается хорошо, то в разы быстрее, чем передавать его полностью.
 Правда, при большой степени сжатия в опциях архиватора может упереться
 в процессор и тогда не факт, что быстрее.
 Особенно, если сеть гигабитная и выше.

  Если так, то получается бэкап акронисом (в случае windows-систем) 
 эффективнее гораздо... :(

 Естественно. Но его нельзя проводить, когда виртуалки в работе.
 Тут время простоя - выкл/вкл фактически, в отличие от.
 Разве что отдавать снапшот виртуалке с акронисом и дальше уже им делать.

а вот это кстати мысль! использовать дополнительную виртуалку без системы 
установленной вообще, в которой подключен один винт (на него будет писать образ 
акронис), а вторым винтом подключать сделанный снапшот (так точно можно? ведь 
снапшот read-only??), в качестве виртуального CD воткнуть исошку с акронисом 
и... profit?..


  Во-первых, для _бекапов_ достаточно одного снапшота на время бекапа.
  Во-вторых, как-то проверял - скорость при одном снапшоте и при
  нескольких одинакова.
  а без снапшотов вообще и с одним снапшотом? на XGU именно такой тест был - 
 скорость отличается в разы :(

 Собственно так и есть. Потому снапшоты - только для бекапов.
 На вмвари, при полностью выделяемых дисках - аналогично.

печально :( zfs в этом смысле рулит, в ней еще и снапшоты можно маунтить в 
режиме записи


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/342701330588...@web36.yandex.ru



Fwd: Производительность KVM на LVM

2012-03-01 Пенетрантность Alexander

ссори отправил в личку(

01.03.2012, 11:59, Mikhail A Antonov b...@solarnet.ru:

  01.03.2012 11:37, Alexander пишет:
   еще вопрос - я так понимаю при копировании через dd lvm-тома размером 
 300гб (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы 
 получим файл-образ размером 300гб?... я так понимаю это долгая и 
 неэффективная процедура((
   Это получается единственный вариант бэкапа системы целиком в случае 
 использования lvm?.. или может еще есть какие то варианты? Мне еще приходит 
 в голову только сжатие этого образа при копировании, что еще более увеличит 
 время создания образа и непонятно насколько уменьшит его размер(
   Если так, то получается бэкап акронисом (в случае windows-систем) 
 эффективнее гораздо... :(
  # делаем снапшот
  lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
  # достаём раздел
  kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
  # потом монтируем
  mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g

  Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск
  можно раз в месяц и образом.
  После того как бэкап закончился - снапшот не нужен больше.

  # отмонтируем что бэкапили
  umount /mnt/win2k3data
  /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP
  /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP

  --
  Best regards,
  Mikhail.
  -
  XMPP: ant...@stopicq.ru
  WWW: http://www.antmix.pp.ru/

о! большое спасибо! способ шикарен тем, что бэкапятся непосредственно только 
сами данные. Я так думаю потом не проблема будет развернуть из tar-архива все 
файлы на винт и через восстановление системы восстановить загрузчик винды  - в 
итоге имеем практически образ системы - так ведь?
 Завершение пересылаемого сообщения 


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/348331330589...@web36.yandex.ru



Re: Fwd: Производительность KVM на LVM

2012-03-01 Пенетрантность Mikhail A Antonov
01.03.2012 12:07, Alexander пишет:
 
 ссори отправил в личку(
 
 01.03.2012, 11:59, Mikhail A Antonov b...@solarnet.ru:
 
  01.03.2012 11:37, Alexander пишет:
   еще вопрос - я так понимаю при копировании через dd lvm-тома размером 
 300гб (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы 
 получим файл-образ размером 300гб?... я так понимаю это долгая и 
 неэффективная процедура((
   Это получается единственный вариант бэкапа системы целиком в случае 
 использования lvm?.. или может еще есть какие то варианты? Мне еще приходит 
 в голову только сжатие этого образа при копировании, что еще более увеличит 
 время создания образа и непонятно насколько уменьшит его размер(
   Если так, то получается бэкап акронисом (в случае windows-систем) 
 эффективнее гораздо... :(
  # делаем снапшот
  lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
  # достаём раздел
  kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
  # потом монтируем
  mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g

  Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск
  можно раз в месяц и образом.
  После того как бэкап закончился - снапшот не нужен больше.

  # отмонтируем что бэкапили
  umount /mnt/win2k3data
  /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP
  /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP

 
 о! большое спасибо! способ шикарен тем, что бэкапятся непосредственно только 
 сами данные. Я так думаю потом не проблема будет развернуть из tar-архива все 
 файлы на винт и через восстановление системы восстановить загрузчик винды  - 
 в итоге имеем практически образ системы - так ведь?
nfs права могут побиться. И скорее всего побьются.

-
P.S.: Да я в личку и ответил уже, но для истории пусть и тут повисит.


-- 
Best regards,
Mikhail.
-
XMPP: ant...@stopicq.ru
WWW: http://www.antmix.pp.ru/



signature.asc
Description: OpenPGP digital signature


Re: Производительность KVM на LVM

2012-03-01 Пенетрантность Alexander


01.03.2012, 12:20, Mikhail A Antonov b...@solarnet.ru:
 01.03.2012 12:07, Alexander пишет:

  ссори отправил в личку(

  01.03.2012, 11:59, Mikhail A Antonov b...@solarnet.ru:
   01.03.2012 11:37, Alexander пишет:
    еще вопрос - я так понимаю при копировании через dd lvm-тома размером 
 300гб (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) 
 мы получим файл-образ размером 300гб?... я так понимаю это долгая и 
 неэффективная процедура((
    Это получается единственный вариант бэкапа системы целиком в случае 
 использования lvm?.. или может еще есть какие то варианты? Мне еще 
 приходит в голову только сжатие этого образа при копировании, что еще 
 более увеличит время создания образа и непонятно насколько уменьшит его 
 размер(
    Если так, то получается бэкап акронисом (в случае windows-систем) 
 эффективнее гораздо... :(
   # делаем снапшот
   lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
   # достаём раздел
   kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
   # потом монтируем
   mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g

   Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск
   можно раз в месяц и образом.
   После того как бэкап закончился - снапшот не нужен больше.

   # отмонтируем что бэкапили
   umount /mnt/win2k3data
   /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP
   /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP
  о! большое спасибо! способ шикарен тем, что бэкапятся непосредственно 
 только сами данные. Я так думаю потом не проблема будет развернуть из 
 tar-архива все файлы на винт и через восстановление системы восстановить 
 загрузчик винды  - в итоге имеем практически образ системы - так ведь?

 nfs права могут побиться. И скорее всего побьются.

 -
 P.S.: Да я в личку и ответил уже, но для истории пусть и тут повисит.


ах, ну да ntfs-права... :(
все таки в итоге получается dd со сжатием образа на другую машину единственный 
проверенный вариант.
а, ну или если можно отдать виртуалке снапшот в качестве винта, то можно уже из 
нее снимать образ акронисом. проверю, напишу


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/3291330590...@web64.yandex.ru



Re: Производительность KVM на LVM

2012-03-01 Пенетрантность Sergey Korobitsin
Alexander ☫ → To debian-russian@lists.debian.org @ Thu, Mar 01, 2012 12:24 +0400

    lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
    # достаём раздел
    kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
    # потом монтируем
    mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g
 
    Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск
    можно раз в месяц и образом.
    После того как бэкап закончился - снапшот не нужен больше.
 
    # отмонтируем что бэкапили
    umount /mnt/win2k3data
    /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP
    /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP
   о! большое спасибо! способ шикарен тем, что бэкапятся непосредственно 
  только сами данные. Я так думаю потом не проблема будет развернуть из 
  tar-архива все файлы на винт и через восстановление системы восстановить 
  загрузчик винды  - в итоге имеем практически образ системы - так ведь?
 
  nfs права могут побиться. И скорее всего побьются.

Если к рецепту, указанному выше, добавить способы создания образов
(ntfsclone, partclone ...), которые используются в clonezilla, можно
получить какой угодно результат.

-- 
Bright regards, Sergey Korobitsin,
Chief Research Officer
Arta Software, http://arta.kz/
xmpp:underta...@jabber.arta.kz

--
Современные условия бытия оставляют человека один на один с бесконечным 
монологом 
масс-медиа и культуры; монологом масс-медиа и культуры о самих себе. Хуже того, 
реальность, с которой имеет дело субъект культуры - продукт этого самого 
монолога. 
Человек остается безвольным и безвластным червяком в колоссальной кафкианской 
машине 
само-воспроизводящейся культуры. Культуры, язык которой защищен копирайтом - 
чтобы произнести в этом смысловом поле нечто осмысленное, вообще что-то 
произнести, 
требуется добыть разрешение владельца копирайта. Копирайт обозначает тиранию 
гораздо более жестокую и окончательную, чем все прежде известные формы тирании 
- 
прежде никому не приходило в голову кодифицировать все формы экспрессии 
и требовать получения отдельного разрешения на каждую. 
  -- Миша Вербицкий, Антикопирайт


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: 
http://lists.debian.org/20120301085303.ga17...@undertaker.dev.lan.arta.kz



Re: Производительность KVM на LVM

2012-03-01 Пенетрантность Vladimir Skubriev

01.03.2012 12:24, Alexander пишет:


01.03.2012, 12:20, Mikhail A Antonovb...@solarnet.ru:

01.03.2012 12:07, Alexander пишет:


  ссори отправил в личку(

  01.03.2012, 11:59, Mikhail A Antonovb...@solarnet.ru:

   01.03.2012 11:37, Alexander пишет:

еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб 
(даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы получим 
файл-образ размером 300гб?... я так понимаю это долгая и неэффективная 
процедура((
Это получается единственный вариант бэкапа системы целиком в случае 
использования lvm?.. или может еще есть какие то варианты? Мне еще приходит в 
голову только сжатие этого образа при копировании, что еще более увеличит время 
создания образа и непонятно насколько уменьшит его размер(
Если так, то получается бэкап акронисом (в случае windows-систем) 
эффективнее гораздо... :(

   # делаем снапшот
   lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
   # достаём раздел
   kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
   # потом монтируем
   mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g

   Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск
   можно раз в месяц и образом.
   После того как бэкап закончился - снапшот не нужен больше.

   # отмонтируем что бэкапили
   umount /mnt/win2k3data
   /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP
   /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP

  о! большое спасибо! способ шикарен тем, что бэкапятся непосредственно только 
сами данные. Я так думаю потом не проблема будет развернуть из tar-архива все 
файлы на винт и через восстановление системы восстановить загрузчик винды  - в 
итоге имеем практически образ системы - так ведь?

nfs права могут побиться. И скорее всего побьются.

-
P.S.: Да я в личку и ответил уже, но для истории пусть и тут повисит.


ах, ну да ntfs-права... :(
все таки в итоге получается dd со сжатием образа на другую машину единственный 
проверенный вариант.
а, ну или если можно отдать виртуалке снапшот в качестве винта, то можно уже из 
нее снимать образ акронисом. проверю, напишу




проверите, получиться ? обязательно отпишитесь. очень буду ждать )))

--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru



Re: Производительность KVM на LVM

2012-03-01 Пенетрантность Vladimir Skubriev

01.03.2012 12:53, Sergey Korobitsin пишет:

Alexander ☫ → To debian-russian@lists.debian.org @ Thu, Mar 01, 2012 12:24 +0400


   lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
   # достаём раздел
   kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
   # потом монтируем
   mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g

   Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск
   можно раз в месяц и образом.
   После того как бэкап закончился - снапшот не нужен больше.

   # отмонтируем что бэкапили
   umount /mnt/win2k3data
   /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP
   /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP

  о! большое спасибо! способ шикарен тем, что бэкапятся непосредственно только 
сами данные. Я так думаю потом не проблема будет развернуть из tar-архива все 
файлы на винт и через восстановление системы восстановить загрузчик винды  - в 
итоге имеем практически образ системы - так ведь?

nfs права могут побиться. И скорее всего побьются.

Если к рецепту, указанному выше, добавить способы создания образов
(ntfsclone, partclone ...), которые используются в clonezilla, можно
получить какой угодно результат.

все равно что ntfsclone, partclone, clonezilla не 100 варианты в плане 
надежности.


постоянно придется проверять а что там оно на бэкапило.

восстанавливается или нет

так что, ИМХО, dd лучше в плане надежности сохранения и восстановления 
данных.


чем проще алгоритм - тем надежнее.

--

С Уважением,
специалист по техническому и программному обеспечению,
системный администратор

Скубриев Владимир
~~~
Россия, Ростовская область, г. Таганрог

тел. моб: +7 (918) 504 38 20
skype: v.skubriev
icq: 214-800-502
www: skubriev.ru



Re: Производительность KVM на LVM

2012-03-01 Пенетрантность Artem Chuprina
  Если так, то получается бэкап акронисом (в случае windows-систем) 
  эффективнее гораздо... :(
 # делаем снапшот
 lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
 # достаём раздел
 kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
 # потом монтируем
 mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g
 
 Ну и таром его.

Диск винды?  С виндовыми правами?  Таром?

-- 
Обновление Windows изменило интуитивно ясный интерфейс Вашего компьютера.
Загрузите обновление интуиции с сайта Microsoft.
(С)энта


--
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/878vjklmqq.wl%...@ran.pp.ru



Re: Производительность KVM на LVM

2012-03-01 Пенетрантность Alexander


01.03.2012, 11:59, Mikhail A Antonov b...@solarnet.ru:
 01.03.2012 11:37, Alexander пишет:

  еще вопрос - я так понимаю при копировании через dd lvm-тома размером 300гб 
 (даже если полезной инфы там 50гб) на сетевую шару (другой сервер) мы 
 получим файл-образ размером 300гб?... я так понимаю это долгая и 
 неэффективная процедура((
  Это получается единственный вариант бэкапа системы целиком в случае 
 использования lvm?.. или может еще есть какие то варианты? Мне еще приходит 
 в голову только сжатие этого образа при копировании, что еще более увеличит 
 время создания образа и непонятно насколько уменьшит его размер(
  Если так, то получается бэкап акронисом (в случае windows-систем) 
 эффективнее гораздо... :(

 # делаем снапшот
 lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
 # достаём раздел
 kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
 # потом монтируем
 mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g

 Ну и таром его. А бэкапить образом файлы - смысла нет. Системный диск
 можно раз в месяц и образом.
 После того как бэкап закончился - снапшот не нужен больше.

 # отмонтируем что бэкапили
 umount /mnt/win2k3data
 /sbin/kpartx -d /dev/mapper/vg0-win2k3dataBACKUP
 /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP


может вы имели ввиду в конце:
/usr/bin/yes | /sbin/lvremove /dev/vg0/win2k3dataBACKUP
или без разницы?..

опробовал вашу схему - для бэкапа данных вполне подходит.
Вот только пока непонятно что делать с правами ntfs, коллеги, есть что 
посоветовать на эту тему - чтобы можно было восстановить данные с настроенными 
правами ntfs?


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/216261330597...@web132.yandex.ru



Re: Производительность KVM на LVM

2012-03-01 Пенетрантность Sergey Korobitsin
Vladimir Skubriev ☫ → To debian-russian@lists.debian.org @ Thu, Mar 01, 2012 
13:03 +0400

 все равно что ntfsclone, partclone, clonezilla не 100 варианты в
 плане надежности.
 
 постоянно придется проверять а что там оно на бэкапило.
 
 восстанавливается или нет
 
 так что, ИМХО, dd лучше в плане надежности сохранения и
 восстановления данных.
 
 чем проще алгоритм - тем надежнее.

It depends. В случае с пустым разделом ntfsclone, например, вполне себе
выиграет место.

P.S. Clonezilla - комбайн, использующий перечисленные утилиты, и много
других.

-- 
Bright regards, Sergey Korobitsin,
Chief Research Officer
Arta Software, http://arta.kz/
xmpp:underta...@jabber.arta.kz

--
Спектакль - это не совокупность образов; нет, Спектакль 
это общественные отношения, обусловленные образами.
  -- Ги-Эрнст Дебор, Общество Спектакля


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: 
http://lists.debian.org/20120301105643.ga17...@undertaker.dev.lan.arta.kz



Re: Производительность KVM на LVM

2012-03-01 Пенетрантность Max Kosmach
01.03.2012 14:31, Alexander пишет:
 

 
 опробовал вашу схему - для бэкапа данных вполне подходит.
 Вот только пока непонятно что делать с правами ntfs, коллеги, есть что 
 посоветовать на эту тему - чтобы можно было восстановить данные с 
 настроенными правами ntfs?
 
1 - вариант в лоб - ntfsclone/partclone -скопирует только занятые блоки
из ntfs раздела.
2 - модификация варианта с tar - дамп acl внешней утилитой (вспоминается
secaudit из того же ntfs-3g)




-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/4f4f5cdf.4020...@tcen.ru



Re: Производительность KVM на LVM

2012-03-01 Пенетрантность Mikhail A Antonov
01.03.2012 13:00, Artem Chuprina пишет:
 Если так, то получается бэкап акронисом (в случае windows-систем) 
 эффективнее гораздо... :(
 # делаем снапшот
 lvcreate -L4G -s -n win2k3dataBACKUP /dev/vg0/win2k3data
 # достаём раздел
 kpartx -a /dev/mapper/vg0-win2k3dataBACKUP
 # потом монтируем
 mount /dev/mapper/vg0-win2k3dataBACKUP1 /mnt/win2k3data -o ro -t ntfs-3g

 Ну и таром его.
 
 Диск винды?  С виндовыми правами?  Таром?
 
Да. Мне потом из него будет важнее выцепить сами данные, а права я и сам
руками после восстановления выставлю. У меня там не много и _мне_ эта
схема подходит. Я понимаю что если у меня там будет стопицот
пользователей и хитро накрученные права - там эта схема не подойдёт.
Сейчас же всё это используется ввиде ой, мы случайно на сетевой шаре
прибили/испортили файлик. Восстанови а? и планировалось что это будет
использоваться при поломках железа вплоть до полного сгорания серверной
потому что далее этот самый тар пишется на nas, который стоит в соседнем
здании. В моём случае винду со всем софтом (оофис, фф, 1С) дешевле
выйдет поставить заново, чем снимать образ и где-то его хранить. Там и
так условно полезной информации на ~70гб в пожатом виде.

01.03.2012 14:31, Alexander пишет:
 /usr/bin/yes | /sbin/lvremove /dev/mapper/vg0-win2k3dataBACKUP


 может вы имели ввиду в конце:
 /usr/bin/yes | /sbin/lvremove /dev/vg0/win2k3dataBACKUP
 или без разницы?..
Без разницы.


-- 
Best regards,
Mikhail.
-
XMPP: ant...@stopicq.ru
WWW: http://www.antmix.pp.ru/



signature.asc
Description: OpenPGP digital signature


Re: Производительность KVM на LVM

2012-03-01 Пенетрантность Dmitry A. Zhiglov
1 марта 2012 г. 22:10 пользователь Mikhail A Antonov b...@solarnet.ru написал:
 Ну и таром его.

 Диск винды?  С виндовыми правами?  Таром?

 Да. Мне потом из него будет важнее выцепить сами данные, а права я и сам
 руками после восстановления выставлю. У меня там не много и _мне_ эта
 схема подходит. Я понимаю что если у меня там будет стопицот
 пользователей и хитро накрученные права - там эта схема не подойдёт.
 Сейчас же всё это используется ввиде ой, мы случайно на сетевой шаре
 прибили/испортили файлик. Восстанови а? и планировалось что это будет
 использоваться при поломках железа вплоть до полного сгорания серверной
 потому что далее этот самый тар пишется на nas, который стоит в соседнем
 здании. В моём случае винду со всем софтом (оофис, фф, 1С) дешевле
 выйдет поставить заново, чем снимать образ и где-то его хранить. Там и
 так условно полезной информации на ~70гб в пожатом виде.

Видится противоречие и бесполезность создания полного образа в вашем случае.
Похоже будет проще остановить сервисы, а затем скопировать важные
данные в надежное место.


Re: Производительность KVM на LVM

2012-02-29 Пенетрантность Alexander
1) Если виртуалка использует lvm-том целиком, то что тогда бэкапить?.. не 
совсем понятно. Это ж получается как отдельный физический жесткий диск, а не 
файловая система, которую примонтировать можно. К тому же мне именно бэкап 
системы целиком и нужен - типо акрониса. Данные (1с и файлопомойка) бэкапятся 
изнутри виртуалок другими средствами.
2) Грубо говоря, я хочу бэкапить windows-систему целиком с определенной 
периодичностью, пускай даже руками - например по выходным и иметь хотя бы штуки 
4 бэкапов (т.е. за последний месяц) - я так понимаю мне нужно тупо делать 
следующее: останавливать виртуалку, делать снапшот (какого размера?), включать 
виртуалку. Когда я через месяц сделаю 5й снапшот, то самый старый необходимо 
удалить и так далее. Правильно я понимаю?..
3) Откат как делать то потом?
4) на XGU написано, что если снять снапшот, то скорость работы тома сильно 
падает. А если снять 4 снапшота, то я так понимаю вообще все плохо или как?
5) Про btrfs спросил на всякий случай, мало ли) Просто люблю zfs - там со 
снапшотами как то попроще, да и вообще. Но вот с виртуализацией у фрибсд беда((

29.02.2012, 09:12, Stanislav Vlasov stanislav@gmail.com:
 28 февраля 2012 г. 23:09 пользователь Alexander ag...@yandex.ru написал:

  1) какую посоветуете оптимальную стратегию бэкапов системы целиком при 
 использовании под каждую kvm-виртуалку отдельного lvm-тома, расположенного 
 на raid10 (программного через md). Допустим, рейд состоит из 4х 
 терабайтников, итого 2 тб реального пространства, из них первые 100гб под 
 дебиан-гипервизор, а остальное пространство отдано под группу томов lvm и 
 каждая виртуалка есть 100-300гб lvm-том, свободно осталось около 300гб. 
 Виртуалки windows 2008-2008r2 и centos. Я так понимаю надо юзать 
 lvm-снапшоты - но вопрос в том как - с какой периодичностью и какого 
 размера, стоит ли этот процесс автоматизировать и т.п. Хотелось бы услышать 
 реальные советы из практики, какие есть нюансы, на что обратить внимание и 
 как делать точно не стоит :)

 Из практики - лучше всего выключить виртуалки, сделать снапшот,
 включить виртуалки, начать бекапить.
 Политика бекапирования - по потребности. Размер - зависит от того,
 сколько виртуалки пишут на диск.
 У меня на виртуалках в пару сотен гиг делался снапшот в 10Гб.

  2) использует ли кто-либо в продакшене виртуалки kvm на btrfs?

 Здесь надо спрашивать, использует ли кто-либо btrfs не на
 тестовых/десктопных хостах.

 --
 Stanislav


-- 
To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
with a subject of unsubscribe. Trouble? Contact listmas...@lists.debian.org
Archive: http://lists.debian.org/731881330536...@web27.yandex.ru



Re: Производительность KVM на LVM

2012-02-29 Пенетрантность Stanislav Vlasov
29.02.12, Alexanderag...@yandex.ru написал(а):

Великая просьба - пишите ответ внизу, а не вверху, если не получается
написать вопросы именно под той строкой, к которой вопросы. Мы ж не
менеджеры какие :-)

 1) Если виртуалка использует lvm-том целиком, то что тогда бэкапить?.. не
 совсем понятно. Это ж получается как отдельный физический жесткий диск, а не
 файловая система, которую примонтировать можно. К тому же мне именно бэкап
 системы целиком и нужен - типо акрониса. Данные (1с и файлопомойка)
 бэкапятся изнутри виртуалок другими средствами.

Делать снапшот и потом копировать.
dd if=/dev/VG/LVM-snap of=/mnt/backup/virt-`date +%F`.img
Остальные опции по вкусу.

 2) Грубо говоря, я хочу бэкапить windows-систему целиком с определенной
 периодичностью, пускай даже руками - например по выходным и иметь хотя бы
 штуки 4 бэкапов (т.е. за последний месяц) - я так понимаю мне нужно тупо
 делать следующее: останавливать виртуалку, делать снапшот (какого размера?),
 включать виртуалку. Когда я через месяц сделаю 5й снапшот, то самый старый
 необходимо удалить и так далее. Правильно я понимаю?..

Размер снапшота зависит от того, сколько данных понапишет виртуалка,
пока ты его копируешь. Но бекапы так не делаются, ибо при накрывании
системы медным тазом фиг чего восстановишь обычно. Бекапы делаются
через копирование снапшота в другое место.

 3) Откат как делать то потом?

Остановить виртуалку и записать в lvm-том старое содержимое
практически также, как копировал его.

 4) на XGU написано, что если снять снапшот, то скорость работы тома сильно
 падает. А если снять 4 снапшота, то я так понимаю вообще все плохо или как?

Во-первых, для _бекапов_ достаточно одного снапшота на время бекапа.
Во-вторых, как-то проверял - скорость при одном снапшоте и при
нескольких одинакова.

 5) Про btrfs спросил на всякий случай, мало ли) Просто люблю zfs - там со
 снапшотами как то попроще, да и вообще. Но вот с виртуализацией у фрибсд
 беда((

Есть такое дело... Можно попробовать zfs через fuse, но тут тоже хз чего и как.

 29.02.2012, 09:12, Stanislav Vlasov stanislav@gmail.com:
 28 февраля 2012 г. 23:09 пользователь Alexander ag...@yandex.ru написал:

  1) какую посоветуете оптимальную стратегию бэкапов системы целиком при
 использовании под каждую kvm-виртуалку отдельного lvm-тома,
 расположенного на raid10 (программного через md). Допустим, рейд состоит
 из 4х терабайтников, итого 2 тб реального пространства, из них первые
 100гб под дебиан-гипервизор, а остальное пространство отдано под группу
 томов lvm и каждая виртуалка есть 100-300гб lvm-том, свободно осталось
 около 300гб. Виртуалки windows 2008-2008r2 и centos. Я так понимаю надо
 юзать lvm-снапшоты - но вопрос в том как - с какой периодичностью и
 какого размера, стоит ли этот процесс автоматизировать и т.п. Хотелось бы
 услышать реальные советы из практики, какие есть нюансы, на что обратить
 внимание и как делать точно не стоит :)

 Из практики - лучше всего выключить виртуалки, сделать снапшот,
 включить виртуалки, начать бекапить.
 Политика бекапирования - по потребности. Размер - зависит от того,
 сколько виртуалки пишут на диск.
 У меня на виртуалках в пару сотен гиг делался снапшот в 10Гб.

  2) использует ли кто-либо в продакшене виртуалки kvm на btrfs?

 Здесь надо спрашивать, использует ли кто-либо btrfs не на
 тестовых/десктопных хостах.

 --
 Stanislav


 --
 To UNSUBSCRIBE, email to debian-russian-requ...@lists.debian.org
 with a subject of unsubscribe. Trouble? Contact
 listmas...@lists.debian.org
 Archive: http://lists.debian.org/731881330536...@web27.yandex.ru




-- 
Stanislav


  1   2   3   4   >