Здравейте,

покрай една лекция на Мариан Маринов свързана с курса по Линукс
администрация в Телерик и твърдението му, че софтуерен RAID и LVM много
понижават performance стигах до извода, че съм направил нещо подобно
вкъщи... седнах малко, поразмислих и се сетих, че LVM също поддържа
mirroring на logical volume (при AIX това може да се прави с цяла volume
group) ... и реших да тествам.

Инсталирах си един CEntOS 6.4, добавих му 2 диска по 16GB и на първия
направих статични дялове без LVM, за boot и /, след това остана един дял
10GB който направих LVM physical device и на него създадох една LVM volume
group..
Направих и един partition на 2-рия диск, направих го LVM physical device и
реално групата се намира на двата диска. Така пуснах инсталатора - щото аз
не видях от къде може до като инсталираш CentoS да си направиш mirror-нат
logical volume.

Инсталирах OS-a и създадох дяла, всичко беше окей, реших да откача единия
диск (не системния) и да пробвам да съживя логическия дял.. уви без успех.

Вероятно имам генерална грешка с концепцията, но затова съм тук :0 да се
уча.

[root@centos ~]# lvchange -a y /dev/vg_centos/testlv
  Couldn't find device with uuid Wf1X3v-h1u5-2Wgt-QKs8-ZBNs-w4aY-N7Fo2Y.
  Refusing activation of partial LV testlv. Use --partial to override.
[root@centos ~]# lvchange -a y --partial /dev/vg_centos/testlv
  PARTIAL MODE. Incomplete logical volumes will be processed.
  Couldn't find device with uuid Wf1X3v-h1u5-2Wgt-QKs8-ZBNs-w4aY-N7Fo2Y.
^C
^C^C
^C^C
.... няма спиране :-)

А в sysloga:

Aug  2 09:43:04 centos kernel: device-mapper: raid1: Write error during
recovery (error = 0x1)
Aug  2 09:43:04 centos kernel: device-mapper: raid1: Write error during
recovery (error = 0x1)
Aug  2 09:45:12 centos kernel: INFO: task lvchange:1274 blocked for more
than 120 seconds.
Aug  2 09:45:12 centos kernel: "echo 0 >
/proc/sys/kernel/hung_task_timeout_secs" disables this message.
Aug  2 09:45:12 centos kernel: lvchange      D 0000000000000000     0
1274   1253 0x00000080
Aug  2 09:45:12 centos kernel: ffff880037cb1b68 0000000000000086
ffff880037cb1b88 ffffffffa000a01a
Aug  2 09:45:12 centos kernel: ffff880037cb1ad8 ffffffffa0009bf0
ffffffffa0009b60 00000000810a1aa9
Aug  2 09:45:12 centos kernel: ffff880037ae2638 ffff880037cb1fd8
000000000000fb88 ffff880037ae2638
Aug  2 09:45:12 centos kernel: Call Trace:
Aug  2 09:45:12 centos kernel: [<ffffffffa000a01a>] ?
dispatch_io+0x28a/0x2c0 [dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffffa0009bf0>] ? vm_get_page+0x0/0x70
[dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffffa0009b60>] ? vm_next_page+0x0/0x30
[dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffff810a1aa9>] ? ktime_get_ts+0xa9/0xe0
Aug  2 09:45:12 centos kernel: [<ffffffff8150de73>] io_schedule+0x73/0xc0
Aug  2 09:45:12 centos kernel: [<ffffffffa000a0e5>] sync_io+0x95/0x110
[dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffffa000a387>] dm_io+0x1b7/0x1c0
[dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffffa0009bf0>] ? vm_get_page+0x0/0x70
[dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffffa0009b60>] ? vm_next_page+0x0/0x30
[dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffffa001fa50>] disk_resume+0x190/0x310
[dm_log]
Aug  2 09:45:12 centos kernel: [<ffffffffa002d456>] mirror_resume+0x36/0x60
[dm_mirror]
Aug  2 09:45:12 centos kernel: [<ffffffffa00041f2>]
dm_table_resume_targets+0x82/0xa0 [dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffffa000260d>] dm_resume+0x9d/0xf0
[dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffffa0008c3c>] dev_suspend+0x1bc/0x250
[dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffffa00099d4>] ctl_ioctl+0x1b4/0x270
[dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffffa0008a80>] ? dev_suspend+0x0/0x250
[dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffffa0009aa3>] dm_ctl_ioctl+0x13/0x20
[dm_mod]
Aug  2 09:45:12 centos kernel: [<ffffffff81194ed2>] vfs_ioctl+0x22/0xa0
Aug  2 09:45:12 centos kernel: [<ffffffff81195074>] do_vfs_ioctl+0x84/0x580
Aug  2 09:45:12 centos kernel: [<ffffffff811955f1>] sys_ioctl+0x81/0xa0
Aug  2 09:45:12 centos kernel: [<ffffffff810dc565>] ?
__audit_syscall_exit+0x265/0x290
_______________________________________________
Lug-bg mailing list
Lug-bg@linux-bulgaria.org
http://linux-bulgaria.org/mailman/listinfo/lug-bg

Reply via email to