ALT Linux sysadmins discussion
 help / color / mirror / Atom feed
* [Sysadmins] [полтергейст] изучаю soft RAID/LVM, или миграция 5 -> 10
@ 2011-04-15  6:58 Sergey
  2011-04-15  7:59 ` Michael Shigorin
  2011-04-15  9:33 ` Sergey
  0 siblings, 2 replies; 11+ messages in thread
From: Sergey @ 2011-04-15  6:58 UTC (permalink / raw)
  To: Sysadmins mailing list

Приветствую.

Ввиду тормознутости software raid5, в коей я таки уверился лично ( ;-) ),
решил мигрировать на raid10 попробовать.

На freenode/#altlinux дали интересный совет с миграцией через дополнительный
pv. Данных не много, все lv вполне умещались на четвёртый hdd. Создал pv на
этом hdd, сделал pvmove... Вот тут возникла первая проблема. pvmove решил
попробовать сделать, не снимая нагрузки (всё тот же collectd), по большей
части в качестве эксперимента. Эксперимент показал, что так делать не надо,
так как LA взлетел до значения, которое я увидеть уже не смог: пришлось 
решать вопрос reset-ом. И вот тут сервер не загрузился. Нормальная загрузка
происходила так:

[    2.328880]  sdb: sdb1 sdb2 sdb3
[    2.329361] sd 1:0:0:0: [sdb] Attached SCSI disk
[    2.335849]  sdc: sdc1 sdc2 sdc3
[    2.336325] sd 2:0:0:0: [sdc] Attached SCSI disk
[    2.552317] md: Autodetecting RAID arrays.
[    2.552925] md: Scanned 3 and added 3 devices.
[    2.553039] md: autorun ...
[    2.553148] md: considering sdc3 ...

То есть, после цепляния sata-дисков запускался md. После reset во время работы
pvmove стало так:

[   18.543156]  sda: sda1 sda2 sda3
[   18.582260] sd 0:0:0:0: [sda] Attached SCSI disk
initrd: udev: Running lvm handler ...
  Couldn't find device with uuid 0B3Z3r-QeBp-Dve4-FFHE-9cGI-49P8-lXbLPF.
  Couldn't find device with uuid 0B3Z3r-QeBp-Dve4-FFHE-9cGI-49P8-lXbLPF.
  Refusing activation of partial LV root. Use --partial to override.
  Refusing activation of partial LV home. Use --partial to override.

md грузиться не пытался вообще. Сейчас обратил внимание на разные 
временные метки, видимо, это последствия включения вывода через serial
console.

При этом, из rescue (с Server-light 1.1.4) всё собиралось и монтировалось
без ошибок посредством mdadm --assemble /dev/md0 /dev/sd[abc]3
LVM, после этого, тоже поднимался нормально через vgchange -ay
Проблему так и не нашёл, ушел домой, подняв сеть. За вечер закончил
миграцию RAID5 -> RAID10, вот тут, может быть, не стоило торопиться
и делать при личном присутствии, проверяя возможность загрузки, ну уж
как вышло. С RAID10 загрузка в момент подключения дисков выглядит
иначе - md пытается собрать raid (initrd пересобран, raid10 там есть):

[   18.377916] sd 3:0:0:0: [sdd] Attached SCSI disk
[   18.670629]  sda: sda1 sda2 sda3
[   18.709564] sd 0:0:0:0: [sda] Attached SCSI disk
initrd: udev: Running md_run handler ...
[   18.950296] md: Autodetecting RAID arrays.
[   19.015096] md: invalid raid superblock magic on sdd3
[   19.092121] md: sdd3 does not have a valid v0.90 superblock, not importing!
[   19.186208] md: invalid raid superblock magic on sdc3
[   19.246684] md: sdc3 does not have a valid v0.90 superblock, not importing!
[   19.330331] md: invalid raid superblock magic on sdb3
[   19.390858] md: sdb3 does not have a valid v0.90 superblock, not importing!
[   19.474393] md: invalid raid superblock magic on sda3
[   19.534820] md: sda3 does not have a valid v0.90 superblock, not importing!
[   19.618078] md: Scanned 4 and added 0 devices.
[   19.671401] md: autorun ...DONE.

Из rescue, по-прежнему, всё собирается без ошибок. Вопрос: что ему
не нравится в суперблоке ? Если тот reset вчерашний что-то повредил,
ну так raid-то пересоздан, данные должны были обновиться... И почему
mdadm --assemble /dev/md0 /dev/sd[abcd]3 собирает массив без ругани ?

Сообщение про mdadm-3.2.1 видел, вот тоже думаю, уже поставить, или
пробовать пока решить проблему со старым mdadm...

-- 
С уважением, Сергей
a_s_y@sama.ru


^ permalink raw reply	[flat|nested] 11+ messages in thread

end of thread, other threads:[~2011-04-15 20:09 UTC | newest]

Thread overview: 11+ messages (download: mbox.gz / follow: Atom feed)
-- links below jump to the message on this page --
2011-04-15  6:58 [Sysadmins] [полтергейст] изучаю soft RAID/LVM, или миграция 5 -> 10 Sergey
2011-04-15  7:59 ` Michael Shigorin
2011-04-15  8:54   ` Sergey
2011-04-15 10:30     ` Michael Shigorin
2011-04-15 11:20       ` Sergey
2011-04-15 12:28         ` Sergey
2011-04-15 13:19           ` [Sysadmins] [полтергейст] изучаю soft =?utf-8?b?IFJBSUQvTFZN?=, " Alex Moskalenko
2011-04-15 13:55             ` Sergey
2011-04-15 19:09         ` [Sysadmins] [полтергейст] изучаю soft RAID/LVM, " Michael Shigorin
2011-04-15 20:09           ` Sergey
2011-04-15  9:33 ` Sergey

ALT Linux sysadmins discussion

This inbox may be cloned and mirrored by anyone:

	git clone --mirror http://lore.altlinux.org/sysadmins/0 sysadmins/git/0.git

	# If you have public-inbox 1.1+ installed, you may
	# initialize and index your mirror using the following commands:
	public-inbox-init -V2 sysadmins sysadmins/ http://lore.altlinux.org/sysadmins \
		sysadmins@lists.altlinux.org sysadmins@lists.altlinux.ru sysadmins@lists.altlinux.com
	public-inbox-index sysadmins

Example config snippet for mirrors.
Newsgroup available over NNTP:
	nntp://lore.altlinux.org/org.altlinux.lists.sysadmins


AGPL code for this site: git clone https://public-inbox.org/public-inbox.git