* [Sysadmins] Собрать raid после сбоя и перезагрузки @ 2008-10-24 8:33 Денис Ягофаров 2008-10-24 8:51 ` Денис Ягофаров 2008-10-24 10:16 ` Alexey Shabalin 0 siblings, 2 replies; 18+ messages in thread From: Денис Ягофаров @ 2008-10-24 8:33 UTC (permalink / raw) To: ALT Linux sysadmin discuss [-- Attachment #1: Type: text/plain, Size: 1029 bytes --] Доброго времени суток. Создал raid массив: mdadm --create /dev/md0 --level=10 --name=test10 --raid-devices=4 /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 Потом один из дисков (тестово) полетел... mdadm --manage /dev/md0 --fail /dev/sdb1 Добавил другой вместо него (вынутый-вставленный "полетевший"): mdadm --manage /dev/md0 --add /dev/sde1 Массив перестроился. После этого перезагрузился. Устройство /dev/md0 есть, массива нет. # chkconfig --list | grep mdadm mdadm 0:off 1:off 2:off 3:off 4:off 5:off 6:off Собираю руками: # mdadm --assemble /dev/md0 --scan mdadm: no devices found for /dev/md0 В конфиге: DEVICE /dev/sd[a-d]1 ARRAY /dev/md0 level=10 num-devices=4 UUID=4aa4c1e1:a3e5:464c:8305:a2be835250b6 MAILADDR root PROGRAM /sbin/mdadm-syslog-events Как мне собрать массив? [-- Attachment #2: denyago.vcf --] [-- Type: text/x-vcard, Size: 281 bytes --] begin:vcard fn:Denis Timurovich Yagofarov n:Yagofarov;Denis Timurovich org:ITGIS NASU adr:room 615;;Chokolovski blvdr., 13;Kiev;;03151;Ukraine email;internet:denyago@rambler.ru title:system administrator tel;work:80442480755 x-mozilla-html:FALSE version:2.1 end:vcard ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-24 8:33 [Sysadmins] Собрать raid после сбоя и перезагрузки Денис Ягофаров @ 2008-10-24 8:51 ` Денис Ягофаров 2008-10-24 10:16 ` Alexey Shabalin 1 sibling, 0 replies; 18+ messages in thread From: Денис Ягофаров @ 2008-10-24 8:51 UTC (permalink / raw) To: ALT Linux sysadmin discuss [-- Attachment #1: Type: text/plain, Size: 357 bytes --] Всё, что есть в логах: Oct 24 11:23:42 localhost kernel: md: md driver 0.90.3 MAX_MD_DEVS=256, MD_SB_DISKS=27 Oct 24 11:23:42 localhost kernel: md: bitmap version 4.39 ... Oct 24 11:23:44 localhost kernel: device-mapper: ioctl: 4.7.0-ioctl (2006-06-24) initialised: dm-devel@redhat.com Oct 24 11:23:44 localhost kernel: md: md0 stopped. [-- Attachment #2: denyago.vcf --] [-- Type: text/x-vcard, Size: 281 bytes --] begin:vcard fn:Denis Timurovich Yagofarov n:Yagofarov;Denis Timurovich org:ITGIS NASU adr:room 615;;Chokolovski blvdr., 13;Kiev;;03151;Ukraine email;internet:denyago@rambler.ru title:system administrator tel;work:80442480755 x-mozilla-html:FALSE version:2.1 end:vcard ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-24 8:33 [Sysadmins] Собрать raid после сбоя и перезагрузки Денис Ягофаров 2008-10-24 8:51 ` Денис Ягофаров @ 2008-10-24 10:16 ` Alexey Shabalin 2008-10-24 10:56 ` Денис Ягофаров 1 sibling, 1 reply; 18+ messages in thread From: Alexey Shabalin @ 2008-10-24 10:16 UTC (permalink / raw) To: ALT Linux sysadmin discuss 24 октября 2008 г. 12:33 пользователь Денис Ягофаров написал: > Доброго времени суток. > > Создал raid массив: > mdadm --create /dev/md0 --level=10 --name=test10 --raid-devices=4 > /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 > > Потом один из дисков (тестово) полетел... > mdadm --manage /dev/md0 --fail /dev/sdb1 > > Добавил другой вместо него (вынутый-вставленный "полетевший"): > mdadm --manage /dev/md0 --add /dev/sde1 > > Массив перестроился. > > После этого перезагрузился. Устройство /dev/md0 есть, массива нет. > # chkconfig --list | grep mdadm > mdadm 0:off 1:off 2:off 3:off 4:off 5:off 6:off > > Собираю руками: > # mdadm --assemble /dev/md0 --scan > mdadm: no devices found for /dev/md0 > > В конфиге: > DEVICE /dev/sd[a-d]1 может ошибаюсь, но Вы же добавили диск sde. А в конфиг он не попадает. > ARRAY /dev/md0 level=10 num-devices=4 > UUID=4aa4c1e1:a3e5:464c:8305:a2be835250b6 > MAILADDR root > PROGRAM /sbin/mdadm-syslog-events > > Как мне собрать массив? -- Alexey Shabalin ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-24 10:16 ` Alexey Shabalin @ 2008-10-24 10:56 ` Денис Ягофаров 2008-10-24 14:15 ` Денис Ягофаров 2008-10-25 16:53 ` Konstantin A. Lepikhov 0 siblings, 2 replies; 18+ messages in thread From: Денис Ягофаров @ 2008-10-24 10:56 UTC (permalink / raw) To: shaba, ALT Linux sysadmin discuss [-- Attachment #1: Type: text/plain, Size: 1630 bytes --] Alexey Shabalin пишет: > 24 октября 2008 г. 12:33 пользователь Денис Ягофаров написал: > >> Доброго времени суток. >> >> Создал raid массив: >> mdadm --create /dev/md0 --level=10 --name=test10 --raid-devices=4 >> /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 >> >> Добавил другой вместо него (вынутый-вставленный "полетевший"): >> mdadm --manage /dev/md0 --add /dev/sde1 >> >> Собираю руками: >> # mdadm --assemble /dev/md0 --scan >> mdadm: no devices found for /dev/md0 >> >> В конфиге: >> DEVICE /dev/sd[a-d]1 >> > может ошибаюсь, но Вы же добавили диск sde. А в конфиг он не попадает. > sde стал после перезагрузки sdb.... (т.к. полетел sdb, его "вытащили", затем "вставили" новый, он стал sde) пробую так: # mdadm --assemble /dev/md0 --run -v mdadm: looking for devices for /dev/md0 mdadm: /dev/sdd1 has wrong uuid. mdadm: /dev/sdc1 has wrong uuid. mdadm: /dev/sdb1 has wrong uuid. mdadm: /dev/sda1 has wrong uuid. mdadm: no devices found for /dev/md0 # blkid /dev/sda1: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" TYPE="ext3" /dev/hda1: UUID="7deb64be-1be5-49dc-9e0f-4ac9381173f2" SEC_TYPE="ext2" TYPE="ext3" /dev/sdc1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid" /dev/sdd1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid" /dev/sdb1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid" в конфиге: DEVICE /dev/sd[a-d]1 ARRAY /dev/md0 UUID=4aa4c1e1:a3e5:464c:8305:a2be835250b6 MAILADDR root PROGRAM /sbin/mdadm-syslog-events П.С. А как бы я собирал массив из дисков на сервере В, если на сервере А полетел контроллер и на В они (диски) опознались по другим именам? [-- Attachment #2: denyago.vcf --] [-- Type: text/x-vcard, Size: 269 bytes --] begin:vcard fn:Denis Timurovich Yagofarov n:Yagofarov;Denis Timurovich org:ITGIS NASU adr:room 615;;Chokolovski blvdr., 13;Kiev;;03151;Ukraine email;internet:denyago@rambler.ru title:system administrator tel;work:80442480755 x-mozilla-html:FALSE version:2.1 end:vcard ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-24 10:56 ` Денис Ягофаров @ 2008-10-24 14:15 ` Денис Ягофаров 2008-10-25 16:53 ` Konstantin A. Lepikhov 1 sibling, 0 replies; 18+ messages in thread From: Денис Ягофаров @ 2008-10-24 14:15 UTC (permalink / raw) To: ALT Linux sysadmin discuss [-- Attachment #1: Type: text/plain, Size: 1813 bytes --] Денис Ягофаров пишет: > Alexey Shabalin пишет: >> 24 октября 2008 г. 12:33 пользователь Денис Ягофаров написал: >> >>> Доброго времени суток. >>> >>> Создал raid массив: >>> mdadm --create /dev/md0 --level=10 --name=test10 --raid-devices=4 >>> /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1 >>> >>> Добавил другой вместо него (вынутый-вставленный "полетевший"): >>> mdadm --manage /dev/md0 --add /dev/sde1 >>> >>> Собираю руками: >>> # mdadm --assemble /dev/md0 --scan >>> mdadm: no devices found for /dev/md0 >>> >>> В конфиге: >>> DEVICE /dev/sd[a-d]1 >>> >> может ошибаюсь, но Вы же добавили диск sde. А в конфиг он не попадает. >> > sde стал после перезагрузки sdb.... (т.к. полетел sdb, его "вытащили", > затем "вставили" новый, он стал sde) > > пробую так: > # mdadm --assemble /dev/md0 --run -v > mdadm: looking for devices for /dev/md0 > mdadm: /dev/sdd1 has wrong uuid. > mdadm: /dev/sdc1 has wrong uuid. > mdadm: /dev/sdb1 has wrong uuid. > mdadm: /dev/sda1 has wrong uuid. > mdadm: no devices found for /dev/md0 > > # blkid > /dev/sda1: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" > TYPE="ext3" > /dev/hda1: UUID="7deb64be-1be5-49dc-9e0f-4ac9381173f2" SEC_TYPE="ext2" > TYPE="ext3" > /dev/sdc1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid" > /dev/sdd1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid" > /dev/sdb1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid" > > в конфиге: > DEVICE /dev/sd[a-d]1 > ARRAY /dev/md0 UUID=4aa4c1e1:a3e5:464c:8305:a2be835250b6 > MAILADDR root > PROGRAM /sbin/mdadm-syslog-events > > П.С. А как бы я собирал массив из дисков на сервере В, если на сервере > А полетел контроллер и на В они (диски) опознались по другим именам? смог запустить mdadm -A /dev/md0 /dev/sd[a-d]1 но что ему в конфигурации не нравится? [-- Attachment #2: denyago.vcf --] [-- Type: text/x-vcard, Size: 269 bytes --] begin:vcard fn:Denis Timurovich Yagofarov n:Yagofarov;Denis Timurovich org:ITGIS NASU adr:room 615;;Chokolovski blvdr., 13;Kiev;;03151;Ukraine email;internet:denyago@rambler.ru title:system administrator tel;work:80442480755 x-mozilla-html:FALSE version:2.1 end:vcard ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-24 10:56 ` Денис Ягофаров 2008-10-24 14:15 ` Денис Ягофаров @ 2008-10-25 16:53 ` Konstantin A. Lepikhov 2008-10-25 20:35 ` Maks Re 2008-10-29 11:20 ` Sergey Vlasov 1 sibling, 2 replies; 18+ messages in thread From: Konstantin A. Lepikhov @ 2008-10-25 16:53 UTC (permalink / raw) To: ALT Linux sysadmin discuss Hi Денис! Friday 24, at 01:56:58 PM you wrote: <skip> > sde стал после перезагрузки sdb.... (т.к. полетел sdb, его "вытащили", > затем "вставили" новый, он стал sde) > > пробую так: > # mdadm --assemble /dev/md0 --run -v > mdadm: looking for devices for /dev/md0 > mdadm: /dev/sdd1 has wrong uuid. > mdadm: /dev/sdc1 has wrong uuid. > mdadm: /dev/sdb1 has wrong uuid. > mdadm: /dev/sda1 has wrong uuid. > mdadm: no devices found for /dev/md0 > > # blkid > /dev/sda1: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" > TYPE="ext3" > /dev/hda1: UUID="7deb64be-1be5-49dc-9e0f-4ac9381173f2" SEC_TYPE="ext2" > TYPE="ext3" > /dev/sdc1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid" > /dev/sdd1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid" > /dev/sdb1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid" > > в конфиге: > DEVICE /dev/sd[a-d]1 > ARRAY /dev/md0 UUID=4aa4c1e1:a3e5:464c:8305:a2be835250b6 > MAILADDR root > PROGRAM /sbin/mdadm-syslog-events После замены диска mdadm перестроил массив, изменив при этом его uuid, чтобы нельзя было добавить не то диск. А в конфиге у вас указан масссив со старыми uuid'ами. Собственно, не совсем понятно, чем вы удивлены и на какое поведение вы расчитываете. > > П.С. А как бы я собирал массив из дисков на сервере В, если на сервере А > полетел контроллер и на В они (диски) опознались по другим именам? что значит "опознались по другим именам"? -- WBR et al. ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-25 16:53 ` Konstantin A. Lepikhov @ 2008-10-25 20:35 ` Maks Re 2008-10-26 9:22 ` Ivan Fedorov 2008-10-29 11:20 ` Sergey Vlasov 1 sibling, 1 reply; 18+ messages in thread From: Maks Re @ 2008-10-25 20:35 UTC (permalink / raw) To: ALT Linux sysadmin discuss > После замены диска mdadm перестроил массив, изменив при этом его uuid, > чтобы нельзя было добавить не то диск. А в конфиге у вас указан масссив со > старыми uuid'ами. Собственно, не совсем понятно, чем вы удивлены и на > какое поведение вы расчитываете. непонятно вот что почему, при добавлении диска взамен неисправного, перестроился массив? массив надо-то восстановить, путем добавления диска взамен неисправного, и след-но у него должен сохраниться старый uuid, который и прописан в fstab. вот если мы сами перестроили массив, с потерей всей информации, тогда понятно появление нового uuid... -- С уважением, Макс. ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-25 20:35 ` Maks Re @ 2008-10-26 9:22 ` Ivan Fedorov 2008-10-26 22:38 ` Aleksey Avdeev 0 siblings, 1 reply; 18+ messages in thread From: Ivan Fedorov @ 2008-10-26 9:22 UTC (permalink / raw) To: sysadmins [-- Attachment #1: Type: text/plain, Size: 1427 bytes --] "Maks Re" <admaks-Re5JQEeQqe8AvxtiuMwx3w@public.gmane.org> writes: >> После замены диска mdadm перестроил массив, изменив при этом его uuid, >> чтобы нельзя было добавить не то диск. А в конфиге у вас указан масссив со >> старыми uuid'ами. Собственно, не совсем понятно, чем вы удивлены и на >> какое поведение вы расчитываете. > > непонятно вот что > почему, при добавлении диска взамен неисправного, перестроился массив? > массив надо-то восстановить, путем добавления диска взамен > неисправного, и след-но у него должен сохраниться старый uuid, который > и прописан в fstab. Нет, иначе массив при следующей загрузке будет пытаться собиратся с "битым" диском. > вот если мы сами перестроили массив, с потерей всей информации, тогда > понятно появление нового uuid... UUID должен меняться при любом изменении конфигурации массива. [-- Attachment #2: Type: application/pgp-signature, Size: 196 bytes --] ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-26 9:22 ` Ivan Fedorov @ 2008-10-26 22:38 ` Aleksey Avdeev 2008-10-27 8:22 ` Yuri Bushmelev 2008-10-27 12:18 ` Ivan Fedorov 0 siblings, 2 replies; 18+ messages in thread From: Aleksey Avdeev @ 2008-10-26 22:38 UTC (permalink / raw) To: ALT Linux sysadmin discuss [-- Attachment #1: Type: text/plain, Size: 2189 bytes --] Ivan Fedorov пишет: > "Maks Re" <admaks-Re5JQEeQqe8AvxtiuMwx3w@public.gmane.org> writes: > >>> После замены диска mdadm перестроил массив, изменив при этом его uuid, >>> чтобы нельзя было добавить не то диск. А в конфиге у вас указан масссив со >>> старыми uuid'ами. Собственно, не совсем понятно, чем вы удивлены и на >>> какое поведение вы расчитываете. >> непонятно вот что >> почему, при добавлении диска взамен неисправного, перестроился массив? >> массив надо-то восстановить, путем добавления диска взамен >> неисправного, и след-но у него должен сохраниться старый uuid, который >> и прописан в fstab. > Нет, иначе массив при следующей загрузке будет пытаться собиратся с > "битым" диском. > >> вот если мы сами перестроили массив, с потерей всей информации, тогда >> понятно появление нового uuid... > UUID должен меняться при любом изменении конфигурации массива. Это не очевидно. По крайней мере для меня... Переход с имён устройств на их UUID`ы для меня был замотивирован тем, что UUID в отличии от имён вещь постоянная, в частности не меняется -- при переездах с LVM на EVMS и обратно и/или смене физического подключения дисков. Теперь оказывается что UUID тоже вещь не постоянная, и он будет изменён при замене диска в массиве... -- С уважением. Алексей. [-- Attachment #2: OpenPGP digital signature --] [-- Type: application/pgp-signature, Size: 552 bytes --] ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-26 22:38 ` Aleksey Avdeev @ 2008-10-27 8:22 ` Yuri Bushmelev 2008-10-27 12:18 ` Ivan Fedorov 1 sibling, 0 replies; 18+ messages in thread From: Yuri Bushmelev @ 2008-10-27 8:22 UTC (permalink / raw) To: ALT Linux sysadmin discuss В сообщении от Понедельник 27 октября 2008 Aleksey Avdeev написал(a): > Ivan Fedorov пишет: > Переход с имён устройств на их UUID`ы для меня был замотивирован тем, > что UUID в отличии от имён вещь постоянная, в частности не меняется -- > при переездах с LVM на EVMS и обратно и/или смене физического > подключения дисков. Теперь оказывается что UUID тоже вещь не постоянная, > и он будет изменён при замене диска в массиве... Можно рассмотреть использование LABEL вместо UUID. -- С уважением, Бушмелев Юрий ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-26 22:38 ` Aleksey Avdeev 2008-10-27 8:22 ` Yuri Bushmelev @ 2008-10-27 12:18 ` Ivan Fedorov 2008-10-27 14:28 ` Aleksey Avdeev 1 sibling, 1 reply; 18+ messages in thread From: Ivan Fedorov @ 2008-10-27 12:18 UTC (permalink / raw) To: sysadmins [-- Attachment #1: Type: text/plain, Size: 2011 bytes --] Aleksey Avdeev <solo-+V32sm3JFRb+YQgHObkolA@public.gmane.org> writes: >>> непонятно вот что почему, при добавлении диска взамен неисправного, >>> перестроился массив? массив надо-то восстановить, путем добавления >>> диска взамен неисправного, и след-но у него должен сохраниться >>> старый uuid, который и прописан в fstab. >> Нет, иначе массив при следующей загрузке будет пытаться собиратся с >> "битым" диском. >> >>> вот если мы сами перестроили массив, с потерей всей информации, тогда >>> понятно появление нового uuid... >> UUID должен меняться при любом изменении конфигурации массива. > > Это не очевидно. По крайней мере для меня... > > Переход с имён устройств на их UUID`ы для меня был замотивирован > тем, что UUID в отличии от имён вещь постоянная, в частности не > меняется при переездах с LVM на EVMS и обратно и/или смене > физического подключения дисков. Теперь оказывается что UUID тоже > вещь не постоянная, и он будет изменён при замене диска в массиве... А ты просто рассматривай эту ситуацию, как вариант полной замены массива, ибо так и есть - у тебя ведь массив теперь уже другой. Это НОВЫЙ массив, на котором просто лежат СТАРЫЕ ДАННЫЕ. [-- Attachment #2: Type: application/pgp-signature, Size: 196 bytes --] ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-27 12:18 ` Ivan Fedorov @ 2008-10-27 14:28 ` Aleksey Avdeev 2008-10-28 10:17 ` Денис Ягофаров 0 siblings, 1 reply; 18+ messages in thread From: Aleksey Avdeev @ 2008-10-27 14:28 UTC (permalink / raw) To: ALT Linux sysadmin discuss [-- Attachment #1: Type: text/plain, Size: 3528 bytes --] Ivan Fedorov пишет: > Aleksey Avdeev <solo-+V32sm3JFRb+YQgHObkolA@public.gmane.org> writes: > >>>> непонятно вот что почему, при добавлении диска взамен неисправного, >>>> перестроился массив? массив надо-то восстановить, путем добавления >>>> диска взамен неисправного, и след-но у него должен сохраниться >>>> старый uuid, который и прописан в fstab. >>> Нет, иначе массив при следующей загрузке будет пытаться собиратся с >>> "битым" диском. >>> >>>> вот если мы сами перестроили массив, с потерей всей информации, тогда >>>> понятно появление нового uuid... >>> UUID должен меняться при любом изменении конфигурации массива. >> Это не очевидно. По крайней мере для меня... >> >> Переход с имён устройств на их UUID`ы для меня был замотивирован >> тем, что UUID в отличии от имён вещь постоянная, в частности не >> меняется при переездах с LVM на EVMS и обратно и/или смене >> физического подключения дисков. Теперь оказывается что UUID тоже >> вещь не постоянная, и он будет изменён при замене диска в массиве... > > А ты просто рассматривай эту ситуацию, как вариант полной замены > массива, ибо так и есть - у тебя ведь массив теперь уже другой. > > Это НОВЫЙ массив, на котором просто лежат СТАРЫЕ ДАННЫЕ. При монтировании из /etc/fstab мне неважно изменился изменился массив или нет (новый он или старый) -- мне важно чтобы данные (ФС, лежащая на данном массиве) были примонтированны в строго определённое место (если они не разрушены, разумеется). Грубо говоря, при загрузке для меня главное взлететь... В каком виде при этом массив -- дело десятое: т. к. пока не взлетишь доступа по ssh нет => ничего нельзя сделать удалённо (как правело)... PS: Не исключено что я зря гоню пургу: Перечитав тред обратил внимание что меняется UUID массива под которым он присутствует в конфиге mdadm... Но меняется ли при этом UUID по которому происходит монтирование? (Другими словами: Меняющийся UUID -- это тот UUID по которому осуществляется монтирование при указании его в /etc/fstab, или какой-то другой?) -- С уважением. Алексей. [-- Attachment #2: OpenPGP digital signature --] [-- Type: application/pgp-signature, Size: 552 bytes --] ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-27 14:28 ` Aleksey Avdeev @ 2008-10-28 10:17 ` Денис Ягофаров 2008-10-28 11:11 ` Aleksey Avdeev 2008-10-29 11:14 ` Sergey Vlasov 0 siblings, 2 replies; 18+ messages in thread From: Денис Ягофаров @ 2008-10-28 10:17 UTC (permalink / raw) To: ALT Linux sysadmin discuss [-- Attachment #1: Type: text/plain, Size: 10971 bytes --] Проведем эксперимент. Устроим "сбой" диска в массиве raid5, и посмотрим с каким UUID массив восстановится. Вот так оно выглядит до сбоя: # blkid /dev/sda1: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" TYPE="ext3" /dev/sdc1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" /dev/sdd1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" /dev/sdb1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" /dev/md0: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" TYPE="ext3" # cat /proc/mdstat Personalities : [raid10] [raid6] [raid5] [raid4] md0 : active raid5 sdd1[3] sdc1[2] sdb1[1] sda1[0] 2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] # mdadm -D /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Fri Oct 24 16:29:15 2008 Raid Level : raid5 Array Size : 2197715712 (2095.91 GiB 2250.46 GB) Used Dev Size : 732571904 (698.64 GiB 750.15 GB) Raid Devices : 4 Total Devices : 4 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Sat Oct 25 07:09:34 2008 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K UUID : 62985eb6:1297d375:923a4cf5:5754a253 Events : 0.2 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1 2 8 33 2 active sync /dev/sdc1 3 8 49 3 active sync /dev/sdd1 Предположим, что 1 из жёстких дисков совсем погиб. При этом он уже ни на что не отвечает. # echo "scsi remove-single-device 2 0 0 0" > /proc/scsi/scsi # ls /dev/sd* /dev/sda /dev/sda1 /dev/sdb /dev/sdb1 /dev/sdd /dev/sdd1 /dev/sde в логах Oct 27 11:37:22 localhost kernel: ata3.00: disabled # mdadm -D /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Fri Oct 24 16:29:15 2008 Raid Level : raid5 Array Size : 2197715712 (2095.91 GiB 2250.46 GB) Used Dev Size : 732571904 (698.64 GiB 750.15 GB) Raid Devices : 4 Total Devices : 4 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Sat Oct 25 07:09:34 2008 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K UUID : 62985eb6:1297d375:923a4cf5:5754a253 Events : 0.2 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1 2 8 33 2 active sync 3 8 49 3 active sync /dev/sdd1 Как ни странно, он ещё не failed. Стоит ли его вручную помечать как failed? # cat /proc/mdstat Personalities : [raid10] [raid6] [raid5] [raid4] md0 : active raid5 sdd1[3] sdc1[2] sdb1[1] sda1[0] 2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] Пробуем отформатировать, к примеру, /dev/md0... впрочем иное действие чтения/записи тоже должно подойти. Personalities : [raid10] [raid6] [raid5] [raid4] md0 : active raid5 sdd1[3] sdc1[4](F) sdb1[1] sda1[0] 2197715712 blocks level 5, 64k chunk, algorithm 2 [4/3] [UU_U] в логах Oct 27 11:40:21 localhost kernel: scsi 2:0:0:0: rejecting I/O to dead device Oct 27 11:40:21 localhost mdmonitor: Fail event on /dev/md0 Oct 27 11:40:21 localhost kernel: scsi 2:0:0:0: rejecting I/O to dead device Oct 27 11:40:21 localhost kernel: scsi 2:0:0:0: rejecting I/O to dead device Oct 27 11:40:21 localhost kernel: raid5: Disk failure on sdc1, disabling device. Operation continuing on 3 devices Oct 27 11:40:21 localhost kernel: RAID5 conf printout: Oct 27 11:40:21 localhost kernel: --- rd:4 wd:3 fd:1 Oct 27 11:40:21 localhost kernel: disk 0, o:1, dev:sda1 Oct 27 11:40:21 localhost kernel: disk 1, o:1, dev:sdb1 Oct 27 11:40:21 localhost kernel: disk 2, o:0, dev:sdc1 Oct 27 11:40:21 localhost kernel: disk 3, o:1, dev:sdd1 Oct 27 11:40:21 localhost kernel: RAID5 conf printout: Oct 27 11:40:21 localhost kernel: --- rd:4 wd:3 fd:1 Oct 27 11:40:21 localhost kernel: disk 0, o:1, dev:sda1 Oct 27 11:40:21 localhost kernel: disk 1, o:1, dev:sdb1 Oct 27 11:40:21 localhost kernel: disk 3, o:1, dev:sdd1 Если, нужно отключить погибший, но ещё крутящийся жёсткий диск, можно ли как-то на него подать сигнал к полному останову и отключению питания? Или обо всём позаботится backplain? Мы "прибежали" с новым жёстким диском. Создали раздел (а может, он уже заранее был создан?) и подключили его... # echo "scsi add-single-device 2 0 0 0" > /proc/scsi/scsi в логах Oct 27 11:42:59 localhost kernel: ata3: soft resetting port Oct 27 11:42:59 localhost kernel: ata3: SATA link up 1.5 Gbps (SStatus 113 SControl 300) Oct 27 11:42:59 localhost kernel: ata3.00: ATA-7, max UDMA/133, 1465149168 sectors: LBA48 NCQ (depth 31/32) Oct 27 11:42:59 localhost kernel: ata3.00: configured for UDMA/133 Oct 27 11:42:59 localhost kernel: ata3: EH complete Oct 27 11:42:59 localhost kernel: Vendor: ATA Model: ST3750640AS Rev: 3.AA Oct 27 11:42:59 localhost kernel: Type: Direct-Access ANSI SCSI revision: 05 Oct 27 11:42:59 localhost kernel: SCSI device sdf: 1465149168 512-byte hdwr sectors (750156 MB) Oct 27 11:42:59 localhost kernel: sdf: Write Protect is off Oct 27 11:42:59 localhost kernel: SCSI device sdf: drive cache: write back Oct 27 11:42:59 localhost kernel: SCSI device sdf: 1465149168 512-byte hdwr sectors (750156 MB) Oct 27 11:42:59 localhost kernel: sdf: Write Protect is off Oct 27 11:42:59 localhost kernel: SCSI device sdf: drive cache: write back Oct 27 11:42:59 localhost kernel: sdf: sdf1 Oct 27 11:42:59 localhost kernel: sd 2:0:0:0: Attached scsi disk sdf Правильно, его нету уже, может, это стоило сделать раньше? # mdadm /dev/md0 --remove /dev/sdc1 mdadm: cannot find /dev/sdc1: No such file or directory Добавляем новый диск... # mdadm /dev/md0 --add /dev/sdf1 mdadm: re-added /dev/sdf1 в логах Oct 27 11:44:30 localhost kernel: md: bind<sdf1> Oct 27 11:44:30 localhost kernel: RAID5 conf printout: Oct 27 11:44:30 localhost kernel: --- rd:4 wd:3 fd:1 Oct 27 11:44:30 localhost kernel: disk 0, o:1, dev:sda1 Oct 27 11:44:30 localhost kernel: disk 1, o:1, dev:sdb1 Oct 27 11:44:30 localhost kernel: disk 2, o:1, dev:sdf1 Oct 27 11:44:30 localhost kernel: disk 3, o:1, dev:sdd1 Oct 27 11:44:30 localhost kernel: md: recovery of RAID array md0 Oct 27 11:44:30 localhost kernel: md: minimum _guaranteed_ speed: 1000 KB/sec/disk. Oct 27 11:44:30 localhost kernel: md: using maximum available idle IO bandwidth (but not more than 200000 KB/sec) for recovery. Oct 27 11:44:30 localhost kernel: md: using 128k window, over a total of 732571904 blocks. Oct 27 11:44:30 localhost mdmonitor: RebuildStarted event on /dev/md0 Ждём 700 минут.... (ок. 12 часов) # cat /proc/mdstat Personalities : [raid10] [raid6] [raid5] [raid4] md0 : active raid5 sdf1[2] sdd1[3] sdc1[4](F) sdb1[1] sda1[0] 2197715712 blocks level 5, 64k chunk, algorithm 2 [4/3] [UU_U] [>....................] recovery = 0.1% (1136640/732571904) finish=717.3min speed=16992K/sec После восстановления: # mdadm -D /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Fri Oct 24 16:29:15 2008 Raid Level : raid5 Array Size : 2197715712 (2095.91 GiB 2250.46 GB) Used Dev Size : 732571904 (698.64 GiB 750.15 GB) Raid Devices : 4 Total Devices : 5 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Mon Oct 27 22:53:14 2008 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 1 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K UUID : 62985eb6:1297d375:923a4cf5:5754a253 Events : 0.8 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1 2 8 81 2 active sync /dev/sdf1 3 8 49 3 active sync /dev/sdd1 4 8 33 - faulty spare Как видим, UUID не поменялся.... добавляем его в конфиг: DEVICE /dev/sd[a,b,c,d]1 ARRAY /dev/md0 UUID=62985eb6:1297d375:923a4cf5:5754a253 MAILADDR root PROGRAM /sbin/mdadm-syslog-events Пробуем перезагрузиться... Как видим, всё восстановилось: # mdadm -D /dev/md0 /dev/md0: Version : 00.90.03 Creation Time : Fri Oct 24 16:29:15 2008 Raid Level : raid5 Array Size : 2197715712 (2095.91 GiB 2250.46 GB) Used Dev Size : 732571904 (698.64 GiB 750.15 GB) Raid Devices : 4 Total Devices : 4 Preferred Minor : 0 Persistence : Superblock is persistent Update Time : Mon Oct 27 22:53:14 2008 State : clean Active Devices : 4 Working Devices : 4 Failed Devices : 0 Spare Devices : 0 Layout : left-symmetric Chunk Size : 64K UUID : 62985eb6:1297d375:923a4cf5:5754a253 Events : 0.8 Number Major Minor RaidDevice State 0 8 1 0 active sync /dev/sda1 1 8 17 1 active sync /dev/sdb1 2 8 33 2 active sync /dev/sdc1 3 8 49 3 active sync /dev/sdd1 # cat /proc/mdstat Personalities : [raid6] [raid5] [raid4] md0 : active raid5 sda1[0] sdd1[3] sdc1[2] sdb1[1] 2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] # blkid /dev/sda1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" /dev/sdd1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" /dev/sdb1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" /dev/sdc1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" /dev/md0: UUID="6201837c-d0db-4e0e-a7ae-d3490c47cc46" SEC_TYPE="ext2" TYPE="ext3" Вывод: Не путайте UUID : 62985eb6:1297d375:923a4cf5:5754a253 из mdadm -D /dev/md0 и /dev/md0: UUID="6201837c-d0db-4e0e-a7ae-d3490c47cc46" SEC_TYPE="ext2" TYPE="ext3" из blkid, как это сделал я. [-- Attachment #2: denyago.vcf --] [-- Type: text/x-vcard, Size: 281 bytes --] begin:vcard fn:Denis Timurovich Yagofarov n:Yagofarov;Denis Timurovich org:ITGIS NASU adr:room 615;;Chokolovski blvdr., 13;Kiev;;03151;Ukraine email;internet:denyago@rambler.ru title:system administrator tel;work:80442480755 x-mozilla-html:FALSE version:2.1 end:vcard ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-28 10:17 ` Денис Ягофаров @ 2008-10-28 11:11 ` Aleksey Avdeev 2008-10-29 11:14 ` Sergey Vlasov 1 sibling, 0 replies; 18+ messages in thread From: Aleksey Avdeev @ 2008-10-28 11:11 UTC (permalink / raw) To: ALT Linux sysadmin discuss [-- Attachment #1: Type: text/plain, Size: 3527 bytes --] Денис Ягофаров пишет: > Проведем эксперимент. Устроим "сбой" диска в массиве raid5, и посмотрим > с каким UUID массив восстановится. > > Вот так оно выглядит до сбоя: > > # blkid > /dev/sda1: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" > TYPE="ext3" > /dev/sdc1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" > /dev/sdd1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" > /dev/sdb1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" > /dev/md0: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ > TYPE="ext3" > > # cat /proc/mdstat > Personalities : [raid10] [raid6] [raid5] [raid4] > md0 : active raid5 sdd1[3] sdc1[2] sdb1[1] sda1[0] > 2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] > > # mdadm -D /dev/md0 > /dev/md0: ... > UUID : 62985eb6:1297d375:923a4cf5:5754a253 ... > > После восстановления: > # mdadm -D /dev/md0 > /dev/md0: ... > UUID : 62985eb6:1297d375:923a4cf5:5754a253 ... > > Как видим, UUID не поменялся.... добавляем его в конфиг: > DEVICE /dev/sd[a,b,c,d]1 > ARRAY /dev/md0 UUID=62985eb6:1297d375:923a4cf5:5754a253 > MAILADDR root > PROGRAM /sbin/mdadm-syslog-events > > Пробуем перезагрузиться... > > Как видим, всё восстановилось: > # mdadm -D /dev/md0 > /dev/md0: ... > UUID : 62985eb6:1297d375:923a4cf5:5754a253 ... > # cat /proc/mdstat > Personalities : [raid6] [raid5] [raid4] > md0 : active raid5 sda1[0] sdd1[3] sdc1[2] sdb1[1] > 2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] > # blkid > /dev/sda1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" > /dev/sdd1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" > /dev/sdb1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" > /dev/sdc1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid" > /dev/md0: UUID="6201837c-d0db-4e0e-a7ae-d3490c47cc46" SEC_TYPE="ext2" ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^ > TYPE="ext3" > > Вывод: > Не путайте UUID : 62985eb6:1297d375:923a4cf5:5754a253 из mdadm -D /dev/md0 > и /dev/md0: UUID="6201837c-d0db-4e0e-a7ae-d3490c47cc46" SEC_TYPE="ext2" > TYPE="ext3" > из blkid, как это сделал я. Вот UUID из blkid меня в первою очередь и волнует, т. к. именно по нему и выполняется монтирование при загрузке (при указании его в /etc/fstab). Ваш эксперимент показал, что именно он и меняется (см. выделение выше) => если нет уровней абстракции расположенных над ним (нечто типа LVM/EVMS, которые подобное должны перенести по идее) система не загрузится... в частности, данная мина сработает если корень расположен поверх /dev/md*. (Особенно с учётом того, что наш инсталятор осуществляет привязку по UUID...) -- С уважением. Алексей. [-- Attachment #2: OpenPGP digital signature --] [-- Type: application/pgp-signature, Size: 552 bytes --] ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-28 10:17 ` Денис Ягофаров 2008-10-28 11:11 ` Aleksey Avdeev @ 2008-10-29 11:14 ` Sergey Vlasov 2008-10-29 12:19 ` Aleksey Avdeev 1 sibling, 1 reply; 18+ messages in thread From: Sergey Vlasov @ 2008-10-29 11:14 UTC (permalink / raw) To: Sysadmins [-- Attachment #1: Type: text/plain, Size: 911 bytes --] On Tue, 28 Oct 2008 12:17:16 +0200 Денис Ягофаров wrote: [...] > Предположим, что 1 из жёстких дисков совсем погиб. При этом он уже ни на > что не отвечает. > > # echo "scsi remove-single-device 2 0 0 0" > /proc/scsi/scsi > # ls /dev/sd* > /dev/sda /dev/sda1 /dev/sdb /dev/sdb1 /dev/sdd /dev/sdd1 /dev/sde [...] > Как ни странно, он ещё не failed. Стоит ли его вручную помечать как failed? failed появляется после обнаружения ошибки, что не произойдёт, пока не попытаться обратиться к массиву. > # cat /proc/mdstat > Personalities : [raid10] [raid6] [raid5] [raid4] > md0 : active raid5 sdd1[3] sdc1[2] sdb1[1] sda1[0] > 2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] > > Пробуем отформатировать, к примеру, /dev/md0... впрочем иное действие > чтения/записи > тоже должно подойти. Лучше было делать "иное действие" - при форматировании как раз и поменялся UUID файловой системы. [-- Attachment #2: Type: application/pgp-signature, Size: 189 bytes --] ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-29 11:14 ` Sergey Vlasov @ 2008-10-29 12:19 ` Aleksey Avdeev 0 siblings, 0 replies; 18+ messages in thread From: Aleksey Avdeev @ 2008-10-29 12:19 UTC (permalink / raw) To: ALT Linux sysadmin discuss [-- Attachment #1: Type: text/plain, Size: 1106 bytes --] Sergey Vlasov пишет: > On Tue, 28 Oct 2008 12:17:16 +0200 Денис Ягофаров wrote: > > [...] >> Предположим, что 1 из жёстких дисков совсем погиб. При этом он уже ни на >> что не отвечает. >> >> # echo "scsi remove-single-device 2 0 0 0" > /proc/scsi/scsi >> # ls /dev/sd* >> /dev/sda /dev/sda1 /dev/sdb /dev/sdb1 /dev/sdd /dev/sdd1 /dev/sde > [...] >> Как ни странно, он ещё не failed. Стоит ли его вручную помечать как failed? > > failed появляется после обнаружения ошибки, что не произойдёт, пока > не попытаться обратиться к массиву. > >> # cat /proc/mdstat >> Personalities : [raid10] [raid6] [raid5] [raid4] >> md0 : active raid5 sdd1[3] sdc1[2] sdb1[1] sda1[0] >> 2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU] >> >> Пробуем отформатировать, к примеру, /dev/md0... впрочем иное действие >> чтения/записи >> тоже должно подойти. > > Лучше было делать "иное действие" - при форматировании как раз и > поменялся UUID файловой системы. У-ф-ф... Похоже я пропустил, что выполнялось именно форматирование. -- С уважением. Алексей. [-- Attachment #2: OpenPGP digital signature --] [-- Type: application/pgp-signature, Size: 552 bytes --] ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-25 16:53 ` Konstantin A. Lepikhov 2008-10-25 20:35 ` Maks Re @ 2008-10-29 11:20 ` Sergey Vlasov 2008-10-29 11:44 ` Maks Re 1 sibling, 1 reply; 18+ messages in thread From: Sergey Vlasov @ 2008-10-29 11:20 UTC (permalink / raw) To: Sysadmins [-- Attachment #1: Type: text/plain, Size: 1767 bytes --] On Sat, 25 Oct 2008 20:53:37 +0400 Konstantin A. Lepikhov wrote: > Hi Денис! > > Friday 24, at 01:56:58 PM you wrote: > > <skip> > > sde стал после перезагрузки sdb.... (т.к. полетел sdb, его "вытащили", > > затем "вставили" новый, он стал sde) > > > > пробую так: > > # mdadm --assemble /dev/md0 --run -v > > mdadm: looking for devices for /dev/md0 > > mdadm: /dev/sdd1 has wrong uuid. > > mdadm: /dev/sdc1 has wrong uuid. > > mdadm: /dev/sdb1 has wrong uuid. > > mdadm: /dev/sda1 has wrong uuid. > > mdadm: no devices found for /dev/md0 > > > > # blkid > > /dev/sda1: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" > > TYPE="ext3" > > /dev/hda1: UUID="7deb64be-1be5-49dc-9e0f-4ac9381173f2" SEC_TYPE="ext2" > > TYPE="ext3" > > /dev/sdc1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid" > > /dev/sdd1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid" > > /dev/sdb1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid" > > > > в конфиге: > > DEVICE /dev/sd[a-d]1 > > ARRAY /dev/md0 UUID=4aa4c1e1:a3e5:464c:8305:a2be835250b6 > > MAILADDR root > > PROGRAM /sbin/mdadm-syslog-events > После замены диска mdadm перестроил массив, изменив при этом его uuid, > чтобы нельзя было добавить не то диск. А в конфиге у вас указан масссив со > старыми uuid'ами. Собственно, не совсем понятно, чем вы удивлены и на > какое поведение вы расчитываете. Ничего там не меняется (если не пересоздавать массив полностью - что иногда приходится делать, если развалилось всё и нормальным образом собрать не удаётся). А вот форматы представления UUID у mdadm и blkid разные (отличается даже порядок байтов); в udev (vol_id) тоже другой формат (ещё и менявшийся в каких-то версиях). Так что в mdadm.conf нужно вписывать UUID именно из вывода mdadm. [-- Attachment #2: Type: application/pgp-signature, Size: 189 bytes --] ^ permalink raw reply [flat|nested] 18+ messages in thread
* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки 2008-10-29 11:20 ` Sergey Vlasov @ 2008-10-29 11:44 ` Maks Re 0 siblings, 0 replies; 18+ messages in thread From: Maks Re @ 2008-10-29 11:44 UTC (permalink / raw) To: ALT Linux sysadmin discuss > Так что в > mdadm.conf нужно вписывать UUID именно из вывода mdadm. > пожалуй эту фразу надо прибито бОльшими буквами на "заборе"... чтобы не забыть (понятно, что это есть в мане...) -- С уважением, Макс. ^ permalink raw reply [flat|nested] 18+ messages in thread
end of thread, other threads:[~2008-10-29 12:19 UTC | newest] Thread overview: 18+ messages (download: mbox.gz / follow: Atom feed) -- links below jump to the message on this page -- 2008-10-24 8:33 [Sysadmins] Собрать raid после сбоя и перезагрузки Денис Ягофаров 2008-10-24 8:51 ` Денис Ягофаров 2008-10-24 10:16 ` Alexey Shabalin 2008-10-24 10:56 ` Денис Ягофаров 2008-10-24 14:15 ` Денис Ягофаров 2008-10-25 16:53 ` Konstantin A. Lepikhov 2008-10-25 20:35 ` Maks Re 2008-10-26 9:22 ` Ivan Fedorov 2008-10-26 22:38 ` Aleksey Avdeev 2008-10-27 8:22 ` Yuri Bushmelev 2008-10-27 12:18 ` Ivan Fedorov 2008-10-27 14:28 ` Aleksey Avdeev 2008-10-28 10:17 ` Денис Ягофаров 2008-10-28 11:11 ` Aleksey Avdeev 2008-10-29 11:14 ` Sergey Vlasov 2008-10-29 12:19 ` Aleksey Avdeev 2008-10-29 11:20 ` Sergey Vlasov 2008-10-29 11:44 ` Maks Re
ALT Linux sysadmins discussion This inbox may be cloned and mirrored by anyone: git clone --mirror http://lore.altlinux.org/sysadmins/0 sysadmins/git/0.git # If you have public-inbox 1.1+ installed, you may # initialize and index your mirror using the following commands: public-inbox-init -V2 sysadmins sysadmins/ http://lore.altlinux.org/sysadmins \ sysadmins@lists.altlinux.org sysadmins@lists.altlinux.ru sysadmins@lists.altlinux.com public-inbox-index sysadmins Example config snippet for mirrors. Newsgroup available over NNTP: nntp://lore.altlinux.org/org.altlinux.lists.sysadmins AGPL code for this site: git clone https://public-inbox.org/public-inbox.git