ALT Linux sysadmins discussion
 help / color / mirror / Atom feed
* [Sysadmins] Собрать raid после сбоя и перезагрузки
@ 2008-10-24  8:33 Денис Ягофаров
  2008-10-24  8:51 ` Денис Ягофаров
  2008-10-24 10:16 ` Alexey Shabalin
  0 siblings, 2 replies; 18+ messages in thread
From: Денис Ягофаров @ 2008-10-24  8:33 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

[-- Attachment #1: Type: text/plain, Size: 1029 bytes --]

Доброго времени суток.

Создал raid массив:
mdadm  --create /dev/md0 --level=10  --name=test10 --raid-devices=4 
/dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1

Потом один из дисков (тестово) полетел...
mdadm --manage /dev/md0 --fail /dev/sdb1

Добавил другой вместо него (вынутый-вставленный "полетевший"):
mdadm --manage /dev/md0 --add /dev/sde1

Массив перестроился.

После этого перезагрузился. Устройство /dev/md0 есть, массива нет.
# chkconfig --list | grep mdadm
mdadm           0:off   1:off   2:off   3:off   4:off   5:off   6:off

Собираю руками:
# mdadm --assemble /dev/md0 --scan
mdadm: no devices found for /dev/md0

В конфиге:
DEVICE /dev/sd[a-d]1
ARRAY /dev/md0 level=10 num-devices=4 
UUID=4aa4c1e1:a3e5:464c:8305:a2be835250b6
MAILADDR root
PROGRAM /sbin/mdadm-syslog-events

Как мне собрать массив?


[-- Attachment #2: denyago.vcf --]
[-- Type: text/x-vcard, Size: 281 bytes --]

begin:vcard
fn:Denis Timurovich Yagofarov
n:Yagofarov;Denis Timurovich
org:ITGIS NASU
adr:room 615;;Chokolovski blvdr., 13;Kiev;;03151;Ukraine
email;internet:denyago@rambler.ru
title:system administrator
tel;work:80442480755
x-mozilla-html:FALSE
version:2.1
end:vcard


^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-24  8:33 [Sysadmins] Собрать raid после сбоя и перезагрузки Денис Ягофаров
@ 2008-10-24  8:51 ` Денис Ягофаров
  2008-10-24 10:16 ` Alexey Shabalin
  1 sibling, 0 replies; 18+ messages in thread
From: Денис Ягофаров @ 2008-10-24  8:51 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

[-- Attachment #1: Type: text/plain, Size: 357 bytes --]

Всё, что есть в логах:

Oct 24 11:23:42 localhost kernel: md: md driver 0.90.3 MAX_MD_DEVS=256, 
MD_SB_DISKS=27
Oct 24 11:23:42 localhost kernel: md: bitmap version 4.39
...
Oct 24 11:23:44 localhost kernel: device-mapper: ioctl: 4.7.0-ioctl 
(2006-06-24) initialised: dm-devel@redhat.com
Oct 24 11:23:44 localhost kernel: md: md0 stopped.


[-- Attachment #2: denyago.vcf --]
[-- Type: text/x-vcard, Size: 281 bytes --]

begin:vcard
fn:Denis Timurovich Yagofarov
n:Yagofarov;Denis Timurovich
org:ITGIS NASU
adr:room 615;;Chokolovski blvdr., 13;Kiev;;03151;Ukraine
email;internet:denyago@rambler.ru
title:system administrator
tel;work:80442480755
x-mozilla-html:FALSE
version:2.1
end:vcard


^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-24  8:33 [Sysadmins] Собрать raid после сбоя и перезагрузки Денис Ягофаров
  2008-10-24  8:51 ` Денис Ягофаров
@ 2008-10-24 10:16 ` Alexey Shabalin
  2008-10-24 10:56   ` Денис Ягофаров
  1 sibling, 1 reply; 18+ messages in thread
From: Alexey Shabalin @ 2008-10-24 10:16 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

24 октября 2008 г. 12:33 пользователь Денис Ягофаров написал:
> Доброго времени суток.
>
> Создал raid массив:
> mdadm  --create /dev/md0 --level=10  --name=test10 --raid-devices=4
> /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
>
> Потом один из дисков (тестово) полетел...
> mdadm --manage /dev/md0 --fail /dev/sdb1
>
> Добавил другой вместо него (вынутый-вставленный "полетевший"):
> mdadm --manage /dev/md0 --add /dev/sde1
>
> Массив перестроился.
>
> После этого перезагрузился. Устройство /dev/md0 есть, массива нет.
> # chkconfig --list | grep mdadm
> mdadm           0:off   1:off   2:off   3:off   4:off   5:off   6:off
>
> Собираю руками:
> # mdadm --assemble /dev/md0 --scan
> mdadm: no devices found for /dev/md0
>
> В конфиге:
> DEVICE /dev/sd[a-d]1
может ошибаюсь, но Вы же добавили диск sde. А в конфиг он не попадает.

> ARRAY /dev/md0 level=10 num-devices=4
> UUID=4aa4c1e1:a3e5:464c:8305:a2be835250b6
> MAILADDR root
> PROGRAM /sbin/mdadm-syslog-events
>
> Как мне собрать массив?


-- 
Alexey Shabalin

^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-24 10:16 ` Alexey Shabalin
@ 2008-10-24 10:56   ` Денис Ягофаров
  2008-10-24 14:15     ` Денис Ягофаров
  2008-10-25 16:53     ` Konstantin A. Lepikhov
  0 siblings, 2 replies; 18+ messages in thread
From: Денис Ягофаров @ 2008-10-24 10:56 UTC (permalink / raw)
  To: shaba, ALT Linux sysadmin discuss

[-- Attachment #1: Type: text/plain, Size: 1630 bytes --]

Alexey Shabalin пишет:
> 24 октября 2008 г. 12:33 пользователь Денис Ягофаров написал:
>   
>> Доброго времени суток.
>>
>> Создал raid массив:
>> mdadm  --create /dev/md0 --level=10  --name=test10 --raid-devices=4
>> /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
>>
>> Добавил другой вместо него (вынутый-вставленный "полетевший"):
>> mdadm --manage /dev/md0 --add /dev/sde1
>>
>> Собираю руками:
>> # mdadm --assemble /dev/md0 --scan
>> mdadm: no devices found for /dev/md0
>>
>> В конфиге:
>> DEVICE /dev/sd[a-d]1
>>     
> может ошибаюсь, но Вы же добавили диск sde. А в конфиг он не попадает.
>   
sde стал после перезагрузки sdb.... (т.к. полетел sdb, его "вытащили", 
затем "вставили" новый, он стал sde)

пробую так:
# mdadm --assemble /dev/md0 --run -v
mdadm: looking for devices for /dev/md0
mdadm: /dev/sdd1 has wrong uuid.
mdadm: /dev/sdc1 has wrong uuid.
mdadm: /dev/sdb1 has wrong uuid.
mdadm: /dev/sda1 has wrong uuid.
mdadm: no devices found for /dev/md0

# blkid
/dev/sda1: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" 
TYPE="ext3"
/dev/hda1: UUID="7deb64be-1be5-49dc-9e0f-4ac9381173f2" SEC_TYPE="ext2" 
TYPE="ext3"
/dev/sdc1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid"
/dev/sdd1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid"
/dev/sdb1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid"

в конфиге:
DEVICE /dev/sd[a-d]1
ARRAY /dev/md0 UUID=4aa4c1e1:a3e5:464c:8305:a2be835250b6
MAILADDR root
PROGRAM /sbin/mdadm-syslog-events

П.С. А как бы я собирал массив из дисков на сервере В, если на сервере А 
полетел контроллер и на В они (диски) опознались по другим именам?


[-- Attachment #2: denyago.vcf --]
[-- Type: text/x-vcard, Size: 269 bytes --]

begin:vcard
fn:Denis Timurovich Yagofarov
n:Yagofarov;Denis Timurovich
org:ITGIS NASU
adr:room 615;;Chokolovski blvdr., 13;Kiev;;03151;Ukraine
email;internet:denyago@rambler.ru
title:system administrator
tel;work:80442480755
x-mozilla-html:FALSE
version:2.1
end:vcard


^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-24 10:56   ` Денис Ягофаров
@ 2008-10-24 14:15     ` Денис Ягофаров
  2008-10-25 16:53     ` Konstantin A. Lepikhov
  1 sibling, 0 replies; 18+ messages in thread
From: Денис Ягофаров @ 2008-10-24 14:15 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

[-- Attachment #1: Type: text/plain, Size: 1813 bytes --]

Денис Ягофаров пишет:
> Alexey Shabalin пишет:
>> 24 октября 2008 г. 12:33 пользователь Денис Ягофаров написал:
>>  
>>> Доброго времени суток.
>>>
>>> Создал raid массив:
>>> mdadm  --create /dev/md0 --level=10  --name=test10 --raid-devices=4
>>> /dev/sda1 /dev/sdb1 /dev/sdc1 /dev/sdd1
>>>
>>> Добавил другой вместо него (вынутый-вставленный "полетевший"):
>>> mdadm --manage /dev/md0 --add /dev/sde1
>>>
>>> Собираю руками:
>>> # mdadm --assemble /dev/md0 --scan
>>> mdadm: no devices found for /dev/md0
>>>
>>> В конфиге:
>>> DEVICE /dev/sd[a-d]1
>>>     
>> может ошибаюсь, но Вы же добавили диск sde. А в конфиг он не попадает.
>>   
> sde стал после перезагрузки sdb.... (т.к. полетел sdb, его "вытащили", 
> затем "вставили" новый, он стал sde)
>
> пробую так:
> # mdadm --assemble /dev/md0 --run -v
> mdadm: looking for devices for /dev/md0
> mdadm: /dev/sdd1 has wrong uuid.
> mdadm: /dev/sdc1 has wrong uuid.
> mdadm: /dev/sdb1 has wrong uuid.
> mdadm: /dev/sda1 has wrong uuid.
> mdadm: no devices found for /dev/md0
>
> # blkid
> /dev/sda1: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" 
> TYPE="ext3"
> /dev/hda1: UUID="7deb64be-1be5-49dc-9e0f-4ac9381173f2" SEC_TYPE="ext2" 
> TYPE="ext3"
> /dev/sdc1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid"
> /dev/sdd1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid"
> /dev/sdb1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid"
>
> в конфиге:
> DEVICE /dev/sd[a-d]1
> ARRAY /dev/md0 UUID=4aa4c1e1:a3e5:464c:8305:a2be835250b6
> MAILADDR root
> PROGRAM /sbin/mdadm-syslog-events
>
> П.С. А как бы я собирал массив из дисков на сервере В, если на сервере 
> А полетел контроллер и на В они (диски) опознались по другим именам?
смог запустить mdadm -A /dev/md0 /dev/sd[a-d]1

но что ему в конфигурации не нравится?

[-- Attachment #2: denyago.vcf --]
[-- Type: text/x-vcard, Size: 269 bytes --]

begin:vcard
fn:Denis Timurovich Yagofarov
n:Yagofarov;Denis Timurovich
org:ITGIS NASU
adr:room 615;;Chokolovski blvdr., 13;Kiev;;03151;Ukraine
email;internet:denyago@rambler.ru
title:system administrator
tel;work:80442480755
x-mozilla-html:FALSE
version:2.1
end:vcard


^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-24 10:56   ` Денис Ягофаров
  2008-10-24 14:15     ` Денис Ягофаров
@ 2008-10-25 16:53     ` Konstantin A. Lepikhov
  2008-10-25 20:35       ` Maks Re
  2008-10-29 11:20       ` Sergey Vlasov
  1 sibling, 2 replies; 18+ messages in thread
From: Konstantin A. Lepikhov @ 2008-10-25 16:53 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

Hi Денис!

Friday 24, at 01:56:58 PM you wrote:

<skip>
> sde стал после перезагрузки sdb.... (т.к. полетел sdb, его "вытащили", 
> затем "вставили" новый, он стал sde)
> 
> пробую так:
> # mdadm --assemble /dev/md0 --run -v
> mdadm: looking for devices for /dev/md0
> mdadm: /dev/sdd1 has wrong uuid.
> mdadm: /dev/sdc1 has wrong uuid.
> mdadm: /dev/sdb1 has wrong uuid.
> mdadm: /dev/sda1 has wrong uuid.
> mdadm: no devices found for /dev/md0
> 
> # blkid
> /dev/sda1: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" 
> TYPE="ext3"
> /dev/hda1: UUID="7deb64be-1be5-49dc-9e0f-4ac9381173f2" SEC_TYPE="ext2" 
> TYPE="ext3"
> /dev/sdc1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid"
> /dev/sdd1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid"
> /dev/sdb1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid"
> 
> в конфиге:
> DEVICE /dev/sd[a-d]1
> ARRAY /dev/md0 UUID=4aa4c1e1:a3e5:464c:8305:a2be835250b6
> MAILADDR root
> PROGRAM /sbin/mdadm-syslog-events
После замены диска mdadm перестроил массив, изменив при этом его  uuid,
чтобы нельзя было добавить не то диск. А в конфиге у вас указан масссив со
старыми uuid'ами. Собственно, не совсем понятно, чем вы удивлены и на
какое поведение вы расчитываете.


> 
> П.С. А как бы я собирал массив из дисков на сервере В, если на сервере А 
> полетел контроллер и на В они (диски) опознались по другим именам?
что значит "опознались по другим именам"?

-- 
WBR et al.


^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-25 16:53     ` Konstantin A. Lepikhov
@ 2008-10-25 20:35       ` Maks Re
  2008-10-26  9:22         ` Ivan Fedorov
  2008-10-29 11:20       ` Sergey Vlasov
  1 sibling, 1 reply; 18+ messages in thread
From: Maks Re @ 2008-10-25 20:35 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

> После замены диска mdadm перестроил массив, изменив при этом его  uuid,
> чтобы нельзя было добавить не то диск. А в конфиге у вас указан масссив со
> старыми uuid'ами. Собственно, не совсем понятно, чем вы удивлены и на
> какое поведение вы расчитываете.

непонятно вот что
почему, при добавлении диска взамен неисправного, перестроился массив?
массив надо-то восстановить, путем добавления диска взамен
неисправного, и след-но у него должен сохраниться старый uuid, который
и прописан в fstab.

вот если мы сами перестроили массив, с потерей всей информации, тогда
понятно появление нового uuid...

-- 
С уважением,
  Макс.

^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-25 20:35       ` Maks Re
@ 2008-10-26  9:22         ` Ivan Fedorov
  2008-10-26 22:38           ` Aleksey Avdeev
  0 siblings, 1 reply; 18+ messages in thread
From: Ivan Fedorov @ 2008-10-26  9:22 UTC (permalink / raw)
  To: sysadmins

[-- Attachment #1: Type: text/plain, Size: 1427 bytes --]

"Maks Re" <admaks-Re5JQEeQqe8AvxtiuMwx3w@public.gmane.org> writes:

>> После замены диска mdadm перестроил массив, изменив при этом его  uuid,
>> чтобы нельзя было добавить не то диск. А в конфиге у вас указан масссив со
>> старыми uuid'ами. Собственно, не совсем понятно, чем вы удивлены и на
>> какое поведение вы расчитываете.
>
> непонятно вот что
> почему, при добавлении диска взамен неисправного, перестроился массив?
> массив надо-то восстановить, путем добавления диска взамен
> неисправного, и след-но у него должен сохраниться старый uuid, который
> и прописан в fstab.
Нет, иначе массив при следующей загрузке будет пытаться собиратся с
"битым" диском.

> вот если мы сами перестроили массив, с потерей всей информации, тогда
> понятно появление нового uuid...
UUID должен меняться при любом изменении конфигурации массива.

[-- Attachment #2: Type: application/pgp-signature, Size: 196 bytes --]

^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-26  9:22         ` Ivan Fedorov
@ 2008-10-26 22:38           ` Aleksey Avdeev
  2008-10-27  8:22             ` Yuri Bushmelev
  2008-10-27 12:18             ` Ivan Fedorov
  0 siblings, 2 replies; 18+ messages in thread
From: Aleksey Avdeev @ 2008-10-26 22:38 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

[-- Attachment #1: Type: text/plain, Size: 2189 bytes --]

Ivan Fedorov пишет:
> "Maks Re" <admaks-Re5JQEeQqe8AvxtiuMwx3w@public.gmane.org> writes:
> 
>>> После замены диска mdadm перестроил массив, изменив при этом его  uuid,
>>> чтобы нельзя было добавить не то диск. А в конфиге у вас указан масссив со
>>> старыми uuid'ами. Собственно, не совсем понятно, чем вы удивлены и на
>>> какое поведение вы расчитываете.
>> непонятно вот что
>> почему, при добавлении диска взамен неисправного, перестроился массив?
>> массив надо-то восстановить, путем добавления диска взамен
>> неисправного, и след-но у него должен сохраниться старый uuid, который
>> и прописан в fstab.
> Нет, иначе массив при следующей загрузке будет пытаться собиратся с
> "битым" диском.
> 
>> вот если мы сами перестроили массив, с потерей всей информации, тогда
>> понятно появление нового uuid...
> UUID должен меняться при любом изменении конфигурации массива.

   Это не очевидно. По крайней мере для меня...

   Переход с имён устройств на их UUID`ы для меня был замотивирован тем, 
что UUID в отличии от имён вещь постоянная, в частности не меняется -- 
при переездах с LVM на EVMS и обратно и/или смене физического 
подключения дисков. Теперь оказывается что UUID тоже вещь не постоянная, 
и он будет изменён при замене диска в массиве...

-- 

С уважением. Алексей.



[-- Attachment #2: OpenPGP digital signature --]
[-- Type: application/pgp-signature, Size: 552 bytes --]

^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-26 22:38           ` Aleksey Avdeev
@ 2008-10-27  8:22             ` Yuri Bushmelev
  2008-10-27 12:18             ` Ivan Fedorov
  1 sibling, 0 replies; 18+ messages in thread
From: Yuri Bushmelev @ 2008-10-27  8:22 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

В сообщении от Понедельник 27 октября 2008 Aleksey Avdeev написал(a):
> Ivan Fedorov пишет:

>    Переход с имён устройств на их UUID`ы для меня был замотивирован тем,
> что UUID в отличии от имён вещь постоянная, в частности не меняется --
> при переездах с LVM на EVMS и обратно и/или смене физического
> подключения дисков. Теперь оказывается что UUID тоже вещь не постоянная,
> и он будет изменён при замене диска в массиве...

Можно рассмотреть использование LABEL вместо UUID.

-- 
С уважением,
Бушмелев Юрий

^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-26 22:38           ` Aleksey Avdeev
  2008-10-27  8:22             ` Yuri Bushmelev
@ 2008-10-27 12:18             ` Ivan Fedorov
  2008-10-27 14:28               ` Aleksey Avdeev
  1 sibling, 1 reply; 18+ messages in thread
From: Ivan Fedorov @ 2008-10-27 12:18 UTC (permalink / raw)
  To: sysadmins

[-- Attachment #1: Type: text/plain, Size: 2011 bytes --]

Aleksey Avdeev <solo-+V32sm3JFRb+YQgHObkolA@public.gmane.org> writes:

>>> непонятно вот что почему, при добавлении диска взамен неисправного,
>>> перестроился массив? массив надо-то восстановить, путем добавления
>>> диска взамен неисправного, и след-но у него должен сохраниться
>>> старый uuid, который и прописан в fstab.
>> Нет, иначе массив при следующей загрузке будет пытаться собиратся с
>> "битым" диском.
>>
>>> вот если мы сами перестроили массив, с потерей всей информации, тогда
>>> понятно появление нового uuid...
>> UUID должен меняться при любом изменении конфигурации массива.
>
>   Это не очевидно. По крайней мере для меня...
>
>   Переход с имён устройств на их UUID`ы для меня был замотивирован
>   тем, что UUID в отличии от имён вещь постоянная, в частности не
>   меняется при переездах с LVM на EVMS и обратно и/или смене
>   физического подключения дисков. Теперь оказывается что UUID тоже
>   вещь не постоянная, и он будет изменён при замене диска в массиве...

А ты просто рассматривай эту ситуацию, как вариант полной замены
массива, ибо так и есть - у тебя ведь массив теперь уже другой.

Это НОВЫЙ массив, на котором просто лежат СТАРЫЕ ДАННЫЕ.

[-- Attachment #2: Type: application/pgp-signature, Size: 196 bytes --]

^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-27 12:18             ` Ivan Fedorov
@ 2008-10-27 14:28               ` Aleksey Avdeev
  2008-10-28 10:17                 ` Денис Ягофаров
  0 siblings, 1 reply; 18+ messages in thread
From: Aleksey Avdeev @ 2008-10-27 14:28 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

[-- Attachment #1: Type: text/plain, Size: 3528 bytes --]

Ivan Fedorov пишет:
> Aleksey Avdeev <solo-+V32sm3JFRb+YQgHObkolA@public.gmane.org> writes:
> 
>>>> непонятно вот что почему, при добавлении диска взамен неисправного,
>>>> перестроился массив? массив надо-то восстановить, путем добавления
>>>> диска взамен неисправного, и след-но у него должен сохраниться
>>>> старый uuid, который и прописан в fstab.
>>> Нет, иначе массив при следующей загрузке будет пытаться собиратся с
>>> "битым" диском.
>>>
>>>> вот если мы сами перестроили массив, с потерей всей информации, тогда
>>>> понятно появление нового uuid...
>>> UUID должен меняться при любом изменении конфигурации массива.
>>   Это не очевидно. По крайней мере для меня...
>>
>>   Переход с имён устройств на их UUID`ы для меня был замотивирован
>>   тем, что UUID в отличии от имён вещь постоянная, в частности не
>>   меняется при переездах с LVM на EVMS и обратно и/или смене
>>   физического подключения дисков. Теперь оказывается что UUID тоже
>>   вещь не постоянная, и он будет изменён при замене диска в массиве...
> 
> А ты просто рассматривай эту ситуацию, как вариант полной замены
> массива, ибо так и есть - у тебя ведь массив теперь уже другой.
> 
> Это НОВЫЙ массив, на котором просто лежат СТАРЫЕ ДАННЫЕ.

   При монтировании из /etc/fstab мне неважно изменился изменился массив 
или нет (новый он или старый) -- мне важно чтобы данные (ФС, лежащая на 
данном массиве) были примонтированны в строго определённое место (если 
они не разрушены, разумеется).

   Грубо говоря, при загрузке для меня главное взлететь... В каком виде 
при этом массив -- дело десятое: т. к. пока не взлетишь доступа по ssh 
нет => ничего нельзя сделать удалённо (как правело)...

PS: Не исключено что я зря гоню пургу: Перечитав тред обратил внимание 
что меняется UUID массива под которым он присутствует в конфиге mdadm... 
Но меняется ли при этом UUID по которому происходит монтирование? 
(Другими словами: Меняющийся UUID -- это тот UUID по которому 
осуществляется монтирование при указании его в /etc/fstab, или какой-то 
другой?)

-- 

С уважением. Алексей.



[-- Attachment #2: OpenPGP digital signature --]
[-- Type: application/pgp-signature, Size: 552 bytes --]

^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-27 14:28               ` Aleksey Avdeev
@ 2008-10-28 10:17                 ` Денис Ягофаров
  2008-10-28 11:11                   ` Aleksey Avdeev
  2008-10-29 11:14                   ` Sergey Vlasov
  0 siblings, 2 replies; 18+ messages in thread
From: Денис Ягофаров @ 2008-10-28 10:17 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

[-- Attachment #1: Type: text/plain, Size: 10971 bytes --]

Проведем эксперимент. Устроим "сбой" диска в массиве raid5, и посмотрим 
с каким UUID массив восстановится.

Вот так оно выглядит до сбоя:

# blkid
/dev/sda1: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" 
TYPE="ext3"
/dev/sdc1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
/dev/sdd1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
/dev/sdb1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
/dev/md0: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" 
TYPE="ext3"

# cat /proc/mdstat
Personalities : [raid10] [raid6] [raid5] [raid4]
md0 : active raid5 sdd1[3] sdc1[2] sdb1[1] sda1[0]
      2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

# mdadm -D /dev/md0
/dev/md0:
        Version : 00.90.03
  Creation Time : Fri Oct 24 16:29:15 2008
     Raid Level : raid5
     Array Size : 2197715712 (2095.91 GiB 2250.46 GB)
  Used Dev Size : 732571904 (698.64 GiB 750.15 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
    Persistence : Superblock is persistent
    Update Time : Sat Oct 25 07:09:34 2008
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
         Layout : left-symmetric
     Chunk Size : 64K
           UUID : 62985eb6:1297d375:923a4cf5:5754a253
         Events : 0.2
    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
       2       8       33        2      active sync   /dev/sdc1
       3       8       49        3      active sync   /dev/sdd1
 
Предположим, что 1 из жёстких дисков совсем погиб. При этом он уже ни на 
что не отвечает. 

# echo "scsi remove-single-device 2 0 0 0" > /proc/scsi/scsi
# ls /dev/sd*
/dev/sda  /dev/sda1  /dev/sdb  /dev/sdb1  /dev/sdd  /dev/sdd1  /dev/sde

в логах
Oct 27 11:37:22 localhost kernel: ata3.00: disabled

# mdadm -D /dev/md0
/dev/md0:
        Version : 00.90.03
  Creation Time : Fri Oct 24 16:29:15 2008
     Raid Level : raid5
     Array Size : 2197715712 (2095.91 GiB 2250.46 GB)
  Used Dev Size : 732571904 (698.64 GiB 750.15 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
    Persistence : Superblock is persistent
    Update Time : Sat Oct 25 07:09:34 2008
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
         Layout : left-symmetric
     Chunk Size : 64K
           UUID : 62985eb6:1297d375:923a4cf5:5754a253
         Events : 0.2
    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
       2       8       33        2      active sync
       3       8       49        3      active sync   /dev/sdd1


Как ни странно, он ещё не failed. Стоит ли его вручную помечать как failed?
# cat /proc/mdstat
Personalities : [raid10] [raid6] [raid5] [raid4]
md0 : active raid5 sdd1[3] sdc1[2] sdb1[1] sda1[0]
      2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]

Пробуем отформатировать, к примеру, /dev/md0... впрочем иное действие 
чтения/записи
тоже должно подойти.
Personalities : [raid10] [raid6] [raid5] [raid4]
md0 : active raid5 sdd1[3] sdc1[4](F) sdb1[1] sda1[0]
      2197715712 blocks level 5, 64k chunk, algorithm 2 [4/3] [UU_U]

в логах
Oct 27 11:40:21 localhost kernel: scsi 2:0:0:0: rejecting I/O to dead device
Oct 27 11:40:21 localhost mdmonitor: Fail event on /dev/md0
Oct 27 11:40:21 localhost kernel: scsi 2:0:0:0: rejecting I/O to dead device
Oct 27 11:40:21 localhost kernel: scsi 2:0:0:0: rejecting I/O to dead device
Oct 27 11:40:21 localhost kernel: raid5: Disk failure on sdc1, disabling 
device. Operation continuing on 3 devices
Oct 27 11:40:21 localhost kernel: RAID5 conf printout:
Oct 27 11:40:21 localhost kernel:  --- rd:4 wd:3 fd:1
Oct 27 11:40:21 localhost kernel:  disk 0, o:1, dev:sda1
Oct 27 11:40:21 localhost kernel:  disk 1, o:1, dev:sdb1
Oct 27 11:40:21 localhost kernel:  disk 2, o:0, dev:sdc1
Oct 27 11:40:21 localhost kernel:  disk 3, o:1, dev:sdd1
Oct 27 11:40:21 localhost kernel: RAID5 conf printout:
Oct 27 11:40:21 localhost kernel:  --- rd:4 wd:3 fd:1
Oct 27 11:40:21 localhost kernel:  disk 0, o:1, dev:sda1
Oct 27 11:40:21 localhost kernel:  disk 1, o:1, dev:sdb1
Oct 27 11:40:21 localhost kernel:  disk 3, o:1, dev:sdd1

Если, нужно отключить погибший, но ещё крутящийся жёсткий диск, можно ли 
как-то на него подать сигнал
к полному останову и отключению питания? Или обо всём позаботится backplain?

Мы "прибежали" с новым жёстким диском. Создали раздел (а может, он уже 
заранее был создан?)
и подключили его...
# echo "scsi add-single-device 2 0 0 0" > /proc/scsi/scsi

в логах
Oct 27 11:42:59 localhost kernel: ata3: soft resetting port
Oct 27 11:42:59 localhost kernel: ata3: SATA link up 1.5 Gbps (SStatus 
113 SControl 300)
Oct 27 11:42:59 localhost kernel: ata3.00: ATA-7, max UDMA/133, 
1465149168 sectors: LBA48 NCQ (depth 31/32)
Oct 27 11:42:59 localhost kernel: ata3.00: configured for UDMA/133
Oct 27 11:42:59 localhost kernel: ata3: EH complete
Oct 27 11:42:59 localhost kernel:   Vendor: ATA       Model: 
ST3750640AS       Rev: 3.AA
Oct 27 11:42:59 localhost kernel:   Type:   
Direct-Access                      ANSI SCSI revision: 05
Oct 27 11:42:59 localhost kernel: SCSI device sdf: 1465149168 512-byte 
hdwr sectors (750156 MB)
Oct 27 11:42:59 localhost kernel: sdf: Write Protect is off
Oct 27 11:42:59 localhost kernel: SCSI device sdf: drive cache: write back
Oct 27 11:42:59 localhost kernel: SCSI device sdf: 1465149168 512-byte 
hdwr sectors (750156 MB)
Oct 27 11:42:59 localhost kernel: sdf: Write Protect is off
Oct 27 11:42:59 localhost kernel: SCSI device sdf: drive cache: write back
Oct 27 11:42:59 localhost kernel:  sdf: sdf1
Oct 27 11:42:59 localhost kernel: sd 2:0:0:0: Attached scsi disk sdf

Правильно, его нету уже, может, это стоило сделать раньше?
# mdadm /dev/md0 --remove /dev/sdc1
mdadm: cannot find /dev/sdc1: No such file or directory

Добавляем новый диск...
# mdadm /dev/md0 --add /dev/sdf1
mdadm: re-added /dev/sdf1

в логах
Oct 27 11:44:30 localhost kernel: md: bind<sdf1>
Oct 27 11:44:30 localhost kernel: RAID5 conf printout:
Oct 27 11:44:30 localhost kernel:  --- rd:4 wd:3 fd:1
Oct 27 11:44:30 localhost kernel:  disk 0, o:1, dev:sda1
Oct 27 11:44:30 localhost kernel:  disk 1, o:1, dev:sdb1
Oct 27 11:44:30 localhost kernel:  disk 2, o:1, dev:sdf1
Oct 27 11:44:30 localhost kernel:  disk 3, o:1, dev:sdd1
Oct 27 11:44:30 localhost kernel: md: recovery of RAID array md0
Oct 27 11:44:30 localhost kernel: md: minimum _guaranteed_  speed: 1000 
KB/sec/disk.
Oct 27 11:44:30 localhost kernel: md: using maximum available idle IO 
bandwidth (but not more than 200000 KB/sec) for recovery.
Oct 27 11:44:30 localhost kernel: md: using 128k window, over a total of 
732571904 blocks.
Oct 27 11:44:30 localhost mdmonitor: RebuildStarted event on /dev/md0

Ждём 700 минут.... (ок. 12 часов)
# cat /proc/mdstat
Personalities : [raid10] [raid6] [raid5] [raid4]
md0 : active raid5 sdf1[2] sdd1[3] sdc1[4](F) sdb1[1] sda1[0]
      2197715712 blocks level 5, 64k chunk, algorithm 2 [4/3] [UU_U]
      [>....................]  recovery =  0.1% (1136640/732571904) 
finish=717.3min speed=16992K/sec

После восстановления:
# mdadm -D /dev/md0
/dev/md0:
        Version : 00.90.03
  Creation Time : Fri Oct 24 16:29:15 2008
     Raid Level : raid5
     Array Size : 2197715712 (2095.91 GiB 2250.46 GB)
  Used Dev Size : 732571904 (698.64 GiB 750.15 GB)
   Raid Devices : 4
  Total Devices : 5
Preferred Minor : 0
    Persistence : Superblock is persistent
    Update Time : Mon Oct 27 22:53:14 2008
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 1
  Spare Devices : 0
         Layout : left-symmetric
     Chunk Size : 64K
           UUID : 62985eb6:1297d375:923a4cf5:5754a253
         Events : 0.8
    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
       2       8       81        2      active sync   /dev/sdf1
       3       8       49        3      active sync   /dev/sdd1
       4       8       33        -      faulty spare

Как видим, UUID не поменялся.... добавляем его в конфиг:
DEVICE /dev/sd[a,b,c,d]1
ARRAY /dev/md0 UUID=62985eb6:1297d375:923a4cf5:5754a253
MAILADDR root
PROGRAM /sbin/mdadm-syslog-events

Пробуем перезагрузиться...

Как видим, всё восстановилось:
# mdadm -D /dev/md0
/dev/md0:
        Version : 00.90.03
  Creation Time : Fri Oct 24 16:29:15 2008
     Raid Level : raid5
     Array Size : 2197715712 (2095.91 GiB 2250.46 GB)
  Used Dev Size : 732571904 (698.64 GiB 750.15 GB)
   Raid Devices : 4
  Total Devices : 4
Preferred Minor : 0
    Persistence : Superblock is persistent
    Update Time : Mon Oct 27 22:53:14 2008
          State : clean
 Active Devices : 4
Working Devices : 4
 Failed Devices : 0
  Spare Devices : 0
         Layout : left-symmetric
     Chunk Size : 64K
           UUID : 62985eb6:1297d375:923a4cf5:5754a253
         Events : 0.8
    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1
       2       8       33        2      active sync   /dev/sdc1
       3       8       49        3      active sync   /dev/sdd1
# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md0 : active raid5 sda1[0] sdd1[3] sdc1[2] sdb1[1]
      2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
# blkid
/dev/sda1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
/dev/sdd1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
/dev/sdb1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
/dev/sdc1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
/dev/md0: UUID="6201837c-d0db-4e0e-a7ae-d3490c47cc46" SEC_TYPE="ext2" 
TYPE="ext3"

Вывод:
Не путайте UUID : 62985eb6:1297d375:923a4cf5:5754a253 из mdadm -D /dev/md0
и /dev/md0: UUID="6201837c-d0db-4e0e-a7ae-d3490c47cc46" SEC_TYPE="ext2" 
TYPE="ext3"
из blkid, как это сделал я.

[-- Attachment #2: denyago.vcf --]
[-- Type: text/x-vcard, Size: 281 bytes --]

begin:vcard
fn:Denis Timurovich Yagofarov
n:Yagofarov;Denis Timurovich
org:ITGIS NASU
adr:room 615;;Chokolovski blvdr., 13;Kiev;;03151;Ukraine
email;internet:denyago@rambler.ru
title:system administrator
tel;work:80442480755
x-mozilla-html:FALSE
version:2.1
end:vcard


^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-28 10:17                 ` Денис Ягофаров
@ 2008-10-28 11:11                   ` Aleksey Avdeev
  2008-10-29 11:14                   ` Sergey Vlasov
  1 sibling, 0 replies; 18+ messages in thread
From: Aleksey Avdeev @ 2008-10-28 11:11 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

[-- Attachment #1: Type: text/plain, Size: 3527 bytes --]

Денис Ягофаров пишет:
> Проведем эксперимент. Устроим "сбой" диска в массиве raid5, и посмотрим 
> с каким UUID массив восстановится.
> 
> Вот так оно выглядит до сбоя:
> 
> # blkid
> /dev/sda1: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" 
> TYPE="ext3"
> /dev/sdc1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
> /dev/sdd1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
> /dev/sdb1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
> /dev/md0: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2" 
             ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
> TYPE="ext3"
> 
> # cat /proc/mdstat
> Personalities : [raid10] [raid6] [raid5] [raid4]
> md0 : active raid5 sdd1[3] sdc1[2] sdb1[1] sda1[0]
>      2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
> 
> # mdadm -D /dev/md0
> /dev/md0:
...
>           UUID : 62985eb6:1297d375:923a4cf5:5754a253
...
> 
> После восстановления:
> # mdadm -D /dev/md0
> /dev/md0:
...
>           UUID : 62985eb6:1297d375:923a4cf5:5754a253
...
> 
> Как видим, UUID не поменялся.... добавляем его в конфиг:
> DEVICE /dev/sd[a,b,c,d]1
> ARRAY /dev/md0 UUID=62985eb6:1297d375:923a4cf5:5754a253
> MAILADDR root
> PROGRAM /sbin/mdadm-syslog-events
> 
> Пробуем перезагрузиться...
> 
> Как видим, всё восстановилось:
> # mdadm -D /dev/md0
> /dev/md0:
...
>           UUID : 62985eb6:1297d375:923a4cf5:5754a253
...
> # cat /proc/mdstat
> Personalities : [raid6] [raid5] [raid4]
> md0 : active raid5 sda1[0] sdd1[3] sdc1[2] sdb1[1]
>      2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
> # blkid
> /dev/sda1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
> /dev/sdd1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
> /dev/sdb1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
> /dev/sdc1: UUID="b65e9862-75d3-9712-f54c-3a9253a25457" TYPE="mdraid"
> /dev/md0: UUID="6201837c-d0db-4e0e-a7ae-d3490c47cc46" SEC_TYPE="ext2" 
             ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
> TYPE="ext3"
> 
> Вывод:
> Не путайте UUID : 62985eb6:1297d375:923a4cf5:5754a253 из mdadm -D /dev/md0
> и /dev/md0: UUID="6201837c-d0db-4e0e-a7ae-d3490c47cc46" SEC_TYPE="ext2" 
> TYPE="ext3"
> из blkid, как это сделал я.

   Вот UUID из blkid меня в первою очередь и волнует, т. к. именно по 
нему и выполняется монтирование при загрузке (при указании его в 
/etc/fstab). Ваш эксперимент показал, что именно он и меняется (см. 
выделение выше) => если нет уровней абстракции расположенных над ним 
(нечто типа LVM/EVMS, которые подобное должны перенести по идее) система 
не загрузится...

   в частности, данная мина сработает если корень расположен поверх 
/dev/md*. (Особенно с учётом того, что наш инсталятор осуществляет 
привязку по UUID...)

-- 

С уважением. Алексей.



[-- Attachment #2: OpenPGP digital signature --]
[-- Type: application/pgp-signature, Size: 552 bytes --]

^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-28 10:17                 ` Денис Ягофаров
  2008-10-28 11:11                   ` Aleksey Avdeev
@ 2008-10-29 11:14                   ` Sergey Vlasov
  2008-10-29 12:19                     ` Aleksey Avdeev
  1 sibling, 1 reply; 18+ messages in thread
From: Sergey Vlasov @ 2008-10-29 11:14 UTC (permalink / raw)
  To: Sysadmins

[-- Attachment #1: Type: text/plain, Size: 911 bytes --]

On Tue, 28 Oct 2008 12:17:16 +0200 Денис Ягофаров wrote:

[...]
> Предположим, что 1 из жёстких дисков совсем погиб. При этом он уже ни на
> что не отвечает.
>
> # echo "scsi remove-single-device 2 0 0 0" > /proc/scsi/scsi
> # ls /dev/sd*
> /dev/sda  /dev/sda1  /dev/sdb  /dev/sdb1  /dev/sdd  /dev/sdd1  /dev/sde
[...]
> Как ни странно, он ещё не failed. Стоит ли его вручную помечать как failed?

failed появляется после обнаружения ошибки, что не произойдёт, пока
не попытаться обратиться к массиву.

> # cat /proc/mdstat
> Personalities : [raid10] [raid6] [raid5] [raid4]
> md0 : active raid5 sdd1[3] sdc1[2] sdb1[1] sda1[0]
>       2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
>
> Пробуем отформатировать, к примеру, /dev/md0... впрочем иное действие
> чтения/записи
> тоже должно подойти.

Лучше было делать "иное действие" - при форматировании как раз и
поменялся UUID файловой системы.

[-- Attachment #2: Type: application/pgp-signature, Size: 189 bytes --]

^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-25 16:53     ` Konstantin A. Lepikhov
  2008-10-25 20:35       ` Maks Re
@ 2008-10-29 11:20       ` Sergey Vlasov
  2008-10-29 11:44         ` Maks Re
  1 sibling, 1 reply; 18+ messages in thread
From: Sergey Vlasov @ 2008-10-29 11:20 UTC (permalink / raw)
  To: Sysadmins

[-- Attachment #1: Type: text/plain, Size: 1767 bytes --]

On Sat, 25 Oct 2008 20:53:37 +0400 Konstantin A. Lepikhov wrote:

> Hi Денис!
>
> Friday 24, at 01:56:58 PM you wrote:
>
> <skip>
> > sde стал после перезагрузки sdb.... (т.к. полетел sdb, его "вытащили",
> > затем "вставили" новый, он стал sde)
> >
> > пробую так:
> > # mdadm --assemble /dev/md0 --run -v
> > mdadm: looking for devices for /dev/md0
> > mdadm: /dev/sdd1 has wrong uuid.
> > mdadm: /dev/sdc1 has wrong uuid.
> > mdadm: /dev/sdb1 has wrong uuid.
> > mdadm: /dev/sda1 has wrong uuid.
> > mdadm: no devices found for /dev/md0
> >
> > # blkid
> > /dev/sda1: UUID="4aa4c1e1-a3e5-464c-8305-a2be835250b6" SEC_TYPE="ext2"
> > TYPE="ext3"
> > /dev/hda1: UUID="7deb64be-1be5-49dc-9e0f-4ac9381173f2" SEC_TYPE="ext2"
> > TYPE="ext3"
> > /dev/sdc1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid"
> > /dev/sdd1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid"
> > /dev/sdb1: UUID="75a37462-2c1e-240b-ce20-a292849720eb" TYPE="mdraid"
> >
> > в конфиге:
> > DEVICE /dev/sd[a-d]1
> > ARRAY /dev/md0 UUID=4aa4c1e1:a3e5:464c:8305:a2be835250b6
> > MAILADDR root
> > PROGRAM /sbin/mdadm-syslog-events
> После замены диска mdadm перестроил массив, изменив при этом его  uuid,
> чтобы нельзя было добавить не то диск. А в конфиге у вас указан масссив со
> старыми uuid'ами. Собственно, не совсем понятно, чем вы удивлены и на
> какое поведение вы расчитываете.

Ничего там не меняется (если не пересоздавать массив полностью - что
иногда приходится делать, если развалилось всё и нормальным образом
собрать не удаётся).  А вот форматы представления UUID у mdadm и
blkid разные (отличается даже порядок байтов); в udev (vol_id) тоже
другой формат (ещё и менявшийся в каких-то версиях).  Так что в
mdadm.conf нужно вписывать UUID именно из вывода mdadm.

[-- Attachment #2: Type: application/pgp-signature, Size: 189 bytes --]

^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-29 11:20       ` Sergey Vlasov
@ 2008-10-29 11:44         ` Maks Re
  0 siblings, 0 replies; 18+ messages in thread
From: Maks Re @ 2008-10-29 11:44 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

>  Так что в
> mdadm.conf нужно вписывать UUID именно из вывода mdadm.
>

пожалуй эту фразу надо прибито бОльшими буквами на "заборе"...

чтобы не забыть (понятно, что это есть в мане...)


-- 
С уважением,
  Макс.

^ permalink raw reply	[flat|nested] 18+ messages in thread

* Re: [Sysadmins] Собрать raid после сбоя и перезагрузки
  2008-10-29 11:14                   ` Sergey Vlasov
@ 2008-10-29 12:19                     ` Aleksey Avdeev
  0 siblings, 0 replies; 18+ messages in thread
From: Aleksey Avdeev @ 2008-10-29 12:19 UTC (permalink / raw)
  To: ALT Linux sysadmin discuss

[-- Attachment #1: Type: text/plain, Size: 1106 bytes --]

Sergey Vlasov пишет:
> On Tue, 28 Oct 2008 12:17:16 +0200 Денис Ягофаров wrote:
> 
> [...]
>> Предположим, что 1 из жёстких дисков совсем погиб. При этом он уже ни на
>> что не отвечает.
>>
>> # echo "scsi remove-single-device 2 0 0 0" > /proc/scsi/scsi
>> # ls /dev/sd*
>> /dev/sda  /dev/sda1  /dev/sdb  /dev/sdb1  /dev/sdd  /dev/sdd1  /dev/sde
> [...]
>> Как ни странно, он ещё не failed. Стоит ли его вручную помечать как failed?
> 
> failed появляется после обнаружения ошибки, что не произойдёт, пока
> не попытаться обратиться к массиву.
> 
>> # cat /proc/mdstat
>> Personalities : [raid10] [raid6] [raid5] [raid4]
>> md0 : active raid5 sdd1[3] sdc1[2] sdb1[1] sda1[0]
>>       2197715712 blocks level 5, 64k chunk, algorithm 2 [4/4] [UUUU]
>>
>> Пробуем отформатировать, к примеру, /dev/md0... впрочем иное действие
>> чтения/записи
>> тоже должно подойти.
> 
> Лучше было делать "иное действие" - при форматировании как раз и
> поменялся UUID файловой системы.

   У-ф-ф... Похоже я пропустил, что выполнялось именно форматирование.

-- 

С уважением. Алексей.



[-- Attachment #2: OpenPGP digital signature --]
[-- Type: application/pgp-signature, Size: 552 bytes --]

^ permalink raw reply	[flat|nested] 18+ messages in thread

end of thread, other threads:[~2008-10-29 12:19 UTC | newest]

Thread overview: 18+ messages (download: mbox.gz / follow: Atom feed)
-- links below jump to the message on this page --
2008-10-24  8:33 [Sysadmins] Собрать raid после сбоя и перезагрузки Денис Ягофаров
2008-10-24  8:51 ` Денис Ягофаров
2008-10-24 10:16 ` Alexey Shabalin
2008-10-24 10:56   ` Денис Ягофаров
2008-10-24 14:15     ` Денис Ягофаров
2008-10-25 16:53     ` Konstantin A. Lepikhov
2008-10-25 20:35       ` Maks Re
2008-10-26  9:22         ` Ivan Fedorov
2008-10-26 22:38           ` Aleksey Avdeev
2008-10-27  8:22             ` Yuri Bushmelev
2008-10-27 12:18             ` Ivan Fedorov
2008-10-27 14:28               ` Aleksey Avdeev
2008-10-28 10:17                 ` Денис Ягофаров
2008-10-28 11:11                   ` Aleksey Avdeev
2008-10-29 11:14                   ` Sergey Vlasov
2008-10-29 12:19                     ` Aleksey Avdeev
2008-10-29 11:20       ` Sergey Vlasov
2008-10-29 11:44         ` Maks Re

ALT Linux sysadmins discussion

This inbox may be cloned and mirrored by anyone:

	git clone --mirror http://lore.altlinux.org/sysadmins/0 sysadmins/git/0.git

	# If you have public-inbox 1.1+ installed, you may
	# initialize and index your mirror using the following commands:
	public-inbox-init -V2 sysadmins sysadmins/ http://lore.altlinux.org/sysadmins \
		sysadmins@lists.altlinux.org sysadmins@lists.altlinux.ru sysadmins@lists.altlinux.com
	public-inbox-index sysadmins

Example config snippet for mirrors.
Newsgroup available over NNTP:
	nntp://lore.altlinux.org/org.altlinux.lists.sysadmins


AGPL code for this site: git clone https://public-inbox.org/public-inbox.git