Обсуждение статьи тематического каталога: Восстановление массива RAID5 после сбоя двух дисков. (raid recover sync crash disk mdadm)Ссылка на текст статьи: http://www.opennet.dev/base/sys/raid5_sync.txt.html
У меня такая же история была, мне тоже повезло (постучал по голове) :)) А вообще после таких вот танцев с бубнами я рад что собирал изначально массивы бюджетные именно на linux-raid(mdadm) а не на fake-raid (дешевые контроллеры).
От себя посоветую очень внимательно отнеситесь к sata шнурочкам, в идеале есть шнурки с защелкой, тк бывает заденешь рукой и голову потом ломай почему у тебя райд развалился. :))
О ужас.. В какое состояние могли придти данные после этого лучше и не думать (кто сказал, что на втором вылетевшем диске данные более адекватные?). Только zfs, однозначно.
>О ужас.. В какое состояние могли придти данные после этого лучше и
>не думать (кто сказал, что на втором вылетевшем диске данные более
>адекватные?). Только zfs, однозначно.+1024, аналогично, только ZFS.
>О ужас.. В какое состояние могли придти данные после этого лучше и
>не думать (кто сказал, что на втором вылетевшем диске данные более
>адекватные?).Более адекватные чем что? Первый вылетевший уже отформатирован. Без второго массив не работал, то есть рассинхронизации данных на дисках нет.
Основная опасность для данных в этом случае - выдергивание из-под XFS раздела на лету. Плюс потери в тех блоках, которые прочитать не удалось.
В данном конкретном случае повредилась БД, в которую постоянно данные помногу пишутся. Восстановили из дампа отдельно. Больше потерь не замечено.Ужас, но не "Ужас! Ужас!"
А что за винчестеры использовались?
WDC WD5000AAKS-00YGA0А зачем это Вам?
годами использую WDC.Работает пол сотни SATA'шных WDxxxxABYS (AYYS, теперь и FBYS -- RAID Edition).
С прошлых лет осталось пару десятков IDE'шных WDxxxxAAJB (остальные проданы).С 2001-го года был один раз заводской брак на WВ4001ABYS (винт приехал нерабочий) и один раз после двух месяцев експлуатации сдох акселерометр на таком же накопителе - выражалось характерным свистом головок над внешними дорожками и необходимостью перепозиционирования их на начало диска и обратно для считывания данных (TLER и ZFS помогли).
То есть, за неполные восемь лет пользования топовыми сериями (a.k.a Enterprise-class) накопителей WDC на нескольких десятках серверов данные не терял ни разу.
В то же время Seagate, IBM, Fujitsu - дохли десятками.
На Samsung'и трёх-четырехлетней давности жалоб нет, но их у меня гораздо меньше (WD'шек же добрая сотня).
а в чем смысл использовать разделы?
почему не делать рейд сразу из девайсов ?
типо:
md0 : active raid5 sdc[0] sdb[4] sdd[3] sdf[2] sde[1]
1953545728 blocks level 5, 128k chunk, algorithm 2 [5/5] [UUUUU]
Можно и так.
А если хочется несколько разделов на RAID массиве, то можно собрать несколько RAID из разделов или один RAID из целых дисков разбить на разделы.
Кому что больше нравится.
В описаном случае, благодаря тому, что разделов было несколько, не пришлось грузиться с внешних носителей. И даже почтовый сервер работал все то немалое время, пока восстанавливался битый массив.
Повторю вечную истину:
"Обжегшись на молоке, на воду не дуют".
Статью следовало озаглавить "бекап/рестор" и переписать. Мои ИМХО.
P.S. боюсь думать, сколько протянет этот RAID после таких измывательств =-O
Ничего, после второго крупного попадалова на $ иногда люди учатся, но есть исключения.
НИКОГДА не делайте так, как описано.
Можно было избежать выделения значительной части адреналина, если бы автор следовал простому правилу - всегда перед реконфигурацией массива делать полный дамп данных, даже если массив находится в "degraded" режиме. Без одного винта данные бы прочитались, хотя и медленнее. А вот потом уже удалять/добавлять диски, проверять их и т.д. Ситуация с вылетом второго диска в массиве при попытке что-либо с ним сделать настолько стандартная, что ее даже к Мэрфи не отнесешь...