Raid 1 degraded что делать

Кажись, все.. LSI Megaraid 9260-16i Raid6 и КД с архивом

Кажись, все.. LSI Megaraid 9260-16i Raid6 и КД с архивом

Сообщение JagO » 05 май 2016, 22:10

Как неоднократно говорилось всеми умными людьми — «Пока гром не грянет. «, ну а дальше и так всем уже понятно.

На работе есть сервер на Windows Server 2008 R2 являющийся одновременно главным контроллером домена и файловым сервером.
Собран на базе контроллера LSI Megaraid 9260-16i и восьми 2Тб жестких дисков Seagate ST2000DM001.
Диски объединены в массив RAID6.

Некоторое время назад практически одновременно два диска вылетели из массива — в логах были сообщения вида Uncorrectable Media Errors со ссылками на эти два диска, затем были сообщения об их отключении и включении по питанию, а затем оба диска перешли в состояние Failed, а состояние массива стало Degraded.
Данные с массива при этом были доступны, система нормально работала, при перезапуске сервера — он без проблем стартовал.

Были заказаны да аналогичных жестких диска. Немногим больше одной недели их закупали, потом еще примерно неделю я выжидал подходящего момента для замены. В праздники приступил к замене. Сменил статус двух «больных» дисков на — «подготовка к замене». По данным установленной в ОС программы MegaRaid Storage Manager эти диски в вышли из Virtual Drive, спустились ниже и стали Unconfigured Bad. Я извлек их из машины. Через некоторое время последовательно установил два диска им на замену. При этом контроллер самостоятельно не начинал процедуру «ребилда», и по этому я, перевел оба новых диска в состояние Global Hot Spare, затем обновил программу управления контроллером (в смысле refresh) — и увидел, что оба диска «подтянулись» в Virtual Drive и на них начался процесс Rebuild’а. Шел он последовательно, сперва прогресс-бар заполнился на одном винте, затем начался на другом. Я не стал дожидаться окончания процедуры. По журналу контроллера примерно через 6 часов оба диска уже были «в строю». И все пришло в норму.

Но, как выяснилось, не на долго. Неприятности ждали меня в первый рабочий день после праздников.
В журнале мониторинга MSM были строчки с руганью как раз на два новых жестких диска, вида:
Controller ID: 0 Puncturing bad block: PD -:-:12 Location 0xa6cbad78 Event ID:97
Controller ID: 0 Puncturing bad block: PD -:-:14 Location 0xa6cbad78 Event ID:97

а через некоторое время (по тому же журналу за прошлый день), к ним добавились строки вида:
Controller ID: 0 Unrecoverable medium error during recovery: PD -:-:12 Location 0xa6cbad7e Event ID:111
и Controller ID: 0 Unrecoverable medium error during recovery: PD -:-:8 Location 0xa6cbad78 Event ID:111

То есть, «задурил» еще один жесткий диск. При этом, он очень быстро пришел в «негодность» — проскочило сообщения о том, что он перешел в состояние Unconfired Bad и он окрасился рыже-красным значком.

То есть, когда я утром запустил MSM и увидел все эти события в логе, состояние массива было Partially degraded.
Так как я не достаточно знаком с терминологией и особенностями работы raid-массивов, в частности, очень редко посещал этот форум и не читал обязательной и рекомендованной тут литературы, первым делом принялся искать на просторах всемирной сети информацию о том, что собственно произошло, и чем это все может грозить.

Но было уже поздно. Сотрудники фирмы сообщили о проблемах с доступам к некоторым расположенным на этом сервере сетевым папкам и файлам. Я проверил права доступа — там все было в норме, но и с самого сервера (локально) я не мог открыть эти директории. Затем почти сразу отовсюду посыпались ошибки системы, ошибки с адресами в ОЗУ и ошибки доступа к системным файлам Windows. Буквально через пару минут моя терминальная сессия повисла, а затем закрылась. Сервер ушел на перезагрузку, и ОС с него уже не загружалась. И вот тут, я запаниковал, и сделал единственное что пришло в голову после поверхностного прочтения информации об ошибках их журнала с контроллера — нужно сделать Consistency Check. Я запустил эту процедуру из БИОСа контроллера. Спустя сутки она была завершена, но не принесла положительного результата — ОС так и не загружалась.

Через некоторое время, после подбора загрузочного диска с дистрибутивом Windows 2008 Server R2, и его записи на флешку с поддержкой UEFI (в противном случае другие дистрибутивы и загрузочные носители ругались на то, что Восстановление системы с этого диска невозможно, видимо, не определяя GPT структуру разделов в массиве), удалось с нее загрузиться и запустить Восстановление системы. Там было всего три пункта для выбора, и верхний из них предлагал восстановление системы из резервной копии образа. Так как регулярные бэкапы на сетевое хранилище выполнялись только для файлового хранилища, судя по всему, не неся в себе System State и другую информацию для восстановления ОС, я попробовал посмотреть резервную копию на локальном диске С. Но, открывшейся проводник не смог получить доступ в разделы C и D (раздел под установленную ОС и раздел с файловым архивом), и выставив Вид в проводнике в Таблицу — я увидел, что файловая система этих разделов с массива — RAW.

Собственно, в этот момент я понял, что могу дальше необдуманными действиями совсем все поломать или сделать еще хуже.
Подскажите, пожалуйста, как мне быть? Как вы считаете, что можно в сложившейся ситуации предпринять? Какими должны быть мои действия для восстановления данных и работоспособности сервера?

P.S. Мысли и вопросы на данную тему..

а) так как массив Partially degraded — будет ли ему (и данным на нем) лучше или хуже, если я доставлю еще один такой же диск на 2Тб и запущу процесс пересборки массива? Как это может сказаться на нем?

б) может, мне с установочного дистрибутива ОС запустить CHKDSK /F для системного раздела и файловая система и структура будут восстановлены? Читал, что есть мнения, о том, что для проблемных RAID5 этого лучше не делать, так как это может совсем испортить данные на диске. Но у меня проблемный массив RAID6 ([хотя, в текущем состоянии, он, наверное, ближе к проблемного RAID5), да и верно ли это утверждение о вреде CHKDSK для RAID массивов созданных на аппаратном контроллере с кэшем, памятью, батареей и тп?

в) начинаю с бэкапов восстанавливать данные на отдельный диск на другом ПК, что бы к ним доступ появился у сотрудников. Затем новый КД соберу и введу его в эксплуатацию. верная последовательность действий?

г) я так понимаю, что в любом случае, раз уж массив поврежден, сыпал указанными выше ошибками, то вне зависимости от того, получится с него данные восстановить и перенести в другое место, или не получится, я могу смело на этом же контроллере к оставшимся незадействованными портам подключать новые диски и создавать новый дисковый массив, что бы в дальнейшем его использовать, а поврежденный массив вывести из эксплуатации и забрать диски?

QNAP NAS Community Forum

How to rebuild degraded RAID1 array

How to rebuild degraded RAID1 array

Post by blazingstix » Tue Sep 26, 2017 5:02 am

I’m been going over this a couple times, and I feel like I’m missing something obvious.

I’m running a TS-431+ with QTS v4.3.3.0299 installed. I have 2 drives configured as a RAID1 (basic mirror). This morning one drive started reporting I/O errors, so I bought a replacement (identical brand, size, etc, only 4 years newer). I did a Hot-Swap replacement of the bad drive (which is what all the instructions I could find instructed).

Читать еще:  В каком виде операционная система хранит пароли

It’s been about 3 hours, and when I log into the web-interface, it displays Warnings, and says that the «RAID Group is ‘Degraded,’ please refer to the Storage Manager page for details.» But I see more more details than «degraded there» and have found no obvious setting or button to fix the RAID degredation. My understanding is that this is supposed to be pretty much automatic when inserting a new drive.

Both hard drives are detected and reported as Good. I also see no RAID section in the Storage Manager.

I can still access the files on the NAS through my computer, but I’m concerned that they are no longer mirrored and I don’t know how to verify. Can somebody please help me through this?

Re: How to rebuild degraded RAID1 array

Post by Toxic17 » Tue Sep 26, 2017 5:34 am

ssh into your NAS with PuTTy, type in the following:

you should see something like:

please post YOUR output.

NAS: TS-473-32GB QM2-2P QXG-10G1T 4.4.1.1146 • TVS-463-16GB 4.4.1.1146 QM2-2S10G1TB • TS-459 Pro 2GB 4.2.6 • TS-121 4.3.3.1098 • APC Back-UPS ES 700G •
QPKG’s: TwonkyServer 8.51 • Apache73 v2441.7310 • QSonarr 3.0.3.645 • QNBZGet 21.0 • phpMyAdmin 4.9.0.1 • Qmono 5.20.1.19 • McAfee 3.0.1 • Lychee 3.2.16 • HBS 3.0.191016 • LEgo v3.1.0
Network: VM Hub 3.0 • UniFi USG Pro 4 • UniFi USW-16-150W • UniFi USW-8-60W • UniFi CloudKey Gen2+• UniFi G3-Flex • UAP AC Pro • UAP AC Lite • SLM2008 • Dell 7050 MFF •

Re: How to rebuild degraded RAID1 array

Post by blazingstix » Tue Sep 26, 2017 5:42 am

Thank you for your quick response. I’ve never used PuTTy before, but I was pleased to see it was fairly painless to find on Google and install.

Re: How to rebuild degraded RAID1 array

Post by blazingstix » Mon Oct 02, 2017 3:39 am

I don’t really know how to interpret that information itself.

There are three RAID arrays on my NAS? md1, md13, and md9. arrays md13 and md9 have 2/24 devices active? I assume those must have been internally created arrays, and the array i’m most concerned with is md1.

That one shows 2 devices assigned but only 1 active. If I try to get more details on it, it tells me:

So, it looks like the QNAP isn’t recognizing that the newly inserted drive is supposed to be a replacement for the previously faulty drive. Do I need to assign the new drive to my existing raid array? Is so, how do I do that?

Or is all this outside the scope of community help, and I should open up a support ticket instead?

Re: How to rebuild degraded RAID1 array

Post by Toxic17 » Mon Oct 02, 2017 4:02 am

it appears to only see one drive connected.

run this on your NAS in a putty session

should come back with the number of drives seen.

should list the drives and models like this example:

NAS: TS-473-32GB QM2-2P QXG-10G1T 4.4.1.1146 • TVS-463-16GB 4.4.1.1146 QM2-2S10G1TB • TS-459 Pro 2GB 4.2.6 • TS-121 4.3.3.1098 • APC Back-UPS ES 700G •
QPKG’s: TwonkyServer 8.51 • Apache73 v2441.7310 • QSonarr 3.0.3.645 • QNBZGet 21.0 • phpMyAdmin 4.9.0.1 • Qmono 5.20.1.19 • McAfee 3.0.1 • Lychee 3.2.16 • HBS 3.0.191016 • LEgo v3.1.0
Network: VM Hub 3.0 • UniFi USG Pro 4 • UniFi USW-16-150W • UniFi USW-8-60W • UniFi CloudKey Gen2+• UniFi G3-Flex • UAP AC Pro • UAP AC Lite • SLM2008 • Dell 7050 MFF •

Re: How to rebuild degraded RAID1 array

Post by blazingstix » Mon Oct 02, 2017 4:07 am

Not sure why it’s reporting 4 HDDs. there’s only two plugged into it.

Yeah, that matches what I’d expect.

I’ve tried an fdisk -l on each of those, too:

Re: How to rebuild degraded RAID1 array

Post by blazingstix » Mon Oct 02, 2017 5:03 am

I’m not sure why fdisk isn’t showing all the partitions I’d expect (either from sda or sdb). The cat /proc/mdstat command is listing sda3 and sda4 as partitions used in the arrays, so I’d expect an fdisk of sda to show more than a single partition.

When I run a parted -l command, I see the partition for sda and sdb that I’d expect (along with a bunch of others for /dev/mapper/ and the md1, md9, md13 arrays found above — I’ve edited out all but the sda/sdb results).

If nothing else, it looks like the QNAP has replicated the partition layout from sda almost exactly onto sdb. but it still doesn’t look like it’s actually added sdb to the raid array, for rebuilding.

Re: How to rebuild degraded RAID1 array

Post by Toxic17 » Mon Oct 02, 2017 7:01 am

rebuilding should automatically rebuild but looks like yours does seem to have done that. personally i wold submit a ticket and let QNAP take a look at your situation.

I did however find a scenario like yours, but would not advise on doing this yourself unless you have a full backup and your really wanting to have a go yourself.

NAS: TS-473-32GB QM2-2P QXG-10G1T 4.4.1.1146 • TVS-463-16GB 4.4.1.1146 QM2-2S10G1TB • TS-459 Pro 2GB 4.2.6 • TS-121 4.3.3.1098 • APC Back-UPS ES 700G •
QPKG’s: TwonkyServer 8.51 • Apache73 v2441.7310 • QSonarr 3.0.3.645 • QNBZGet 21.0 • phpMyAdmin 4.9.0.1 • Qmono 5.20.1.19 • McAfee 3.0.1 • Lychee 3.2.16 • HBS 3.0.191016 • LEgo v3.1.0
Network: VM Hub 3.0 • UniFi USG Pro 4 • UniFi USW-16-150W • UniFi USW-8-60W • UniFi CloudKey Gen2+• UniFi G3-Flex • UAP AC Pro • UAP AC Lite • SLM2008 • Dell 7050 MFF •

Re: How to rebuild degraded RAID1 array

Post by blazingstix » Tue Oct 03, 2017 8:15 am

Hmm, I saw that link as well. I was hoping there was some way within the QTS 4.3.3 Web GUI itself that would give me this kind of control. Ultimately I did pretty much exactly what that link suggested. If somebody else should have a similar problem as mine, here’s essentially the steps I did to resolve it (for reference).

In my case, in a RAID1 configuration (mirroring), one drive was reporting I/O failures in the SMART readings. Without powering down the system, I hot-swapped the faulty drive with a completely blank (unformatted) replacement drive of equal size/make.

The TS-431+ appears to have properly updated the partition structure on the new drive to match that of the old, but it failed to assign the proper (or any) partition from the new drive to the raid array. I had to do that manually, which appears to have resolved my problem.

Читать еще:  Asus multiframe что это за программа

I did not experience any data loss, but that said I also was able to made a full backup while the array was in degraded mode (because it’s RAID1, degraded mode is not READ-ONLY, whereas (I believe) a degraded RAID5 array will automatically be put into READ-ONLY mode. I could have continued using the raid array with only one drive, but what would be the point in that?)

While connected to the TS-431+ by Telnet (via PuTTY).
1) identify the RAID arrays used by the system: cat /proc/mdstat

In the result, the «block» are roughly kilobytes. So I’m trying to identify the one that corresponds to my raid array. in this case, it is md1. It also shows that sda3 is a member of that raid. sda is the HDD in slot 1, and 3 means it’s the 3rd partition on that HDD.

2) To get more details about that raid array: mdadm —misc —detail /dev/md1

This shows that Raid Devices is 2, that means the raid was created with 2 HDDs. However, the Working Devices is only 1, which corresponds to the fact I’ve physically removed the faulty HDD, leaving the raid array in a degraded state. At the bottom, it again shows which hdd and partition is a part of this array.

3) Do not use fdisk to view partitions. fdisk does not work with 2TB drives or larger. Instead, use parted -l:

With the results from parted, I identified the newly created partition in sdb (the HDD I hot-swapped into slot 2), which matched the signature of sda3. In this case, it is sdb3.

4) Using the identified raid name (md1) and the missing partition (sdb3), I was able to manually add partition to the array: mdadm /dev/md1 —add /dev/sdb3 and verified by viewing the details of the array again: mdadm —detail /dev/md1

When I did that, it began rebuilding the array immediately without any further action required on my part. Logging into the web UI at this point showed the same status — Degraded (rebuilding). And about 6 hours later the rebuild completed.

I still have no idea why it didn’t begin the rebuild automatically, and I’m a little disappointed the only way to force it to is to telnet in and learn a bunch of linux commands. I didn’t buy a NAS appliance with a web UI so I could use telnet. I will still try with official support, if only so they can log it as a potential bug, but I’m not expecting much. I’m back up and running, and I’m not about to intentionally break it so I can do more play-testing.

Re: How to rebuild degraded RAID1 array

Post by rolldog » Tue Oct 03, 2017 11:44 am

Re: How to rebuild degraded RAID1 array

Post by storageman » Tue Oct 03, 2017 4:23 pm

forum.lissyara.su

Часто, когда ты думаешь, что выбираешь между «сделать хорошо» и «сделать плохо», ты лишь влияешь на момент, когда это будет «сделано через жопу».

Intel SRCU42X Degraded RAID5

Intel SRCU42X Degraded RAID5

Дано:
* сервер с контроллером Intel SRCU42X
* аппаратный RAID5 из пяти 73-гектарных сказей320 в состоянии Degraded.
Цель:
* восстановить RAID из Degraded до Optimal, желательно без полного ребилда и инициализации массива

нашел вот эти руководства
http://www.intel.com/cd/channel/reselle . 257580.htm
http://www.intel.com/cd/channel/reselle . 250742.htm
как я понимаю, надо заменить битый хард на исправный и сделать ребилд вновь вставленного харда?

непонятно как перевести битый хард в оффлайн, тем более что уже вставил новый. достаточно ли просто запустить ребилд одного нового харда? не повлечет ли это ребилд и инициализацию всего массива?

PS Прошу прощения за нубские вопросы, ткните плз носом, что почитать, или посоветуйте что делать..

Услуги хостинговой компании Host-Food.ru

Re: Intel SRCU42X Degraded RAID5

Re: Intel SRCU42X Degraded RAID5

вот тут в пункте 14 пишут наоборот,
http://forum.ixbt.com/post.cgi?id=annc:11:38437
что принудительно ставить диски в онлайн можно только если упало _одновременно_ два и более дисков и если точно известно, что они упали одновременно(например при отключении света), а не последовательно(например при отключении света). и если поставить в онлайн дохлый или левый диск то это может погубить весь массив

время терпит, где то до среды минимум, в выходные доступа к серверу скорее всего не будет, но и информация лишней не будет

Re: Intel SRCU42X Degraded RAID5

Re: Intel SRCU42X Degraded RAID5

Непрочитанное сообщение _FreeBSP » 2010-07-24 19:04:55

Re: Intel SRCU42X Degraded RAID5

сделал, еще вчера, но отписаться есть время только сейчас
все сказанное сделал на контроллере SRCU42X, но может работать и на следующих контроллерах

  • Intel® RAID Controller SRCS16
  • Intel® RAID Controller SRCS28X
  • Intel® RAID Controller SRCU41L
  • Intel® RAID Controller SRCU42E
  • Intel® RAID Controller SRCU42X
  • Intel® RAID Controller SRCZCRX
  • Intel® RAID Controller SROMBU42E

итак, краткий мануал по восстановлению работоспособности рейд5 с одним выпавшим диском на вышеозначенных контроллерах
все делал из RAID BIOS Console, но вроде в веб-консоли тоже можно
кроме того, если контроллер и корзинка для хардов умеют правильно обрабатывать выключение и включение харда в работе, то горячая замена дохлого харда на новый может повлечь автоматический запуск ребилда вновь вставленного диска и через время, если все пройдет успешно, диск поднимется в онлайн, а массив соотвественно в optimal
но я о возможностях контроллера и корзинки обрабатывать горячую замену диска не знал, сервак не боевой, поэтому все делал через выключение сервера.

Есть degraded raid5 из пяти одинаковых ultra320 сказевых хардов. Один из хардов отказал и массив перешел в состояние degraded — напомню, это такое состояние массива, при котором массив работоспособен при отсутствии/отказе одного любого диска. Надежность массива понижается до уровня raid0, а информация, содержавшаяся на выпавшем диске вычисляется из имеющейся информации и parity-блоков. Как следствие, существенно понижается скорость доступа к массиву.
В рейд биосе дохлый хард отображается как Failed, его лампочка в корзинке горит желтым, а сервак пищит протяжным неприятным писком, сигнализируя о деградировавшем массиве. Диск рекомендуется как можно быстрее заменить, причем желательно на идентичный выпавшему. Нередки случаи, когда два диска умирают один за другим с небольшим промежутком.

Диск заменил на выключенном сервере, но писк не прекратился, в рейд биосе диск остался Failed, а массив — Degraded. Логично, аппаратная замена диска не повлекла восстановление массива. А чтобы диск встал в массив надо сделать ребилд вновь вставленного диска. При этом вся информация, содержавшаяся на выпавшем диске будет перевычислена и записана на вставленный диск, а сам диск по окончании этой операции станет частью массива. На главном экране в верхней правой части выпавший диск будет иметь статус Failed. Тыркаем на него и попадаем в его свойства. Тут можно принудительно отправить диск в онлайн, или сделать его ребилд. Нам нужно сделать ребилд замененного диска, поэтому ставим соответствующую и жмем Гоу. Есть еще какой то выбор, но там оставляем все как есть. Прогрессбар появится внизу страницы свойств диска. На ребилд 73-гигового винчестера у меня ушло около полутора часов, после чего диск сам встал в онлайн, массив вернулся в Optimal, а писк прекратился.

Немного о граблях — чтобы писк не давил на мозги можно его выключить, ткнув на соотвествующую кнопочку. Одинарное тырканье эффекта над раздражителем не возымело, а двойное вызывало подвисание. Кстати, ребут во время ребилда может убить хард(ы), так что советую опробовать эффект заветной кнопочки до начала ребилда.

Читать еще:  Qualcomm snapdragon 212 или 400 какой лучше

Операция Make Online может спасти ситуацию, если два и более дисков выпали _одновременно_, диски исправны физически и логически, но контроллер почему то считает что они умерли. Операция Make Online заставит контроллер считать что диск исправен и, внимание, на нем заведомо верные данные. Но если диски неисправны, или, даже,просто читались на другой машине под виндой, то эта операция повлечет утрату всей информации на массиве. Так что перед этой операцией рекомендуется сделать полное посекторное копирование всех дисков массива.

Напоследок стоит отметить, что Биос определяет контроллер как диск(или диски, если создано несколько массивов). Поэтому как только начинается инициализация дисков мы попадаем на экран контроллера, где можем войти в рейд биос, нажав Control+G. А вход в обычный биос материнки будет выполнен только после того как контроллер разберется со своими дисками и сообщит БИОСу машины информацию о массивах. Это важно, потому что заветные Del и F2
не будут иметь эффекта до тех пор, пока raid контроллер не вернет управление БИОСу материнки.

Ну и хрестоматийные слова:
1) RAID не заменяет бекап;
2) перед внесением изменений в массив создавайте полные посекторные бекапы всех дисков массива;
3) Если на массиве очень важная информация, а актуальных бекапов нет, доверьте восстановление информации профессионалам

Вроде все рассказал про свое первое знакомство с серверными сказёвыми рейдами вообще и с означенным контроллером в частности. Если есть какие вопросы, постараюсь ответить, но в этой области я сам пока еще новичок. Если материал интересен и полезен, можно причесать и вынести в статью.

Raid 1 degraded что делать

Чумовейшая чума.
Вчера вырубил все фильтры, которые блокировали разного рода рассылки в почте. И моментально свалилось три письма, с содержанием примерно о том что you have degraded array at /dev/mda0 и тому подобное — на все три партиции винта, стоящего в рейде и меньше года проработавшего. В Hetzner.

Просмотрел почту — валились такие письма уже месяца два. Написал в Hetzner — так мол и так — винт подох, не откликается по

hdparm -i /dev/sdb | grep SerialNo
HDIO_DRIVE_CMD (identify) failed: Input/output error
HDIO_GET_IDENTITY failed: No message of desired type

И пишут они мне человеческим языком — давайте, мол, запустим мы вам хардвар чек на 10 часов с отключением сервера.
Я так немножечко удивился — отвечаю — братюни, у меня винт из рейда выпал — вот, посмотрите —

Personalities : [raid0] [raid1] [raid6] [raid5] [raid4] [raid10]
md2 : active raid1 sda3[0]
1462516672 blocks [2/1] [U_]

md1 : active raid1 sda2[0]
524224 blocks [2/1] [U_]

md0 : active raid1 sda1[0]
2096064 blocks [2/1] [U_]

А они такие — ну отлично — давайте тогда мы вам винт поменяем просто. 20 минут работы всего делов.
Ну, я по scp слил бекапы /etc, /home и /var — и говорю — ну, меняйте, чертяки языкастые. Даром чтоль вам плачу-то.

Пишут через полчаса — поменяли, проверяйте. Проверяю — и вправду, диск подключили, серийник его высвечивается. А вот в рейд его не впихнули. Пишу — мол, своими руками-то в рейд его колбасить? Отвечают — ну, своими и колбась, вот тебе ссылка на нашу вики что и как там делать.

ОК. Посмотрел вики. Сделал первому винту fdisk /dev/sda -l — запомнил все, что написали. Начал делать такое же для второго, новенького.

А винты-то кстати на полтора тера оба.

И второй в GPT притом. Правда, не сразу заметил. Ну, в общем, шаманил и шаманил с fstab, sfstab, cfstab, — даже потом в parted полез, — чтоб убедиться что последний ext3 не знает как системы до сих пор.

Что-то вроде было:

sfdisk -d /dev/sda | sfdisk /dev/sdb
Checking that no-one is using this disk right now .
OK

Disk /dev/sdb: 182401 cylinders, 255 heads, 63 sectors/track

sfdisk: ERROR: sector 0 does not have an msdos signature
/dev/sdb: unrecognized partition table type
Old situation:
No partitions found
New situation:
Units = sectors of 512 bytes, counting from 0

Device Boot Start End #sectors Id System
/dev/sdb1 2048 4194303 4192256 fd Linux raid autodetect
/dev/sdb2 4194304 5242879 1048576 fd Linux raid autodetect
/dev/sdb3 5242880 2930276351 2925033472 fd Linux raid autodetect
/dev/sdb4 0 — 0 0 Empty
Warning: partition 1 does not end at a cylinder boundary

sfdisk: I don’t like these partitions — nothing changed.
(If you really want this, use the —force option.)
sfdisk -d /dev/sda | sfdisk /dev/sdb —force
Checking that no-one is using this disk right now .
OK

Disk /dev/sdb: 182401 cylinders, 255 heads, 63 sectors/track

sfdisk: ERROR: sector 0 does not have an msdos signature
/dev/sdb: unrecognized partition table type
Old situation:
No partitions found
New situation:
Units = sectors of 512 bytes, counting from 0

Device Boot Start End #sectors Id System
/dev/sdb1 2048 4194303 4192256 fd Linux raid autodetect
/dev/sdb2 4194304 5242879 1048576 fd Linux raid autodetect
/dev/sdb3 5242880 2930276351 2925033472 fd Linux raid autodetect
/dev/sdb4 0 — 0 0 Empty
Warning: partition 1 does not end at a cylinder boundary
Successfully wrote the new partition table

Re-reading the partition table .

If you created or changed a DOS partition, /dev/foo7, say, then use dd (1)
to zero the first 512 bytes: dd if=/dev/zero of=/dev/foo7 bs=512 count=1
(See fdisk (8).)
fdisk /dev/sda -l

Disk /dev/sda: 1500.3 GB, 1500301910016 bytes
64 heads, 32 sectors/track, 1430799 cylinders
Units = cylinders of 2048 * 512 = 1048576 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0x0005d36c

Device Boot Start End Blocks Id System
/dev/sda1 2 2048 2096128 fd Linux raid autodetect
/dev/sda2 2049 2560 524288 fd Linux raid autodetect
/dev/sda3 2561 1430799 1462516736 fd Linux raid autodetect
fdisk /dev/sdb -l

Disk /dev/sdb: 1500.3 GB, 1500301910016 bytes
255 heads, 63 sectors/track, 182401 cylinders
Units = cylinders of 16065 * 512 = 8225280 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disk identifier: 0×00000000

Device Boot Start End Blocks Id System
/dev/sdb1 1 262 2096128 fd Linux raid autodetect
Partition 1 does not end on cylinder boundary.
/dev/sdb2 262 327 524288 fd Linux raid autodetect
Partition 2 does not end on cylinder boundary.
/dev/sdb3 327 182402 1462516736 fd Linux raid autodetect

Ничем в общем все заканчивалось — видать, где-то сам дурак был, недоразметил ему шапку дисковую. Хотя и dd пробовал подтесать ему, и с fdisk ms-dos-ил. В итоге просто в какой-то момент переписка моя с саппортом зашла в тупик и полез курить маны, куренные в последний раз года три назад.

В итоге забил мощный болт на их вики и несколькими мощными рывками кончил процесс следующим:

dd if=/dev/sda of=/tmp/sda.mbr bs=512 count=1
dd if=/tmp/sda.mbr of=/dev/sdb bs=512 count=1
fdisk /dev/sdb

После чего сохранил разметку партиции — ну а дальше дело техники —

mdadm /dev/md0 -a /dev/sdb1
mdadm /dev/md1 -a /dev/sdb2
mdadm /dev/md2 -a /dev/sdb3

Осталось 3 часа до синхронизации последней партиции. Радуюсь.

Ссылка на основную публикацию
Adblock
detector