Ubuntu Server 16.04: как сконвертировать установленную ос в uefi без потери данных?

Всем привет! Передо мной стоит задача: перенести установленную ОС с одного диска в mdadm RAID1 состоящий из 2 дисков. Это мне удалось.
Данные были перенесены в деградированный RAID1 (из одного диска), был поправлен загрузчик и после успешной загрузки первый диск был так же добавлен в RAID1. Теперь у меня RAID1 из SATA SSD + NVME SSD.

Но проблема в том, что моя материнская плата умеет грузиться с NVME только в режиме UEFI — необходимо как-то заставить грузиться уже установленную ОС в UEFI. Сейчас пытаюсь завести на тестовом окружении.

Дано: два диска, оба в RAID1, в начале каждого диска создан EFI раздел (пока пустой). Будем считать, что vda — SATA, а vdb — NVME.

Device Boot Start End Sectors Size Id Type
/dev/vda1 2048 206847 204800 100M ef EFI (FAT-12/16/32)
/dev/vda2 206848 8595455 8388608 4G fd Linux raid autodetect

Device Boot Start End Sectors Size Id Type
/dev/vdb1 2048 206847 204800 100M ef EFI (FAT-12/16/32)
/dev/vdb2 206848 8595455 8388608 4G fd Linux raid autodetect

Как «научить» систему загружаться с UEFI?

Как расширить файловую систему на RAID томе mdadm?

Всем привет!
Есть вот такой RAID1

Personalities: [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md0: active raid1 vda1[2] vdb1[3]
5236736 blocks super 1.2 [2/2] [UU]

unused devices:

Из вот таких разделов на вот таких дисках:

NAME MAJ:MIN RM SIZE RO TYPE MOUNTPOINT
sr0 11:0 1 248M 0 rom
vda 254:0 0 10G 0 disk
└─vda1 254:1 0 5G 0 part
└─md0 9:0 0 5G 0 raid1 /
vdb 254:16 0 10G 0 disk
└─vdb1 254:17 0 5G 0 part
└─md0 9:0 0 5G 0 raid1 /
Читать дальше

Выпадает ssd-диск из софт рейда, в чем может быть причина?

Привет
есть сервер с софтовым raid 1
из двух ssd-дисков 120G

Один из дисков временами выпадает из рейда и становится не доступным до перезагрузки, после перезагрузки вновь без ошибок возвращается в рейд. Не могу понять из-за чего

В messages такие ошибки
Sep 17 18:55:42 kernel: sd 3:0:0:0: [sdb] FAILED Result: hostbyte=DID_BAD_TARGET driverbyte=DRIVER_OK Sep 17 18:55:42 kernel: sd 3:0:0:0: [sdb] CDB: ATA command pass through(16) 85 06 2c 00 da 00 00 00 00 00 4f 00 c2 00 b0 00 Sep 17 18:55:42 smartd[678]: Device: /dev/sdb [SAT], SLEEP mode ignored due to reached limit of skipped checks (10 checks skipped) Sep 17 18:55:42 smartd[678]: Device: /dev/sdb [SAT], not capable of SMART self-check Sep 17 18:55:42 smartd[678]: Device: /dev/sdb [SAT], failed to read SMART Attribute Data

Вывод smartctl, в то время когда он работает
Model: OCZ-ARC100 smartctl 6.4 2015-06-04 r4109 [x86_64-linux-4.8.5-alt490-amd64] (local build) Copyright © 2002-15, Bruce Allen, Christian Franke, www.smartmontools.org === START OF READ SMART DATA SECTION === SMART Attributes Data Structure revision number: 18 Vendor Specific SMART Attributes with Thresholds: ID# ATTRIBUTE_NAME FLAG VALUE WORST THRESH TYPE UPDATED WHEN_FAILED RAW_VALUE 5 Reallocated_Sector_Ct 0x0000 000 000 000 Old_age Offline — 0 9 Power_On_Hours 0x0000 100 100 000 Old_age Offline — 11019 12 Power_Cycle_Count 0x0000 100 100 000 Old_age Offline — 65 171 Unknown_Attribute 0x0000 100 100 000 Old_age Offline — 40596560 174 Unknown_Attribute 0x0000 100 100 000 Old_age Offline — 35 195 Hardware_ECC_Recovered 0x0000 100 100 000 Old_age Offline — 0 196 Reallocated_Event_Count 0x0000 100 100 000 Old_age Offline — 0 197 Current_Pending_Sector 0x0000 100 100 000 Old_age Offline — 0 208 Unknown_SSD_Attribute 0x0000 100 100 000 Old_age Offline — 59 210 Unknown_Attribute 0x0000 100 100 000 Old_age Offline — 0 224 Unknown_SSD_Attribute 0x0000 100 100 000 Old_age Offline — 1 233 Media_Wearout_Indicator 0x0000 099 099 000 Old_age Offline — 99 241 Total_LBAs_Written 0x0000 100 100 000 Old_age Offline — 2462 242 Total_LBAs_Read 0x0000 100 100 000 Old_age Offline — 1356 249 Unknown_Attribute 0x0000 100 100 000 Old_age Offline — 127297695

smartctl когда не работает
# smartctl -a /dev/sdb smartctl 6.2 2013-07-26 r3841 [x86_64-linux-3.10.0-514.26.2.el7.x86_64] (local build) Copyright © 2002-13, Bruce Allen, Christian Franke, www.smartmontools.org === START OF INFORMATION SECTION === Vendor: /3:0:0:0 Product: User Capacity: 600,332,565,813,390,450 bytes [600 PB] Logical block size: 774843950 bytes >> Terminate command early due to bad response to IEC mode page A mandatory SMART command failed: exiting. To continue, add one or more '-T permissive' options.

Подскажите пожалуйста в чем может быть причина

Можно ли поставить обычный жесткий диск на Сервер?

Всем доброго времени суток… Описания: есть сервер на которым установлено Centos 6.8 с WHM & CPanel, Сойти он на RAID 1 (dm-*) 1 Тб. Можно ли поставить обычный HDD 2.5 для резервный копирование Монтировать на корневой каталог
И еще подскажите безопасный вариант как умешать объем home и перевести на /.
fdisk -l
Disk /dev/sda: 1000.2 GB, 1000171331584 bytes 255 heads, 63 sectors/track, 121597 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x0004faa0 Device Boot Start End Blocks Id System /dev/sda1 * 1 64 512000 83 Linux Partition 1 does not end on cylinder boundary. /dev/sda2 64 121598 976216064 8e Linux LVM Disk /dev/mapper/vg_srv20-lv_root: 53.7 GB, 53687091200 bytes 255 heads, 63 sectors/track, 6527 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/mapper/vg_srv20-lv_swap: 25.4 GB, 25375539200 bytes 255 heads, 63 sectors/track, 3085 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000 Disk /dev/mapper/vg_srv20-lv_home: 920.6 GB, 920578424832 bytes 255 heads, 63 sectors/track, 111920 cylinders Units = cylinders of 16065 * 512 = 8225280 bytes Sector size (logical/physical): 512 bytes / 512 bytes I/O size (minimum/optimal): 512 bytes / 512 bytes Disk identifier: 0x00000000

Как установить Debian 9 Stretch на программный RAID1 (не ставится GRUB)?

Приветствую! Делаю машину для Ceph. Система устанавливается на программный RAID 1, состоящий из 3 SSD. Делаю на каждом из SSD по два «физических раздела для RAID», собираю в два тома RAID1. На первом разделе / (на ext4), второй раздел — xfs (в реальности будут 12 xfs разделов под журналы OSD, но я пока пытаюсь просто установить систему, разбивку сделаю позднее).

Ставлю Debian 9, в текстовом режиме. На финальном этапе установки предлагается выбрать куда установить GRUB — выбираю один из SSD (пробовал ставить на все — /dev/sdm, /dev/sdn, /dev/sdo) — получаю ошибку
Не удалось установить GRUB на /dev/md.
Не удалось выполнить команду 'grub-install /dev/md'.
Это неисправимая ошибка.

В консоли вот что:

grub-installer: mdadm: /dev/md does not appear to be an md device
grub-installer: grub-installer: error:
grub-installer: ioctl RAID_VERSION errorL Inappropriate ioctl for device.
grub-installer: error: Running 'grub-install --force "/dev/md" failed.
Вот что выдает cat /proc/mdstat:

Personalities: [raid1]
md1: active raid1 sdm5[0] sdo5[2] sdn5[1]
2050011728 blocks super 1.2 [3/3] [UUU]
md0: active raid1 sdm1[0] sdo1[2] sdn1[1]
29279232 blocks super 1.2 [3/3] [UUU]
unused devices:

Это значит на сервере софтовый рейд стоит?

Это значит на сервере софтовый рейд стоит?
Один рабочий диск и два зеркала?
Если да, то можно ли сказать, что они работают нормально?

major minor #blocks name

8 0 117220824 sda
8 1 20478976 sda1
8 2 96211968 sda2
8 3 523264 sda3
8 16 117220824 sdb
8 17 20478976 sdb1
8 18 96211968 sdb2
8 19 523264 sdb3
8 32 117220824 sdc
8 33 20478976 sdc1
8 34 96211968 sdc2
8 35 523264 sdc3
9 2 96211904 md2
9 1 20478912 md1

Disk /dev/sda: 120.0 GB, 120034123776 bytes
Читать дальше

Как выяснить проблему с Raid контролером на сервер?

У нас есть сервер СуперМикро на 8 дисков(4 сас, 2 ссд, 2 hdd), raid контролер lsi raid 2108.
Программа для raid контролера mega raid storage manager показал ошибку:
1. 267 [Warning, 1] 2016-12-28, 01:11:31 Controller ID: 0 Command timeout on PD: PD = -:-:3-No addtional sense information, CDB = 0x8a 0x00 0x00 0x00 0x00 0x00 0x6e 0xcc 0x92 0x00 0x00 0x00 0x00 0x10 0x00 0x00, Sense = null, Path = 0x4433221103000000 3361
2. 268 [Warning, 1] 2016-12-28, 01:11:29 Controller ID: 0 PD Reset: PD = -:-:3, Error = 3, Path = 0x4433221103000000 3355
а системных логах было
1. Controller ID: 0 PD Reset: PD = -:-:3, Critical = 3, Path = 0x4433221103000000.
2. Controller ID: 0 Command timeout on PD: PD = -:-:3No addtional sense information, CDB = 0x8a 0x00 0x00 0x00 0x00 0x01 0x34 0x0c 0xac 0x00 0x00 0x00 0x00 0x80 0x00 0x00, Sense =, Path =
0x4433221103000000.
В чем может проблема, что делать?

Спасибо.

Возникла ошибка на одном из дисков в програмном raid 5 под windows, как его корректно заменить???

Возникла ошибка (диск начал сыпаться, т.е. проблема аппаратная и ему правда кирдык) на одном диске программного RAID5 массива. Статус у тома стал «отказавшая избыточность». Для исправления я добавил в систему ещё один диск подходящего размера и сделал команду «восстановить том», однако винда почему то удалила из массива не диск с ошибками, а нормально работающий!
1) Что с этим делать????
2) Как корректно заменить диск?
3) Почему вообще такая хрень произошла?
4) Из данных диска выжило что либо после этого? Или всему кирдык и стоит уже забыть о данных?

P.S. Windows 2008 R2 SP1 со всеми обновлениями.

Развалился Raid на supermicro x8sia-f как быть что делать?

Господа прошу помощи первый раз оказался в такой ситуации.
Был у меня на одной площадке сервер с exchange на базе supermicro x8sia-f. Сегодня после обновления Windows 2008r2 и шататного ребута, он не запустился. Машина зависает на загрузке Windows ( бегает полосочка ). Попытки войти в любой вариант безопасного режима — бесполезно. Cудя по тексту при попытке зайти в безопасный режим виснет на загрузке драйверов (Stuck on «classpnp.sys».). Попробовал загрузиться c установочного диска винды, как только ему подсовываешь драйвера raid контроллера — программа установки, или исправления ошибок виснет наглухо. Проверил статус дисков в raid — всё ок. У самого рейда статус Verify.
Вопросы: Verify — в данной ситуации это мол проверь рейд ?( а как блин его проверить, нету у этой софтины проверки рейда почитал доку по материнской плате, а в ней по работе с контроллером ) Или идущий процесс — Verifing? если да то имеет ли смысл дождаться окончания процесса?

Как вытащить теперь с рейда информацию? больше всего интересуют базы Exchange. Бекапов нету. На бекапы руководство денег не завезло.
Панико. Ночь. Боль.

Итог: вытащил диски, привез в головной офис, подцепил на другой сервер к более современному и умному Adaptec контроллеру. Тот радостно опознал рейд, сказал, что он мол плохо ему и ребилд бы сделать, но позволил его прочитать. Бекапы сделал. Массив заребилдил. Коллега отвез диски обратно утверждает, что оно даже запустилось.
P.S. Самое странное, что при попытке загрузить драйвер adaptec контроллера supermicro под любой ос пока массив находился в состоянии Verify, система подвисала наглухо.

Софтовый RAID1 теряет superblock после ребута

Проблема выглядит примерно так:
Есть сервер с рейд контроллером (perc H700m) на Ubuntu 12.04, я пытаюсь создать программный рейд 1 на двух дисках по 3тб, отделив через gdisk 2 раздела по 300гб и один на 500гб на каждом из дисков пытаюсь соответственно собрать массивы.
Первое что показалось странным, возможно это от того, что контроллер для того чтобы подклчюить одиночный диск как бы помещает его в рейд0.
mdadm --create --verbose /dev/md0 --level=1 --raid-devices=2 /dev/sda1 /dev/sdb1 mdadm: /dev/sda1 appears to be part of a raid array: level=raid0 devices=0 ctime=Thu Jan 1 03:00:00 1970 mdadm: partition table exists on /dev/sda1 but will be lost or meaningless after creating array mdadm: Note: this array has metadata at the start and may not be suitable as a boot device. If you plan to store '/boot' on this device please ensure that your boot-loader understands md/v1.x metadata, or use --metadata=0.90 mdadm: /dev/sdb1 appears to be part of a raid array: level=raid0 devices=0 ctime=Thu Jan 1 03:00:00 1970 mdadm: partition table exists on /dev/sdb1 but will be lost or meaningless after creating array mdadm: size set to 314441536K
То же самое и на остальных.
Массив создается, дальше я его отдаю через tgt по iscisi.
Добавляю в /etc/mdadm/mdadm.conf мои массивы.
ARRAY /dev/md0 UUID=fd798c1c:baf4f1a9:682aab93:740a5f7b ARRAY /dev/md1 UUID=3a45134d:334b408a:64bcef42:3c7faf9e ARRAY /dev/md2 UUID=a9e82c0e:384fb9b8:6eed8296:8c7eaab6
Всё работает до ребута, после ребута стартует один массив md2 и начинет его синхронизировать.
Если сделать после ребута mdadm -A --verbose /dev/md0 валится что-то вроде:
mdadm: no RAID superblock on /dev/sda1 mdadm: Cannot assemble mbr metadata on /dev/sda1 mdadm: no RAID superblock on /dev/sdb1 mdadm: Cannot assemble mbr metadata on /dev/sdb1