Bonjour et bonne année.
Suite au crash d'un disque partitionné en GPT (/dev/sda) sur lequel j'avais grub et refind sur 2 partions EFI non RAID, dans un raid1 j'ai remplacé le disque et relancé le système avec succès. J'ai aussi relancé le raid en ajoutant les partitions EFI jumelles au raid (/dev/sda1 et /dev/sdb1). Comme j'ai perdu le chargeur de démarrage EFI avant de redémarrer, je n'ai pas pu redémarrer Debian. Je me suis lancé dans une récupération depuis un live cd Sysrescue avec un chroot. J'ai réussi la manoeuvre mais ça m'a mis le bazard dans les nom de groupes RAID et l'étiquette des partions RAID (labellisées maintenant sysrescue:0,1, etc)
Pour remettre de l'ordre dans les noms de groupes raid, j'ai tenté plusieurs fois de réassembler les goupes concernés sous le sytème natif (Debian 10), sans pouvoir stopper le raid (ressources occupées). Il me semble avoir déjà eu à faire avec ce changements de noms de groupes et pouvoir stopper un raid actif. Mais je peux me tromper d'où mon questionnement : est-il possible de stopper un raid actif pour changer les noms de groupes?
Depuis un live cd, oui, avec ce problème de changement de noms. Mais depuis le système concerné ?
# fdisk -l
Disk /dev/sda: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: ST1000LM049-2GH1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 8B860C74-9AC3-11EB-BBDA-E2070740347B
Device Start End Sectors Size Type
/dev/sda1 4096 1048575 1044480 510M EFI System
/dev/sda2 1048576 158744575 157696000 75.2G Microsoft basic data
/dev/sda3 554008576 558104575 4096000 2G Linux RAID
/dev/sda4 558104576 640024575 81920000 39.1G Linux RAID
/dev/sda5 640024576 1953523711 1313499136 626.3G Linux RAID
/dev/sda6 158744576 554008575 395264000 188.5G Microsoft basic data
Partition table entries are not in disk order.
Disk /dev/sdb: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: ST1000LM049-2GH1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 8B860C74-9AC3-11EB-BBDA-E2070740347B
Device Start End Sectors Size Type
/dev/sdb1 4096 1048575 1044480 510M EFI System
/dev/sdb2 1048576 554008575 552960000 263.7G Linux filesystem
/dev/sdb3 554008576 558104575 4096000 2G Linux RAID
/dev/sdb4 558104576 640024575 81920000 39.1G Linux RAID
/dev/sdb5 640024576 1953523711 1313499136 626.3G Linux RAID
Disk /dev/md127: 510 MiB, 534708224 bytes, 1044352 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x00000000
Disk /dev/md126: 2 GiB, 2095054848 bytes, 4091904 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/md125: 39 GiB, 41908436992 bytes, 81852416 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disk /dev/md124: 626.2 GiB, 672376291328 bytes, 1313234944 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
# mdadm --examine --scan
ARRAY /dev/md/0 metadata=1.0 UUID=6c2cbbac:79178666:41d04bc1:7b40dc5e name=sysrescue:0
ARRAY /dev/md/1 metadata=1.2 UUID=bd31a2d4:b2492675:209e0885:6d3189a7 name=sysrescue:1
ARRAY /dev/md/1 metadata=1.2 UUID=bbf65afd:f50cd4a7:6ea255ff:01117b68 name=fabport:1
ARRAY /dev/md/3 metadata=1.2 UUID=4a5c9536:85a48fc6:c4e04261:7a3c4c8b name=sysrescue:3
# cat /proc/mdstat
Personalities : [raid1]
md124 : active (auto-read-only) raid1 sda5[2] sdb5[1]
656617472 blocks super 1.2 [2/2] [UU]
bitmap: 0/5 pages [0KB], 65536KB chunk
md125 : active raid1 sda4[2] sdb4[1]
40926208 blocks super 1.2 [2/2] [UU]
md126 : active (auto-read-only) raid1 sda3[2] sdb3[1]
2045952 blocks super 1.2 [2/2] [UU]
md127 : active raid1 sda1[2] sdb1[1]
522176 blocks super 1.0 [2/2] [UU]
unused devices: <none>
# mdadm -D /dev/md124
/dev/md124:
Version : 1.2
Creation Time : Tue Oct 27 04:05:11 2020
Raid Level : raid1
Array Size : 656617472 (626.20 GiB 672.38 GB)
Used Dev Size : 656617472 (626.20 GiB 672.38 GB)
Raid Devices : 2
Total Devices : 2
Persistence : Superblock is persistent
Intent Bitmap : Internal
Update Time : Sun Jan 2 16:50:37 2022
State : clean
Active Devices : 2
Working Devices : 2
Failed Devices : 0
Spare Devices : 0
Consistency Policy : bitmap
Name : sysrescue:3 (local to host sysrescue)
UUID : 4a5c9536:85a48fc6:c4e04261:7a3c4c8b
Events : 61422
Number Major Minor RaidDevice State
2 8 5 0 active sync /dev/sda5
1 8 21 1 active sync /dev/sdb5
Dernière modification par Maufab (02-01-2022 18:09:06)