logo Debian Debian Debian-France Debian-Facile Debian-fr.org Forum-Debian.fr Debian ? Communautés logo inclusivité

Debian-facile

Bienvenue sur Debian-Facile, site d'aide pour les nouveaux utilisateurs de Debian.

Vous n'êtes pas identifié(e).

#1 02-01-2022 18:07:03

Maufab
Membre
Lieu : Ariège
Distrib. : Bullseye
Noyau : 5.10.0-13-amd64
(G)UI : KDE
Inscription : 12-03-2010

Raid1 nom de groupe md127

Bonjour et bonne année.
Suite  au crash d'un disque partitionné en GPT (/dev/sda) sur lequel j'avais grub et refind sur 2 partions EFI non RAID, dans un raid1  j'ai remplacé le disque et relancé le système avec succès. J'ai aussi relancé le raid en ajoutant les partitions EFI jumelles au raid (/dev/sda1 et /dev/sdb1). Comme j'ai perdu le chargeur de démarrage EFI avant de redémarrer,  je n'ai pas pu redémarrer Debian. Je me suis lancé dans une récupération depuis un live cd Sysrescue avec un chroot. J'ai réussi la manoeuvre mais ça m'a mis le bazard dans les nom de groupes RAID et l'étiquette des partions RAID (labellisées maintenant sysrescue:0,1, etc)
Pour remettre de l'ordre dans les noms de groupes raid, j'ai tenté plusieurs fois de réassembler les goupes concernés sous le sytème natif (Debian 10), sans pouvoir stopper le raid (ressources occupées). Il me semble avoir déjà eu à faire avec ce changements de noms de groupes et pouvoir stopper un raid actif. Mais je peux me tromper d'où mon questionnement : est-il possible de stopper un raid actif  pour changer les noms de groupes?
Depuis un live cd, oui, avec ce problème de changement de noms. Mais depuis le système concerné ?

# fdisk -l              
Disk /dev/sda: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: ST1000LM049-2GH1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 8B860C74-9AC3-11EB-BBDA-E2070740347B

Device         Start        End    Sectors   Size Type
/dev/sda1       4096    1048575    1044480   510M EFI System
/dev/sda2    1048576  158744575  157696000  75.2G Microsoft basic data
/dev/sda3  554008576  558104575    4096000     2G Linux RAID
/dev/sda4  558104576  640024575   81920000  39.1G Linux RAID
/dev/sda5  640024576 1953523711 1313499136 626.3G Linux RAID
/dev/sda6  158744576  554008575  395264000 188.5G Microsoft basic data

Partition table entries are not in disk order.


Disk /dev/sdb: 931.5 GiB, 1000204886016 bytes, 1953525168 sectors
Disk model: ST1000LM049-2GH1
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: gpt
Disk identifier: 8B860C74-9AC3-11EB-BBDA-E2070740347B

Device         Start        End    Sectors   Size Type
/dev/sdb1       4096    1048575    1044480   510M EFI System
/dev/sdb2    1048576  554008575  552960000 263.7G Linux filesystem
/dev/sdb3  554008576  558104575    4096000     2G Linux RAID
/dev/sdb4  558104576  640024575   81920000  39.1G Linux RAID
/dev/sdb5  640024576 1953523711 1313499136 626.3G Linux RAID




Disk /dev/md127: 510 MiB, 534708224 bytes, 1044352 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes
Disklabel type: dos
Disk identifier: 0x00000000


Disk /dev/md126: 2 GiB, 2095054848 bytes, 4091904 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/md125: 39 GiB, 41908436992 bytes, 81852416 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes


Disk /dev/md124: 626.2 GiB, 672376291328 bytes, 1313234944 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 4096 bytes
I/O size (minimum/optimal): 4096 bytes / 4096 bytes




# mdadm --examine --scan
ARRAY /dev/md/0  metadata=1.0 UUID=6c2cbbac:79178666:41d04bc1:7b40dc5e name=sysrescue:0
ARRAY /dev/md/1  metadata=1.2 UUID=bd31a2d4:b2492675:209e0885:6d3189a7 name=sysrescue:1
ARRAY /dev/md/1  metadata=1.2 UUID=bbf65afd:f50cd4a7:6ea255ff:01117b68 name=fabport:1
ARRAY /dev/md/3  metadata=1.2 UUID=4a5c9536:85a48fc6:c4e04261:7a3c4c8b name=sysrescue:3



# cat /proc/mdstat
Personalities : [raid1]
md124 : active (auto-read-only) raid1 sda5[2] sdb5[1]
      656617472 blocks super 1.2 [2/2] [UU]
      bitmap: 0/5 pages [0KB], 65536KB chunk

md125 : active raid1 sda4[2] sdb4[1]
      40926208 blocks super 1.2 [2/2] [UU]
     
md126 : active (auto-read-only) raid1 sda3[2] sdb3[1]
      2045952 blocks super 1.2 [2/2] [UU]
     
md127 : active raid1 sda1[2] sdb1[1]
      522176 blocks super 1.0 [2/2] [UU]
     
unused devices: <none>



# mdadm -D /dev/md124
/dev/md124:
           Version : 1.2
     Creation Time : Tue Oct 27 04:05:11 2020
        Raid Level : raid1
        Array Size : 656617472 (626.20 GiB 672.38 GB)
     Used Dev Size : 656617472 (626.20 GiB 672.38 GB)
      Raid Devices : 2
     Total Devices : 2
       Persistence : Superblock is persistent

     Intent Bitmap : Internal

       Update Time : Sun Jan  2 16:50:37 2022
             State : clean
    Active Devices : 2
   Working Devices : 2
    Failed Devices : 0
     Spare Devices : 0

Consistency Policy : bitmap

              Name : sysrescue:3  (local to host sysrescue)
              UUID : 4a5c9536:85a48fc6:c4e04261:7a3c4c8b
            Events : 61422

    Number   Major   Minor   RaidDevice State
       2       8        5        0      active sync   /dev/sda5
       1       8       21        1      active sync   /dev/sdb5

Dernière modification par Maufab (02-01-2022 18:09:06)

Hors ligne

#2 02-01-2022 19:07:49

raleur
Membre
Inscription : 03-10-2014

Re : Raid1 nom de groupe md127

On peut évidemment arrêter un ensemble RAID actif, mais pas s'il est en cours d'utilisation, comme n'importe quel périphérique. Difficile dans le cas de la racine donc. On peut le faire dans le shell de l'initramfs quand la racine n'est pas encore montée, en passant le paramètre "break" à la ligne de commande du noyau.

De toute façon les noms des ensembles RAID ne sont pas très importants du moment qu'ils sont assemblés correctement. Ils ne devraient pas être utilisés dans /etc/fstab ou d'autres fichiers de configuration.

PS : mettre des partitions EFI en RAID 1 avec superbloc 1.0, c'est sale et ça empêche grub-install de mettre à jour les variables de boot EFI.

Il vaut mieux montrer que raconter.

Hors ligne

#3 09-01-2022 20:22:37

Maufab
Membre
Lieu : Ariège
Distrib. : Bullseye
Noyau : 5.10.0-13-amd64
(G)UI : KDE
Inscription : 12-03-2010

Re : Raid1 nom de groupe md127

Merci de ta réponse.
Comme je réinstalle windows en double boot, j'ai été obligé de virer le raid suer les partitions efi. Du coup c'est redevenu propre. smile

Hors ligne

Pied de page des forums