logo Debian Debian Debian-France Debian-Facile Debian-fr.org Forum-Debian.fr Debian ? Communautés logo inclusivité

Debian-facile

Bienvenue sur Debian-Facile, site d'aide pour les nouveaux utilisateurs de Debian.

Vous n'êtes pas identifié(e).


L'icône rouge permet de télécharger chaque page du wiki visitée au format PDF et la grise au format ODT → ODT PDF Export

Ceci est une ancienne révision du document !


Supprimer un RAID logiciel pour récupérer ces disques

Nota :

Contributeurs, les FIXME sont là pour vous aider, supprimez-les une fois le problème corrigé ou le champ rempli !

Introduction

Ce wiki prends la suite du wiki Raid logiciel crypté + LVM à l'installation de wheezy.

Je me suis basée sur la même machine virtuelle que celle qui a servie aux illustrations de ce dernier. J'ai changé les ports SATA des disques montés en raid /dev/sda et /dev/sdb (en port SATA0 et SATA1 avant modification), j'ai récupéré le disque virtuel sda (sur lequel une debian est fonctionnelle) d'une autre machine virtuelle sans raid. J'ai affecté le port SATA0 à ce disque ; le port SATA1 au premier disque du raid et le port SATA2 au deuxième disque du raid. Puis j'ai démarré le système.

Avec le disque d'une autre machine virtuelle, sans ce changement de numéro de port SATA, (lorsque ce disque ajouté à le port SATA2 ou plus), le système démarre sur le raid.
J'ai opté pour cette façon de booter en dehors du raid, parce que mon matériel n'est pas assez puissant pour que la machine virtuelle fonctionne correctement depuis le live cd/dvd bootable (système live très très lent).

Mais j'ai testé aussi la suppression du raid logiciel sur deux vieux disques physiques sur lesquels était installé un RAID1 + LVM avant installation. Là encore j'ai ajouté un troisième disque dur, sur lequel j'ai installé le système et démarré le système depuis lequel j'ai supprimé le raid.
Cette fois, depuis un live CD d'ubuntu (option “essayer ubuntu), le raid n'était pas détecté par mdadm.

Rappelez-vous après avoir sélectionné “configurer le raid logiciel” le message “Ces modifications sont irréversibles” était apparu :

Et effectivement, si l'on essaie de réinstaller tout le système en bootant sur une image iso, la détection du matériel aboutit à ceci :

  • On voit le disque nouvellement ajouté : SCSI3 (sda) de 8.6GB
  • Et le raid persistant sur les disques de 10.7GB, SCSI4 (sdb) et SCS5 (sdc).

Voyons comment récupérer ces deux disques montés en raid.

Installation

Pour supprimer le RAID, il faut démonter les partitions qui le constituent.

Voyons le retour de sfdisk -s : après suppression du raid les lignes /dev/md0 et /dev/md1 auront disparu.

sfdisk -s
/dev/sda: 10485760
/dev/sdb: 10485760
/dev/md0:  682432
/dev/md1: 9792384
/dev/mapper/systeme-root:  1949696
/dev/mapper/systeme-swap:   974848
/dev/mapper/systeme-usr:  1949696
/dev/mapper/systeme-var:  1462272
/dev/mapper/systeme-tmp:   974848
/dev/mapper/systeme-home:  2478080
total : 41235776 blocs

Si le système “tourne” sur le raid (/dev/sda et /dev/sdb montés) on ne peut pas stopper, puis supprimer le raid :

mdadm -S /dev/md0
mdadm: Cannot get exclusive access to /dev/md0: Perhaps a running process, mounted filesystem or active volume groupe?

Plusieurs solutions sont possibles :

  • Munissez-vous d'un live CD d'Ubuntu et choissisez “essayer ubuntu” ;
  • ou démarrer une live usb inscriptible de debian ;

suppression du raid avec mdadm et gparted

Vérifier les partitions.

Repérer vos partitions raid avec fdisk -l, les disques en raid sont /dev/sdb et /dev/sdc parce qu'il s'agit de la machine virtuelle sur laquelle j'ai ajouté un disque avec le système en /dev/sda, afin de pouvoir donner ici les retours des commandes en exemple

fdisk -l /dev/sdb
Disk /dev/sdb: 10.7 GB, 10737418240 bytes

255 têtes, 63 secteurs/piste, 1305 cylindres, total 20971520 secteurs

Unités = secteurs de 1 * 512 = 512 octets

Taille de secteur (logique / physique) : 512 octets / 512 octets

taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Identifiant de disque : 0x000a6acc

Périphérique Amorçage Début Fin Blocs Id. Système

/dev/sdb1 * 2048 1368063 683008 fd RAID Linux autodétecté

/dev/sdb2 1368064 20969471 9800704 fd RAID Linux autodétecté

PUIS

fdisk -l /dev/sdc
Disk /dev/sdc: 10.7 GB, 10737418240 bytes

255 têtes, 63 secteurs/piste, 1305 cylindres, total 20971520 secteurs

Unités = secteurs de 1 * 512 = 512 octets

Taille de secteur (logique / physique) : 512 octets / 512 octets

taille d'E/S (minimale / optimale) : 512 octets / 512 octets

Identifiant de disque : 0x00071fa4

Périphérique Amorçage Début Fin Blocs Id. Système

/dev/sdc1 * 2048 1368063 683008 fd RAID Linux autodétecté

/dev/sdc2 1368064 20969471 9800704 fd RAID Linux autodétecté
  • ou encore :
sfdisk -s
/dev/sda:   8388608
/dev/sdb:  10485760
/dev/sdc:  10485760
/dev/md0:    682432
/dev/md1:   9792384
/dev/mapper/systeme-swap:    974848
/dev/mapper/systeme-root:   1949696
/dev/mapper/systeme-usr:   1949696
/dev/mapper/systeme-var:   1462272
/dev/mapper/systeme-tmp:    974848
/dev/mapper/systeme-home:   2478080
total : 49624384 blocs 

les commandes mdadm à lancer

  • arrêter raid0 et raid1 :
mdadm -S /dev/md0
mdadm: stopped /dev/md0 
 
#PUIS
 
mdadm -S /dev/md1
mdadm: stopped /dev/md1 
  • supprimer raid0 et raid1 sur chacune des partitions
@# mdadm --zero-superblock /dev/sdb1
@#
@# mdadm --zero-superblock /dev/sdb2
@#
@# mdadm --zero-superblock /dev/sdc1
@#
@#mdadm --zero-superblock /dev/sdc2
@#

⇒ le retour du prompt indique que tout s'est bien passé.

Le retour de la commande sfdisk -s ne contient plus /dev/md0 et /md1.

Mais les commandes fdisk -l /dev/sdb puis fdisk -l /dev/sdc, renvoient encore :

Disk /dev/sdb: 10.7 GB, 10737418240 bytes
255 têtes, 63 secteurs/piste, 1305 cylindres, total 20971520 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x000a6acc

Périphérique Amorçage  Début         Fin      Blocs    Id. Système
/dev/sdb1   *        2048     1368063      683008   fd  RAID Linux autodétecté
/dev/sdb2         1368064    20969471     9800704   fd  RAID Linux autodétecté
root@hypathie-VirtualBox:/home/hypathie# fdisk -l /dev/sdc

Disk /dev/sdc: 10.7 GB, 10737418240 bytes
255 têtes, 63 secteurs/piste, 1305 cylindres, total 20971520 secteurs
Unités = secteurs de 1 * 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Identifiant de disque : 0x00071fa4

Périphérique Amorçage  Début         Fin      Blocs    Id. Système
/dev/sdc1   *        2048     1368063      683008   fd  RAID Linux autodétecté
/dev/sdc2         1368064    20969471     9800704   fd  RAID Linux autodétecté 

Après avoir stoppé le raid et lancé les commandes de suppression du raid (mdadm –zero-superblock /dev/sdxx), il est maintenant possible de supprimer ces partitions et d'en créer une nouvelle en ext4 par exemple avec gparted, ce qui n'était pas possible avant.

Il peut arriver qu'après avoir stoppé et supprimé /dev/md0 (commandes mdadm -S /dev/md0 puis mdadm –zero-superblock /dev/sdb1 et mdadm –zero-superblock /dev/sdb2), ces commandes ne soient pas fonctionnelles sur /dev/md1.
Cela m'est arrivé (trois fois sur quatre essais sur MV, jamais sur les disques physiques (trois essais).

Bien que le système soit démarré sur /dev/sda
et que les commandes umount /dev/sdb1 ; umount /dev/sdb2 ; umount /dev/sdc1 ; umount /dev/sdc2 indiquent des partitions non montées,
on peut avoir :

mdadm -S /dev/md0
mdadm: stopped /dev/md0 
 
mdadm --zero-superblock /dev/sdb1
# retour du prompt

MAIS

mdadm -S /dev/md1
mdadm: Cannot get exclusive access to /dev/md1:Perhaps a running process, mounted filesystem or active volume group?
 
mdadm --zero-superblock /dev/sdb2
mdadm: Couldn't open /dev/sdb2 for write - not zeroing 

ET APRÈS CELA :

sfdisk -s
/dev/sda:   8388608
/dev/sdb:  10485760
/dev/sdc:  10485760
/dev/md1:   9792384
/dev/mapper/systeme-swap:    974848
/dev/mapper/systeme-root:   1949696
/dev/mapper/systeme-usr:   1949696
/dev/mapper/systeme-var:   1462272
/dev/mapper/systeme-tmp:    974848
/dev/mapper/systeme-home:   2478080
total : 48941952 blocs 

Je n'en ai pas d'explication FIXME
Mais il a été à chaque fois possible de poursuivre la suppression du raid avec gparted ou dd + mkfs, et de récupérer les disques pour d'autres installations,
en faisant d'abord par prudence :

mdadm --manage /dev/md1 --fail /dev/sdb2
mdadm: set /dev/sdb2 faulty in /dev/md1
root@debian-pour-supp-raid:/home/hypathie
 
mdadm --manage /dev/md1 --remove /dev/sdb2
mdadm: hot removed /dev/sdb2 from /dev/md1

Suppression des partitions et formatage des disques avec gparted

  • installer gparted
apt-get install gparted
  • lancé gparted et supprimer /dev/sdb1 :

  • puis /dev/sdb2 :
  • créer une nouvelle partition formatée en ext4 par exemple, sur /dev/sdb :

  • supprimer /dev/sdc1 et /dev/sdc2 :

  • puis formater une nouvelle partition sur /dev/sdc :

Et voilà, vous pouvez maintenant réutiliser les disques pour y installer un système !

supprimer le raid avec mdadm et DD et mkfs

1)
N'hésitez pas à y faire part de vos remarques, succès, améliorations ou échecs !
doc/install/supprimer-un-raid-logiciel.1399800004.txt.gz · Dernière modification: 11/05/2014 11:20 par Hypathie

Pied de page des forums

Propulsé par FluxBB