Debian-facile

Bienvenue sur Debian-Facile, site d'aide pour les nouveaux utilisateurs de Debian.

Vous n'êtes pas identifié(e).

#1 18-06-2020 16:59:52

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Gros pépin. Très gros pépin. Question de raid.

Bonjour à tous.

Une bécane sous Jessie.
Elle plantait tout le temps : surchauffe.
J'ai sorti les durs. 3 dd.

Et deux d'entre eux était en raid. J'aurais dû m'en douter, vu la lenteur.
Alors voilà.

Sur l'une de mes bécanes, j'ai la place de monter les deux de 3 To.
Mais comment les lire ?
Peut-on les monter en raid sur une bécane déjà installée ?
La mienne (sur laquelle j'ai monté successivement les deux durs) est sous Stretch.
No problème pour réinstaller.
J'en suis plus à ça près...

Mais en RAID... Jamais fait.
Que faire ?
Toute aide sera appréciée sad

Hors ligne

#2 18-06-2020 17:14:35

raleur
Membre
Inscription : 03-10-2014

Re : Gros pépin. Très gros pépin. Question de raid.

Quel type de RAID ? RAID logiciel Linux ? RAID pseudo-matériel de carte mère ? Vrai RAID matériel avec un contrôleur dédié ?
Un petit blkid pour voir ce qu'il y a sur ces disques.
Le paquet mdadm doit être installé pour gérer le RAID logiciel.

Il vaut mieux montrer que raconter.

Hors ligne

#3 18-06-2020 17:22:37

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

Correction : 3 disques.
Et oui, c'est du raid Linux. Selon ce que je vois sous GParted.
Voici ce qu'il voit :

https://reho.st/self/f7611d5f07cb774832 … 738baf.png

https://reho.st/self/beeac29e02e5c366d9 … aa1a22.png

https://reho.st/self/73752474645e225101 … b71aab.png

Dernière modification par Lupa (18-06-2020 17:25:46)

Hors ligne

#4 18-06-2020 17:25:19

raleur
Membre
Inscription : 03-10-2014

Re : Gros pépin. Très gros pépin. Question de raid.

Que veux-tu qu'on fasse avec ces noms de fichiers ?
Poste plutôt la sortie de blkid.

Il vaut mieux montrer que raconter.

Hors ligne

#5 18-06-2020 17:26:44

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

Captures d'écran.
Mais ça passe pas...
Je poste le retour de blkid wink

Hors ligne

#6 18-06-2020 17:30:11

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

blkid :


/dev/sda1: UUID="64fda2ac-6e48-4c15-be95-8eea38ad3f04" TYPE="ext4" PARTUUID="3d6e1eb7-01"
/dev/sda2: LABEL="IMAGES" UUID="7eae31e4-4c1d-467a-a4c2-cfb7eec23d75" TYPE="ext4" PARTUUID="3d6e1eb7-02"
/dev/sda3: LABEL="DATA" UUID="436bb017-0325-4de1-a4ea-678ab557bd11" TYPE="ext4" PARTUUID="3d6e1eb7-03"
/dev/sdb1: UUID="30b2dd6f-6f35-4759-ae95-8b5493f43552" TYPE="ext4" PARTUUID="0fb86f6f-01"
/dev/sdb2: UUID="990f0e3f-5ecd-4241-bb12-1e3415cd66be" TYPE="swap" PARTUUID="0fb86f6f-02"
/dev/sdc2: UUID="20bf3750-391c-8819-504d-66c8b9dab506" UUID_SUB="2376d29c-e6b4-950e-ffd6-f5e65d6b011d" LABEL="calao:0" TYPE="linux_raid_member" PARTUUID="fc9ffe65-25d9-49bb-a965-688de3a4e48a"
/dev/sdc1: PARTUUID="e5e5553d-51bf-4ce6-91e8-04334f5f017e"
 



Précision : sur les trois disques, même topo.
Ca te parle ?

Sur ma bécane, j'ai de quoi brancher les 3 disques.
Le SSD est le disque système.
Je peux peut-être installer Buster sur le SSD comme disque système, et mettre els trois autres en Raid ?

Dernière modification par Lupa (18-06-2020 17:41:58)

Hors ligne

#7 18-06-2020 18:06:54

raleur
Membre
Inscription : 03-10-2014

Re : Gros pépin. Très gros pépin. Question de raid.

Lupa a écrit :

Précision : sur les trois disques, même topo.


Sur les trois disques présents, je ne vois qu'un seul disque avec une partition RAID, /dev/sdc2.
Est-ce que mdadm est installé ?

Lupa a écrit :

Je peux peut-être installer Buster sur le SSD comme disque système, et mettre els trois autres en Raid ?


Je ne comprends pas, quel est ton objectif exactement ?


Il vaut mieux montrer que raconter.

Hors ligne

#8 18-06-2020 18:21:47

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

"Sur les trois disques présents, je ne vois qu'un seul disque avec une partition RAID, /dev/sdc2.
Est-ce que mdadm est installé ?"
1- je n'en n'ai monté qu'un seul à la fois. Il me faut démonter mon dd d'1 To que j'utilise pour les images et les sauvegardes de root.
2- Non. mdamd n'est pas installé. Mais je peux le faire.
3- Objectif : lire les fichiers de ces disques et en sauvegarder un maximum. J'ai déjà commencé, mais ça prenait un temps fou. La machine s'arrêtait tout le temps... Surchauffe.

L' UC originelle était sous chipsets Intel. Ma bévcane de test est un AMD. Je ne peux donc pas installer le 3 disques pour démarrer dessus. Pas le même hardware. Ca ne démarrera pas.

Je vais voir à quoi sert mdamd.

Dernière modification par Lupa (18-06-2020 18:44:31)

Hors ligne

#9 18-06-2020 19:27:15

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

Je peux aussi lui faire un coup de Trafalgar, après tout, au point où j'en suis ...
Je monte les trois disques sur cette bécane de test.
Jessie va tousser, vu que c'est du chipset AMD. Mais, mais... ça marchera peut-être ?
Je voudrais être CERTAIN que ça ne flinguera pas les fichiers.

Qu'en penses-tu ?

J'ai regardé du côté de mdamd. C'est complexe, mais, si j'ai bien compris (je suis crevé, là) ça se fait avant l'install ? Pas après ?

22 H 10 :
A cette adresse : https://www.linuxpedia.fr/doku.php/expert/mdadm
Il semblerait que l'on puisse installer mdam sur une bécane déjà installée.

Donc, à cette heure, deux solutions (mais je souhaite avoir confirmation de qui s'y connaît mieux que moi) :
1- installation de mdam sur la bécane test.
2- le coup de Trafalgar : les trois disques, avec Jessie comme OS (sources.list d'ailleurs dépassé). Un Jessie installé sur une base de chipsets Intel, alors que ma bécane de test  est de chipset AMD.

Qu'en pensez-vous ?
scratchhead.gif

Dernière modification par Lupa (18-06-2020 21:15:04)

Hors ligne

#10 18-06-2020 21:18:22

raleur
Membre
Inscription : 03-10-2014

Re : Gros pépin. Très gros pépin. Question de raid.

Lupa a écrit :

L' UC originelle était sous chipsets Intel. Ma bévcane de test est un AMD. Je ne peux donc pas installer le 3 disques pour démarrer dessus. Pas le même hardware. Ca ne démarrera pas.


Ce n'est pas un problème. Debian n'est pas Windows. L'initramfs par défaut contient tous les pilotes de stockage pour les matériels courants.

Commence par installer mdadm. Ensuite tu pourras l'utiliser pour examiner le type de RAID.

mdadm --examine /dev/sdc2


Si c'est du RAID 1, un disque suffit pour l'activer en mode dégradé. Si c'est du RAID 5 sur trois disques, deux disques suffisent.


Il vaut mieux montrer que raconter.

Hors ligne

#11 19-06-2020 10:37:30

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

Bonjour wink
Il y avait trois disques.
J'ai maintenant les nappes d'alim pour les monter sur la tour.
Je vais lui installer Buster sur le SSD. Puis, j'installe mdadm.
Si je pige bien, je pourrai alors les lire ? Tout n'est donc pas perdu ? Ouffff...

Hors ligne

#12 19-06-2020 11:34:49

raleur
Membre
Inscription : 03-10-2014

Re : Gros pépin. Très gros pépin. Question de raid.

Je sais qu'il y avait trois disques, tu l'as déjà dit. Mais selon le type de RAID il n'est pas forcément nécessaire de brancher les trois disques pour l'assembler en mode dégradé (pour récupérer les données, pas pour l'utiliser normalement).
Je disais donc que pour du RAID 1, un disque suffit. Du RAID 5, deux suffisent. La commande que j'ai mentionnée permet d'identifier la configuration du RAID à partir d'un seul disque.

Il vaut mieux montrer que raconter.

Hors ligne

#13 19-06-2020 11:52:19

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

OK.
Les trois disques sont détectés par le BIOS et Gparted live.
Mais lorsque j'ai voulu installer Buster, je ne suis pas arrivé sur une interface bizarre. J'ai dû refaire la carte flash d'installation.
J'ai déconnecté l'alim des trois disques.
Là, il s'installe normalement.
Après , je reconnecte les trois disques... ou deux ? Mais lesquels ?
Merci pour le coup de main wink

Hors ligne

#14 19-06-2020 11:55:54

raleur
Membre
Inscription : 03-10-2014

Re : Gros pépin. Très gros pépin. Question de raid.

Lupa a écrit :

je ne suis pas arrivé sur une interface bizarre


Donc tu es arrivé sur une interface pas bizarre ?


Il vaut mieux montrer que raconter.

Hors ligne

#15 20-06-2020 09:32:45

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

Bonjour.
Désolé : je suis rentré tard, hier.
Là, je suis arrivé sur l'interface classique d'installation de Debian.
Pas terminée. Il me reste une heure ou deux de travail.
Après, j'attaque le RAID.

P.S.: j'ai eu beau débrancher les nappes d'alim des trois disques, je vois des volumes. Mais j'ai oublié de déconnecter aussi les nappes sata Data !!

Dernière modification par Lupa (20-06-2020 09:33:59)

Hors ligne

#16 20-06-2020 18:33:56

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

Bonsoir.
Ca y est. L'OS est prêt.
Mais je dois sans doute modifier le source.list afin d'installer mdamd ?
J'ai bien vu le paquet : https://packages.debian.org/fr/buster/mdadm
Mais apt-get n'installe pas, et Synaptic ne voit rien de mdamd.

Je peux risquer un dpkg -i sur le paquet puis, au besoin, apt install -f .... mais sir le sources.list n'est pas modifié, je doute que ça marche scratchhead.gif

Hors ligne

#17 20-06-2020 23:23:43

raleur
Membre
Inscription : 03-10-2014

Re : Gros pépin. Très gros pépin. Question de raid.

Lupa a écrit :

Mais je dois sans doute modifier le source.list afin d'installer mdamd ?


Non.

Lupa a écrit :

Mais apt-get n'installe pas


C'est-à-dire ? Il ne serait pas déjà installé ?


Il vaut mieux montrer que raconter.

Hors ligne

#18 21-06-2020 08:29:11

Croutons
Membre
Distrib. : Debian10 Buster
Noyau : Linux 4.19.0-9-amd64
(G)UI : Mate
Inscription : 16-12-2016

Re : Gros pépin. Très gros pépin. Question de raid.

mdadm pas mdamd

-->les cahiers du debutant<--      WikiDF-->Découvrir les principales commandes Linux<--
L' expérience, c'est le nom que chacun donne à ses erreurs. Oscar Wilde

Hors ligne

#19 21-06-2020 10:03:42

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

Bonjour smile

Voici des infos.



root@DEB-TAP:~# mdadm --examine /dev/sdc2
/dev/sdc2:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 117a2def:562a61a8:bb2da158:acdd3fb3
           Name : oisillon:1
  Creation Time : Sun Mar 20 11:48:11 2011
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 583976767 (278.46 GiB 299.00 GB)
     Array Size : 291988247 (278.46 GiB 299.00 GB)
  Used Dev Size : 583976494 (278.46 GiB 299.00 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=273 sectors
          State : clean
    Device UUID : 5332190d:f65db252:00e51eef:083b4d4e

Internal Bitmap : 2 sectors from superblock
    Update Time : Fri Jun 19 12:17:22 2020
       Checksum : b30d20ac - correct
         Events : 550939


   Device Role : Active device 0
   Array State : A. ('A' == active, '.' == missing, 'R' == replacing)

 



Listage du /dev (au cas où). J'ai listé ce que je vois sous mon gestionnaire de fichiers (Double Commander).


/dev/md125
/dev/md126
/dev/md127
/dev/md127
/dev/md127p2
/dev/md127p3

/dev/md:
calao:0
calao:0p1
calao:0p2
calao:0p3
oisillon:0
oisillon:1


/dev/md125
/dev/md126
/dev/md127
/dev/md127
/dev/md127p2
/dev/md127p3

/dev/md
calao:0
calao:0p1
calao:0p2
calao:0p3
oisillon:0
oisillon:1

/dev/sdb
/dev/sdb1
/dev/sdb2
/dev/sdb5
/dev/sdc
/dev/sdc1
/dev/sdc2
/dev/sdd
/dev/sdd1
/dev/sdd2
/dev/sde
/dev/sde1
/dev/sde2
/dev/sdf
/dev/sdg
/dev/sdh
/dev/sdi
/dev/sdj
/dev/sdj1

 



Ca donne quoi ? Je n'accède pas à tous les volumes.
Erreur : md126 et md127p2. Un grub dedans. Memtest aussi. Un lost+found dedans.

Dernière modification par Lupa (21-06-2020 10:09:56)

Hors ligne

#20 21-06-2020 10:38:05

raleur
Membre
Inscription : 03-10-2014

Re : Gros pépin. Très gros pépin. Question de raid.

C'est le bazar. Il semble y avoir plusieurs ensembles RAID provenant de plusieurs systèmes différents, dont un partitionné. Que contient /proc/mdstat ?

Dernière modification par raleur (21-06-2020 10:38:51)


Il vaut mieux montrer que raconter.

Hors ligne

#21 21-06-2020 10:57:31

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

Il contient ça :


Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md125 : active (auto-read-only) raid1 sdb2[0]
      291988247 blocks super 1.2 [2/1] [U_]
      bitmap: 1/3 pages [4KB], 65536KB chunk

md126 : active (auto-read-only) raid1 sdb1[0]
      1059222 blocks super 1.2 [2/1] [U_]
      bitmap: 1/1 pages [4KB], 65536KB chunk

md127 : active (auto-read-only) raid1 sdd2[2] sdc2[0]
      2930132992 blocks super 1.2 [2/2] [UU]
      bitmap: 0/22 pages [0KB], 65536KB chunk

unused devices: <none>

 



J'y pense, au fait...
J'ai installé sur un SSD. Sans connecter les durs qui étaient en raid.
Si je déconnecte le SSD : ça redémarrera peut-être ?

Ca redémarre, mais Debian plante. Il manquerait des fichiers à Nautilus.
Pfff sad

Dernière modification par Lupa (21-06-2020 13:14:58)

Hors ligne

#22 21-06-2020 16:11:23

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

Résultat de fdisk-l :


Disque /dev/sda : 111,8 GiB, 120034123776 octets, 234441648 secteurs
Modèle de disque : Samsung SSD 750
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'
étiquette de disque : dos
Identifiant de disque : 0x1a3065da

Périphérique Amorçage     Début       Fin  Secteurs Taille Id Type
/dev/sda1    *             2048 218193919 218191872   104G 83 Linux
/dev/sda2             218195966 234440703  16244738   7,8G  5 Étendue
/dev/sda5             218195968 234440703  16244736   7,8G 82 partition d'échange Linux / Solaris


Disque /dev/sdc : 2,7 TiB, 3000592982016 octets, 5860533168 secteurs
Modèle de disque : ST3000DM001-1CH1
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'
E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 2936361F-9008-4130-B53F-8E4372EE5CF6

Périphérique Début        Fin   Secteurs Taille Type
/dev/sdc1     2048       4095       2048     1M Amorçage BIOS
/dev/sdc2     4096 5860532223 5860528128   2,7T RAID Linux


Disque /dev/sdb : 279,5 GiB, 300089646592 octets, 586112591 secteurs
Modèle de disque : Maxtor 6L300S0  
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'
E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x11872c1a

Périphérique Amorçage   Début       Fin  Secteurs Taille Id Type
/dev/sdb1                  63   2120579   2120517     1G fd RAID Linux autodétecté
/dev/sdb2             2120580 586099394 583978815 278,5G fd RAID Linux autodétecté


Disque /dev/sdd : 2,7 TiB, 3000592982016 octets, 5860533168 secteurs
Modèle de disque : TOSHIBA HDWA130
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'
E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 5D69F191-B7EB-4FCE-88A7-FDD6FAD34B44

Périphérique Début        Fin   Secteurs Taille Type
/dev/sdd1     2048       4095       2048     1M Amorçage BIOS
/dev/sdd2     4096 5860532223 5860528128   2,7T RAID Linux


Disque /dev/md127 : 2,7 TiB, 3000456183808 octets, 5860265984 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'
E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : C07C9C7F-881E-48E8-B704-7BD7522997DA

Périphérique  Début        Fin   Secteurs Taille Type
/dev/md127p1     34       1987       1954   977K Amorçage BIOS
/dev/md127p2   1988     501988     500001 244,1M Système de fichiers Linux
/dev/md127p3 501989 5860265950 5859763962   2,7T LVM Linux

# Ceci s'
affiche en rouge :
[b]La partition 1 ne commence pas sur une frontière de cylindre physique.
La partition 2 ne commence pas sur une frontière de cylindre physique.
La partition 3 ne commence pas sur une frontière de cylindre physique.
[/b]
Disque /dev/md126 : 1 GiB, 1084643328 octets, 2118444 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/md125 : 278,5 GiB, 298995964928 octets, 583976494 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'
E/S (minimale / optimale) : 512 octets / 512 octets


Disque /dev/sdi : 14,9 GiB, 15931539456 octets, 31116288 secteurs
Modèle de disque : Card  Reader    
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'
étiquette de disque : dos
Identifiant de disque : 0x00248cdf

Périphérique Amorçage Début      Fin Secteurs Taille Id Type
/dev/sdi1    *         2048 31116287 31114240  14,9G  c W95 FAT32 (LBA)


Disque /dev/sdj : 28,9 GiB, 31016878080 octets, 60579840 secteurs
Modèle de disque : Card  Reader    
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'
étiquette de disque : dos
Identifiant de disque : 0xd3784c3b

Périphérique Amorçage Début      Fin Secteurs Taille Id Type
/dev/sdj1              2048 60579839 60577792  28,9G 83 Linux

 



Fichier /etc/mdadm/mdadm.conf :


# mdadm.conf
#
# !NB! Run update-initramfs -u after updating this file.
# !NB! This will ensure that initramfs has an uptodate copy.
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This configuration was auto-generated on Sat, 20 Jun 2020 20:20:47 +0200 by mkconf

 



Mais... il ne monte rien du tout !

Hors ligne

#23 22-06-2020 09:50:34

Lupa
Membre
Distrib. : Debian Stretch 4.9.110-3+deb9u6 / Buster
Noyau : 4.9.0-8-amd64 (Stretch) Buster : 5.4.0-0.bpo.2-amd
(G)UI : xfce
Inscription : 28-06-2017

Re : Gros pépin. Très gros pépin. Question de raid.

Je tente un petit 'up' ...
C'est perdu ?
On ne peut rien restaurer ? sad
Merci ...

Hors ligne

#24 22-06-2020 12:21:08

raleur
Membre
Inscription : 03-10-2014

Re : Gros pépin. Très gros pépin. Question de raid.

Non, rien n'est perdu.
Un peu de patience, je ne suis pas disponible H24 sur le forum...

Il vaut mieux montrer que raconter.

Hors ligne

#25 22-06-2020 14:12:18

raleur
Membre
Inscription : 03-10-2014

Re : Gros pépin. Très gros pépin. Question de raid.

Ce serait utile de connaître l'historique de ces disques pour comprendre la situation actuelle.

Le disque /dev/sdb de 300 Go contient deux partitions RAID membres de deux ensembles RAID 1 créés par un système nommé "oisillon". Le disque contenant les autres partitions de ces ensembles RAID n'est pas présent. Néanmoins ces deux ensembles RAID sont démarrés en mode dégradé et accessibles en tant que /dev/md125 et dev/md126. S'ils contiennent des systèmes de fichiers, il suffit de les monter pour récupérer leur contenu.

Les disques /dev/sdc et /dev/sdd de 3 To contiennent chacune une partition RAID membre d'un ensemble RAID 1 créé par un système nommé "calao". L'ensemble RAID correspondant est démarré complet en tant que /dev/md127. Cet ensemble RAID est lui-même partitionné en trois partitions. C'est inhabituel, et résulte typiquement d'un mauvais choix lors de l'installation de Debian : partitionnement assisté avec LVM sur un disque entier en sélectionnant l'ensemble RAID comme disque. La partition n° 3 de l'ensemble RAID est une partition LVM, il faut donc que le paquet lvm2 soit installé pour accéder à son contenu. Après avoir installé lvm2, la commande "lvs" affichera les volumes logiques.

Dernière modification par raleur (22-06-2020 14:12:41)


Il vaut mieux montrer que raconter.

Hors ligne

Pied de page des forums