logo Debian Debian Debian-France Debian-Facile Debian-fr.org Forum-Debian.fr Debian ? Communautés logo inclusivité

Debian-facile

Bienvenue sur Debian-Facile, site d'aide pour les nouveaux utilisateurs de Debian.

Vous n'êtes pas identifié(e).

#1 01-07-2020 17:38:23

ouatou
Membre
Distrib. : 12
Noyau : Linux 6.1.0-25-amd64
(G)UI : gnome
Inscription : 07-11-2014

raid5 question

Bonjour,

J'avais une question qui m'est venu en montant 3 disques durs provenant d'un serveur nas dans mon pc pour faire un raid5 et donc pour faire du stockage. 

Je pense que la réponse a ma question serra "impossible" mais .... sait on jamais

je comence par regarder si les disques etaient la et donc oui mais je remarque aussi le disque /dev/md2 l'idée germe sur une éventuelle possibilité.

fdisk -l


Disque /dev/sdb : 223,58 GiB, 240057409536 octets, 468862128 secteurs
Modèle de disque : CT240BX200SSD1  
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x26f768b9

Périphérique Amorçage     Début       Fin  Secteurs Taille Id Type
/dev/sdb1    *             2048 401907711 401905664 191,7G 83 Linux
/dev/sdb2             401909758 468860927  66951170  31,9G  5 Étendue
/dev/sdb5             401909760 468860927  66951168  31,9G 82 partition d'échang

La partition 2 ne commence pas sur une frontière de cylindre physique.


Disque /dev/sdd : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
Modèle de disque : WDC WD60EFRX-68L
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 4BCFB0D7-C8A1-485F-96F5-8A7FEA9FCE71

Périphérique   Début         Fin    Secteurs Taille Type
/dev/sdd1       2048     4982527     4980480   2,4G RAID Linux
/dev/sdd2    4982528     9176831     4194304     2G RAID Linux
/dev/sdd5    9453280 11720838239 11711384960   5,5T RAID Linux


Disque /dev/sdc : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
Modèle de disque : WDC WD60EFRX-68L
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : C946ADD8-91DB-49FF-9CA1-1B03A4F8AC03

Périphérique   Début         Fin    Secteurs Taille Type
/dev/sdc1       2048     4982527     4980480   2,4G RAID Linux
/dev/sdc2    4982528     9176831     4194304     2G RAID Linux
/dev/sdc5    9453280 11720838239 11711384960   5,5T RAID Linux


Disque /dev/sda : 5,47 TiB, 6001175126016 octets, 11721045168 secteurs
Modèle de disque : WDC WD60EFRX-68L
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 0691BE8A-48A3-4B6D-BE29-334894D46481

Périphérique   Début         Fin    Secteurs Taille Type
/dev/sda1       2048     4982527     4980480   2,4G RAID Linux
/dev/sda2    4982528     9176831     4194304     2G RAID Linux
/dev/sda5    9453280 11720838239 11711384960   5,5T RAID Linux


Disque /dev/md2 : 10,93 TiB, 11992456101888 octets, 23422765824 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 131072 octets
 



de la j'install mdadm

mdadm --examine /dev/sdd5


/dev/sdd5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 31ee6fad:dcc67ef3:636ebf39:7e160d92
           Name : synologie:2
  Creation Time : Fri Sep 23 22:47:50 2016
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 11711382912 (5584.42 GiB 5996.23 GB)
     Array Size : 11711382912 (11168.85 GiB 11992.46 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=0 sectors
          State : clean
    Device UUID : a1861bfe:b33be0b4:995e70ab:30dea095

    Update Time : Wed Jul  1 15:53:42 2020
       Checksum : d39f0ed - correct
         Events : 1760

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 1
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
 



mdadm --examine /dev/sda5


/dev/sda5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 31ee6fad:dcc67ef3:636ebf39:7e160d92
           Name : synologie:2
  Creation Time : Fri Sep 23 22:47:50 2016
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 11711382912 (5584.42 GiB 5996.23 GB)
     Array Size : 11711382912 (11168.85 GiB 11992.46 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=0 sectors
          State : clean
    Device UUID : 3c9936c5:b0018c0a:4a7a6e79:4b84702e

    Update Time : Wed Jul  1 15:53:42 2020
       Checksum : 90ce8b4e - correct
         Events : 1760

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 0
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
 



mdadm --examine /dev/sdc5


/dev/sdc5:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x0
     Array UUID : 31ee6fad:dcc67ef3:636ebf39:7e160d92
           Name : synologie:2
  Creation Time : Fri Sep 23 22:47:50 2016
     Raid Level : raid5
   Raid Devices : 3

 Avail Dev Size : 11711382912 (5584.42 GiB 5996.23 GB)
     Array Size : 11711382912 (11168.85 GiB 11992.46 GB)
    Data Offset : 2048 sectors
   Super Offset : 8 sectors
   Unused Space : before=1968 sectors, after=0 sectors
          State : clean
    Device UUID : 15b263e6:4594fa74:82539066:02bd32ef

    Update Time : Wed Jul  1 15:53:42 2020
       Checksum : ca4e48ae - correct
         Events : 1760

         Layout : left-symmetric
     Chunk Size : 64K

   Device Role : Active device 2
   Array State : AAA ('A' == active, '.' == missing, 'R' == replacing)
 



quoi qu'il en sois

mdadm --assemble /dev/md2 /dev/sda5 /dev/sdd5 /dev/sdc5


mdadm: /dev/sda5 is busy - skipping
mdadm: /dev/sdd5 is busy - skipping
mdadm: /dev/sdc5 is busy - skipping



donc la question pensez vous que ce soit possible de réassembler sous debian ces disques raids provenant d'un serveur synology ?

@ bientot

Hors ligne

#2 01-07-2020 17:54:34

KsmoinO
Modérateur
Distrib. : Raspbian stable/testing/sid
Noyau : Linux 4
(G)UI : i3
Inscription : 05-10-2007

Re : raid5 question

Bonjour

est-ce que mdadm détecte les volumes raid ?

mdadm --examine --scan -v



Tu peux essayer de le monter automatiquement

mdadm --assemble --scan



Et vérifier le status

cat /proc/mdstat

Hors ligne

#3 01-07-2020 18:02:25

ouatou
Membre
Distrib. : 12
Noyau : Linux 6.1.0-25-amd64
(G)UI : gnome
Inscription : 07-11-2014

Re : raid5 question

salut,

Il semblerais bien que les volume sois detecté

mdadm --examine --scan -v


ARRAY /dev/md/2  level=raid5 metadata=1.2 num-devices=3 UUID=31ee6fad:dcc67ef3:636ebf39:7e160d92 name=synologie:2
   devices=/dev/sda5,/dev/sdc5,/dev/sdd5
 



celle ci ne retourne rien j'avais déjà essayer mais comme tu me le préconise sait on jamais je retente

mdadm --assemble --scan



cat /proc/mdstat


Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md2 : active (auto-read-only) raid5 sdc5[2] sda5[0] sdd5[1]
      11711382912 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
     
unused devices: <none>
 



Merci

j'ai tenté de monter le disque mb2

mkdir /dev/mb2



mount /dev/md2 /media/mb


mount: /media/mb2: type de système de fichiers « LVM2_member » inconnu.



je ne sais pas ce qu'es LVM2_member

Dernière modification par ouatou (01-07-2020 18:08:33)

Hors ligne

#4 01-07-2020 18:09:21

KsmoinO
Modérateur
Distrib. : Raspbian stable/testing/sid
Noyau : Linux 4
(G)UI : i3
Inscription : 05-10-2007

Re : raid5 question

donc ton raid est bien activé en /dev/md2 wink

que dit

fstab -l /dev/md2

?

pour monter les autres volumes

mdadm --assemble /dev/md1
mdadm --assemble /dev/md2



Vérifier le status et le types de partition

cat /proc/mdstat
fstab -l /dev/md*



et y'aura plus qu'a monter les groupes raid là où tu veux

Hors ligne

#5 01-07-2020 18:18:05

ouatou
Membre
Distrib. : 12
Noyau : Linux 6.1.0-25-amd64
(G)UI : gnome
Inscription : 07-11-2014

Re : raid5 question

il me maque peut être quelque paquet je suis pas un expert du raid j’allais monter/tenter de monter mon premier

fstab -l /dev/md2
 


-bash: fstab : commande introuvable
 



mdadm --assemble /dev/md1


mdadm: /dev/md1 not identified in config file.



mdadm --assemble /dev/md2
 



cat /proc/mdstat
 


Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md2 : active (auto-read-only) raid5 sdc5[2] sda5[0] sdd5[1]
      11711382912 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
     
unused devices: <none>
 



fstab -l /dev/mb2
 


-bash: fstab : commande introuvable

Hors ligne

#6 01-07-2020 18:23:23

KsmoinO
Modérateur
Distrib. : Raspbian stable/testing/sid
Noyau : Linux 4
(G)UI : i3
Inscription : 05-10-2007

Re : raid5 question

pardon je voulais dire fdisk big_smile

Hors ligne

#7 01-07-2020 18:28:55

KsmoinO
Modérateur
Distrib. : Raspbian stable/testing/sid
Noyau : Linux 4
(G)UI : i3
Inscription : 05-10-2007

Re : raid5 question

sur md2 tu as du lvm, il te faut installer lvm2

apt-get install lvm2
lvdisplay



et que donnerait les commandes suivantes :

mdadm --examine /dev/sda1
mdadm --examine /dev/sda2
mdadm --examine /dev/sdb1
mdadm --examine /dev/sdb2
mdadm --examine /dev/sdc1
mdadm --examine /dev/sdc2
mdadm --examine /dev/sdd1
mdadm --examine /dev/sdd2
mdadm --assemble --scan /dev/md0
mdadm --assemble --scan /dev/md1
cat /proc/mdstat
fdisk -l /dev/md*

Hors ligne

#8 01-07-2020 18:31:41

ouatou
Membre
Distrib. : 12
Noyau : Linux 6.1.0-25-amd64
(G)UI : gnome
Inscription : 07-11-2014

Re : raid5 question

hahaha je ne doutais tellement pas de toi que j'etait en train de voir a rajouter une ligne dans le fstab avec nano  hahah comme les nfs ect ....

J'avais deja vu ca c'est e qui m'as mis lidee de voir si il etait possible de le reassembler

fdisk -l /dev/md2
 


Disque /dev/md2 : 10,93 TiB, 11992456101888 octets, 23422765824 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 65536 octets / 131072 octets
 

Hors ligne

#9 01-07-2020 18:36:31

ouatou
Membre
Distrib. : 12
Noyau : Linux 6.1.0-25-amd64
(G)UI : gnome
Inscription : 07-11-2014

Re : raid5 question

alors lvm2 est deja installer

aptitude install lvm2 lvdisplay


lvm2 est déjà installé avec la version demandée (2.03.07-1+b1)
Couldn't find any package matching "lvdisplay", but there are 1 packages which contain "lvdisplay" in their description:
  liblinux-lvm-perl
Unable to apply some actions, aborting
 



je dois sans doute installer le liblinux-lvm-perl

j'ai tout mis le paquet d'un coup pour pas faire 1 par 1
 


root@debian:~# mdadm --examine /dev/sdc1
mdadm: No md superblock detected on /dev/sdc1.

root@debian:~# mdadm --examine /dev/sdc2
mdadm: No md superblock detected on /dev/sdc2.

root@debian:~# mdadm --examine /dev/sdd1
mdadm: No md superblock detected on /dev/sdd1.

root@debian:~# mdadm --examine /dev/sdd2
mdadm: No md superblock detected on /dev/sdd2.

root@debian:~# mdadm --assemble --scan /dev/md0
mdadm: /dev/md0 not identified in config file.

root@debian:~# mdadm --assemble --scan /dev/md1
mdadm: /dev/md1 not identified in config file.

root@debian:~# cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4] [linear] [multipath] [raid0] [raid1] [raid10]
md2 : active (auto-read-only) raid5 sdc5[2] sda5[0] sdd5[1]
      11711382912 blocks super 1.2 level 5, 64k chunk, algorithm 2 [3/3] [UUU]
     
unused devices: <none>
 

Dernière modification par ouatou (01-07-2020 18:39:28)

Hors ligne

#10 01-07-2020 18:37:46

KsmoinO
Modérateur
Distrib. : Raspbian stable/testing/sid
Noyau : Linux 4
(G)UI : i3
Inscription : 05-10-2007

Re : raid5 question

Sinon sdb c'est ton disque système je suppose ? si oui les mdadm sur sdb ne servent à rien big_smile

(pour voir ce qu'il y a dans md2, voir mon message précédent wink)

Hors ligne

#11 01-07-2020 18:38:49

KsmoinO
Modérateur
Distrib. : Raspbian stable/testing/sid
Noyau : Linux 4
(G)UI : i3
Inscription : 05-10-2007

Re : raid5 question

il faut exécuter la commande lvdisplay (elle fait partie de lvm2) wink

Hors ligne

#12 01-07-2020 18:42:31

ouatou
Membre
Distrib. : 12
Noyau : Linux 6.1.0-25-amd64
(G)UI : gnome
Inscription : 07-11-2014

Re : raid5 question

d'accord je pensais que c'était un second paquet et donc par la même j'ai atteind mon niveau maximum de connaissance haha 

lvdisplay


  WARNING: PV /dev/md2 in VG vg1000 is using an old PV header, modify the VG to update.
  --- Logical volume ---
  LV Path                /dev/vg1000/lv
  LV Name                lv
  VG Name                vg1000
  LV UUID                ICX99z-06UV-s6um-8ixk-1xZk-6STl-d3XOR3
  LV Write Access        read/write
  LV Creation host, time ,
  LV Status              NOT available
  LV Size                <10,91 TiB
  Current LE             2859224
  Segments               1
  Allocation             inherit
  Read ahead sectors     auto
 

Hors ligne

#13 01-07-2020 18:58:09

KsmoinO
Modérateur
Distrib. : Raspbian stable/testing/sid
Noyau : Linux 4
(G)UI : i3
Inscription : 05-10-2007

Re : raid5 question

pour voir ce qu'il y a dans ce lv :

mount /dev/vg1000/lv /media/md



les autres partitions raid ne semblent pas utiliser

par contre ton raid est auto-read-only. Pour le passer en rw il va falloir exécuter quelque chose comme

mdadm --redwrite /dev/md2



il risque de relancer une synchro. Pour voir ce qu'il se passe

cat /proc/mdstat



Si le raid est bien repassé en active (sans le auto-read-only), pour vg1000 pour mettre à jours les metadata (et supprimer le message "WARNING: PV /dev/md2 in VG vg1000 is using an old PV header, modify the VG to update.")

vgck --updatemetadata vg1000

Hors ligne

#14 01-07-2020 19:08:21

ouatou
Membre
Distrib. : 12
Noyau : Linux 6.1.0-25-amd64
(G)UI : gnome
Inscription : 07-11-2014

Re : raid5 question

mount /dev/vg1000/lv /media/md
 


mount: /media/md: le point de montage n'existe pas.
 



donc

mkdir /media/md




mount /dev/vg1000/lv /media/md


mount: /media/md: le périphérique spécial /dev/vg1000/lv n'existe pas.
 



c'est étrange peut être qu'issus d'un serveur syno c'est pas fais pour être réassembler ailleurs.

Hors ligne

#15 01-07-2020 19:12:17

KsmoinO
Modérateur
Distrib. : Raspbian stable/testing/sid
Noyau : Linux 4
(G)UI : i3
Inscription : 05-10-2007

Re : raid5 question

Essaye de faire un pvdisplay et vgdisplay avant

Hors ligne

#16 01-07-2020 19:15:33

ouatou
Membre
Distrib. : 12
Noyau : Linux 6.1.0-25-amd64
(G)UI : gnome
Inscription : 07-11-2014

Re : raid5 question

aptitude install pvdisplay vgdisplay


:)



pvdisplay


 WARNING: PV /dev/md2 in VG vg1000 is using an old PV header, modify the VG to update.
  --- Physical volume ---
  PV Name               /dev/md2
  VG Name               vg1000
  PV Size               <10,91 TiB / not usable <1,38 MiB
  Allocatable           yes (but full)
  PE Size               4,00 MiB
  Total PE              2859224
  Free PE               0
  Allocated PE          2859224
  PV UUID               cKwxrk-upk7-CtUZ-YPKc-z2nw-lAqs-fS9RL7
 



vgdisplay


 WARNING: PV /dev/md2 in VG vg1000 is using an old PV header, modify the VG to update.
  --- Volume group ---
  VG Name               vg1000
  System ID            
  Format                lvm2
  Metadata Areas        1
  Metadata Sequence No  2
  VG Access             read/write
  VG Status             resizable
  MAX LV                0
  Cur LV                1
  Open LV               0
  Max PV                0
  Cur PV                1
  Act PV                1
  VG Size               <10,91 TiB
  PE Size               4,00 MiB
  Total PE              2859224
  Alloc PE / Size       2859224 / <10,91 TiB
  Free  PE / Size       0 / 0  
  VG UUID               T1eLmA-3jfu-fsQg-Q4cI-woIs-5nbp-os2gYq
 

Hors ligne

#17 01-07-2020 19:18:55

raleur
Membre
Inscription : 03-10-2014

Re : raid5 question

KsmoinO a écrit :

ton raid est auto-read-only. Pour le passer en rw il va falloir exécuter quelque chose comme


Rien du tout. Il est en auto-read-only parce qu'on n'a pas encore écrit dedans. Il passera automatiquement en read-write dès qu'il y aura une écriture.

@ouatou : avant de faire quoi que ce soit, une question se pose : veux-tu récupérer quelque chose sur ces disques ? Si la réponse est non, alors je te suggère fortement de tout supprimer et recréer le RAID selon tes besoins. Inutile de s'acharner à réutiliser un truc qui est dans un état douteux.


Il vaut mieux montrer que raconter.

Hors ligne

#18 01-07-2020 19:25:50

KsmoinO
Modérateur
Distrib. : Raspbian stable/testing/sid
Noyau : Linux 4
(G)UI : i3
Inscription : 05-10-2007

Re : raid5 question

raleur a écrit :

Rien du tout. Il est en auto-read-only parce qu'on n'a pas encore écrit dedans. Il passera automatiquement en read-write dès qu'il y aura une écriture.


Merci, je me coucherai moins bête smile

Hors ligne

#19 01-07-2020 19:30:54

ouatou
Membre
Distrib. : 12
Noyau : Linux 6.1.0-25-amd64
(G)UI : gnome
Inscription : 07-11-2014

Re : raid5 question

salut,

Je crois que tu as raison et j'en apprendrais plus en faisant le raid5 moi même j'ai commencer a étudier la doc et ouais aussi faire un truck en fonction de mon besoin.

Merci beaucoup pour votre aide et le temps passer en tout cas

et moi aussi je me coucherais largement moins bête.

Hors ligne

#20 01-07-2020 19:35:23

raleur
Membre
Inscription : 03-10-2014

Re : raid5 question

Quel est le besoin ?

Il vaut mieux montrer que raconter.

Hors ligne

#21 01-07-2020 19:35:25

KsmoinO
Modérateur
Distrib. : Raspbian stable/testing/sid
Noyau : Linux 4
(G)UI : i3
Inscription : 05-10-2007

Re : raid5 question

Domage, je pense qu'on etait pas loin lol

Bonne continuation à toi en tout cas wink

Hors ligne

#22 01-07-2020 19:40:57

raleur
Membre
Inscription : 03-10-2014

Re : raid5 question

Ah mais on peut continuer pour le sport si vous voulez. Je tenterais un

vgchange -ay


pour activer le VG et son LV
Mais ensuite, recréation selon ses besoins. Faut pas déconner avec ça.


Il vaut mieux montrer que raconter.

Hors ligne

#23 01-07-2020 19:44:36

ouatou
Membre
Distrib. : 12
Noyau : Linux 6.1.0-25-amd64
(G)UI : gnome
Inscription : 07-11-2014

Re : raid5 question

challenge relevé hehe

L'utilisation stockage essentiellement

vgchange -ay


  WARNING: PV /dev/md2 in VG vg1000 is using an old PV header, modify the VG to update.
  1 logical volume(s) in volume group "vg1000" now active
 



Je dois juste m'absenter quelque minute 30 45 minutes

Dernière modification par ouatou (01-07-2020 19:45:51)

Hors ligne

#24 01-07-2020 20:12:31

raleur
Membre
Inscription : 03-10-2014

Re : raid5 question

Je me doute bien que c'est pour du stockage, mais structuré comment ? Un seul volume, plusieurs volumes ? Possibilité de créer des instantanés (snapshots) ? Etc. Je n'hésite pas à pousser LVM quand ça peut apporter quelque chose, mais je ne suis pas un fanatique non plus. Si le besoin est un seul volume simple, alors LVM ne fait qu'ajouter de la complexité inutile.

Il vaut mieux montrer que raconter.

Hors ligne

#25 01-07-2020 20:16:50

ouatou
Membre
Distrib. : 12
Noyau : Linux 6.1.0-25-amd64
(G)UI : gnome
Inscription : 07-11-2014

Re : raid5 question

et bien le raid5 est monté il a un nom qui est une date de 2016 c'est complètement vide d'apparence néanmoins quand je regarde les propriété je vois qu'il y a des donné ça m'indique des erreurs en lecture et en écriture.
je ne comprend pas ce qu'il s'est passé entre le moment ou rien n'y faisais et le moment ou je l'ai entrevu dans nautilus.

j'ai trouver cette doc je partage le liens car elle est de bonne qualité.

https://wiki.debian-fr.xyz/Raid_logicie … lis.C3.A9e

Hors ligne

Pied de page des forums