logo Debian Debian Debian-France Debian-Facile Debian-fr.org Forum-Debian.fr Debian ? Communautés logo inclusivité

Debian-facile

Bienvenue sur Debian-Facile, site d'aide pour les nouveaux utilisateurs de Debian.

Vous n'êtes pas identifié(e).

#1 26-07-2018 10:03:13

bzh29
Membre
Inscription : 26-07-2018

RAID1 ou autre?

Bonjour à tous et à toute wink

Voici ce dont je dispose:

fdisk -l


Disque /dev/sda : 111,8 GiB, 120034123776 octets, 234441648 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : gpt
Identifiant de disque : BAA69839-5D26-4A99-83DB-FECDE9B26105

Périphérique    Début       Fin  Secteurs Taille Type
/dev/sda1        2048   1050623   1048576   512M Système EFI
/dev/sda2     1050624  59643903  58593280    28G Système de fichiers Linux
/dev/sda3    59643904  75692031  16048128   7,7G Partition d'échange Linux
/dev/sda4    75692032 234440703 158748672  75,7G Système de fichiers Linux


Disque /dev/sdb : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : DFEED492-592E-44C1-9AEF-BB0913A3A7EC

Périphérique Début        Fin   Secteurs Taille Type
/dev/sdb1     2048 1953523711 1953521664 931,5G Système de fichiers Linux


Disque /dev/sdc : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : ABAB0998-7F67-4C0B-9554-18C68FA1F614

Périphérique Début        Fin   Secteurs Taille Type
/dev/sdc1     2048 1953523711 1953521664 931,5G Système de fichiers Linux



Cette machine nous permet de faire tourner le server Plex pour diffuser tout nos médias à travers le réseau de notre habitation. Jusqu'à présent le disque /dev/sdb1 stocker les différents médias et manuellement je recopier cela sur /dev/sdc1 pour créer une sauvegarde. Nous sommes plusieurs à déposer sur ce server.

Serait il possible d'automatiser cette tâche? Après différentes lectures le faite de monter un RAID1 avec /dev/sdb1 et /dev/sdc1 pourrait répondre à ma question mais quand est il vraiment?

Dans ce cas nous ne déposerions plus nos médias sur /dev/sdb1 mais sur un disque virtuel visiblement nommé /dev/md0, c'est bien cela?

Auriez vous une doc pour que je puisse mener cette tâche?

Merci

Dernière modification par bzh29 (26-07-2018 10:04:45)

Hors ligne

#2 26-07-2018 12:30:18

raleur
Membre
Inscription : 03-10-2014

Re : RAID1 ou autre?

Le RAID n'est pas une sauvegarde. Il apporte de la redondance en cas de défaillance d'un disque. Contrairement à une sauvegarde, il ne protège pas contre les pertes de données par effacement accidentel ou volontaire, corruption, endommagement du système de fichiers...

Il vaut mieux montrer que raconter.

Hors ligne

#3 26-07-2018 12:51:25

bzh29
Membre
Inscription : 26-07-2018

Re : RAID1 ou autre?

Je suis tous à fait d'accord mais cela nous permet d'avoir deux supports, en cas de perte de l'un l'autre est disponible.

Effectivement, il ne protège pas contre les pertes de données par effacement accidentel ou volontaire, corruption, endommagement du système de fichiers... mais cela n'est pas ce que nous recherchons.

Vous pouvez m'aidez peu être?

Hors ligne

#4 26-07-2018 12:54:11

bzh29
Membre
Inscription : 26-07-2018

Re : RAID1 ou autre?

Je mis suis tout de même mis en suivant ce tuto https://www.cypouz.com/article/140110/c … n-existant

Le probleme, il ne correspond pas vraiment à ma configuration donc je doit l'adapter avec plus au moins de succès.

Certaine chose ne ce passe pas vraiment comme dans le tuto. Voila où j'en suis:

root@data:~#

fdisk -l


Disque /dev/sda : 111,8 GiB, 120034123776 octets, 234441648 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : gpt
Identifiant de disque : BAA69839-5D26-4A99-83DB-FECDE9B26105

Périphérique    Début       Fin  Secteurs Taille Type
/dev/sda1        2048   1050623   1048576   512M Système EFI
/dev/sda2     1050624  59643903  58593280    28G Système de fichiers Linux
/dev/sda3    59643904  75692031  16048128   7,7G Partition d'échange Linux
/dev/sda4    75692032 234440703 158748672  75,7G Système de fichiers Linux


Disque /dev/sdb : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : DFEED492-592E-44C1-9AEF-BB0913A3A7EC

Périphérique Début        Fin   Secteurs Taille Type
/dev/sdb1     2048 1953523711 1953521664 931,5G Système de fichiers Linux


Disque /dev/sdc : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : DFEED492-592E-44C1-9AEF-BB0913A3A7EC

Périphérique Début        Fin   Secteurs Taille Type
/dev/sdc1     2048 1953523711 1953521664 931,5G Système de fichiers Linux


Disque /dev/md0 : 931,4 GiB, 1000068874240 octets, 1953259520 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
root@data:~# fdisk /dev/sdb
 



Edit à toto : Mis en conformité l'utilisation du BBCode du forum

Hors ligne

#5 26-07-2018 13:21:18

bzh29
Membre
Inscription : 26-07-2018

Re : RAID1 ou autre?

Tous ne ce passe pas comme prévu et certaine commande du tuto me renvoi des erreurs.

Probleme je n'arrive pas à le supprimer ni à avoir des détails:

root@data:~#

mdadm --detail /dev/md0


mdadm: cannot open /dev/md0: No such file or directory


root@data:~#


Me suffit il de supprimer le paquet mdadm pour supprimer ce que j'ai pu faire?

Edit à toto : Mis en conformité l'utilisation du BBCode du forum

Dernière modification par bzh29 (26-07-2018 13:22:14)

Hors ligne

#6 26-07-2018 13:57:14

bzh29
Membre
Inscription : 26-07-2018

Re : RAID1 ou autre?

J'ai supprimé mdadm et repassé les deux hdd sous gparted pour les formater.

Je cherche un autre tuto ...

Hors ligne

#7 26-07-2018 20:10:01

bzh29
Membre
Inscription : 26-07-2018

Re : RAID1 ou autre?

Nouveau tuto qui me permet d'aller un peu plus loin: https://www.youtube.com/watch?v=M5_Vrx4Z67k


root@data:~# mdadm --detail /dev/md0
/dev/md0:
        Version : 1.2
  Creation Time : Thu Jul 26 16:59:53 2018
     Raid Level : raid1
     Array Size : 976631488 (931.39 GiB 1000.07 GB)
  Used Dev Size : 976631488 (931.39 GiB 1000.07 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Thu Jul 26 21:02:26 2018
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : data:0  (local to host data)
           UUID : 45857908:464d04e4:3136d33f:8a925e29
         Events : 2234

    Number   Major   Minor   RaidDevice State
       0       8       16        0      active sync   /dev/sdb
       1       8       32        1      active sync   /dev/sdc
root@data:~#
 



Par contre la suite demande d'édité le fichier mdadm.conf mais le mien est vide ...


root@data:~# nano /etc/mdadm.conf
 



Par contre dans un autre tuto une personne rajoute une seconde fois mdadm:


root@data:~# nano /etc/mdadm/mdadm.conf
 



Et la ce fichier n'est pas vide mais contiens pas les informations du raid et n'affiche que ça:


# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR root

# definitions of existing MD arrays

# This configuration was auto-generated on Thu, 26 Jul 2018 16:57:48 +0200 by mk$
 



J'ai loupé quoi?

Dernière modification par bzh29 (26-07-2018 20:11:01)

Hors ligne

#8 26-07-2018 20:24:07

Debian Alain
Membre
Lieu : Bretagne
Distrib. : sid (unstable) / bullseye (stable)
Noyau : Linux sid 6.4.0-3-amd64
(G)UI : Gnome X.org (X11) / GDM3
Inscription : 11-03-2017
Site Web

Re : RAID1 ou autre?

je n'y connais strictement rien en RAID , mais , est ce que  ceci  peut t'aider ?

wiki RAID logiciel (RAID 1)

RAID 1 avec rapsberry

perso , j'ai , entre autres , 2 gros disques de 4To dont un est formaté en EXT 4 et l'autre en NTFS pour les sauvegardes multimedia
(video essentiellement mais musique aussi , un peu) .
je me sers d'environ 50 à 75 % de chacun de ces  disques .
j'ai de la place et il m'en reste un peu .
4 To , c'est gros . le volume de  données stockées est important .
mais ça me sert bien et , depuis qques années , j'ai pas de problème .
j'ai un seagate et un WD , j'atends de  voir qui me lachera le premier .

par contre , pour avoir essayé , je déconseille le seagate 3 To . pas fiable .

jamais convaincu par le raid , trop compliqué et pas assez fiable à mes yeux , je ne l'ai jamais mis en oeuvre .

je préfère garder deux disques de sauvegarde totalement autonomes .

je suis plus à l'aise comme çà .

salut . big_smile

lol

Dernière modification par Debian Alain (26-07-2018 21:09:58)

Hors ligne

#9 27-07-2018 09:31:30

raleur
Membre
Inscription : 03-10-2014

Re : RAID1 ou autre?

Le problème connu des tutoriels, c'est qu'ils ne s'appliquent jamais directement à son cas particulier.
Un peu de patience t'aurait peut-être évité des déboires. Mais foncer sans attendre est aussi une façon d'apprendre, si cela n'entraîne pas de pertes de données.

Tu as reformaté les deux disques, donc effacé les données. Elles étaient sauvegardées ailleurs ?
Pour information il est possible de convertir des disques en RAID sans perte de données.

On peut voir la sortie des commandes suivantes dans l'état actuel ?

fdisk -l


blkid /dev/sd[bc]* /dev/md*



Edit à toto : désassemblé les BBCodes des deux commandes root pour les rendre plus lisibles sur le forum par tous...


Il vaut mieux montrer que raconter.

Hors ligne

#10 27-07-2018 10:03:21

bzh29
Membre
Inscription : 26-07-2018

Re : RAID1 ou autre?

Le raid semble fonctionner mais le probleme c'est qu'il est passé en /dev/md127 et les commandes pour le repasser du tuto en md0 ne fonctionne pas chez moi.

@Debian Alain, merci pour le tuto il m'a bien aidé et j'ai réussi en partie grace à lui. J'essaye de comprendre ce que je fait au fur et à mesure mais ce n'est pas toujours simple.


root@data:~#

fdisk -l


Disque /dev/sdc : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 3BEA05AF-0B7F-4CD9-9006-2A1DEDEC1A62

Périphérique Début        Fin   Secteurs Taille Type
/dev/sdc1     2048 1953525134 1953523087 931,5G Système de fichiers Linux


Disque /dev/sda : 111,8 GiB, 120034123776 octets, 234441648 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 512 octets
taille d'E/S (minimale / optimale) : 512 octets / 512 octets
Type d'étiquette de disque : gpt
Identifiant de disque : BAA69839-5D26-4A99-83DB-FECDE9B26105

Périphérique    Début       Fin  Secteurs Taille Type
/dev/sda1        2048   1050623   1048576   512M Système EFI
/dev/sda2     1050624  59643903  58593280    28G Système de fichiers Linux
/dev/sda3    59643904  75692031  16048128   7,7G Partition d'échange Linux
/dev/sda4    75692032 234440703 158748672  75,7G Système de fichiers Linux


Disque /dev/sdb : 931,5 GiB, 1000204886016 octets, 1953525168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : gpt
Identifiant de disque : 3BEA05AF-0B7F-4CD9-9006-2A1DEDEC1A62

Périphérique Début        Fin   Secteurs Taille Type
/dev/sdb1     2048 1953525134 1953523087 931,5G Système de fichiers Linux


Disque /dev/md127 : 931,4 GiB, 1000069595136 octets, 1953260928 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
root@data:~#
 



root@data:~#

blkid /dev/sd[bc]* /dev/md*


/dev/sdb: PTUUID="3bea05af-0b7f-4cd9-9006-2a1dedec1a62" PTTYPE="gpt"
/dev/sdb1: UUID="71f8bff1-2f2e-1527-2174-a2752d6aa101" UUID_SUB="4af9de78-0027-3643-7967-815265c150e4" LABEL="data:0" TYPE="linux_raid_member" PARTUUID="9e190666-a0ef-4a0d-9665-c4b1426e0206"
/dev/sdc: PTUUID="3bea05af-0b7f-4cd9-9006-2a1dedec1a62" PTTYPE="gpt"
/dev/sdc1: UUID="71f8bff1-2f2e-1527-2174-a2752d6aa101" UUID_SUB="fb76dadd-45b0-ce3a-dfc0-a656abfec243" LABEL="data:0" TYPE="linux_raid_member" PARTUUID="9e190666-a0ef-4a0d-9665-c4b1426e0206"
/dev/md127: UUID="5b1c5986-6cf0-4a71-a8ff-48a50b154a71" TYPE="ext3"
root@data:~#
 



Edit à toto : Séparé les commandes root et rendre leurs retours plus lisible encore.

Dernière modification par bzh29 (27-07-2018 10:04:40)

Hors ligne

#11 27-07-2018 10:08:21

raleur
Membre
Inscription : 03-10-2014

Re : RAID1 ou autre?

Pas bon.

mdadm --examine /dev/sd[bc]*


Il vaut mieux montrer que raconter.

Hors ligne

#12 27-07-2018 10:12:55

Debian Alain
Membre
Lieu : Bretagne
Distrib. : sid (unstable) / bullseye (stable)
Noyau : Linux sid 6.4.0-3-amd64
(G)UI : Gnome X.org (X11) / GDM3
Inscription : 11-03-2017
Site Web

Re : RAID1 ou autre?

salut bzh29 ,  big_smile

quel lien en particulier t'as le plus aidé entre les 3 que j'ai donné ?

RAID logiciel avec MDADM

Dernière modification par Debian Alain (27-07-2018 10:19:09)

Hors ligne

#13 27-07-2018 12:57:08

bzh29
Membre
Inscription : 26-07-2018

Re : RAID1 ou autre?

C'est grave docteur?


root@data:~#

mdadm --examine /dev/sd[bc]*


/dev/sdb:
   MBR Magic : aa55
Partition[0] :   1953525167 sectors at            1 (type ee)
/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 71f8bff1:2f2e1527:2174a275:2d6aa101
           Name : data:0  (local to host data)
  Creation Time : Thu Jul 26 22:06:40 2018
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 1953260943 (931.39 GiB 1000.07 GB)
     Array Size : 976630464 (931.39 GiB 1000.07 GB)
  Used Dev Size : 1953260928 (931.39 GiB 1000.07 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=15 sectors
          State : clean
    Device UUID : 4af9de78:00273643:79678152:65c150e4

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri Jul 27 10:45:18 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 2cfc08c5 - correct
         Events : 2292


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
/dev/sdc:
   MBR Magic : aa55
Partition[0] :   1953525167 sectors at            1 (type ee)
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : 71f8bff1:2f2e1527:2174a275:2d6aa101
           Name : data:0  (local to host data)
  Creation Time : Thu Jul 26 22:06:40 2018
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 1953260943 (931.39 GiB 1000.07 GB)
     Array Size : 976630464 (931.39 GiB 1000.07 GB)
  Used Dev Size : 1953260928 (931.39 GiB 1000.07 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=15 sectors
          State : clean
    Device UUID : fb76dadd:45b0ce3a:dfc0a656:abfec243

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri Jul 27 10:45:18 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : ed27a667 - correct
         Events : 2292


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
root@data:~#
 



Nous en sommes en train de déposer des fichiers et cela semble fonctionner, il ce remplie.

root@data:~#

df -h


Sys. de fichiers Taille Utilisé Dispo Uti% Monté sur
udev               3,8G       0  3,8G   0% /dev
tmpfs              764M    8,7M  756M   2% /run
/dev/sda2           28G    5,4G   21G  21% /
tmpfs              3,8G    8,0K  3,8G   1% /dev/shm
tmpfs              5,0M       0  5,0M   0% /run/lock
tmpfs              3,8G       0  3,8G   0% /sys/fs/cgroup
/dev/sda1          511M    3,5M  508M   1% /boot/efi
/dev/sda4           75G    4,5G   66G   7% /home
/dev/md127         916G    114G  756G  14% /mnt/plex
tmpfs              764M       0  764M   0% /run/user/1000
root@data:~#
 



Edit à toto : Dans le BBCode du forum séparé les commandes de leur retour.

Dernière modification par bzh29 (27-07-2018 12:59:12)

Hors ligne

#14 27-07-2018 13:00:12

bzh29
Membre
Inscription : 26-07-2018

Re : RAID1 ou autre?

@Debian Alain, le second.

Hors ligne

#15 27-07-2018 14:25:20

raleur
Membre
Inscription : 03-10-2014

Re : RAID1 ou autre?

bzh29 a écrit :

C'est grave docteur?


Peut-être. Il y a quelque chose qui ne me plaît pas et que je voudrais tirer au clair.
Peux-tu à nouveau exécuter la commande

mdadm --detail /dev/md*


et fournir le contenu de /proc/mdstat, /etc/mdadm.conf s'il existe et /etc/mdadm/mdadm.conf ?

Dans ton message #7, mdadm --detail indique que les membres de l'ensemble RAID /dev/md0 sont les disques entiers /dev/sdb et /dev/sdc. Le superbloc (méta-données) RAID en version 1.2 est situé 8 secteurs (4 Kio) après le début des disques. L'UUID de l'ensemble est 45857908:464d04e4:3136d33f:8a925e29, et sa taille est 976631488 Kio. Cette configuration est techniquement valide, mais je la déconseille à cause des risques de confusion qu'elle peut entraîner. Je recommande d'utiliser des partitions comme membres.

Cependant dans tes messages suivants fdisk indique que ces disques ont une table de partition GPT, qui occupe par défaut les secteurs 0 à 33. Cette table décrit une partition qui occupe tout l'espace disponible des disques. blkid et mdadm --examine indiquent que ces partitions sont membres d'un ensemble RAID dont l'UUID est 71f8bff1:2f2e1527:2174a275:2d6aa101 (différent du précédent) est la taille 976630464 Kio, légèrement inférieure à celle du précédent, ce qui est normal puisque les partitions sont légèrement plus petites que les disques entiers, à cause des tables de partition.

Il y a donc potentiellement deux ensembles RAID qui se chevauchent. D'autre part, les tables de partition GPT (secteurs 0 à 33) et les superblocs RAID des disques entiers (secteurs 8 et suivants se chevauchent également, ce qui veut dire que ceux qui ont été écrits en dernier ont écrasé les autres au moins en partie. blkid et mdadm --examine ne montrent aucune trace de ces superblocs, ils pourraient donc avoir été écrasés par une recréation ultérieure des tables de partitions.


Il vaut mieux montrer que raconter.

Hors ligne

#16 27-07-2018 15:16:12

bzh29
Membre
Inscription : 26-07-2018

Re : RAID1 ou autre?

Je te promet que j'ai tout lu mais j'avoue ne rien avoir compris...

Deux RAID, c'est bien possible car je suis arriver la en suivant divers tuto donc les infos et commandes on du ce croisées.

Alors pour les commandes demandées:


root@data:~# mdadm --detail /dev/md*
mdadm: /dev/md does not appear to be an md device
/dev/md127:
        Version : 1.2
  Creation Time : Thu Jul 26 22:06:40 2018
     Raid Level : raid1
     Array Size : 976630464 (931.39 GiB 1000.07 GB)
  Used Dev Size : 976630464 (931.39 GiB 1000.07 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Fri Jul 27 15:19:44 2018
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : data:0  (local to host data)
           UUID : 71f8bff1:2f2e1527:2174a275:2d6aa101
         Events : 2292

    Number   Major   Minor   RaidDevice State
       0       8       17        0      active sync   /dev/sdb1
       1       8       33        1      active sync   /dev/sdc1
root@data:~#
 





Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10]
md127 : active raid1 sdc1[1] sdb1[0]
      976630464 blocks super 1.2 [2/2] [UU]
      bitmap: 0/8 pages [0KB], 65536KB chunk

unused devices: <none>
 



La commande # nano /etc/mdadm.conf renvoi un fichier vide.

Pour la seconde:


ARRAY /dev/md0 level=raid1 num-devices=2 metadata=1.2 name=data:0 UUID=71f8bff1:2f2e1527:2174a275:2d6aa101
   devices=/dev/sdb1,/dev/sdc1
 



Question, je peux poursuivre son utilisation et le mettre propre en suivant tes conseils ou pas?

Dernière modification par bzh29 (27-07-2018 15:17:05)

Hors ligne

#17 27-07-2018 15:40:11

raleur
Membre
Inscription : 03-10-2014

Re : RAID1 ou autre?

Apparemment il ne reste rien de l'ensemble RAID créé sur les disques entiers qu'on voit dans le message #7. C'est une bonne chose.

Normalement il n'est pas nécessaire d'ajouter une ligne ARRAY dans mdadm.conf ; s'il n'y en a pas, tous les ensembles RAID détectés sont assemblés et démarrés.
Je supposais que le renommage pouvait être dû à la présence de md0 avec l'ancien UUID dans le fichier, mais ce n'est pas le cas : c'est bien le nouvel UUID de l'ensemble RAID créé dans les partitions /dev/sdb1 et /dev/sdc1 qui est present, donc l'ensemble RAID devrait être nommé /dev/md0. Par contre il vaut mieux supprimer la ligne contenant "devices=" car elle ne sert à rien (mdadm peut scanner les disques et partitions pour trouver l'UUID), et peut empêcher l'assemblage si les disques changent de nom (ce qui peut arriver aléatoirement car le nommage des disques /dev/sd* n'est pas garanti persistant ; c'est pour cela qu'on ne les utilise pas dans /etc/fstab).

Le nom de périphérique d'un ensemble RAID /dev/md* n'est pas garanti persistant non plus, mais ce n'est pas gênant, comme pour les disques et partitions : s'il contient un système de fichiers à monter, il suffit d'utiliser son UUID ou son LABEL pour l'identifier dans /etc/fstab.
Note : l'UUID ou le LABEL à spécifier dans fstab est celui mentionné par blkid pour /dev/md0, pas ceux mentionnés par blkid pour les partitions membres ni par mdadm.

Dernière modification par raleur (27-07-2018 15:44:26)


Il vaut mieux montrer que raconter.

Hors ligne

#18 27-07-2018 15:46:18

bzh29
Membre
Inscription : 26-07-2018

Re : RAID1 ou autre?

Comme tu as pu le voir les différents post ne ce suivent pas forcement car à certain endroits j'ai tout remis à plat er recommencer.

Pour ce qui est du nom du raid /dev/md127 cela pose probleme ou pas de le laisser comme sa? Sachant que je n'est pas réussi en suivant le tuto à le contraindre à repasser en /dev/md0. Du coup j'ai modifié le nom du point de montage en /mnt et aussi le fichier /etc/fstab.

Autre chose, comment vérifier que le RAID fonctionne correctement mais de façon concrete? Je veux dire par là, si je place le fichier toto.txt sur /dev/md127 comment et avec quelle commande puis je vérifié qu'il est bien sur /dev/sdb et /dev/sdc ?

Hors ligne

#19 27-07-2018 15:53:24

raleur
Membre
Inscription : 03-10-2014

Re : RAID1 ou autre?

bzh29 a écrit :

Pour ce qui est du nom du raid /dev/md127 cela pose probleme ou pas de le laisser comme sa? Sachant que je n'est pas réussi en suivant le tuto à le contraindre à repasser en /dev/md0. Du coup j'ai modifié le nom du point de montage en /mnt et aussi le fichier /etc/fstab.


Comme je l'ai écrit, cela ne pose pas de problème de laisser le nom /dev/md* à condition de ne pas l'utiliser mais d'utiliser l'UUID à la place, comme pour les partitions présentes dans fstab. Par contre /mnt n'est pas prévu pour servir de point de montage permanent mais de point de montage temporaire. Il vaut mieux utiliser un autre répertoire, comme /data par exemple.

bzh29 a écrit :

Autre chose, comment vérifier que le RAID fonctionne correctement mais de façon concrete? Je veux dire par là, si je place le fichier toto.txt sur /dev/md127 comment et avec quelle commande puis je vérifié qu'il est bien sur /dev/sdb et /dev/sdc ?


C'est inhérent au fonctionnement du RAID. Il n'écrit pas sur un disque puis réplique d'un disque sur l'autre, il écrit sur les deux disques simultanément. En lecture, le RAID peut lire à partir de n'importe quel membre.
Les éventuelles erreurs de lecture ou d'écriture sont visibles dans les logs du noyau comme pour n'importe quel disque, et l'état des ensembles RAID existants peut être consulté dans /proc/mdstat.

Dernière touche : modifier l'identifiant de type des partitions de "Linux filesystem" à "Linux RAID" avec fdisk ou autre. Cela n'a aucun effet technique mais permet à l'oeil humain d'identifier immédiatement les partitions comme utilisées pour du RAID.

Dernière modification par raleur (27-07-2018 15:59:37)


Il vaut mieux montrer que raconter.

Hors ligne

#20 27-07-2018 16:05:54

bzh29
Membre
Inscription : 26-07-2018

Re : RAID1 ou autre?

De manière plus structurée et général:

1. L'UUID je la récupère où cette valeurs? Je la place /etc/mdadm/mdadm.conf? La modification doit ce faire avec le RAID arrêté?

2. Mon dossier toto contient une video, pour être sur de sa présence sur les deux disques (oui j'y tiens), puis je simuler une panne d'un des deux disques? En faite l'un après l'autre et ainsi vérifier que quelques soit le disque présent la video est toujours lu.

3. Et pour la modification en Linux Raid je fait comment?

Dernière modification par bzh29 (27-07-2018 16:06:34)

Hors ligne

#21 27-07-2018 18:48:35

smolski
quasi...modo
Lieu : AIN
Distrib. : backports (buster) 10
Noyau : Linux 4.19.0-8-amd64
(G)UI : gnome
Inscription : 21-10-2008

Re : RAID1 ou autre?

bzh29 a écrit :

L'UUID je la récupère où cette valeurs?


Avec la commande blkid :
Le tuto : https://debian-facile.org/doc:systeme:blkid wink


saque eud dun (patois chtimi : fonce dedans)

Hors ligne

#22 27-07-2018 23:07:52

raleur
Membre
Inscription : 03-10-2014

Re : RAID1 ou autre?

bzh29 a écrit :

L'UUID je la récupère où cette valeurs? Je la place /etc/mdadm/mdadm.conf?


Il ne faut pas confondre l'UUID interne de l'ensemble RAID et l'UUID du système de fichiers contenu dans l'ensemble RAID.

L'UUID interne d'un ensemble RAID sert au pilote RAID pour identifier les membres de l'ensemble et les assembler.
On le trouve dans le champ "UUID" affiché par mdadm --detail ou --examine, ou affiché par blkid pour les membres /dev/sdb1 et /dev/sdc1 avec une syntaxe différente (séparateur - au lieu de : ) (le champ UUID_SUB contient un autre UUID différent pour chaque membre).
On peut le mettre dans mdadm.conf.

L'UUID d'un système de fichiers sert à identifier un volume (disque, partition, ensemble RAID...) par son contenu.
On le trouve dans le champ "UUID" affiché par blkid pour le volume /dev/md0.
On doit le mettre dans fstab pour que le système de fichiers soit monté automatiquement au démarrage.

bzh29 a écrit :

Mon dossier toto contient une video, pour être sur de sa présence sur les deux disques (oui j'y tiens), puis je simuler une panne d'un des deux disques? En faite l'un après l'autre et ainsi vérifier que quelques soit le disque présent la video est toujours lu.


On peut marquer un membre d'un ensemble RAID comme défaillant avec mdadm --fail, mais il ne sera plus synchronisé et il devra être resynchronisé lorsqu'il sera réintégré dans l'ensemble RAID, ce qui peut prendre du temps.

bzh29 a écrit :

Et pour la modification en Linux Raid je fait comment?


Faut-il vraiment te dire comment utiliser un programme de partitionnement comme fdisk ou gparted ?


Il vaut mieux montrer que raconter.

Hors ligne

#23 28-07-2018 06:27:40

smolski
quasi...modo
Lieu : AIN
Distrib. : backports (buster) 10
Noyau : Linux 4.19.0-8-amd64
(G)UI : gnome
Inscription : 21-10-2008

Re : RAID1 ou autre?

raleur a écrit :

utiliser un programme de partitionnement


Sur le wiki df, taper fdisk dans la case recherche permet d'en trouver une floppée avec la méthode pour chacun d'eux au bout du lien... cool


saque eud dun (patois chtimi : fonce dedans)

Hors ligne

#24 28-07-2018 09:49:42

raleur
Membre
Inscription : 03-10-2014

Re : RAID1 ou autre?

Bzh29 a écrit avoir déjà utilisé fdisk et gparted.

Il vaut mieux montrer que raconter.

Hors ligne

#25 28-07-2018 10:01:40

smolski
quasi...modo
Lieu : AIN
Distrib. : backports (buster) 10
Noyau : Linux 4.19.0-8-amd64
(G)UI : gnome
Inscription : 21-10-2008

Re : RAID1 ou autre?

L'entraide sur le forum est aussi l'occasion d'être une source d'informations pour tous les visiteurs, d'où les contraintes du BBCode par exemple.
Je suis intervenu ici principalement pour indiquer à tous comment fonctionne la recherche sur le wiki df et non pour l'indiquer privativement à l'initiateur du post. smile

Un bref instant de Pub mais utile en quelque sorte. character0113.gif

saque eud dun (patois chtimi : fonce dedans)

Hors ligne

Pied de page des forums