Vous n'êtes pas identifié(e).
Pages : 1
Le Raid a eu l'air de se reconstituer gentiment, mais à la fin de l'opération le nouveau disque est en "spare", le Raid comprend 3 disques dont un "removed", un "active" et un "spare" et le Raid est en état dégradé.
Je n'arrive pas à remettre le raid dans un état normal, quelqu'un peut-il m'aider?
Hors ligne
Si ça ne marche pas, peux-tu poster la sortie des commandes suivantes ?
Note : si tu as créé une table de partition et une partition RAID sur le nouveau disque, tu n'aurais pas dû déclarer en tant que nouveau membre le disque entier/dev/sdb mais la partition /dev/sdb1. Tu vas au devant d'ennuis, la table de partition GPT et les méta-données RAID se chevauchant.
Edit : note qu'après avoir remplacé les deux disques il faudra agrandir l'ensemble RAID pour qu'il prenne en compte la nouvelle capacité (ce n'est pas automatique) puis agrandir son contenu pour la même raison.
Dernière modification par raleur (15-03-2018 15:31:33)
Il vaut mieux montrer que raconter.
Hors ligne
Hors ligne
il va falloir de toutes façon que je reconstruises le Raid en mettant /dev/sdb1 en membre, n'est-ce pas?
Pas forcément. Ça dépend de ce que tu as fait exactement. Peux-tu confirmer que tu as créé une partition /dev/sdb1 mais ajouté /dev/sdb au RAID ?
Qu'en est-il de l'autre disque ?
Il vaut mieux montrer que raconter.
Hors ligne
L'autre disque est ajouté en sdc1 (il s'agit d'un disque de 2TO que je vais remplacer quand j'aurai réussi la manipulation sur le premier).
Dans /proc/mdstat il y a :
Personalities : [raid1]
md0 : active raid1 sdb[2](S) sdc2[1]
1951810363 blocks super 1.2 [2/1] [U_]
Dernière modification par philev (15-03-2018 17:09:43)
Hors ligne
Hors ligne
-->les cahiers du debutant<-- WikiDF-->Découvrir les principales commandes Linux<--
L' expérience, c'est le nom que chacun donne à ses erreurs. Oscar Wilde
Hors ligne
Hors ligne
L'autre disque est ajouté en sdc1
Vraiment ? D'après /proc/mdstat c'est sdc2.
Dernière modification par raleur (15-03-2018 17:36:20)
Il vaut mieux montrer que raconter.
Hors ligne
Hors ligne
Hors ligne
Il vaut mieux montrer que raconter.
Hors ligne
La question est donc, ai-je une chance de reconstruire un Raid avec ce disque et dois-je tenter une reconstruction à partir de l'autre disque (celui que j'avais enlevé) ?
Hors ligne
Il vaut mieux montrer que raconter.
Hors ligne
Hors ligne
Dernière modification par raleur (16-03-2018 20:31:10)
Il vaut mieux montrer que raconter.
Hors ligne
Hors ligne
Il vaut mieux montrer que raconter.
Hors ligne
- If it works, dont update it.
- You don't know how, just do it, you will learn.
- Test, re-stest, test again, and maybe it will work.
- https://nextcloud.rkn.ovh/index.php/s/3yp93A7oNMPexcp
Hors ligne
et le boot s'interrompt.
Un mount -a donne le même message. Je peux cependant monter le raid manuellement par mount /dev/md1, mais c'est embêtant de faire cela à tous les démarrages...
Le UUID=xxx est bien renseigné dans /etc/fstab, il est aussi présent dans /etc/mdadm/mdadm.conf. Par contre, il est absent du répertoire /dev/disks/bu-UUID. C'est un autre UUID qui pointe sur /dev/md1. (sans doute correspond-il à la première création du Raid md1 lors de mes manipulations successives.
Un grand merci d'avance à celui qui pourra m'aider pour que le raid se monte automatiquement au boot.
Dernière modification par philev (22-03-2018 13:23:13)
Hors ligne
Le UUID=xxx est bien renseigné dans /etc/fstab, il est aussi présent dans /etc/mdadm/mdadm.conf
Ce n'est pas le même UUID. L'UUID dans fstab doit être celui du système de fichiers ext4 (affiché par tune2fs -l ou blkid sur l'ensemble RAID /dev/mdX par exemple) alors que celui dans mdadm.conf doit être celui de l'ensemble RAID, affiché entre autres par mdadm --examine ou blkid sur un membre /dev/sdXY.
Dernière modification par raleur (22-03-2018 16:28:32)
Il vaut mieux montrer que raconter.
Hors ligne
Hors ligne
Pages : 1