Debian Debian-France Debian-Facile Debian-fr.org Debian-fr.xyz Debian ? Communautés

Debian-facile

Bienvenue sur Debian-Facile, site d'aide pour les nouveaux utilisateurs de Debian.

Vous n'êtes pas identifié(e).

#1 07-03-2018 10:49:26

moi4567
Membre
Distrib. : Jessie
Noyau : Linux 3.16.0-4-amd64
(G)UI : Gnome 3
Inscription : 22-06-2015

[Résolu] Migration raid mdadm - Création automatique

Bonjour à tous smile

Je downgrade actuellement un de mes raspberry en jessie et j'ai un petit soucis pour la remise en fonction de mon RAID 1 avec mdadm.


- J'ai réinstallé mon raspberry avec Jessie
- J'ai réinstallé mdadm

C'est à la remise en place du raid que ça se corse. Pour ce faire j'ai procédé de la façon suivante:

mdadm --assemble --scan
mdadm --detail --scan >> /etc/mdadm/mdadm.conf
 



Le raid se reforme sans problème, la config est bien présente dans le mdadm.conf:

ARRAY /dev/md0 metadata=1.2 name=raspberrypi:0 UUID=d269a0bd:59bb5fed:7347c0f8:36c03270



Mais au redémarrage j'ai l'erreur suivante quand je vérifie l'état du service:

DeviceDisappeared event detected on md device /dev/md0



Je ne comprend pas très bien d'où ça viens puisque le raid se forme correctement et sans erreur lorsque je le fait à la main.

Voici quelques infos qui peuvent être utiles:

mdadm --examine /dev/sda1


/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : d269a0bd:59bb5fed:7347c0f8:36c03270
           Name : raspberrypi:0  (local to host raspberrypi)
  Creation Time : Tue Mar  6 05:03:12 2018
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 3906764942 (1862.89 GiB 2000.26 GB)
     Array Size : 1953382464 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 3906764928 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=14 sectors
          State : clean
    Device UUID : 04c8d089:6cb78056:e3204dfc:2a0d2a45

Internal Bitmap : 8 sectors from superblock
    Update Time : Wed Mar  7 06:35:08 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 82fb0bf7 - correct
         Events : 76


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
 



mdadm --examine /dev/sdb1


/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : d269a0bd:59bb5fed:7347c0f8:36c03270
           Name : raspberrypi:0  (local to host raspberrypi)
  Creation Time : Tue Mar  6 05:03:12 2018
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 3906764943 (1862.89 GiB 2000.26 GB)
     Array Size : 1953382464 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 3906764928 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=15 sectors
          State : clean
    Device UUID : 10a0ec8f:1adb64d5:a149150b:2761e916

Internal Bitmap : 8 sectors from superblock
    Update Time : Wed Mar  7 06:35:08 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : e882846d - correct
         Events : 76


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)



Puis, une fois le raid formé à la main:

mdadm --detail /dev/md0


/dev/md0:
        Version : 1.2
  Creation Time : Tue Mar  6 05:03:12 2018
     Raid Level : raid1
     Array Size : 1953382464 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 1953382464 (1862.89 GiB 2000.26 GB)
   Raid Devices : 2
  Total Devices : 2
    Persistence : Superblock is persistent

  Intent Bitmap : Internal

    Update Time : Wed Mar  7 06:35:08 2018
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 0
  Spare Devices : 0

           Name : raspberrypi:0  (local to host raspberrypi)
           UUID : d269a0bd:59bb5fed:7347c0f8:36c03270
         Events : 76

    Number   Major   Minor   RaidDevice State
       0       8        1        0      active sync   /dev/sda1
       1       8       17        1      active sync   /dev/sdb1



Si ça vous dis quelque chose je suis intéressé smile

Dernière modification par moi4567 (10-03-2018 14:55:07)

Hors ligne

#2 07-03-2018 14:44:32

raleur
Membre
Inscription : 03-10-2014

Re : [Résolu] Migration raid mdadm - Création automatique

Ce message ne me dit rien.
Quel est le résultat de ces commandes immédiatement après l'erreur, sans faire d'assemblage manuel ni quoi que ce soit ?
Quel est le contenu de /proc/mdstat ?
Quels sont les messages du noyau relatifs à md et aux deux disques ?

Dernière modification par raleur (07-03-2018 14:44:57)


Il vaut mieux montrer que raconter.

Hors ligne

#3 07-03-2018 18:01:50

moi4567
Membre
Distrib. : Jessie
Noyau : Linux 3.16.0-4-amd64
(G)UI : Gnome 3
Inscription : 22-06-2015

Re : [Résolu] Migration raid mdadm - Création automatique

Bonjour raleur,

Le message d'erreur interviens au démarrage du service. Voici le résultat (avant assemblage manuel donc).

mdadm --examine /dev/sda1


/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : d269a0bd:59bb5fed:7347c0f8:36c03270
           Name : raspberrypi:0  (local to host raspberrypi)
  Creation Time : Tue Mar  6 05:03:12 2018
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 3906764942 (1862.89 GiB 2000.26 GB)
     Array Size : 1953382464 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 3906764928 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=14 sectors
          State : clean
    Device UUID : 04c8d089:6cb78056:e3204dfc:2a0d2a45

Internal Bitmap : 8 sectors from superblock
    Update Time : Wed Mar  7 15:39:36 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 82fb8b95 - correct
         Events : 78


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)



Le résultat est le même.

cat /proc/mdstat


Personalities : [raid1]
md0 : active (auto-read-only) raid1 sda1[0] sdb1[1]
      1953382464 blocks super 1.2 [2/2] [UU]
      bitmap: 0/15 pages [0KB], 65536KB chunk

unused devices: <none>
 



Messages kernels:

dmesg | grep sda


[    4.008744] sd 0:0:0:0: [sda] 3907029167 512-byte logical blocks: (2.00 TB/1.82 TiB)
[    4.009134] sd 0:0:0:0: [sda] Write Protect is off
[    4.009148] sd 0:0:0:0: [sda] Mode Sense: 47 00 00 08
[    4.009538] sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
[    4.968389]  sda: sda1
[    4.974139] sd 0:0:0:0: [sda] Attached SCSI disk
[   98.978300] md: bind<sda1>



dmesg | grep sdb


[    4.248615] sd 1:0:0:0: [sdb] 3907029168 512-byte logical blocks: (2.00 TB/1.82 TiB)
[    4.249316] sd 1:0:0:0: [sdb] Write Protect is off
[    4.249329] sd 1:0:0:0: [sdb] Mode Sense: 33 00 00 08
[    4.249832] sd 1:0:0:0: [sdb] No Caching mode page found
[    4.249844] sd 1:0:0:0: [sdb] Assuming drive cache: write through
[    4.291341]  sdb: sdb1
[    4.300624] sd 1:0:0:0: [sdb] Attached SCSI disk
[  142.629209] md: bind<sdb1>



dmesg | grep md0


[  142.621042] md: md0 stopped.
[  142.653010] md/raid1:md0: active with 2 out of 2 mirrors
[  142.653726] created bitmap (15 pages) for device md0
[  142.660297] md0: bitmap initialized from disk: read 1 pages, set 0 of 29807 bits
[  142.681654] md0: detected capacity change from 0 to 2000263643136
 



Effectivement en regardant les messages kernel, mes deux disques semble avoir des problèmes de caches... Je continu mon enquête.

Hors ligne

#4 07-03-2018 18:22:51

raleur
Membre
Inscription : 03-10-2014

Re : [Résolu] Migration raid mdadm - Création automatique

Non, le message concernant le mode de cache est juste une information banale.
D'après ces résultats l'ensemble RAID md0 semble bien actif. Qu'est-ce qui te fait dire qu'il ne l'est pas ?

Il vaut mieux montrer que raconter.

Hors ligne

#5 07-03-2018 18:38:59

moi4567
Membre
Distrib. : Jessie
Noyau : Linux 3.16.0-4-amd64
(G)UI : Gnome 3
Inscription : 22-06-2015

Re : [Résolu] Migration raid mdadm - Création automatique

Le RAID est actif, quand je l'assemble à la main. Ça ne se fait pas automatiquement au démarrage. L'erreur proviens très probablement de l'assemblage du RAID car après l'avoir fait à la main il n'y a plus d'erreur sur le service et tout est fonctionnel.
Je pourrais créer un deamon qui assemble le RAID au démarrage mais j'aimerais bien comprendre d'où ça peux venir hmm

Hors ligne

#6 07-03-2018 19:07:10

raleur
Membre
Inscription : 03-10-2014

Re : [Résolu] Migration raid mdadm - Création automatique

Pourtant tu avais écrit que c'étaient les résultats avant l'assemblage manuel. Je ne sais plus que croire.

Aussi, quel est le service qui affiche le message, et peux-tu montrer son statut et historique avant le montage manuel ?

Dernière modification par raleur (07-03-2018 19:09:25)


Il vaut mieux montrer que raconter.

Hors ligne

#7 07-03-2018 19:35:49

moi4567
Membre
Distrib. : Jessie
Noyau : Linux 3.16.0-4-amd64
(G)UI : Gnome 3
Inscription : 22-06-2015

Re : [Résolu] Migration raid mdadm - Création automatique

Autant pour moi. Pour le dernier message (dmesg | grep md0) j'ai fait l'assemblage à la main.

Le service affichant le message est mdadm.service.

systemctl status mdadm.service


● mdadm.service - LSB: MD monitoring daemon
   Loaded: loaded (/etc/init.d/mdadm)
   Active: active (running) since mer. 2018-03-07 17:31:44 UTC; 52s ago
  Process: 555 ExecStart=/etc/init.d/mdadm start (code=exited, status=0/SUCCESS)
   CGroup: /system.slice/mdadm.service
           └─574 /sbin/mdadm --monitor --pid-file /run/mdadm/monitor.pid --daemonise --scan --syslog

mars 07 17:31:44 raspberrypi systemd[1]: Starting LSB: MD monitoring daemon...
mars 07 17:31:44 raspberrypi mdadm[555]: Starting MD monitoring service: mdadm --monitor.
mars 07 17:31:44 raspberrypi mdadm[574]: DeviceDisappeared event detected on md device /dev/md0
mars 07 17:31:44 raspberrypi systemd[1]: Started LSB: MD monitoring daemon.



Cette commande est faite juste après le redémarrage du système.

Hors ligne

#8 07-03-2018 22:17:39

raleur
Membre
Inscription : 03-10-2014

Re : [Résolu] Migration raid mdadm - Création automatique

moi4567 a écrit :

Pour le dernier message (dmesg | grep md0) j'ai fait l'assemblage à la main.


Uniquement pour celui-là ? /proc/mdstat indique aussi que md0 était actif.
Est-ce que tu pourrais tout refaire sans assemblage manuel pour que ce soit bien clair ?

La date dans les logs de mdadm.service correspond à quel uptime du noyau ?


Il vaut mieux montrer que raconter.

Hors ligne

#9 07-03-2018 23:53:07

moi4567
Membre
Distrib. : Jessie
Noyau : Linux 3.16.0-4-amd64
(G)UI : Gnome 3
Inscription : 22-06-2015

Re : [Résolu] Migration raid mdadm - Création automatique

Effectivement... Oui tu as raison, je remet tout à plat.

mdadm --examine /dev/sda1


/dev/sda1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : d269a0bd:59bb5fed:7347c0f8:36c03270
           Name : raspberrypi:0  (local to host raspberrypi)
  Creation Time : Tue Mar  6 05:03:12 2018
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 3906764942 (1862.89 GiB 2000.26 GB)
     Array Size : 1953382464 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 3906764928 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=14 sectors
          State : clean
    Device UUID : 04c8d089:6cb78056:e3204dfc:2a0d2a45

Internal Bitmap : 8 sectors from superblock
    Update Time : Wed Mar  7 17:23:22 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : 82fba3eb - correct
         Events : 82


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
 



mdadm --examine /dev/sdb1


/dev/sdb1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : d269a0bd:59bb5fed:7347c0f8:36c03270
           Name : raspberrypi:0  (local to host raspberrypi)
  Creation Time : Tue Mar  6 05:03:12 2018
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 3906764943 (1862.89 GiB 2000.26 GB)
     Array Size : 1953382464 (1862.89 GiB 2000.26 GB)
  Used Dev Size : 3906764928 (1862.89 GiB 2000.26 GB)
    Data Offset : 262144 sectors
   Super Offset : 8 sectors
   Unused Space : before=262056 sectors, after=15 sectors
          State : clean
    Device UUID : 10a0ec8f:1adb64d5:a149150b:2761e916

Internal Bitmap : 8 sectors from superblock
    Update Time : Wed Mar  7 17:23:22 2018
  Bad Block Log : 512 entries available at offset 72 sectors
       Checksum : e8831c61 - correct
         Events : 82


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)



cat /proc/mdsta


Personalities :
unused devices: <none>



systemctl status mdadm.service


● mdadm.service - LSB: MD monitoring daemon
   Loaded: loaded (/etc/init.d/mdadm)
   Active: active (running) since mer. 2018-03-07 21:50:07 UTC; 5min ago
  Process: 555 ExecStart=/etc/init.d/mdadm start (code=exited, status=0/SUCCESS)
   CGroup: /system.slice/mdadm.service
           └─575 /sbin/mdadm --monitor --pid-file /run/mdadm/monitor.pid --daemonise --scan --syslog

mars 07 21:50:07 raspberrypi systemd[1]: Starting LSB: MD monitoring daemon...
mars 07 21:50:07 raspberrypi mdadm[575]: DeviceDisappeared event detected on md device /dev/md0
mars 07 21:50:07 raspberrypi mdadm[555]: Starting MD monitoring service: mdadm --monitor.
mars 07 21:50:07 raspberrypi systemd[1]: Started LSB: MD monitoring daemon.
 

Dernière modification par moi4567 (07-03-2018 23:56:28)

Hors ligne

#10 08-03-2018 00:57:23

raleur
Membre
Inscription : 03-10-2014

Re : [Résolu] Migration raid mdadm - Création automatique

Il manque les logs du noyau, à récupérer dans /var/log/kern.log pour corréler les dates.

Il vaut mieux montrer que raconter.

Hors ligne

#11 08-03-2018 06:31:17

moi4567
Membre
Distrib. : Jessie
Noyau : Linux 3.16.0-4-amd64
(G)UI : Gnome 3
Inscription : 22-06-2015

Re : [Résolu] Migration raid mdadm - Création automatique

Je te rajoute ça.
Pour des questions de lisibilité, je ne te met que les historiques les plus récents.

cat /var/log/kern.log | grep sda



...
Mar  7 17:31:44 raspberrypi kernel: [    4.009505] sd 0:0:0:0: [sda] 3907029167 512-byte logical blocks: (2.00 TB/1.82 TiB)
Mar  7 17:31:44 raspberrypi kernel: [    4.009887] sd 0:0:0:0: [sda] Write Protect is off
Mar  7 17:31:44 raspberrypi kernel: [    4.009901] sd 0:0:0:0: [sda] Mode Sense: 47 00 00 08
Mar  7 17:31:44 raspberrypi kernel: [    4.010249] sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Mar  7 17:31:44 raspberrypi kernel: [    4.360472]  sda: sda1
Mar  7 17:31:44 raspberrypi kernel: [    4.367861] sd 0:0:0:0: [sda] Attached SCSI disk
Mar  7 18:29:29 raspberrypi kernel: [ 3460.355680] md: bind<sda1>
Mar  7 21:50:07 raspberrypi kernel: [    4.010982] sd 0:0:0:0: [sda] 3907029167 512-byte logical blocks: (2.00 TB/1.82 TiB)
Mar  7 21:50:07 raspberrypi kernel: [    4.011484] sd 0:0:0:0: [sda] Write Protect is off
Mar  7 21:50:07 raspberrypi kernel: [    4.011504] sd 0:0:0:0: [sda] Mode Sense: 47 00 00 08
Mar  7 21:50:07 raspberrypi kernel: [    4.011892] sd 0:0:0:0: [sda] Write cache: enabled, read cache: enabled, doesn't support DPO or FUA
Mar  7 21:50:07 raspberrypi kernel: [    4.140579]  sda: sda1
Mar  7 21:50:07 raspberrypi kernel: [    4.143139] sd 0:0:0:0: [sda] Attached SCSI disk



cat /var/log/kern.log | grep sdb



...
Mar  7 17:31:44 raspberrypi kernel: [    4.254938] sd 1:0:0:0: [sdb] 3907029168 512-byte logical blocks: (2.00 TB/1.82 TiB)
Mar  7 17:31:44 raspberrypi kernel: [    4.255546] sd 1:0:0:0: [sdb] Write Protect is off
Mar  7 17:31:44 raspberrypi kernel: [    4.255563] sd 1:0:0:0: [sdb] Mode Sense: 33 00 00 08
Mar  7 17:31:44 raspberrypi kernel: [    4.256042] sd 1:0:0:0: [sdb] No Caching mode page found
Mar  7 17:31:44 raspberrypi kernel: [    4.256055] sd 1:0:0:0: [sdb] Assuming drive cache: write through
Mar  7 17:31:44 raspberrypi kernel: [    4.282557]  sdb: sdb1
Mar  7 17:31:44 raspberrypi kernel: [    4.291696] sd 1:0:0:0: [sdb] Attached SCSI disk
Mar  7 18:29:29 raspberrypi kernel: [ 3460.353235] md: bind<sdb1>
Mar  7 21:50:07 raspberrypi kernel: [    4.249135] sd 1:0:0:0: [sdb] 3907029168 512-byte logical blocks: (2.00 TB/1.82 TiB)
Mar  7 21:50:07 raspberrypi kernel: [    4.249474] sd 1:0:0:0: [sdb] Write Protect is off
Mar  7 21:50:07 raspberrypi kernel: [    4.249493] sd 1:0:0:0: [sdb] Mode Sense: 33 00 00 08
Mar  7 21:50:07 raspberrypi kernel: [    4.249915] sd 1:0:0:0: [sdb] No Caching mode page found
Mar  7 21:50:07 raspberrypi kernel: [    4.249926] sd 1:0:0:0: [sdb] Assuming drive cache: write through
Mar  7 21:50:07 raspberrypi kernel: [    4.256481]  sdb: sdb1
Mar  7 21:50:07 raspberrypi kernel: [    4.263007] sd 1:0:0:0: [sdb] Attached SCSI disk



cat /var/log/kern.log | grep md



...
Mar  7 18:29:29 raspberrypi kernel: [ 3460.334794] md: md0 stopped.
Mar  7 18:29:29 raspberrypi kernel: [ 3460.353235] md: bind<sdb1>
Mar  7 18:29:29 raspberrypi kernel: [ 3460.355680] md: bind<sda1>
Mar  7 18:29:29 raspberrypi kernel: [ 3460.372654] md: raid1 personality registered for level 1
Mar  7 18:29:29 raspberrypi kernel: [ 3460.374016] md/raid1:md0: active with 2 out of 2 mirrors
Mar  7 18:29:29 raspberrypi kernel: [ 3460.374784] created bitmap (15 pages) for device md0
Mar  7 18:29:29 raspberrypi kernel: [ 3460.386136] md0: bitmap initialized from disk: read 1 pages, set 0 of 29807 bits
Mar  7 18:29:29 raspberrypi kernel: [ 3460.398299] md0: detected capacity change from 0 to 2000263643136

Dernière modification par moi4567 (08-03-2018 06:32:53)

Hors ligne

#12 08-03-2018 11:54:10

raleur
Membre
Inscription : 03-10-2014

Re : [Résolu] Migration raid mdadm - Création automatique

Au moins cette fois c'est clair : md0 n'a jamais existé au cours de ce démarrage. Je ne vois donc pas à quoi correspond ce "DeviceDisappeared event".
Peux-tu fournir le contenu complet de /etc/mdadm/mdadm.conf et de /etc/default/mdadm ?

Il vaut mieux montrer que raconter.

Hors ligne

#13 08-03-2018 12:10:19

Croutons
Membre
Distrib. : Debian10 Buster
Noyau : Linux 4.19.0-18-amd64
(G)UI : Mate
Inscription : 16-12-2016

Re : [Résolu] Migration raid mdadm - Création automatique

Salut
J'ai vu sur le man si cela peu etre utile

Default is to use /etc/mdadm.conf, or if that is missing then /etc/mdadm/mdadm.conf


Je pense vu que tu ajoutes au fichier avec double chevrons si le fichier ne contient qu'une seule ligne c'est qu'il existait pas avant ou qu'il était vide ?


-->les cahiers du debutant<--      WikiDF-->Découvrir les principales commandes Linux<--
L' expérience, c'est le nom que chacun donne à ses erreurs. Oscar Wilde

En ligne

#14 08-03-2018 16:42:16

moi4567
Membre
Distrib. : Jessie
Noyau : Linux 3.16.0-4-amd64
(G)UI : Gnome 3
Inscription : 22-06-2015

Re : [Résolu] Migration raid mdadm - Création automatique

@Croutons: Mon fichier /etc/mdadm/mdadm.conf n'étais pas vide, je n'ai montré que la ligne qui me paraissais poser problème.

cat /etc/mdadm/mdadm.conf


# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#

# by default (built-in), scan all partitions (/proc/partitions) and all
# containers for MD superblocks. alternatively, specify devices to scan, using
# wildcards if desired.
#DEVICE partitions containers

# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes

# automatically tag new arrays as belonging to the local system
HOMEHOST <system>

# instruct the monitoring daemon where to send mail alerts
MAILADDR monmail@gmail.com

# definitions of existing MD arrays

# This configuration was auto-generated on Wed, 07 Mar 2018 01:01:14 +0000 by mkconf
ARRAY /dev/md0 metadata=1.2 name=raspberrypi:0 UUID=d269a0bd:59bb5fed:7347c0f8:36c03270



cat /etc/default/mdadm


# mdadm Debian configuration
#
# You can run 'dpkg-reconfigure mdadm' to modify the values in this file, if
# you want. You can also change the values here and changes will be preserved.
# Do note that only the values are preserved; the rest of the file is
# rewritten.
#

# INITRDSTART:
#   list of arrays (or 'all') to start automatically when the initial ramdisk
#   loads. This list *must* include the array holding your root filesystem. Use
#   'none' to prevent any array from being started from the initial ramdisk.
INITRDSTART='all'

# AUTOCHECK:
#   should mdadm run periodic redundancy checks over your arrays? See
#   /etc/cron.d/mdadm.
AUTOCHECK=true

# START_DAEMON:
#   should mdadm start the MD monitoring daemon during boot?
START_DAEMON=true

# DAEMON_OPTIONS:
#   additional options to pass to the daemon.
DAEMON_OPTIONS="--syslog"

# VERBOSE:
#   if this variable is set to true, mdadm will be a little more verbose e.g.
#   when creating the initramfs.
VERBOSE=false

Hors ligne

#15 08-03-2018 17:19:20

raleur
Membre
Inscription : 03-10-2014

Re : [Résolu] Migration raid mdadm - Création automatique

Sous réserve :
INITRDSTART='all' signifie que l'initramfs devrait assembler tous les ensembles RAID.
Tu utilises Raspbian ou une "vraie" Debian Jessie pour ARM ? A ma connaissance le noyau de Raspbian n'a pas d'initramfs.

Dernière modification par raleur (08-03-2018 17:20:01)


Il vaut mieux montrer que raconter.

Hors ligne

#16 08-03-2018 17:33:07

moi4567
Membre
Distrib. : Jessie
Noyau : Linux 3.16.0-4-amd64
(G)UI : Gnome 3
Inscription : 22-06-2015

Re : [Résolu] Migration raid mdadm - Création automatique

J'utilise Raspbian Jessie.

Hors ligne

#17 08-03-2018 17:39:20

raleur
Membre
Inscription : 03-10-2014

Re : [Résolu] Migration raid mdadm - Création automatique

Donc pas d'initrd dans /boot ?
Dans ce cas essaie avec INITRDSTART='none', mais je doute que ça change quelque chose.

Il vaut mieux montrer que raconter.

Hors ligne

#18 08-03-2018 17:53:41

moi4567
Membre
Distrib. : Jessie
Noyau : Linux 3.16.0-4-amd64
(G)UI : Gnome 3
Inscription : 22-06-2015

Re : [Résolu] Migration raid mdadm - Création automatique

Non pas d'initrd dans le /boot.
Je viens d'essayer avec INITRDSTART='none'. Malheureusement c'est statut quo.

Hors ligne

#19 09-03-2018 00:31:29

raleur
Membre
Inscription : 03-10-2014

Re : [Résolu] Migration raid mdadm - Création automatique

Qu'affiche

systemctl --all status "md*"


Il vaut mieux montrer que raconter.

Hors ligne

#20 09-03-2018 00:58:21

robert2a
Membre
Distrib. : Buster 10 version 10.11
Noyau : kernel buster backports
(G)UI : Mate
Inscription : 15-11-2014

Re : [Résolu] Migration raid mdadm - Création automatique

Bonjour
@raleur

oui raspbian utilise une petite partition en fat32 (40Mo environ ) c'est le gpu qui vient bouter sur le noyau qui se trouve dans cette partition fat32
il semble avoir des liens entre la partition "boot" de la fat32 et le dossier /boot de la partiton system (ext4)
j'ai testé avec une vraie debian armhf ça ne fonctionne pas comme une debian traditionnelle .
la mise a jours du noyau est différente , pas de grub
les commandes au noyau se font pas des fichiers .txt

le cmdline.txt


dwc_otg.lpm_enable=0 console=serial0,115200 console=tty1 root=PARTUUID=ef5091e1-02 rootfstype=ext4 elevator=deadline fsck.repair=yes rootwait
 


et le config.txt


 For more options and information see
# http://rpf.io/configtxt
# Some settings may impact device functionality. See link above for details

# uncomment if you get no picture on HDMI for a default "safe" mode
#hdmi_safe=1

# uncomment this if your display has a black border of unused pixels visible
# and your display can output without overscan
disable_overscan=1

# uncomment the following to adjust overscan. Use positive numbers if console
# goes off screen, and negative if there is too much border
#overscan_left=16
#overscan_right=16
#overscan_top=16
#overscan_bottom=16

# uncomment to force a console size. By default it will be display's size minus
# overscan.
#framebuffer_width=1280
#framebuffer_height=720

# uncomment if hdmi display is not detected and composite is being output
#hdmi_force_hotplug=1

# uncomment to force a specific HDMI mode (this will force VGA)
#hdmi_group=1
#hdmi_mode=1

# uncomment to force a HDMI mode rather than DVI. This can make audio work in
# DMT (computer monitor) modes
#hdmi_drive=2

# uncomment to increase signal to HDMI, if you have interference, blanking, or
# no display
#config_hdmi_boost=4

# uncomment for composite PAL
#sdtv_mode=2

#uncomment to overclock the arm. 700 MHz is the default.
#arm_freq=800

# Uncomment some or all of these to enable the optional hardware interfaces
dtparam=i2c_arm=on
#dtparam=i2s=on
dtparam=spi=on

# Uncomment this to enable the lirc-rpi module
#dtoverlay=lirc-rpi

# Additional overlays and parameters are documented /boot/overlays/README

# Enable audio (loads snd_bcm2835)
dtparam=audio=on
# program_usb_boot_mode=1
 



ça te parlera plus a toi qu'a moi

entre la fat qui se nomme boot et le dossier "boot" c'est que des liens (les vraies fichiers sont dans la petite partition en fat
ce que je suppose etre le noyau se nomme kernel.img et kernel7.img ( un peu plus de 4Mo chacun )

la mise a jour des firmwares et du noyau se fait par la commande "rpi-update" et renomme l'ancien /boot  en /boot.back

Dernière modification par robert2a (09-03-2018 01:11:31)


Machines : kabylake I7 7700 , AMD 1700(X) ,AMD threadripper gen1 , AMD Raven R3 2200G , AMD FX(tm)-8320

Hors ligne

#21 09-03-2018 07:19:56

moi4567
Membre
Distrib. : Jessie
Noyau : Linux 3.16.0-4-amd64
(G)UI : Gnome 3
Inscription : 22-06-2015

Re : [Résolu] Migration raid mdadm - Création automatique

raleur a écrit :

Qu'affiche

systemctl --all status "md*"



systemctl --all status "md*"


● mdadm-raid.service - LSB: MD array assembly
   Loaded: loaded (/etc/init.d/mdadm-raid)
   Active: active (exited) since jeu. 2018-03-08 17:29:16 UTC; 11h ago
  Process: 155 ExecStart=/etc/init.d/mdadm-raid start (code=exited, status=0/SUCCESS)

mars 08 17:29:16 raspberrypi mdadm-raid[155]: Generating udev events for MD arrays...done.
mars 08 17:29:16 raspberrypi systemd[1]: Started LSB: MD array assembly.

● mdadm.service - LSB: MD monitoring daemon
   Loaded: loaded (/etc/init.d/mdadm)
   Active: active (running) since jeu. 2018-03-08 17:29:19 UTC; 11h ago
  Process: 556 ExecStart=/etc/init.d/mdadm start (code=exited, status=0/SUCCESS)
   CGroup: /system.slice/mdadm.service
           └─580 /sbin/mdadm --monitor --pid-file /run/mdadm/monitor.pid --daemonise --scan --syslog

mars 08 17:29:19 raspberrypi mdadm[556]: Starting MD monitoring service: mdadm --monitor.
mars 08 17:29:19 raspberrypi mdadm[580]: DeviceDisappeared event detected on md device /dev/md0
mars 08 17:29:19 raspberrypi systemd[1]: Started LSB: MD monitoring daemon.
 

Hors ligne

#22 09-03-2018 23:59:07

raleur
Membre
Inscription : 03-10-2014

Re : [Résolu] Migration raid mdadm - Création automatique

C'est le service mdadm-raid qui est censé assembler les ensembles RAID. Apparemment il s'exécute sans erreur, mais n'assemble rien.
Il pourrait être intéressant de le redémarrer manuellement lorsque md0 n'est pas actif pour voir ce qui se passe, s'il assemble md0 ou pas.

Le service mdadm ne fait que lancer le démon de surveillance. D'ailleurs c'est curieux car normalement avec systemd il est masqué et c'est le service mdmonitor qui le remplace. En tout cas dans le paquet mdadm de Debian Jessie.

D'où vient ce paquet mdadm et quelle est sa version ?

Dernière modification par raleur (09-03-2018 23:59:56)


Il vaut mieux montrer que raconter.

Hors ligne

#23 10-03-2018 13:15:38

moi4567
Membre
Distrib. : Jessie
Noyau : Linux 3.16.0-4-amd64
(G)UI : Gnome 3
Inscription : 22-06-2015

Re : [Résolu] Migration raid mdadm - Création automatique

Alors là c'est très intéressant. Lorsque je redémarre le service mdadm-raid le md0 s'assemble sans problème. C'est comme si les disques (branchés en USB) n'étaient détecter qu'après le lancement du service mdadm-raid.

systemctl status mdadm-raid


   Loaded: loaded (/etc/init.d/mdadm-raid)
   Active: active (exited) since sam. 2018-03-10 11:11:38 UTC; 2min 22s ago
  Process: 2140 ExecStop=/etc/init.d/mdadm-raid stop (code=exited, status=0/SUCCESS)
  Process: 2147 ExecStart=/etc/init.d/mdadm-raid start (code=exited, status=0/SUCCESS)

mars 10 11:11:38 raspberrypi mdadm-raid[2147]: Assembling MD array md0...done (started [2/2]).
mars 10 11:11:38 raspberrypi mdadm-raid[2147]: Generating udev events for MD arrays...done.
mars 10 11:11:38 raspberrypi systemd[1]: Started LSB: MD array assembly.



systemctl status mdadm


● mdadm.service - LSB: MD monitoring daemon
   Loaded: loaded (/etc/init.d/mdadm)
   Active: active (running) since sam. 2018-03-10 11:10:30 UTC; 3min 59s ago
  Process: 530 ExecStart=/etc/init.d/mdadm start (code=exited, status=0/SUCCESS)
   CGroup: /system.slice/mdadm.service
           └─558 /sbin/mdadm --monitor --pid-file /run/mdadm/monitor.pid --daemonise --scan --syslog

mars 10 11:10:30 raspberrypi systemd[1]: Starting LSB: MD monitoring daemon...
mars 10 11:10:30 raspberrypi mdadm[530]: Starting MD monitoring service: mdadm --monitor.
mars 10 11:10:30 raspberrypi systemd[1]: Started LSB: MD monitoring daemon.
mars 10 11:11:38 raspberrypi mdadm[558]: NewArray event detected on md device /dev/md0
 



fdisk -l


...
Disk /dev/md0: 1,8 TiB, 2000263643136 bytes, 3906764928 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
 



EDIT: C'était bien ça. Lorsque j'ajoute un délais de quelques secondes dans le démarrage du service, tous se passe très bien.

cat /etc/default/mdadm


# mdadm Debian configuration
#
# You can run 'dpkg-reconfigure mdadm' to modify the values in this file, if
# you want. You can also change the values here and changes will be preserved.
# Do note that only the values are preserved; the rest of the file is
# rewritten.
#

# INITRDSTART:
#   list of arrays (or 'all') to start automatically when the initial ramdisk
#   loads. This list *must* include the array holding your root filesystem. Use
#   'none' to prevent any array from being started from the initial ramdisk.
INITRDSTART='all'
#INITRDSTART='none'

# AUTOCHECK:
#   should mdadm run periodic redundancy checks over your arrays? See
#   /etc/cron.d/mdadm.
AUTOCHECK=true

# START_DAEMON:
#   should mdadm start the MD monitoring daemon during boot?
START_DAEMON=true

# DAEMON_OPTIONS:
#   additional options to pass to the daemon.
DAEMON_OPTIONS="--syslog"

# VERBOSE:
#   if this variable is set to true, mdadm will be a little more verbose e.g.
#   when creating the initramfs.
VERBOSE=false

# Delay startup for 30 seconds so USB disks are mounted
if [ $1 = "start" ]; then
  sleep 30
fi
 

Dernière modification par moi4567 (10-03-2018 13:29:00)

Hors ligne

#24 11-03-2018 11:52:27

raleur
Membre
Inscription : 03-10-2014

Re : [Résolu] Migration raid mdadm - Création automatique

Bien vu, je n'y avais pas pensé. C'est vrai que les supports USB peuvent prendre plus de temps à apparaître. En plus un délai artificiel d'une seconde est introduit par défaut par le pilote usb-storage. Mais le supprimer ne serait pas suffisant car le retard entre l'exécution de mdadm-raid et l'apparition des disques est apparemment de plusieurs (~3) secondes.

Par contre ta solution n'est pas très élégante. Les fichiers dans /etc/default ne sont censés contenir que des définitions de variables et non des actions. D'autre part, comme il est écrit au début du fichier, celui-ci est réécrit par "dpkg-reconfigure mdadm" qui ne préserve que les valeurs. D'un autre côté, si tu mets la modification dans /etc/init.d/mdadm-raid, elle sera écrasée par une mise à jour du paquet mdadm... Une solution propre mais compliquée serait de mettre en place une "diversion" (détournement) de ce script avec dpkg-divert. Le script de diversion gèrerait le délai et exécuterait le script normal ensuite.

Il vaut mieux montrer que raconter.

Hors ligne

#25 11-03-2018 17:13:07

moi4567
Membre
Distrib. : Jessie
Noyau : Linux 3.16.0-4-amd64
(G)UI : Gnome 3
Inscription : 22-06-2015

Re : [Résolu] Migration raid mdadm - Création automatique

C'est sûr que ce n'est pas ce qu'il y a de plus propre mais c'est le plus simple et efficace. Je me pencherais sur ta solution quand j'aurais un peux plus de temps parce que c'est sûr que c'est pas top smile

Dernière modification par moi4567 (11-03-2018 17:14:00)

Hors ligne

Pied de page des forums