Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#26 Le 08/10/2019, à 16:12

Optarion

Re : [Résolu] volume dégradé RAID 5

Merci à tous pour vos multiples discussions/propositions

geole: j'avais branché les dds un par un car je pensais que cela était utile pour certaines vérifications demandées par Hoper mais si ce n'est pas le cas, c'est plus simple pour moi!.
Je vais vérifier la version RAID de toutes les partitions et vous les donnerai dès que possible (idéalement ce soir).

jamesbad000: attention à ne pas confondre mon problème avec celui initial du thread. Encore une fois, j'ai honteusement squatté celui-ci étant donné qu'il me semblait très proche de mon problème et n'était plus suivis par son propriétaire. Mes messages commencent  aux post #9 et donc tu verras que je n'ai bien aucune detection de superblock sur mes DDs
Je lance le lsblk dès que possible. Merci

Hors ligne

#27 Le 08/10/2019, à 17:59

Nuliel

Re : [Résolu] volume dégradé RAID 5

Modération: c'est bien pour cela qu'il faut créer ton propre fil, et à défaut il faut que tu signales à la modération les messages à scinder pour en créer une nouvelle discussion
Je scinde à partir du message 9

Hors ligne

#28 Le 08/10/2019, à 21:06

Optarion

Re : [Résolu] volume dégradé RAID 5

Merci Naziel pour avoir cree un nouveau topic

geole: voici les screenshots demandes

sdb
1570567368.png

1570567012.png

1570649752.png

sdc
1570567064.png

1570567080.png

1570649914.png

sdd
1570567114.png

1570567127.png

1570649895.png

Et voici le resultat du lsblk:

ubuntu@ubuntu:~$ sudo lsblk -o size,name,fstype,label,mountpoint
  SIZE NAME   FSTYPE           LABEL              MOUNTPOINT
  1.9G loop0  squashfs                            /rofs
 88.5M loop1  squashfs                            /snap/core/7270
 54.4M loop2  squashfs                            /snap/core18/1066
 42.8M loop3  squashfs                            /snap/gtk-common-themes/1313
149.9M loop4  squashfs                            /snap/gnome-3-28-1804/67
    4M loop5  squashfs                            /snap/gnome-calculator/406
 14.8M loop6  squashfs                            /snap/gnome-characters/296
 1008K loop7  squashfs                            /snap/gnome-logs/61
  3.7M loop8  squashfs                            /snap/gnome-system-monitor/100
223.6G sda                                        
223.6G └─sda1 ntfs             Nouveau nom        
465.8G sdb                                        
  2.4G ├─sdb1 linux_raid_membe                    
509.9M ├─sdb2 linux_raid_membe                    [SWAP]
462.8G └─sdb3 linux_raid_membe                    
465.8G sdc                                        
  2.4G ├─sdc1 linux_raid_membe                    
509.9M ├─sdc2 linux_raid_membe                    [SWAP]
462.8G └─sdc3 linux_raid_membe                    
465.8G sdd                                        
  2.4G ├─sdd1 linux_raid_membe                    
509.9M ├─sdd2 linux_raid_membe                    [SWAP]
462.8G └─sdd3 linux_raid_membe                    
931.5G sde                                        
  100M ├─sde1 ntfs             Réservé au système 
  244G ├─sde2 ntfs                                
687.4G └─sde3 ntfs             Data               
  7.6G sdj                                        
  7.6G └─sdj1 vfat             UBUNTU 18_0        /cdrom
 1024M sr0  
ubuntu@ubuntu:~$ ls -l /dev/disk/by-id
total 0
lrwxrwxrwx 1 root root  9 Oct  8 19:49 ata-INTEL_SSDSC2BW240A3L_CVCV245206ZT240CGN -> ../../sda
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-INTEL_SSDSC2BW240A3L_CVCV245206ZT240CGN-part1 -> ../../sda1
lrwxrwxrwx 1 root root  9 Oct  8 19:49 ata-TSSTcorp_CDDVDW_SH-222AB_R8BZ6GFB528629 -> ../../sr0
lrwxrwxrwx 1 root root  9 Oct  8 19:49 ata-WDC_WD10EARX-00N0YB0_WD-WCC0S0021646 -> ../../sde
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-WDC_WD10EARX-00N0YB0_WD-WCC0S0021646-part1 -> ../../sde1
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-WDC_WD10EARX-00N0YB0_WD-WCC0S0021646-part2 -> ../../sde2
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-WDC_WD10EARX-00N0YB0_WD-WCC0S0021646-part3 -> ../../sde3
lrwxrwxrwx 1 root root  9 Oct  8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929 -> ../../sdc
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part2 -> ../../sdc2
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3 -> ../../sdc3
lrwxrwxrwx 1 root root  9 Oct  8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329 -> ../../sdb
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part1 -> ../../sdb1
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2 -> ../../sdb2
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part3 -> ../../sdb3
lrwxrwxrwx 1 root root  9 Oct  8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784 -> ../../sdd
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part2 -> ../../sdd2
lrwxrwxrwx 1 root root 10 Oct  8 19:49 ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3 -> ../../sdd3
lrwxrwxrwx 1 root root  9 Oct  8 19:49 usb-General_UDisk-0:0 -> ../../sdj
lrwxrwxrwx 1 root root 10 Oct  8 19:49 usb-General_UDisk-0:0-part1 -> ../../sdj1
lrwxrwxrwx 1 root root  9 Oct  8 19:49 usb-Generic-_Compact_Flash_058F63646476-0:1 -> ../../sdg
lrwxrwxrwx 1 root root  9 Oct  8 19:49 usb-Generic-_MS_MS-Pro_058F63646476-0:3 -> ../../sdi
lrwxrwxrwx 1 root root  9 Oct  8 19:49 usb-Generic-_SD_MMC_058F63646476-0:0 -> ../../sdf
lrwxrwxrwx 1 root root  9 Oct  8 19:49 usb-Generic-_SM_xD-Picture_058F63646476-0:2 -> ../../sdh
lrwxrwxrwx 1 root root  9 Oct  8 19:49 wwn-0x50014ee102d9e4b2 -> ../../sdb
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x50014ee102d9e4b2-part1 -> ../../sdb1
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x50014ee102d9e4b2-part2 -> ../../sdb2
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x50014ee102d9e4b2-part3 -> ../../sdb3
lrwxrwxrwx 1 root root  9 Oct  8 19:49 wwn-0x50014ee1582ef1ff -> ../../sdd
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x50014ee1582ef1ff-part1 -> ../../sdd1
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x50014ee1582ef1ff-part2 -> ../../sdd2
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x50014ee1582ef1ff-part3 -> ../../sdd3
lrwxrwxrwx 1 root root  9 Oct  8 19:49 wwn-0x50014ee1ad7dfd37 -> ../../sdc
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x50014ee1ad7dfd37-part1 -> ../../sdc1
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x50014ee1ad7dfd37-part2 -> ../../sdc2
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x50014ee1ad7dfd37-part3 -> ../../sdc3
lrwxrwxrwx 1 root root  9 Oct  8 19:49 wwn-0x50014ee205f2c4a0 -> ../../sde
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x50014ee205f2c4a0-part1 -> ../../sde1
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x50014ee205f2c4a0-part2 -> ../../sde2
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x50014ee205f2c4a0-part3 -> ../../sde3
lrwxrwxrwx 1 root root  9 Oct  8 19:49 wwn-0x5001517387e8504f -> ../../sda
lrwxrwxrwx 1 root root 10 Oct  8 19:49 wwn-0x5001517387e8504f-part1 -> ../../sda1

Dernière modification par Optarion (Le 09/10/2019, à 20:03)

Hors ligne

#29 Le 08/10/2019, à 21:53

jamesbad000

Re : [Résolu] volume dégradé RAID 5

selon lsblk il y a bien des superblocs raid détectés sur toutes les partitions de sdb,c,d.
Avec une curiosité: les partitions n° 2 sont montées en swap alors que le fs détecté est raid.

Creusons avec:

sudo mdadm --examine /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF599*-part*
sudo file -ksL /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2

edit: corrigé bégaiement dans le chemin d'accès ci-dessus


Les screenshot (d'ou viennent-ils ?) eux ne concernent pas les partitions n° 3 qui sont pourtant l'essentiel du volume...

Dernière modification par jamesbad000 (Le 08/10/2019, à 22:00)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#30 Le 08/10/2019, à 23:37

geole

Re : [Résolu] volume dégradé RAID 5

Bonsoir Jamesbad000
A l'échange 14 de l'ancienne discussion, une copie d'écran  de GNOME-DISK-UTILITY faite pour une partition 3 d'un des trois disques m'avait semblé intéressante dans la mesure où on voyait la version RAIDS. d'où l'idée de demander comment c'était pour  les partitions  1 et  2 des trois disques
Manifestement c'est pareil .       



Optarion a écrit :
ubuntu@ubuntu:~$ sudo mdadm --verbose --assemble /dev/md0 /dev/sdb3 /dev/sdc3 /dev/sdd3
mdadm: looking for devices for /dev/md0
mdadm: no recogniseable superblock on /dev/sdb3
mdadm: /dev/sdb3 has no superblock - assembly aborted

concernant les partitions sur les disques, voici ce que je vois via l'app Disk (identique pour chaque disk)

https://ibb.co/JxBTP9n


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#31 Le 09/10/2019, à 08:46

Optarion

Re : [Résolu] volume dégradé RAID 5

Les screenshots sont fait à partir de l'app "Disks" d'Ubuntu. Je peux faire les screens des 3 partitions n°3 si besoin.

Je lance les commandes ce soir.

Merci à vous tous

Hors ligne

#32 Le 09/10/2019, à 14:14

Hoper

Re : [Résolu] volume dégradé RAID 5

@jamesbad000 : Tu es sur que lsblk "detecte" des metadata raid ? Pour moi il se contente de lire le MBR et affiche simplement le type de la partition. Donc ici des partitions de type FD. Quand au partitionnement il a été automatiquement réalisé par DSM... le seul raid qui qu'il faut reconstituer est celui se trouvant sur la troisième partition de chaque disque.

Mais geole à raison, je n'avais pas réalisé que le format (0.90 donc) apparaissait dans les captures d'écran. C'est clairement cette partie la qui est la plus interessante (et l'info que je cherchai désespérement alors que je l'avais sous les yeux...)

Du coup, personnellement en mode gros bourin je lancerai le --create avec assume-clean...  Maintenant je laisse les experts se prononcer hein smile J'ai prevenu (plein de fois) que la manip était risquée. Je suis parti du principe qu'il n'était pas possible de dumper les 3 disques avant. Si je me trompe et si l'espace est disponible ailleurs, il faut bien sur faire le dump. Surtout que ce ne sont que des disques de 500 GB... Donc pas de soucis pour faire 3 dd vers un disque de 2To par exemple. Et un disque de 2To, j'imagine que ça doit se trouver...


Mes tutos et coups de gueule :
http://hoper.dnsalias.net/atdc/
Mastodon: @hoper@framapiaf.org

Hors ligne

#33 Le 09/10/2019, à 14:46

rmy

Re : [Résolu] volume dégradé RAID 5

jamesbad000 a écrit :

selon lsblk il y a bien des superblocs raid détectés sur toutes les partitions de sdb,c,d.
Avec une curiosité: les partitions n° 2 sont montées en swap alors que le fs détecté est raid.

Probablement non jamesbad000.
Ce ne sont pas les métadonnées RAID ici qui sont détectées, mais la manière dont la partition a été formatée (type "fd").
Les partitions 2 sont probablement à l'origine en RAID1 (comme la première partition d'ailleurs) et ensuite le RAID1 est formaté en SWAP, ainsi, comme en 0.9 les méta RAID sont à la fin, tu te retrouves bien avec 3 SWAP identiques sur chacun des disques au début de ces partitions.

@Optarion, peux-tu lancer testdisk sur l'un de tes disques stp, disque complet, options : pas d'alignement, table de partition none, et le laisser tourner jusqu'au bout en deepscan, pour voir ce qu'il s'y trouve ?

EDIT : Je suis complètement d'accord avec Hoper dont je n'avais pas vu le message avent d'écrire le mien.
1- testdisk pour essayer de retrouver des méta raid si les partitions ne sont plus alignées correctement pour une raison ou une autre (ça aiderait à savoir l'ordre des disques sans trop creuser en hexadécimal…
2- Images disques vers un DD de 2To
3-  --create

Dernière modification par rmy (Le 09/10/2019, à 14:58)

Hors ligne

#34 Le 09/10/2019, à 19:20

jamesbad000

Re : [Résolu] volume dégradé RAID 5

Hoper a écrit :

@jamesbad000 : Tu es sur que lsblk "detecte" des metadata raid ? Pour moi il se contente de lire le MBR et affiche simplement le type de la partition.

Oui j'en suis sur. lsblk analyse le contenu des périphérique de bloc comme le fait la commande mount ou blkid.
D'ailleurs, rien dans linux n'utilise les attributs qui sont dans la table de partition à part les logiciels de partitionnements. ou de boot.
Il suffit de lire le man de la commande. Et tout ça peut se vérifier facilement :

fredk1804@MirageK1804:~$ truncate -s 100M test.disk 
fredk1804@MirageK1804:~$ sudo losetup /dev/loop0 test.disk
fredk1804@MirageK1804:~$ sudo parted test.disk mklabel msdos
fredk1804@MirageK1804:~$ sudo parted /dev/loop0 mkpart primary NTFS 2048s 100MB
Information: Ne pas oublier de mettre à jour /etc/fstab si nécessaire.

fredk1804@MirageK1804:~$ sudo fdisk -l /dev/loop0 
Disque /dev/loop0 : 100 MiB, 104857600 octets, 204800 secteurs
(...)
Périphérique Amorçage Début    Fin Secteurs Taille Id Type
/dev/loop0p1           2048 194559   192512    94M  7 HPFS/NTFS/exFAT

fredk1804@MirageK1804:~$ sudo lsblk -o size,name,fstype,label,mountpoint 
  SIZE NAME                  FSTYPE      LABEL       MOUNTPOINT
  100M loop0                                         
   94M └─loop0p1                                     

Vous noterez qu'aucun système de fichier n'est identifié par lsblk

Et maintenant :

fredk1804@MirageK1804:~$ sudo mke2fs -t ext4 /dev/loop0p1
(...)
Écriture des superblocs et de l'information de comptabilité du système de
fichiers : complété

fredk1804@MirageK1804:~$ sudo lsblk -o size,name,fstype,label,mountpoint 
  SIZE NAME                  FSTYPE      LABEL       MOUNTPOINT
  100M loop0                                         
   94M └─loop0p1             ext4  

Et donc avant de se lancer dans testdisk, et tout ce que ça implique.
Juste lancer les 2 commandes que j'ai indiqué ne coûte pas grand chose. Si il y a un seul disque désynchronisé qui empêche l'assemblage, ça sera quand même bien moins compliqué de faire l'assemblage avec les 2 bon disques, et remettre le 3ème après...

Dernière modification par jamesbad000 (Le 09/10/2019, à 19:56)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#35 Le 09/10/2019, à 20:00

Optarion

Re : [Résolu] volume dégradé RAID 5

Je vous avoue etre un peu perdu dans toutes vos propositions.

Voici donc deja pour les commandes de james

ubuntu@ubuntu:~$ sudo mdadm --examine /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF599*-part*
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part1.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part2.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part1.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part3.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part1.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part2.
mdadm: No md superblock detected on /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3.
ubuntu@ubuntu:~$ sudo file -ksL /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2: Linux/i386 swap file (new style), version 1 (4K pages), size 130511 pages, no label, UUID=00000000-0000-0000-0000-000000000000\012- data

Pour le testdisk, j'ai fait l'installation mais je suis bloque sur certains ecran. Par ex, que dois je selectionner ici:
1570649604.png

Sinon, j'ai aussi ajoute les screens des 3 partitions pour les disques avec les autres de mon precedent post

Hors ligne

#36 Le 09/10/2019, à 20:37

jamesbad000

Re : [Résolu] volume dégradé RAID 5

Ok. C'est le parfait contre exemple donc.

Je vous avoue etre un peu perdu dans toutes vos propositions.

Ne fait surtout pas mdadm --create tant qu'on ne t'a pas donné les paramètres précis à utiliser !

Pour le testdisk, j'ai fait l'installation mais je suis bloque sur certains ecran. Par ex, que dois je selectionner ici:

Assure toi d'avoir bien choisi "non partitionned device" dans l'écran précédent.

Et ici va dans modify options et passe l'otion "Align partition:" à no
arprès validation et retour à ce même écran "Analyse"
ensuite valider les écrans successifs jusqu'au "deep search"

Après, je serais bien curieux d'avoir le résultat de

sudo fdisk -l /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329
sudo blkid /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF599*-part*
sudo lsb_release -a
sudo uname -a

Dernière modification par jamesbad000 (Le 09/10/2019, à 22:10)


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#37 Le 09/10/2019, à 22:34

rmy

Re : [Résolu] volume dégradé RAID 5

@jamesbad000 merci pour la précision, et désolé pour l'erreur, j'étais persuadé que lsblk retournait l'info sur le type de partition, comme fdisk.

@Optarion : juste pour être sûr, peux-tu donner aussi le retour de :

sudo mdadm --examine /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF599*-part* -e 0.9

(tu peux lancer ça dans un autre terminal sans couper testdisk)

Hors ligne

#38 Le 09/10/2019, à 23:03

jamesbad000

Re : [Résolu] volume dégradé RAID 5

@rmy Y a pas de mal...
Je viens de tester du raid format 0.9. Et je n'ai pas eu besoin de forcer  -e 0.9 avec examine pour qu'il me crache le superbloc.
Donc au cas ou ça ne changerais rien, blkid (ou lsblk en ajoutant la colonne uuid) pourrait nous sortir l'uuid du composant raid et confirmer la présence d'un superbloc. Ce qui amènerais à conclure qu'on travail avec une version foireuse de mdadm ou un super bloc pas totalement conforme...


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#39 Le 10/10/2019, à 09:13

rmy

Re : [Résolu] volume dégradé RAID 5

@jamesbad000 je n'ai pas d'explication pour ça, je ne sais pas assez finement comment fonctionne mdadm et ses métadonnées pour le justifier, mais observations concrètes de ces dix années d'expérience pro : j'ai régulièrement constaté des cas où mdadm seul ne donnait pas de résultat, mais où le fait de forcer -0.9 permettait d'avoir un retour. Je ne saurais pas te dire si c'est lié à un problème avec la manière dont sont écrit les blocs (hypothèse, les NAS ont peut être des versions un peu tweekées ?) ou un problème ponctuel (peut-être une régression/bug avec une version de mdadm à l'écriture ou à la lecture)… je sais juste de manière empirique que ça m'a parfois facilité la tâche…

Hors ligne

#40 Le 10/10/2019, à 09:36

Optarion

Re : [Résolu] volume dégradé RAID 5

Je lancerai le testdisk ce soir. Est ce que je choisi n'importe lequel des 3 disks ou l'un d'entre eux est préféré ?
Avez-vous une idée du temps que cela prend? Pour savoir comment je dois m'organiser.

Je lancerai aussi ton --examine rmy

Dernière modification par Optarion (Le 10/10/2019, à 09:37)

Hors ligne

#41 Le 10/10/2019, à 09:50

rmy

Re : [Résolu] volume dégradé RAID 5

@Optarion : N'importe lequel des disques fera l'affaire, testdisk ça se compte en heures…

Hors ligne

#42 Le 10/10/2019, à 18:41

Optarion

Re : [Résolu] volume dégradé RAID 5

En attendant le resultat de testdisk voici deja le mdadm --examine

ubuntu@ubuntu:~$ sudo mdadm --examine /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF599*-part* -e 0.9
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 8dd34b1e:57d9fcec:ac3a0d90:958c2f94
  Creation Time : Tue May 11 12:15:40 2004
     Raid Level : raid1
  Used Dev Size : 2489920 (2.37 GiB 2.55 GB)
     Array Size : 2489920 (2.37 GiB 2.55 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Fri Apr 27 23:29:53 2018
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 1
  Spare Devices : 0
       Checksum : 6c66b199 - correct
         Events : 963542


      Number   Major   Minor   RaidDevice State
this     1       8       33        1      active sync   /dev/sdc1

   0     0       0        0        0      removed
   1     1       8       33        1      active sync   /dev/sdc1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       0        0        3      faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part2:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : e8d9e9dd:8c6e9fe5:48393982:73a3945a
  Creation Time : Wed May  2 22:08:57 2018
     Raid Level : raid1
  Used Dev Size : 522048 (509.81 MiB 534.58 MB)
     Array Size : 522048 (509.81 MiB 534.58 MB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 1

    Update Time : Sat Sep 28 22:42:39 2019
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 0
       Checksum : 92d2b8ef - correct
         Events : 148


      Number   Major   Minor   RaidDevice State
this     1       8       18        1      active sync   /dev/sdb2

   0     0       8        2        0      active sync
   1     1       8       18        1      active sync   /dev/sdb2
   2     2       8       50        2      active sync   /dev/sdd2
   3     3       0        0        3      faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : f370ed9e:8bc870e9:e280e5f2:00e9935e
  Creation Time : Wed Aug 18 15:35:09 2010
     Raid Level : raid5
  Used Dev Size : 485243200 (462.76 GiB 496.89 GB)
     Array Size : 970486400 (925.53 GiB 993.78 GB)
   Raid Devices : 3
  Total Devices : 2
Preferred Minor : 2

    Update Time : Sat Sep 28 22:41:48 2019
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 1
  Spare Devices : 0
       Checksum : d2b84417 - correct
         Events : 490

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     2       8       19        2      active sync   /dev/sdb3

   0     0       8        3        0      active sync
   1     1       0        0        1      faulty removed
   2     2       8       19        2      active sync   /dev/sdb3
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 8dd34b1e:57d9fcec:ac3a0d90:958c2f94
  Creation Time : Tue May 11 12:15:40 2004
     Raid Level : raid1
  Used Dev Size : 2489920 (2.37 GiB 2.55 GB)
     Array Size : 2489920 (2.37 GiB 2.55 GB)
   Raid Devices : 4
  Total Devices : 2
Preferred Minor : 0

    Update Time : Fri Apr 27 23:29:53 2018
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 1
  Spare Devices : 0
       Checksum : 6c66b1ab - correct
         Events : 963542


      Number   Major   Minor   RaidDevice State
this     2       8       49        2      active sync   /dev/sdd1

   0     0       0        0        0      removed
   1     1       8       33        1      active sync   /dev/sdc1
   2     2       8       49        2      active sync   /dev/sdd1
   3     3       0        0        3      faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : e8d9e9dd:8c6e9fe5:48393982:73a3945a
  Creation Time : Wed May  2 22:08:57 2018
     Raid Level : raid1
  Used Dev Size : 522048 (509.81 MiB 534.58 MB)
     Array Size : 522048 (509.81 MiB 534.58 MB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 1

    Update Time : Sat Sep 28 22:42:39 2019
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 0
       Checksum : 92d2b911 - correct
         Events : 148


      Number   Major   Minor   RaidDevice State
this     2       8       50        2      active sync   /dev/sdd2

   0     0       8        2        0      active sync
   1     1       8       18        1      active sync   /dev/sdb2
   2     2       8       50        2      active sync   /dev/sdd2
   3     3       0        0        3      faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part3:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : f370ed9e:8bc870e9:e280e5f2:00e9935e
  Creation Time : Wed Aug 18 15:35:09 2010
     Raid Level : raid5
  Used Dev Size : 485243200 (462.76 GiB 496.89 GB)
     Array Size : 970486400 (925.53 GiB 993.78 GB)
   Raid Devices : 3
  Total Devices : 2
Preferred Minor : 2

    Update Time : Fri Apr 27 23:32:46 2018
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 1
  Spare Devices : 0
       Checksum : d00c1577 - correct
         Events : 442

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     1       8       51        1      active sync   /dev/sdd3

   0     0       8       19        0      active sync   /dev/sdb3
   1     1       8       51        1      active sync   /dev/sdd3
   2     2       0        0        2      faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part1:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : 8dd34b1e:57d9fcec:ac3a0d90:958c2f94
  Creation Time : Tue May 11 12:15:40 2004
     Raid Level : raid1
  Used Dev Size : 2489920 (2.37 GiB 2.55 GB)
     Array Size : 2489920 (2.37 GiB 2.55 GB)
   Raid Devices : 4
  Total Devices : 1
Preferred Minor : 0

    Update Time : Sat Sep 28 22:43:15 2019
          State : clean
 Active Devices : 1
Working Devices : 1
 Failed Devices : 3
  Spare Devices : 0
       Checksum : 6f12eff3 - correct
         Events : 965494


      Number   Major   Minor   RaidDevice State
this     0       8        1        0      active sync   /dev/sda1

   0     0       8        1        0      active sync   /dev/sda1
   1     1       0        0        1      faulty removed
   2     2       0        0        2      faulty removed
   3     3       0        0        3      faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part2:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : e8d9e9dd:8c6e9fe5:48393982:73a3945a
  Creation Time : Wed May  2 22:08:57 2018
     Raid Level : raid1
  Used Dev Size : 522048 (509.81 MiB 534.58 MB)
     Array Size : 522048 (509.81 MiB 534.58 MB)
   Raid Devices : 4
  Total Devices : 3
Preferred Minor : 1

    Update Time : Sat Sep 28 22:42:39 2019
          State : clean
 Active Devices : 3
Working Devices : 3
 Failed Devices : 1
  Spare Devices : 0
       Checksum : 92d2b8dd - correct
         Events : 148


      Number   Major   Minor   RaidDevice State
this     0       8        2        0      active sync

   0     0       8        2        0      active sync
   1     1       8       18        1      active sync   /dev/sdb2
   2     2       8       50        2      active sync   /dev/sdd2
   3     3       0        0        3      faulty removed
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3:
          Magic : a92b4efc
        Version : 0.90.00
           UUID : f370ed9e:8bc870e9:e280e5f2:00e9935e
  Creation Time : Wed Aug 18 15:35:09 2010
     Raid Level : raid5
  Used Dev Size : 485243200 (462.76 GiB 496.89 GB)
     Array Size : 970486400 (925.53 GiB 993.78 GB)
   Raid Devices : 3
  Total Devices : 2
Preferred Minor : 2

    Update Time : Sat Sep 28 22:41:48 2019
          State : clean
 Active Devices : 2
Working Devices : 2
 Failed Devices : 1
  Spare Devices : 0
       Checksum : d2b84403 - correct
         Events : 490

         Layout : left-symmetric
     Chunk Size : 64K

      Number   Major   Minor   RaidDevice State
this     0       8        3        0      active sync

   0     0       8        3        0      active sync
   1     1       0        0        1      faulty removed
   2     2       8       19        2      active sync   /dev/sdb3

pour le testdisk je suis desole de mon incompetence mais je prefere demander pour ne pas faire de betise. Je n'ai pas de choix 'Non partitioned device'  mais un choix 'Non partitioned media'.  J imagine que c'est bien ca mais je prefere verifier avant.

1570731819.png

Pour info j install testdisk en suivant les indications ici https://doc.ubuntu-fr.org/testdisk

Dernière modification par Optarion (Le 10/10/2019, à 18:48)

Hors ligne

#43 Le 10/10/2019, à 18:56

geole

Re : [Résolu] volume dégradé RAID 5

Bonjour
C'est bien    Non partitionned media

J'ai noté qu'un disque a été déclaré faulty removed.
Il faut probablement une option particulière au moment de la commande assemble. mais la discussion est entre bonnes mains.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#44 Le 10/10/2019, à 19:08

jamesbad000

Re : [Résolu] volume dégradé RAID 5

Bingo. Pour la grosse partition on a 2 disques synchronisés (tourne sur 2 pattes depuis Avril 2018 !)

Assemblage avec les 2 bon disques :

sudo mdadm --assemble /dev/md0 -e 0.9 --run /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3 /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3

Puis si pas de message d'erreur, redonner

sudo lsblk -o size,name,fstype,label,mountpoint,uuid

Je n'ai pas de choix 'Non partitioned device'  mais un choix 'Non partitioned media'.J imagine que c'est bien ca mais je prefere verifier avant.

C'est bien ça, mais ça devrait s'avérer inutile... SI déjà lancé tu peux faire en parallèle la manip indiquée si dessus dans une autre session de terminal.


L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#45 Le 10/10/2019, à 20:08

rmy

Re : [Résolu] volume dégradé RAID 5

@jamesbad000 :-p Un tout joli exemple de la différence entre la théorie et la pratique ;-)

@geole probablement pas besoin du testdisk effectivement, et si la commande donnée par jamesbad000 pour l'assemblage ne passe pas, donne dans ce cas les trois --examine sur les partition3

Hors ligne

#46 Le 10/10/2019, à 21:16

Optarion

Re : [Résolu] volume dégradé RAID 5

J ai fini le testdisk avant de voir vos messages donc voici les screens au cas ou

resultat de l'analyse
1570740595.png

Puis le deep
1570740576.png

1570740267.png


ubuntu@ubuntu:~$ sudo fdisk -l /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329
Disk /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329: 465.8 GiB, 500107862016 bytes, 976773168 sectors
Units: sectors of 1 * 512 = 512 bytes
Sector size (logical/physical): 512 bytes / 512 bytes
I/O size (minimum/optimal): 512 bytes / 512 bytes
Disklabel type: dos
Disk identifier: 0xa445f661

Device                                                          Boot   Start       End   Sectors   Size Id Type
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part1           63   4980149   4980087   2.4G fd Linu
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2      4980150   6024374   1044225 509.9M fd Linu
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part3      6281415 976768064 970486650 462.8G fd Linu
ubuntu@ubuntu:~$ sudo blkid /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF599*-part*
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part1: UUID="8dd34b1e-57d9-fcec-ac3a-0d90958c2f94" TYPE="linux_raid_member" PARTUUID="a445f66f-01"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part2: UUID="e8d9e9dd-8c6e-9fe5-4839-398273a3945a" TYPE="linux_raid_member" PARTUUID="a445f66f-02"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3: UUID="f370ed9e-8bc8-70e9-e280-e5f200e9935e" TYPE="linux_raid_member" PARTUUID="a445f66f-03"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part1: UUID="8dd34b1e-57d9-fcec-ac3a-0d90958c2f94" TYPE="linux_raid_member" PARTUUID="a445f661-01"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part2: UUID="e8d9e9dd-8c6e-9fe5-4839-398273a3945a" TYPE="linux_raid_member" PARTUUID="a445f661-02"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5994329-part3: UUID="f370ed9e-8bc8-70e9-e280-e5f200e9935e" TYPE="linux_raid_member" PARTUUID="a445f661-03"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part1: UUID="8dd34b1e-57d9-fcec-ac3a-0d90958c2f94" TYPE="linux_raid_member" PARTUUID="a445f663-01"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part2: UUID="e8d9e9dd-8c6e-9fe5-4839-398273a3945a" TYPE="linux_raid_member" PARTUUID="a445f663-02"
/dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3: UUID="f370ed9e-8bc8-70e9-e280-e5f200e9935e" TYPE="linux_raid_member" PARTUUID="a445f663-03"
ubuntu@ubuntu:~$ sudo lsb_release -a
No LSB modules are available.
Distributor ID:	Ubuntu
Description:	Ubuntu 18.04.3 LTS
Release:	18.04
Codename:	bionic
ubuntu@ubuntu:~$ sudo uname -a
Linux ubuntu 5.0.0-23-generic #24~18.04.1-Ubuntu SMP Mon Jul 29 16:12:28 UTC 2019 x86_64 x86_64 x86_64 GNU/Linux
ubuntu@ubuntu:~$ sudo mdadm --assemble /dev/md0 -e 0.9 --run /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3 /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3
mdadm: failed to add /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3 to /dev/md0: Invalid argument
mdadm: failed to add /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3 to /dev/md0: Invalid argument
mdadm: failed to RUN_ARRAY /dev/md0: Invalid argument
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sdb3
mdadm: No md superblock detected on /dev/sdb3.
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sdc3
mdadm: No md superblock detected on /dev/sdc3.
ubuntu@ubuntu:~$ sudo mdadm --examine /dev/sdd3
mdadm: No md superblock detected on /dev/sdd3.

Dernière modification par Optarion (Le 10/10/2019, à 21:18)

Hors ligne

#47 Le 10/10/2019, à 22:54

jamesbad000

Re : [Résolu] volume dégradé RAID 5

mdadm: failed to RUN_ARRAY /dev/md0: Invalid argument

Quel argument est invalide ? pourtant si je reprend la commande chez moi ça fonctionne . Et les noms de dev sont bon...

Essayons tout de même avec les noms cours...

sudo mdadm --assemble /dev/md0 -e 0.9 --run /dev/sd[cd]

et en dernier recours

sudo mdadm --assemble /dev/md0 --run /dev/sd[cd]

@rmy en regardant la doc sur https://raid.wiki.kernel.org/index.php/ … ck_formats, j'ai l'explication de la difficulté avec le superbloc 0.9. La formulation n'est pas superexplicite, mais je déduis que L'endianess est variable

Et effectivement chez moi si je force -e 0.9 il répond

mdadm: No super block found on /dev/loop0p1 (Expected magic a92b4efc, got fc4e2ba9)

L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)

Hors ligne

#48 Le 11/10/2019, à 07:12

rmy

Re : [Résolu] volume dégradé RAID 5

merci @jamesbad000 pour l'explication potentielle.
@Optarion
Peut-être qu'il y a une question d'ordre des arguments ?
à tout hasard :

sudo losetup /dev/loop0 /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5991929-part3
sudo losetup /dev/loop1 /dev/disk/by-id/ata-WDC_WD5000AAKS-08V0A0_WD-WCAWF5998784-part3
sudo mdadm -A /dev/md0 /dev/loop0 /dev/loop1 -e 0.9 -fR

Hors ligne

#49 Le 11/10/2019, à 08:42

Optarion

Re : [Résolu] volume dégradé RAID 5

jamesbad000 a écrit :

Bingo. Pour la grosse partition on a 2 disques synchronisés (tourne sur 2 pattes depuis Avril 2018 !).

Alors oui, j'ai oublié de prévenir que le problème de RAID est survenu en avril 2018. A l'époque j'avais commencé à demander de l'aide sur le forum Synology mais j'ai dû m'arrêter en cours de route (arrivée d'un bébé) et le topic a disparu du forum depuis. Donc tout est resté bien au chaud en place dans le NAS jusqu'à ce que je puisse me remettre au sujet !

Est ce que je lance plutôt les --assemble de jamesbond ou les commandes de rmy ? ou les deux ?

Dernière modification par Optarion (Le 11/10/2019, à 08:44)

Hors ligne

#50 Le 11/10/2019, à 09:17

rmy

Re : [Résolu] volume dégradé RAID 5

Aucune n'est dangereuse, tu peux y aller pour toutes et t'arrêter si ça fonctionne ;-) et nous donner les retours, ça pourra peut-être nous éclairer.

edit : @jamesbad000, peut-être faut-il se pencher là-dessus, mais je vais être charette et peu présent aujourd'hui…

man mdadm -U a écrit :

The byteorder option allows arrays to be moved between machines with different byte-order. When assembling such an array for the first time after a move, giving --update=byteorder will cause mdadm to expect superblocks to have their byteorder reversed, and will correct that order before assembling the array. This is only valid with original (Version 0.90) superblocks.

Dernière modification par rmy (Le 11/10/2019, à 09:20)

Hors ligne