Contenu | Rechercher | Menus

Annonce

Si vous avez des soucis pour rester connecté, déconnectez-vous puis reconnectez-vous depuis ce lien en cochant la case
Me connecter automatiquement lors de mes prochaines visites.

À propos de l'équipe du forum.

#1 Le 29/05/2020, à 10:58

Madraf

[Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

Bonjour à tous,

Je pense avoir commis une fausse manipulation en tentant de remonter deux disques en RAID1 suite à une réinstallation d'un Lubuntu. D'habitude, je fais mon possible pour me débrouiller seul, mais là, c'est trop délicat, j'ai peur de tout perdre, si ce n'est déjà fait. Je n'ose pas trop bidouiller avec mdadm.

Voici donc mon problème :

J'ai deux disques /dev/sdc1 et /dev/sdd1 de de 2To chacun qui étaient initialement assemblés en RAID1 sur mon ancienne configuration.

En voulant les réassembler, j'ai tapé la commande suivante :

$ sudo mdadm --create /dev/md0 --level=0 --raid-devices=2 /dev/sdc1 /dev/sdd1

Ce qui m'a donné un /dev/md0 inaccessible et erroné, puisque je me suis bêtement trompé de niveau de RAID. Pire, je ne savais pas qu'il ne fallait pas employer l'option --create.
J'ai donc stoppé le raid :

$ sudo mdadm --stop /dev/md0

Et je pensais corriger mon erreur en utilisant l'option --assemble. Je tape donc :

$ sudo mdadm --assemble /dev/md0 /dev/sdc1 /dev/sdd1

Mais ça ne marche pas. J'imagine que l'utilisation de --create a modifié un paramètre pour faire l'assemblage en RAID0.
J'ai donc supposé qu'il y avait moyen de rétablir le bon paramètre en utilisant --create avec le bon paramètre --level=1. Je stoppe encore l'assemblage /dev/md0, puis je tape :

$ sudo mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sdc1 /dev/sdd1

Mais ça ne marche pas mieux, et je stoppe donc l'assemblage. À partir de là, je n'ai plus rien fait de critique.
J'ai fait plusieurs tentatives avec l'option --assemble (sans --force ou --update) sans obtenir de résultat.


J'ai tenté un montage d'un disque seul mais cela me renvoie une erreur :

$ sudo mount -t ext4 /dev/sdc1 /media/madraf/
mount: /media/madraf : échec de l’appel système mount(2) : La structure a besoin d'un nettoyage.

Le terme "nettoyage" me fait un peu peur. De quel nettoyage parle-t-on ici ? Dans quelle mesure cela risque-t-il de faire perdre les données ?
En fait, je ne suis pas sûr qu'il s'agisse bien d'un système de fichiers en ext4. Je n'arrive pas à récupérer cette information.

Ou encore :

$ sudo mount /dev/sdc1 /media/madraf
mount: /media/madraf : type de système de fichiers « linux_raid_member » inconnu.

Mais ce deuxième message est normal, si j'ai bien compris.


J'ai aussi tenté un montage du RAID proprement dit avec les deux disques, ou un seul :

$ sudo mdadm -A -R /dev/md0 /dev/sdc1
mdadm: /dev/md0 has been started with 1 drive (out of 2).
$ sudo mount /dev/md0 /media/madraf
mount: /media/madraf : wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.

J'en suis là, et je n'ose donc plus rien toucher. J'ai peur d'avoir tout perdu et ce serait vraiment critique pour moi.


Quelques informations, si ça peut aider :

$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md0 : active (read-only) raid1 sdc1[0] sdd1[1]
      1953381376 blocks super 1.2 [2/2] [UU]
      	resync=PENDING
      bitmap: 15/15 pages [60KB], 65536KB chunk

unused devices: <none>
$ sudo fdisk -l
Disque /dev/sdc : 1,8 TiB, 2000398934016 octets, 3907029168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x00098244

Périphérique Amorçage Début        Fin   Secteurs Taille Id Type
/dev/sdc1              2048 3907028991 3907026944   1,8T 83 Linux


Disque /dev/sdd : 1,8 TiB, 2000398934016 octets, 3907029168 secteurs
Unités : secteur de 1 × 512 = 512 octets
Taille de secteur (logique / physique) : 512 octets / 4096 octets
taille d'E/S (minimale / optimale) : 4096 octets / 4096 octets
Type d'étiquette de disque : dos
Identifiant de disque : 0x0001ec42

Périphérique Amorçage Début        Fin   Secteurs Taille Id Type
/dev/sdd1              2048 3907028991 3907026944   1,8T 83 Linux
$ sudo mdadm --examine /dev/sdc1
/dev/sdc1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : c478a46d:76711936:99223a41:a17eb31d
           Name : madraf-MS-7C37:0  (local to host madraf-MS-7C37)
  Creation Time : Fri May 29 16:42:45 2020
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
     Array Size : 1953381376 (1862.89 GiB 2000.26 GB)
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
   Unused Space : before=264112 sectors, after=0 sectors
          State : active
    Device UUID : ccd4b779:5e8a3145:ed86f0f7:744857b2

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri May 29 18:05:28 2020
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : e11bd944 - correct
         Events : 92


   Device Role : Active device 0
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)
$ sudo mdadm --examine /dev/sdd1
/dev/sdd1:
          Magic : a92b4efc
        Version : 1.2
    Feature Map : 0x1
     Array UUID : c478a46d:76711936:99223a41:a17eb31d
           Name : madraf-MS-7C37:0  (local to host madraf-MS-7C37)
  Creation Time : Fri May 29 16:42:45 2020
     Raid Level : raid1
   Raid Devices : 2

 Avail Dev Size : 3906762752 (1862.89 GiB 2000.26 GB)
     Array Size : 1953381376 (1862.89 GiB 2000.26 GB)
    Data Offset : 264192 sectors
   Super Offset : 8 sectors
   Unused Space : before=264112 sectors, after=0 sectors
          State : active
    Device UUID : 16aba84f:0e46e8d1:b8840542:aed131e4

Internal Bitmap : 8 sectors from superblock
    Update Time : Fri May 29 18:05:28 2020
  Bad Block Log : 512 entries available at offset 16 sectors
       Checksum : bfb2f244 - correct
         Events : 92


   Device Role : Active device 1
   Array State : AA ('A' == active, '.' == missing, 'R' == replacing)

Si, après ce que j'ai fait, le RAID s'avère irrécupérable, j'aimerais savoir s'il y a encore moyen de monter un seul des disques afin d'accéder au contenu.

Je vous remercie pour votre attention.
Si quelqu'un peut m'aider, ce serait vraiment gentil, car pour moi, ce n'est vraiment pas un petit problème.

Bonne journée.

Dernière modification par Madraf (Le 09/06/2020, à 20:11)

Hors ligne

#2 Le 29/05/2020, à 13:42

geole

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

Bonjour.
Je ne connais qu'un peu le raids.
Il me semble me souvenir que la commande create n'est pas une grosse erreur sauf si le nouveau type de structure interne du RAIDS n'est pas identique  à l'ancien type.    C'est malheureusement possible si le RAID est ancien.

En revanche l'avoir passé en RAIDS-0 même si revenu en RAID-1 peut ne pas être sans conséquence.

La première idée qui me vient est de te proposer tesdisk et de lancer l'analyse d'un des deux disques, Tu verras ce qu'il propose, S'il trouve une structure correcte, tu sauvegardes ailleurs   puis tu refabriqueras un raids tout neuf.
Sinon, je regarderais les interventions de jamesbad000 pour trouver ce qu'il propose dans ce contexte
/media/madraf : wrong fs type, bad option, bad superblock on /dev/md0
certainement un fsck...    - à lancer avec l'option -N   pour simuler la réparation

Mais tu peux déjà refaire la commande

sudo mdadm -A -R /dev/md0 /dev/sdc1

et donner le retour des erreurs

dmesg | tail -50

puis

sudo mdadm -A -R /dev/md0 /dev/sdd1

et donner le retour des erreurs

dmesg | tail -50

puis

sudo mdadm --assemble  /dev/md0   /dev/sdc1  /dev/sdd1  

et donner le retour des erreurs

dmesg | tail -50

IL y a quelque chose qui me surprend pour les partitions

  Creation Time : Fri May 29 16:42:45 2020    une date dans le futur..

Dernière modification par geole (Le 29/05/2020, à 14:01)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#3 Le 29/05/2020, à 14:46

Madraf

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

Bonjour Geole,

Merci pour ta réponse.

Il y a déjà un moment, j'ai tapé la commande d'assemblage ($ sudo mdadm -A /dev/md0 /dev/sdc1 /dev/sdd1). Je me suis aperçu en consultant le fichier /proc/mdstat qu'il avait lancé un resync.

$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 sdc1[0] sdd1[1]
      1953381376 blocks super 1.2 [2/2] [UU]
      [========>............]  resync = 41.3% (807555648/1953381376) finish=105.4min speed=181040K/sec
      bitmap: 9/15 pages [36KB], 65536KB chunk

unused devices: <none>

Je ne sais pas si c'est une bonne chose ou pas. En tout cas, il a passé les 40 %. Au point où il en est, autant le laisser finir. Si ce resync détruit les informations, le reste ne sera probablement pas récupérable si je l'interromps maintenant. Je n'ai pas demandé ce resync dans la commande et comme Wiki Ubuntu-fr nous dit que l'option --assemble, sans option supplémentaire, n'est pas censée faire de mal, je tente le coup. Peut-être ce resync suffira-t-il à tout remettre d'équerre.

Ceci dit, j'ai tout de même tapé la commande demandée (dmesg | tail -50). Voici les dernières lignes (les précédentes ne sont pas en rapport avec la commande) :

[11181.426775] md/raid1:md0: not clean -- starting background reconstruction
[11181.426776] md/raid1:md0: active with 2 out of 2 mirrors
[11181.646840] md0: detected capacity change from 0 to 2000262529024
[11181.647095] md: resync of RAID array md0

Quant à la date dans le futur, c'est normal, je ne suis pas en France, mais du côté de la Chine. J'ai six heures d'avance sur le forum.

Merci encore pour ton aide smile

Hors ligne

#4 Le 29/05/2020, à 16:38

geole

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

Pour la date,  c'est un peu ce que je pensais
Il faut laisser faire.   Cependant, tu devrais donner l'état physique des deux disques, car si l'un n'est pas de qualité, il y a des "redémarrage difficiles" qui ressemblent assez à ce problème.
1) installation

sudo apt-get install --no-install-recommends smartmontools 

et tu donnes le retour de ces commandes

sudo smartctl   -s  on    -a   /dev/sdc
sudo smartctl   -s  on    -a   /dev/sdd

Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#5 Le 29/05/2020, à 16:55

Madraf

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

$ sudo smartctl   -s  on    -a   /dev/sdc
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-5.3.0-53-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Seagate Barracuda 7200.14 (AF)
Device Model:     ST2000DM001-1CH164
Serial Number:    Z1E96W3Y
LU WWN Device Id: 5 000c50 07aae8479
Firmware Version: CC27
User Capacity:    2000398934016 bytes [2,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Fri May 29 23:49:16 2020 CST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(  575) seconds.
Offline data collection
capabilities: 			 (0x73) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					No Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   1) minutes.
Extended self-test routine
recommended polling time: 	 ( 209) minutes.
Conveyance self-test routine
recommended polling time: 	 (   2) minutes.
SCT capabilities: 	       (0x3085)	SCT Status supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   117   099   006    Pre-fail  Always       -       158301856
  3 Spin_Up_Time            0x0003   096   096   000    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   098   098   020    Old_age   Always       -       2650
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       16
  7 Seek_Error_Rate         0x000f   066   060   030    Pre-fail  Always       -       4113993
  9 Power_On_Hours          0x0032   068   068   000    Old_age   Always       -       28561
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   098   098   020    Old_age   Always       -       2654
183 Runtime_Bad_Block       0x0032   099   099   000    Old_age   Always       -       1
184 End-to-End_Error        0x0032   100   100   099    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   098   098   000    Old_age   Always       -       2
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0 0 0
189 High_Fly_Writes         0x003a   098   098   000    Old_age   Always       -       2
190 Airflow_Temperature_Cel 0x0022   065   057   045    Old_age   Always       -       35 (Min/Max 32/36)
191 G-Sense_Error_Rate      0x0032   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       87
193 Load_Cycle_Count        0x0032   099   099   000    Old_age   Always       -       2749
194 Temperature_Celsius     0x0022   035   043   000    Old_age   Always       -       35 (0 15 0 0 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   200   200   000    Old_age   Always       -       0
240 Head_Flying_Hours       0x0000   100   253   000    Old_age   Offline      -       28639h+21m+54.842s
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       14902795778
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       84468084730

SMART Error Log Version: 1
ATA Error Count: 2
	CR = Command Register [HEX]
	FR = Features Register [HEX]
	SC = Sector Count Register [HEX]
	SN = Sector Number Register [HEX]
	CL = Cylinder Low Register [HEX]
	CH = Cylinder High Register [HEX]
	DH = Device/Head Register [HEX]
	DC = Device Command Register [HEX]
	ER = Error register [HEX]
	ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 2 occurred at disk power-on lifetime: 22524 hours (938 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 80 fb 66 00  Error: UNC at LBA = 0x0066fb80 = 6749056

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 80 80 ef 66 40 00      06:51:02.389  READ FPDMA QUEUED
  60 00 00 00 e4 66 40 00      06:51:02.340  READ FPDMA QUEUED
  60 00 80 00 d8 66 40 00      06:51:02.283  READ FPDMA QUEUED
  60 00 80 80 ba 66 40 00      06:51:01.457  READ FPDMA QUEUED
  60 00 80 80 a3 66 40 00      06:51:00.634  READ FPDMA QUEUED

Error 1 occurred at disk power-on lifetime: 22524 hours (938 days + 12 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 20 87 62 00  Error: UNC at LBA = 0x00628720 = 6457120

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 00 80 f8 61 40 00      06:50:55.241  READ FPDMA QUEUED
  60 00 80 80 e8 61 40 00      06:50:54.431  READ FPDMA QUEUED
  60 00 00 00 7d 1a 40 00      06:50:41.362  READ FPDMA QUEUED
  60 00 00 00 7a 1a 40 00      06:50:41.344  READ FPDMA QUEUED
  b0 da 00 00 4f c2 00 00      06:50:41.323  SMART RETURN STATUS

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.
$ sudo smartctl   -s  on    -a   /dev/sdd
smartctl 6.6 2016-05-31 r4324 [x86_64-linux-5.3.0-53-generic] (local build)
Copyright (C) 2002-16, Bruce Allen, Christian Franke, www.smartmontools.org

=== START OF INFORMATION SECTION ===
Model Family:     Seagate Barracuda 7200.14 (AF)
Device Model:     ST2000DM001-1CH164
Serial Number:    Z1E96VT3
LU WWN Device Id: 5 000c50 07aae790a
Firmware Version: CC27
User Capacity:    2000398934016 bytes [2,00 TB]
Sector Sizes:     512 bytes logical, 4096 bytes physical
Rotation Rate:    7200 rpm
Form Factor:      3.5 inches
Device is:        In smartctl database [for details use: -P show]
ATA Version is:   ACS-2, ACS-3 T13/2161-D revision 3b
SATA Version is:  SATA 3.1, 6.0 Gb/s (current: 6.0 Gb/s)
Local Time is:    Fri May 29 23:51:50 2020 CST
SMART support is: Available - device has SMART capability.
SMART support is: Enabled

=== START OF ENABLE/DISABLE COMMANDS SECTION ===
SMART Enabled.

=== START OF READ SMART DATA SECTION ===
SMART overall-health self-assessment test result: PASSED

General SMART Values:
Offline data collection status:  (0x00)	Offline data collection activity
					was never started.
					Auto Offline Data Collection: Disabled.
Self-test execution status:      (   0)	The previous self-test routine completed
					without error or no self-test has ever 
					been run.
Total time to complete Offline 
data collection: 		(  575) seconds.
Offline data collection
capabilities: 			 (0x73) SMART execute Offline immediate.
					Auto Offline data collection on/off support.
					Suspend Offline collection upon new
					command.
					No Offline surface scan supported.
					Self-test supported.
					Conveyance Self-test supported.
					Selective Self-test supported.
SMART capabilities:            (0x0003)	Saves SMART data before entering
					power-saving mode.
					Supports SMART auto save timer.
Error logging capability:        (0x01)	Error logging supported.
					General Purpose Logging supported.
Short self-test routine 
recommended polling time: 	 (   1) minutes.
Extended self-test routine
recommended polling time: 	 ( 212) minutes.
Conveyance self-test routine
recommended polling time: 	 (   2) minutes.
SCT capabilities: 	       (0x3085)	SCT Status supported.

SMART Attributes Data Structure revision number: 10
Vendor Specific SMART Attributes with Thresholds:
ID# ATTRIBUTE_NAME          FLAG     VALUE WORST THRESH TYPE      UPDATED  WHEN_FAILED RAW_VALUE
  1 Raw_Read_Error_Rate     0x000f   111   099   006    Pre-fail  Always       -       32874560
  3 Spin_Up_Time            0x0003   096   096   000    Pre-fail  Always       -       0
  4 Start_Stop_Count        0x0032   098   098   020    Old_age   Always       -       2650
  5 Reallocated_Sector_Ct   0x0033   100   100   010    Pre-fail  Always       -       48
  7 Seek_Error_Rate         0x000f   067   060   030    Pre-fail  Always       -       6263616
  9 Power_On_Hours          0x0032   068   068   000    Old_age   Always       -       28562
 10 Spin_Retry_Count        0x0013   100   100   097    Pre-fail  Always       -       0
 12 Power_Cycle_Count       0x0032   098   098   020    Old_age   Always       -       2654
183 Runtime_Bad_Block       0x0032   099   099   000    Old_age   Always       -       1
184 End-to-End_Error        0x0032   100   100   099    Old_age   Always       -       0
187 Reported_Uncorrect      0x0032   094   094   000    Old_age   Always       -       6
188 Command_Timeout         0x0032   100   100   000    Old_age   Always       -       0 0 0
189 High_Fly_Writes         0x003a   098   098   000    Old_age   Always       -       2
190 Airflow_Temperature_Cel 0x0022   067   057   045    Old_age   Always       -       33 (Min/Max 31/35)
191 G-Sense_Error_Rate      0x0032   100   100   000    Old_age   Always       -       0
192 Power-Off_Retract_Count 0x0032   100   100   000    Old_age   Always       -       86
193 Load_Cycle_Count        0x0032   099   099   000    Old_age   Always       -       2751
194 Temperature_Celsius     0x0022   033   043   000    Old_age   Always       -       33 (0 14 0 0 0)
197 Current_Pending_Sector  0x0012   100   100   000    Old_age   Always       -       0
198 Offline_Uncorrectable   0x0010   100   100   000    Old_age   Offline      -       0
199 UDMA_CRC_Error_Count    0x003e   200   200   000    Old_age   Always       -       0
240 Head_Flying_Hours       0x0000   100   253   000    Old_age   Offline      -       28639h+45m+22.039s
241 Total_LBAs_Written      0x0000   100   253   000    Old_age   Offline      -       10996621832
242 Total_LBAs_Read         0x0000   100   253   000    Old_age   Offline      -       97883890687

SMART Error Log Version: 1
ATA Error Count: 6 (device log contains only the most recent five errors)
	CR = Command Register [HEX]
	FR = Features Register [HEX]
	SC = Sector Count Register [HEX]
	SN = Sector Number Register [HEX]
	CL = Cylinder Low Register [HEX]
	CH = Cylinder High Register [HEX]
	DH = Device/Head Register [HEX]
	DC = Device Command Register [HEX]
	ER = Error register [HEX]
	ST = Status register [HEX]
Powered_Up_Time is measured from power on, and printed as
DDd+hh:mm:SS.sss where DD=days, hh=hours, mm=minutes,
SS=sec, and sss=millisec. It "wraps" after 49.710 days.

Error 6 occurred at disk power-on lifetime: 12483 hours (520 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f  Error: UNC at LBA = 0x0fffffff = 268435455

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 80 ff ff ff 4f 00   4d+07:58:58.699  READ FPDMA QUEUED
  60 00 00 ff ff ff 4f 00   4d+07:58:58.699  READ FPDMA QUEUED
  b0 d1 01 00 4f c2 00 00   4d+07:58:58.683  SMART READ ATTRIBUTE THRESHOLDS [OBS-4]
  ec 00 01 00 00 00 00 00   4d+07:58:58.682  IDENTIFY DEVICE
  ea 00 00 00 00 00 a0 00   4d+07:58:58.649  FLUSH CACHE EXT

Error 5 occurred at disk power-on lifetime: 12483 hours (520 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f  Error: UNC at LBA = 0x0fffffff = 268435455

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 80 ff ff ff 4f 00   4d+07:58:53.595  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:53.595  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:53.595  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:53.594  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:53.594  READ FPDMA QUEUED

Error 4 occurred at disk power-on lifetime: 12483 hours (520 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f  Error: UNC at LBA = 0x0fffffff = 268435455

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 80 ff ff ff 4f 00   4d+07:58:49.655  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:49.655  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:49.653  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:49.653  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:49.653  READ FPDMA QUEUED

Error 3 occurred at disk power-on lifetime: 12483 hours (520 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f  Error: UNC at LBA = 0x0fffffff = 268435455

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 80 ff ff ff 4f 00   4d+07:58:45.248  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:45.248  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:45.248  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:45.248  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:45.248  READ FPDMA QUEUED

Error 2 occurred at disk power-on lifetime: 12483 hours (520 days + 3 hours)
  When the command that caused the error occurred, the device was active or idle.

  After command completion occurred, registers were:
  ER ST SC SN CL CH DH
  -- -- -- -- -- -- --
  40 51 00 ff ff ff 0f  Error: UNC at LBA = 0x0fffffff = 268435455

  Commands leading to the command that caused the error were:
  CR FR SC SN CL CH DH DC   Powered_Up_Time  Command/Feature_Name
  -- -- -- -- -- -- -- --  ----------------  --------------------
  60 00 80 ff ff ff 4f 00   4d+07:58:40.030  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:40.030  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:40.030  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:40.030  READ FPDMA QUEUED
  60 00 80 ff ff ff 4f 00   4d+07:58:40.030  READ FPDMA QUEUED

SMART Self-test log structure revision number 1
No self-tests have been logged.  [To run self-tests, use: smartctl -t]

SMART Selective self-test log data structure revision number 1
 SPAN  MIN_LBA  MAX_LBA  CURRENT_TEST_STATUS
    1        0        0  Not_testing
    2        0        0  Not_testing
    3        0        0  Not_testing
    4        0        0  Not_testing
    5        0        0  Not_testing
Selective self-test flags (0x0):
  After scanning selected spans, do NOT read-scan remainder of disk.
If Selective self-test is pending on power-up, resume after 0 minute delay.

Il semble qu'il y ait des erreurs, en effet, mais je ne sais pas si c'est grave...

Le resync est terminé, voici désormais le contenu du fichier /proc/mdstat :

$ cat /proc/mdstat
Personalities : [raid1] [linear] [multipath] [raid0] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 sdc1[0] sdd1[1]
      1953381376 blocks super 1.2 [2/2] [UU]
      bitmap: 0/15 pages [0KB], 65536KB chunk

unused devices: <none>

La tentative de montage échoue toujours :

$ sudo mount /dev/md0 /media/madraf
mount: /media/madraf : wrong fs type, bad option, bad superblock on /dev/md0, missing codepage or helper program, or other error.

Dernière modification par Madraf (Le 29/05/2020, à 17:15)

Hors ligne

#6 Le 29/05/2020, à 17:24

geole

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

Les disques sont en bon état
Les quelques incidents se sont passés il y a pas mal de temps

Que donne la commande

dmesg | tail -50

Dernière modification par geole (Le 29/05/2020, à 17:25)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#7 Le 29/05/2020, à 17:24

Madraf

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

$ dmesg | tail -50
[  107.866459] EXT4-fs (sdb1): mounted filesystem with ordered data mode. Opts: (null)
[  307.746192] md127: detected capacity change from 2000262529024 to 0
[  307.746202] md: md127 stopped.
[ 2565.224158] md: md0 stopped.
[ 2565.227161] md/raid1:md0: not clean -- starting background reconstruction
[ 2565.227163] md/raid1:md0: active with 2 out of 2 mirrors
[ 2565.261694] md0: detected capacity change from 0 to 2000262529024
[ 2565.261762] md: resync of RAID array md0
[ 2612.244098] md: md0: resync interrupted.
[ 2612.479231] md0: detected capacity change from 2000262529024 to 0
[ 2612.479235] md: md0 stopped.
[ 2828.566402]  sdd: sdd1
[ 2828.578464]  sdd: sdd1
[ 2828.912080]  sdd: sdd1
[ 2874.201439]  sdc: sdc1
[ 2874.204150]  sdd: sdd1
[ 2874.209010]  sdd: sdd1
[ 3043.622733] EXT4-fs (sdc1): couldn't mount as ext2 due to feature incompatibilities
[ 3056.494134] EXT4-fs (sdc1): couldn't mount as ext3 due to feature incompatibilities
[ 3061.681099] EXT4-fs (sdc1): ext4_check_descriptors: Block bitmap for group 0 not in group (block 2838187772)!
[ 3061.681102] EXT4-fs (sdc1): group descriptors corrupted!
[ 4997.963846] md: md0 stopped.
[ 4998.158529] md/raid1:md0: not clean -- starting background reconstruction
[ 4998.158531] md/raid1:md0: active with 2 out of 2 mirrors
[ 4998.380583] md0: detected capacity change from 0 to 2000262529024
[ 5070.118048] EXT4-fs (md0): VFS: Can't find ext4 filesystem
[ 5075.277979] EXT4-fs (md0): VFS: Can't find ext4 filesystem
[ 5503.927012] md0: detected capacity change from 2000262529024 to 0
[ 5503.927022] md: md0 stopped.
[ 5527.666559] EXT4-fs (sdc1): ext4_check_descriptors: Block bitmap for group 0 not in group (block 2838187772)!
[ 5527.666562] EXT4-fs (sdc1): group descriptors corrupted!
[ 5555.919002] EXT4-fs (sdc1): ext4_check_descriptors: Block bitmap for group 0 not in group (block 2838187772)!
[ 5555.919005] EXT4-fs (sdc1): group descriptors corrupted!
[ 5608.537201] md: md0 stopped.
[ 5608.733853] md/raid1:md0: active with 1 out of 2 mirrors
[ 5608.770121] md0: detected capacity change from 0 to 2000262529024
[ 5991.693981] md0: detected capacity change from 2000262529024 to 0
[ 5991.693989] md: md0 stopped.
[11181.423529] md: md0 stopped.
[11181.426775] md/raid1:md0: not clean -- starting background reconstruction
[11181.426776] md/raid1:md0: active with 2 out of 2 mirrors
[11181.646840] md0: detected capacity change from 0 to 2000262529024
[11181.647095] md: resync of RAID array md0
[23107.666965] md: md0: resync done.

En fait, j'ai l'impression qu'en utilisant le --create j'ai fait sauter le système de fichiers du RAID dans son ensemble. Il faudrait créer un système de fichiers :

sudo mkfs.ext4 /dev/md0

Mais évidemment, si je fais ça, il est probable que je perdrai tout. Du coup, est-il possible de rétablir le système de fichiers paramétré à l'origine sans perdre les données ?
À moins qu'il ne soit possible de tenter cette opération un seul des disques...

Il y a un pépin qui semble analogue au mien : https://askubuntu.com/questions/973632/ … -on-dev-md

Comme j'attendais la fin du resync pour ne pas perturber mdadm dans son travail, je n'ai pas tenter d'utiliser testdisk. Est-ce que cela présente un risque particulier ? Vaut-il mieux stopper le RAID avant d'utiliser testdisk ?

Dernière modification par Madraf (Le 29/05/2020, à 17:48)

Hors ligne

#8 Le 29/05/2020, à 17:58

geole

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

Il était inutile de lancer testdik  pendant une opération de grosse modification. Maintenant que c'est terminé, tu peux regarder ce qu'il va trouver.
Testdisk se contente de lire un peu ce qu'il trouve comme structure  sur le disque   La phase d'écriture    doit être declenchée par l'utilisateur et encore confirmée.  Mais je ne sais pas s'il va retrouver l'ancienne structure   de partition. L'important est qu'il retrouve les répertoires que tu sauvegarderas ailleurs avant de rebatir

Je comprends mal la fin de la trace

[11181.423529] md: md0 stopped.
[11181.426775] md/raid1:md0: not clean -- starting background reconstruction
[11181.426776] md/raid1:md0: active with 2 out of 2 mirrors
[11181.646840] md0: detected capacity change from 0 to 2000262529024
[11181.647095] md: resync of RAID array md0
[23107.666965] md: md0: resync done.

On ne voit rien de la commande de montage

Dernière modification par geole (Le 29/05/2020, à 18:04)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#9 Le 29/05/2020, à 18:34

Madraf

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

Oui, je confirme, je viens de refaire un essai, et le mount ne laisse pas de trace. Je ne saurais pas te dire pourquoi.

Je viens de jeter un œil à l'utilitaire testdisk et c'est un peu velu pour moi pour le moment. Il est 1 h 30 du matin, ici, je suis vanné. Si j'insiste, la fatigue va me jouer de mauvais tours. Je ne retrouve pas de fichiers (peut-être à cause du resync ?) et je suis un peu paumé dans les différentes partitions retrouvées. Je me demande si je ne vais pas acheter un autre disque de 2 To pour y faire une copie par bloc et bidouiller tranquillement dessus, je ne sais pas encore très bien comment je vais m'y prendre. Il va falloir que je me cogne tous les tutos d'internet pour utiliser correctement testdisk.

Je vais donc lâcher l'affaire pour le moment, jusqu'à demain. Je te remercie infiniment pour ton aide. Grâce à toi, j'y vois maintenant un petit peu plus clair et je commence à avoir un début de démarche pour récupérer tout ça.

Je te souhaite une bonne soirée en espérant échanger à nouveau prochainement.
À plus smile

Hors ligne

#10 Le 29/05/2020, à 21:21

geole

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

Demain, tu verras mieux.
Testdisk n'est pas si compliqué que cela. https://doc.ubuntu-fr.org/testdisk
mais je crains qu'il ne sache pas retrouver les vieilles partitions.
N'hésite pas à poster ses sorties d'écrans.

Vu le décalage horaire, vu que je suis plus nocturne que matinal, je te sugère d'ouvrir une autre discussion avec le mot testdisk dans le titre  car moko138 est aussi très matinal .

testdisk n'est pas très connu avec du raids
S'il ne sait pas retrouver , il faudra dupliquer les répertoires récupérés.
Dans ce contexte, je vois deux choix
A) achat d'un disque et récupération des données du RAIDS dans un autre disque.
B)  reformatage d'un disque  du raids et création d'un  nouveau RAID1 avec un disque déclaré missing. Puis récupération des données et reformatage du disque émetteur puis ajout de ce disque dans le nouveau RAIDS
Nota.  Tu viens de constater qu'avoir une version un peu ancienne des données n'est pas à négliger.

Dernière modification par geole (Le 29/05/2020, à 21:36)


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#11 Le 30/05/2020, à 08:01

Madraf

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

Bon, ça marche. J'ai déjà pu récupérer les fichiers les plus importants avec testdisk. Pour le reste, il faut que j'achète un disque dur externe.

En fait, c'est assez facile à utiliser, en effet, même pas besoin de tenter de modifier des paramètres de partition ou autre bidouille. J'ai eu du mal à trouver des fichiers la veille car j'étais vraiment fatigué et passablement angoissé, je n'avais plus les yeux en face des trous. J'ai l'impression qu'il a bien tout retrouvé. Les fichiers listés en rouge sont en fait des fichiers volontairement effacés par mes soins avant le plantage de mon RAID, je crois, et éventuellement corrompus ; mais ceux listés en blanc se sont, pour l'instant, toujours avéré corrects.

Par contre, il peut y avoir des gags étranges, il vaut mieux être prévenu. Par exemple, j'ai un gros répertoire photos de plus de 200 Go. À côté, un répertoire plus petit d'une vingtaine de Go. Eh bien, lorsque j'ai voulu restaurer le petit répertoire, il largement dépassé les 20 Go prévus. En effet, tout s'est passé comme si le répertoire photos était dupliqué dans le petit répertoire. Bien sûr, ce n'était pas le cas à l'origine. Il n'y avait aucun lien non plus. Il faut donc faire gaffe à ce qu'on restaure. On ne peut pas tout faire d'un coup, il pourrait y avoir des problèmes de récursivité des répertoires.

J'en ai encore pour quelque temps avant de récupérer tous mes fichiers. Je m'occuperai ensuite de remonter mon RAID correctement.
Que les choses se passent bien ou non, je vous tiendrai au courant concernant le rétablissement du RAID, pour ceux que ça intéresse.

Merci encore, Geole, ton aide ne m'a pas sauvé la vie, mais presque smile

Dernière modification par Madraf (Le 30/05/2020, à 08:02)

Hors ligne

#12 Le 30/05/2020, à 08:39

geole

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

Bonjour
Très bonne nouvelle pour toi.
Effectivement ce qui est mis en rouge  est significatif de répertoire/fichiers  qui ont été supprimés mais dont l'espace est encore  disponible

Pour tes deux répertoires photos, s'il  n'y avait pas de lien, c'est étrange. Mais il est possible qu'il y ait eut malgré  tout quelques cassures   dans le passage raid1/raid0/raid1

Je pense que la clé de cette "réussite" est certainement le fait que tu as laissé la resynchronisation aller à son terme.    Tout était d'une même "couleur" plus facile a récupérer par testdisk.


Les grilles de l'installateur https://doc.ubuntu-fr.org/tutoriel/inst … _subiquity
"gedit admin:///etc/fstab" est proscrit,  utilisez "pkexec env DISPLAY=$DISPLAY XAUTHORITY=$XAUTHORITY xdg-open /etc/fstab" Voir  https://doc.ubuntu-fr.org/gedit
Les partitions EXT4 des disques externes => https://forum.ubuntu-fr.org/viewtopic.p … #p22697248

Hors ligne

#13 Le 05/06/2020, à 19:36

Madraf

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

Bonjour,

J'ai enfin reçu le disque dur USB de 2 To que je destinais à la sauvegarde des fichiers avant de tenter de restaurer mon RAID1.

C'était sans compter sur l'incapacité congénitale et chronique de Linux de gérer correctement l'USB. Du fait de taux de transferts anémiques, et ne pouvant consacrer les prochaines années à la restauration d'un téraoctet de données, j'ai extirpé le disque dur de son étui et je l'ai branché directement en SATA.

J'ai pu ainsi obtenir des transferts entre 36 et 114 Mo/s, ce qui est davantage compatible avec mon espérance de vie. La sauvegarde est ainsi complète.
__________________________________________

Sur ce, avec Testdisk, j'ai modifié le type de la partition d'un des disques RAID1 dans laquelle j'ai retrouvé les données. Elle était marquée D (Deleted) dans Testdisk. Je l'ai marquée P (Primary) et j'ai redémarré le système.

Et ça marche. J'ai pu monter la partition et voir mes données, comme avant.

J'aimerais tenter une récupération du RAID1 tout en finesse, comme expliqué par Geole, c'est à dire, sans utiliser la sauvegarde (pour avoir une autre solution dans le cas où j'aurais été dans l'incapacité de sauvegarder). Puisque la partition est lisible, l'idée serait :

1 - Activer le RAID1 seulement avec le deuxième disque (premier disque "missing").

2 - Puis restaurer les données du premier vers le second.

3 - Et enfin, intégrer le premier disque au RAID1 et synchroniser les disques.
___________________________________________

Du côté des commandes à taper, voici ce que je suppose que je devrais faire, et j'aimerais que quelqu'un veuille bien me confirmer si ça tient la route, ou s'il faut s'y prendre autrement.

Le premier disque dont la partition est à nouveau lisible est /dev/sdc.
Le second avec lequel je veux rétablir le RAID1 pour y copier les donnés du premier est le /dev/sdd.


1 - Créer une partition fd (Linux Raid Autodetect) avec fdisk comme indiqué ici.

- Création du RAID1 avec ce seul disque, mais en précisant qu'un deuxième est "missing" :

$ sudo mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sdd1 missing

- Formatage du RAID1 (J'avais oublié ça lors du premier jet de ce message) :

$ sudo mkfs.ext4 /dev/md0

- Montage du RAID1 :

$ sudo mount /dev/md0 /media/madraf

2 - Copie des données de /dev/sdc1 vers /dev/md0


3 - Partitionner le premier disque /dev/sdc à neuf comme indiqué plus haut, puis l'ajouter au RAID1 créé juste avant :

$ sudo mdadm --manage /dev/md0 --add /dev/sdc1

Edit : je viens de voir qu'il est effectivement possible de créer un RAID avec un disque "missing" dès le début. C'était mon gros doute. Je vais tenter le coup comme ça. Je reviendrai parler du résultat bientôt.

Merci pour votre attention smile

Dernière modification par Madraf (Le 06/06/2020, à 07:20)

Hors ligne

#14 Le 06/06/2020, à 07:39

Madraf

Re : [Résolu] Récupération RAID1 assemblé par erreur avec mdadm --create

Voici donc le retour d'expérience de ma tentative de récupération du RAID. Cela a très bien marché, même si cela ne s'est pas passé exactement comme décrit plus haut. Toutefois, dans les grandes lignes, la procédure est correcte.

Dans les faits, voici ce qui s'est passé :


1 - Créer une partition fd (Linux Raid Autodetect) avec fdisk comme indiqué ici.

- Création du RAID1 avec ce seul disque, mais en précisant qu'un deuxième est "missing" :

$ sudo mdadm --create /dev/md0 --level=1 --raid-devices=2 /dev/sdd1 missing

- Formatage du RAID1 :

$ sudo mkfs.ext4 /dev/md0

Là, Ubuntu me monte la partition ainsi créée automatiquement sous /mnt et avec les droits root, ce qui ne m'arrange pas.

Il faut donc modifier les options de montage dans le gestionnaire de disques (qui mettra /etc/fstab à jour automatiquement) pour le démonter et le coller dans le montage utilisateur /media/madraf/RAID1 ("RAID1" est un nom de mon choix) et modifier l'appartenance de root vers l'utilisateur :

$ sudo chown -R madraf:madraf /media/madraf/RAID1

2 - Copie des données de /dev/sdc1 vers /dev/md0.


3 - Partitionner le premier disque /dev/sdc à neuf comme indiqué plus haut, puis l'ajouter au RAID1 créé juste avant :

$ sudo mdadm --manage /dev/md0 --add /dev/sdc1

Là, tout se passe comme prévu. On peut consulter /proc/mdstat :

$ cat /proc/mdstat
Personalities : [linear] [multipath] [raid0] [raid1] [raid6] [raid5] [raid4] [raid10] 
md0 : active raid1 sdc1[2] sdd1[0]
      1953381440 blocks super 1.2 [2/1] [U_]
      [>....................]  recovery =  0.1% (2693248/1953381440) finish=241.4min speed=134662K/sec
      bitmap: 15/15 pages [60KB], 65536KB chunk

unused devices: <none>

On constate que le RAID est en cours de "recovery", il restaure les données sur le disque qui vient d'être ajouté depuis /dev/sdd1.


Tout fonctionne désormais comme avant, et finalement, sans perte de données. J'aurais pu restaurer les données sans même les sauvegarder.

Bien sûr, même si tout se finit bien, la leçon demeure de sauvegarder ses données, régulièrement et aussi souvent que possible, surtout avant une opération lourde comme la réinstallation d'un système. Ce que j'avais négligé de faire.

Encore un grand merci à Geole qui m'a appris l'existence de l'utilitaire Testdisk qui m'a rendu un grand service autant en permettant la sauvegarde de mes données qu'en réactivant la partition et en la rendant à nouveau accessible. Je précise que réactiver la partition nécessite une écriture sur le disque. Afin de parer à tout problème, il est toujours préférable de sauvegarder avant de tenter la récupération de la partition.

J'espère que ce fil pourra aider ceux qui seront en difficulté avec leur RAID.

Merci pour votre attention smile

Dernière modification par Madraf (Le 09/06/2020, à 20:19)

Hors ligne