#1 Le 24/01/2017, à 13:13
- Bugado
OMV Aide pour réactiver RAID5
Bonjour à tous,
J'ai un NAS qui tourne sous OMV 2
Dessus, une grappe RAID 5 composée de 6 disques à laquelle j'ai ajouté 1 septième, ainsi qu'un HDD pour l'OS et un autre pour des téléchargements.
En cours de reconstruction de la grappe, coupure de courant...
J'ai redémarré le NAS, mais plus de RAID...
Evidemment l'idiot que je suis n'a pas fait de backup et des fichiers persos (photos et autres) importants à mes yeux sont dessus...
J'ai fouillé pour m'en sortir seul, mais peu habitué à linux, j'ai merdé...
Via putty en SSH, j'ai exécuté la commande:
mdadm --zero-superbloc /dev/sda
Et forcement, là, ,je suis dans la mouise...
Ai-je une chance de récupérer mes données??
Quelqu'un peut il m'aider à y arriver?
Quelqu'un à me conseiller qui pourrait prendre la main via TeamViewer pour me dépanner?
Merci à tous!!
Si ça peut aider, voici les éléments de diagnostic que j'obtiens via putty:
mdadm --detail /dev/md127
/dev/md127:
Version : 1.2
Creation Time : Mon May 16 20:34:29 2016
Raid Level : raid5
Used Dev Size : -1
Raid Devices : 7
Total Devices : 5
Persistence : Superblock is persistent
Update Time : Sat Jan 21 16:03:12 2017
State : active, FAILED, Not Started
Active Devices : 5
Working Devices : 5
Failed Devices : 0
Spare Devices : 0
Layout : left-symmetric
Chunk Size : 512K
Delta Devices : 1, (6->7)
Name : NAS-Maison:Stock
UUID : 343e9353:fa4ec1d3:d6b91659:b517e910
Events : 7499
Number Major Minor RaidDevice State
0 8 128 0 active sync /dev/sdi
1 8 112 1 active sync /dev/sdh
2 8 64 2 active sync /dev/sde
3 8 16 3 active sync /dev/sdb
4 0 0 4 removed
5 8 80 5 active sync /dev/sdf
6 0 0 6 removed
mdadm --examine /dev/sda
Le disque où j'ai effacé le superblock
mdadm: No md superblock detected on /dev/sda.
mdadm --examine /dev/sdb
l'un des disques fonctionnel de la grappe (sdb,sde, sdf,sdh,sdi )
/dev/sdb:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x4
Array UUID : 343e9353:fa4ec1d3:d6b91659:b517e910
Name : NAS-Maison:Stock
Creation Time : Mon May 16 20:34:29 2016
Raid Level : raid5
Raid Devices : 7
Avail Dev Size : 5860271024 (2794.40 GiB 3000.46 GB)
Array Size : 17580810240 (16766.37 GiB 18002.75 GB)
Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
State : clean
Device UUID : c5f513f4:e8e3b192:7874e636:d959bc3e
Reshape pos'n : 18432 (18.00 MiB 18.87 MB)
Delta Devices : 1 (6->7)
Update Time : Sat Jan 21 16:03:12 2017
Checksum : 6a5a89 - correct
Events : 7499
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 3
Array State : AAAAAA. ('A' == active, '.' == missing)
mdadm --examine /dev/sdg
Le disque ajouté en dernier pendant la coupure, non actif dans la grappe
dev/sdg:
Magic : a92b4efc
Version : 1.2
Feature Map : 0x4
Array UUID : 343e9353:fa4ec1d3:d6b91659:b517e910
Name : NAS-Maison:Stock
Creation Time : Mon May 16 20:34:29 2016
Raid Level : raid5
Raid Devices : 7
Avail Dev Size : 5860271024 (2794.40 GiB 3000.46 GB)
Array Size : 17580810240 (16766.37 GiB 18002.75 GB)
Used Dev Size : 5860270080 (2794.39 GiB 3000.46 GB)
Data Offset : 262144 sectors
Super Offset : 8 sectors
State : active
Device UUID : acdb4fd4:3a19b021:dfd36849:997e4ec7
Reshape pos'n : 18432 (18.00 MiB 18.87 MB)
Delta Devices : 1 (6->7)
Update Time : Sat Jan 21 15:02:19 2017
Checksum : ab7ebaa - correct
Events : 7494
Layout : left-symmetric
Chunk Size : 512K
Device Role : Active device 6
Array State : AAAAAAA ('A' == active, '.' == missing)
cat /proc/mdstat
Personalities : [raid6] [raid5] [raid4]
md127 : inactive sdi[0] sdf[5] sdb[3] sde[2] sdh[1]
14650677560 blocks super 1.2
unused devices: <none>
mdadm --examine /dev/sda
Le disque où j'ai effacé le superblock
mdadm: No md superblock detected on /dev/sda.
blkid
/dev/sdb: UUID="343e9353-fa4e-c1d3-d6b9-1659b517e910" UUID_SUB="c5f513f4-e8e3-b192-7874-e636d959bc3e" LABEL="NAS-Maison:Stock" TYPE="linux_raid_member"
/dev/sdg: UUID="343e9353-fa4e-c1d3-d6b9-1659b517e910" UUID_SUB="acdb4fd4-3a19-b021-dfd3-6849997e4ec7" LABEL="NAS-Maison:Stock" TYPE="linux_raid_member"
/dev/sdh: UUID="343e9353-fa4e-c1d3-d6b9-1659b517e910" UUID_SUB="38be4781-f6ba-975f-06e1-6284b1aeeb68" LABEL="NAS-Maison:Stock" TYPE="linux_raid_member"
/dev/sdi: UUID="343e9353-fa4e-c1d3-d6b9-1659b517e910" UUID_SUB="2c4420fd-7d08-af42-8599-3da1c81a0804" LABEL="NAS-Maison:Stock" TYPE="linux_raid_member"
/dev/sdc1: UUID="2642ec6c-7f02-40f5-8d30-9278d409aee7" TYPE="ext4"
/dev/sdc5: UUID="7b189bc1-bc83-4ed5-bf4a-d5933a418d3f" TYPE="swap"
/dev/sdd1: UUID="b07fb66d-1528-49ef-8760-6b762f9eacf7" TYPE="ext4"
/dev/sde: UUID="343e9353-fa4e-c1d3-d6b9-1659b517e910" UUID_SUB="9b356513-b4b1-6eb6-d739-e100137940ee" LABEL="NAS-Maison:Stock" TYPE="linux_raid_member"
/dev/sdf: UUID="343e9353-fa4e-c1d3-d6b9-1659b517e910" UUID_SUB="358d754e-a623-2882-0ee0-fae0efb054a8" LABEL="NAS-Maison:Stock" TYPE="linux_raid_member"
fdisk -l | grep "Disk "
Disk /dev/sda doesn't contain a valid partition table
Disk /dev/sdb doesn't contain a valid partition table
WARNING: GPT (GUID Partition Table) detected on '/dev/sdd'! The util fdisk doesn't support GPT. Use GNU Parted.
Disk /dev/sde doesn't contain a valid partition table
Disk /dev/sdf doesn't contain a valid partition table
Disk /dev/sdg doesn't contain a valid partition table
Disk /dev/sdh doesn't contain a valid partition table
Disk /dev/sdi doesn't contain a valid partition table
Disk /dev/sda: 3000.6 GB, 3000592982016 bytes
Disk identifier: 0x00000000
Disk /dev/sdb: 3000.6 GB, 3000592982016 bytes
Disk identifier: 0x00000000
Disk /dev/sdc: 120.0 GB, 120034123776 bytes
Disk identifier: 0x0005618c
Disk /dev/sdd: 2000.4 GB, 2000398934016 bytes
Disk identifier: 0x00000000
Disk /dev/sde: 3000.6 GB, 3000592982016 bytes
Disk identifier: 0x00000000
Disk /dev/sdf: 3000.6 GB, 3000592982016 bytes
Disk identifier: 0x00000000
Disk /dev/sdg: 3000.6 GB, 3000592982016 bytes
Disk identifier: 0x00000000
Disk /dev/sdh: 3000.6 GB, 3000592982016 bytes
Disk identifier: 0x00000000
Disk /dev/sdi: 3000.6 GB, 3000592982016 bytes
Disk identifier: 0x00000000
cat /etc/mdadm/mdadm.conf
# mdadm.conf
#
# Please refer to mdadm.conf(5) for information about this file.
#
# by default, scan all partitions (/proc/partitions) for MD superblocks.
# alternatively, specify devices to scan, using wildcards if desired.
# Note, if no DEVICE line is present, then "DEVICE partitions" is assumed.
# To avoid the auto-assembly of RAID devices a pattern that CAN'T match is
# used if no RAID devices are configured.
DEVICE partitions
# auto-create devices with Debian standard permissions
CREATE owner=root group=disk mode=0660 auto=yes
# automatically tag new arrays as belonging to the local system
HOMEHOST <system>
# definitions of existing MD arrays
Modération : merci à l'avenir d'utiliser les balises code (explications ici).
Dernière modification par cqfd93 (Le 24/01/2017, à 13:27)
Hors ligne