Pages : 1
#1 Le 29/04/2017, à 10:32
- mitch3d
Problème de BOOT RAID/LVM
Bonjour à tous,
Voilà après une mise à jour système, voilà que j'ai perdu mon boot ! ça ne doit pas être grand chose pour un gars qui a fait un "linux from scratch et qui comprends le boot" :-)
le serveur en question :
2 DISQUES de 1 TO en RAID 1 (avec mdadm (4 groupes raid)) avec des LVM configurés.
J'ai plus rien dans le grub lors du boot !!!!!!!
Après avoir utilisé bootrepair rien ne change !!!
Voici le rapport que m'a généré bootrepair
ATTENTION : SDC 16Go étant ma clé USB BootRepair donc rien à voir avec mon problème.
https://paste.ubuntu.com/24477741/
Vraiment si quelqu'un a une suggestion... Grand merci :-)
Hors ligne
#2 Le 29/04/2017, à 12:52
- jamesbad000
Re : Problème de BOOT RAID/LVM
Bonjour.
Il manque mdadm sur le live. Si bien qu'il n'y a aucune info sur le contenu des partitions dans le rapport.
sudo apt-get install -y mdadm --no-install-recommends
Ensuite refait un rapport.
et donne également le retour de
sudo lsblk -o SIZE,NAME,FSTYPE,LABEL,MOUNTPOINT
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne
#3 Le 01/05/2017, à 16:58
- mitch3d
Re : Problème de BOOT RAID/LVM
Bonjour et merci pour la réponse...
Effectivement après installation du packet manquant sur le live, ça a fonctionné !! J'ai retrouvé mon os qui boot....
Voici à présent le résultat
https://paste.ubuntu.com/24493008/
Concernant le retour de commande :
SIZE NAME FSTYPE LABEL MOUNTPOINT
931,5G sda
512M ├─sda1 vfat /boot/efi
488M ├─sda2 linux_raid_member ubuntu-serveur:0
487,7M │ └─md0 ext3 /boot
55,9G ├─sda3 linux_raid_member ubuntu-serveur:1
55,9G │ └─md1 LVM2_member
55,9G │ └─vg_racine-lv_racine ext4 /
5,6G ├─sda4 linux_raid_member ubuntu-serveur:2
5,6G │ └─md2
5,6G │ └─md2_crypt swap [SWAP]
465,7G └─sda5 linux_raid_member ubuntu-serveur:3
465,5G └─md3 LVM2_member
465,5G └─vg_home-lv_home crypto_LUKS
465,5G └─vg_home-lv_home_crypt
ext4 /home
931,5G sdb
512M ├─sdb1 vfat
488M ├─sdb2 linux_raid_member ubuntu-serveur:0
55,9G ├─sdb3 linux_raid_member ubuntu-serveur:1
5,6G ├─sdb4 linux_raid_member ubuntu-serveur:2
465,7G └─sdb5 linux_raid_member ubuntu-serveur:3
465,5G └─md3 LVM2_member
465,5G └─vg_home-lv_home crypto_LUKS
465,5G └─vg_home-lv_home_crypt
Par contre, j'en profite... malgré le RAID 1 fonctionnel... Si je retire le SDA physiquement du serveur... PLUS DE BOOT !!! pourtant j'ai bien activé le "boot_degraded=yes" au niveau du raid (mdadm) pour qu'il puisse booter sur un raid dégradé !
ma version mdadm est la v3.4 - 28th January 2016
Alors je suis vivement preneur de conseils sur ce dernier point :-))
Merci
Modération : merci à l'avenir d'utiliser les balises code (explications ici).
Dernière modification par cqfd93 (Le 01/05/2017, à 18:22)
Hors ligne
#4 Le 01/05/2017, à 21:38
- jamesbad000
Re : Problème de BOOT RAID/LVM
A vue de nez ce qui doit clocher avec sdb c'est que la partition boot UEFI (sdb1) n'est pas maintenu pour les mises à jour de grub.
Si tu as créé le volume logique contenant ubuntu sans resychroniser sdb1 après ou un truc dans le genre, ça ne doit pas aller effectivement.
Il faudrait préciser PLUS DE BOOT: est-ce que grub démarre lui ?
PS: oui c'est clair, le contenu de sdb1 est différent de celui de sda1... Pour autant ça ne prouve pas que le problème vienne de la, mais c'est très plausible.
PS2 Il y a moyen de mettre cette partition de boot en raid1 logiciel sans que le bios en sache rien...
Edit - Voilà le moyen de tester la partition UEFI en raid 1
l'option --metadata=1.0 implique que le descripteur du raid va être placé à la fin de la partition.
Le système de fichier lui sera donc placé normalement en début de partition, et tout semble normal pour le bios.
ensuite une reéinstal fraiche de grub et il n'y a plus qu'à essayer
sudo mdadm --create /dev/md4 --metadata=1.0 --level=1 --raid-devices=2 /dev/sdb1 missing
sudo mkfs.vfat /dev/md4
sudo umount /boot/efi
sudo mount /dev/md4 /boot/efi
sudo grub-install
Si ça fonctionne, il ne reste plus qu'à ajouter sda1 au volume raid et modifier le fstab pour que le point de montage /boot/efi corresponde au volume raid (utiliser son uuid de préférence)
Dernière modification par jamesbad000 (Le 02/05/2017, à 00:53)
L'espace et le temps sont les modes par lesquels nous pensons, et non les conditions dans lesquelles nous vivons. (Signé Albert)
Hors ligne