#1 Le 22/06/2017, à 11:48
- Arbiel
[Résolu - ou presque] LVM : modifier l'UUID d'un volume physique
Bonjour
[Edit]
Je me suis lancé, et j'ai réactivé les volumes logiques avec l'option ay et non aay. Cependant, le système qui utilise le lvm que j'ai modifié connaît quelques déboires que je n'ai pas encore analysés.
[/Édit]
Je veux changer l'uuid d'un volume physique.
La commande pvchange n'accepte pas de modifier l'uuid de volumes physiques pour lesquels des volumes logiques sont actifs.
remi@remi-Vostro-3550:~$ sudo pvchange -u /dev/sdd2
Volume group containing /dev/sdd2 has active logical volumes
0 physical volumes changed / 1 physical volume not changed
remi@remi-Vostro-3550:~$
Je dois donc désactiver ces volumes logiques, et je constate qu'il existe plusieurs options d'activation.
Et c'est là qu'est mon problème : comment savoir quelles options sont actuellement utilisées, pour pouvoir les redéfinir à l'identique après avoir changé l'uuid pour que tout fonctionne comme maintenant ? Je ne suis pas certain de savoir me sortir seul de ce que j'ai souligné dans le man ci-dessous
NAME
lvchange - change attributes of a logical volumeSYNOPSIS
lvchange [--addtag Tag] [-A|--autobackup {y|n}] [-a|--activate [a|e|l]{y|n}] [--alloc AllocationPolicy] [-C|--con‐
tiguous {y|n}] [-d|--debug] [--deltag Tag] [--discards {ignore|nopassdown|passdown}] [--resync] [-h|-?|--help]
[--ignorelockingfailure] [--ignoremonitoring] [--monitor {y|n}] [--poll {y|n}] [--sysinit] [--noudevsync]
[-M|--persistent {y|n}] [--minor minor] [-P|--partial] [-p|--permission {r|rw}] [-r|--readahead {ReadAheadSec‐
tors|auto|none}] [--refresh] [-t|--test] [-v|--verbose] [-Z|--zero {y|n}] LogicalVolumePath [LogicalVolumePath...]DESCRIPTION
lvchange allows you to change the attributes of a logical volume including making them known to the kernel ready
for use.OPTIONS
See lvm(8) for common options.-a, --activate [a|e|l]{y|n}
Controls the availability of the logical volumes for use. Communicates with the kernel device-mapper
driver via libdevmapper to activate (-ay) or deactivate (-an) the logical volumes. If autoactivation option
is used (-aay), the logical volume is activated only if it matches an item in the activation/auto_activa‐
tion_volume_list set in lvm.conf. Autoactivation is not yet supported for logical volumes that are part of
partial or clustered volume groups.If clustered locking is enabled, -aey will activate exclusively on one node and -aly will activate only on
the local node. To deactivate only on the local node use -aln. Logical volumes with single-host snapshots
are always activated exclusively because they can only be used on one node at once.
Par ailleurs
remi@remi-Vostro-3550:~$ sudo lvm dumpconfig
devices {
dir="/dev"
scan="/dev"
obtain_device_list_from_udev=1
preferred_names=[]
filter="a/.*/"
cache_dir="/run/lvm"
cache_file_prefix=""
write_cache_state=1
sysfs_scan=1
multipath_component_detection=1
md_component_detection=1
md_chunk_alignment=1
data_alignment_detection=1
data_alignment=0
data_alignment_offset_detection=1
ignore_suspended_devices=0
disable_after_error_count=0
require_restorefile_with_uuid=1
pv_min_size=2048
issue_discards=1
}
dmeventd {
mirror_library="libdevmapper-event-lvm2mirror.so"
snapshot_library="libdevmapper-event-lvm2snapshot.so"
thin_library="libdevmapper-event-lvm2thin.so"
}
activation {
checks=0
udev_sync=1
udev_rules=1
verify_udev_operations=0
retry_deactivation=1
missing_stripe_filler="error"
use_linear_target=1
reserved_stack=64
reserved_memory=8192
process_priority=-18
mirror_region_size=512
readahead="auto"
raid_fault_policy="warn"
mirror_log_fault_policy="allocate"
mirror_image_fault_policy="remove"
snapshot_autoextend_threshold=100
snapshot_autoextend_percent=20
thin_pool_autoextend_threshold=100
thin_pool_autoextend_percent=20
use_mlockall=0
monitoring=0
polling_interval=15
}
global {
umask=63
test=0
units="h"
si_unit_consistency=1
activation=1
proc="/proc"
locking_type=1
wait_for_locks=1
fallback_to_clustered_locking=1
fallback_to_local_locking=1
locking_dir="/run/lock/lvm"
prioritise_write_locks=1
abort_on_internal_errors=0
detect_internal_vg_cache_corruption=0
metadata_read_only=0
mirror_segtype_default="mirror"
use_lvmetad=0
thin_check_executable="/usr/sbin/thin_check"
thin_check_options="-q"
}
shell {
history_size=100
}
backup {
backup=1
backup_dir="/etc/lvm/backup"
archive=1
archive_dir="/etc/lvm/archive"
retain_min=10
retain_days=30
}
log {
verbose=0
silent=0
syslog=1
overwrite=0
level=0
indent=1
command_names=0
prefix=" "
}
allocation {
maximise_cling=1
mirror_logs_require_separate_pvs=0
thin_pool_metadata_require_separate_pvs=0
}
remi@remi-Vostro-3550:~$
Cela ayant été dit, mon problème s'explique ainsi :
J'utilise systématiquement lvm.
Je gère quelques PC d'un club informatique pour adultes handicapés mentaux. J'ai installé Ubuntu, à côté du Windows, et VirtualBox pour récupérer de vieux jeux sous Windows 98SE. grub est installé sur le MBR de clés USB de sorte que les PC né démarrent avec Ubuntu que si une clé est branchée au démarrage.
J'ai dédié deux de mes anciens disques amovibles pour y installer un Ubuntu et développer chez moi des outils pour le club. Je ne sais plus exactement comment j'ai procédé pour installer tous mes systèmes, ceux du club et celui de mes disques amovibles, mais je me retrouve actuellement avec deux volumes physiques ayant le même UUID, un volume sur un PC du club et un de mes disques amovibles. Et bien évidemment j'ai besoin de modifier l'un de ces deux uuid pour pouvoir utiliser mes disques amovibles sur ce PC et y recopier les assez nombreux fichiers (fichiers iso, machines virtuelles) nécessaires
Merci d'avance pour votre aide et vos conseils.
Arbiel
Dernière modification par Arbiel (Le 22/06/2017, à 12:40)
Arbiel Perlacremaz
LDLC Aurore NK3S-8-S4 Ubuntu 20.04
Abandon d'azerty au profit de bépo, de google au profit de Lilo et de la messagerie électronique violable au profit de Protonmail, une messagerie chiffrée de poste de travail à poste de travail.
Hors ligne