CLVM: возможно ли убрать флаг «clustered» и получить доступ к данным с другой машины?

Умер кластер Proxmox. Данные находятся в СХД на cLVM томах. При попытке смонтировать LUNы на другой машине получаю (хост смаплен в интерфесе СХД, доступ к LUNам есть)

Skipping clustered volume group vg-vm
Skipping clustered volume group shared_vm2
Skipping clustered volume group vg-voip3

vgdisplay vg-vm --config 'global {locking_type = 0}' | grep Clustered
WARNING: Locking disabled. Be careful! This could corrupt your metadata.
Found duplicate PV 0Z0c4e8fAZ2NSbY06fl5wXdtPpOrt5qZ: using /dev/mapper/3690b11c0005284f70000053a5845cc19 not /dev/sdj
Using duplicate PV /dev/mapper/3690b11c0005284f70000053a5845cc19 from subsystem DM, ignoring /dev/sdj
Found duplicate PV 0Z0c4e8fAZ2NSbY06fl5wXdtPpOrt5qZ: using /dev/mapper/3690b11c0005284f70000053a5845cc19 not /dev/sds
Using duplicate PV /dev/mapper/3690b11c0005284f70000053a5845cc19 from subsystem DM, ignoring /dev/sds
Clustered yes

Есть ли возможность таки получить доступ к данным? (конечно, можно просто удалить тома и создать новые без флага «с», но нужны данные, не все было забекаплено)

UPD:
Нашёл вариант vgchange -cn $vgname --config 'global {locking_type = 0}' — не могу пока понять, безопасен ли он для данных.

Почему Proxmox не желает работать с хранилищем на СХД?

Есть СХД (Dell MD3600f). В нему через FC (multipath) подключены два сервера Proxmox, хранящие диски виртуалок в LVM-томах. Подключаю третий сервер, настраиваю iscsi, multipath — мультипас обнаруживает парные устройства и монтирует их, как положено, в /dev/mapper. Но когда дело доходит до pvdisplay, вижу следующее:

File descriptor 7 (pipe:[57622]) leaked on pvdisplay invocation. Parent PID 6642: bash
connect() failed on local socket: No such file or directory
Internal cluster locking initialisation failed.
WARNING: Falling back to local file-based locking.
Volume Groups with the clustered attribute will be inaccessible.
— Physical volume —
PV Name /dev/mapper/36c81f660e53d7e00220309ee04769705-part3
VG Name pve
PV Size 536.00 GiB / not usable 1.98 MiB
Allocatable yes
PE Size 4.00 MiB
Total PE 137215
Free PE 4043
Allocated PE 133172
PV UUID vLDITo-c7Ez-jK2W-WxNV-X71r-28cJ-3Q8c0b
Читать дальше

Proxmox + openvpn, пробросить внутреннюю сеть?

Добрый день, помогите пожалуйста советом, с proxmox ранее не работал,
Есть debian на нем установлен Proxmox 5.1,
Настройки сети Proxmox два Linux Bridge:
auto vmbr0
iface vmbr0 inet static
address 192.168.88.248
netmask 255.255.255.0
gateway 192.168.88.1
bridge_ports enp3s0
bridge_stp off
bridge_fd 0

auto vmbr1
iface vmbr1 inet static
address 192.168.140.1
netmask 255.255.255.0
bridge_ports none
bridge_stp off
bridge_fd 0
post-up echo 1 > /proc/sys/net/ipv4/ip_forward
post-up iptables -t nat -A POSTROUTING -s '192.168.140.0/24' -o enp3s -j MASQUEREAD
Читать дальше

Работа с виртуальным адаптером сети Proxmox, две сети, как быть?

Привет коллеги, помогите пожалуйста, давно с сетями не работал сижу ломаю голову у меня есть Proxmox v4 установленный на Debian
Имею две сети VMBR0 — с выходом в инет и VMBR2 локальная сеть 192.168.0.1/24
Есть несколько выделенных IP они ходят в инет через VMBR0, но виртуальные машины должны тоже иметь выход в инет и иметь доступ до виртуалок с выделенным IP, я настроил маскарадинг для VMBR2 через VMBR0 т.е NAT теперь машины 192.168.0.1 имеют выход в инет но не могут достучаться до виртуалок с выделенным IP, я к виртуалкам с выделенным IP подключил второй адаптер VMBR2 и выдал им iP из сети 192.168.0.1 теперь все работает, но мне кажется это не правильно и можно как-то разрулить это все маршрутами, или я не прав?
И ещё вопрос если на виртулках которые используют VMBR2 или VMBR2 и VMBR0 включить на интерфейсе VMBR2 фаервол то пинг до внешних ресурсов перестает проходить, хотя с VMR0 таких проблем нет, настроил нужные порты и все работает, в чем может быть загвоздка?
Спасибо!

Как настроить бридж Proxmox VE2 на Hetzner с VLAN и дефками?

Подскажите, как настроить VLAN для 5-и Proxmox-овских KVM-машин с бриджем vmbr0 наружу для vm0
(EX4 от Herzner).

То, что дает robot.your-server.de
ip: 175.19.69.209 Gateway: 175.19.69.193 Netmask: 255.255.255.224 Brodcast: 175.19.69.223
eth0 — корневая нода. На ней интернет есть.
Gateway: 175.19.69.193 Netmask: 255.255.255.224 Brodcast: 175.19.69.223

Хочу дать постоянный доступ vm0 c nginx и временный доступ, для остальных виртуалок, на время установки ПО. Нужно завести вторую виртуальную карту на корневой ноде? Как на это отреагирует Hetzner-овская сеть, давшая мне один IP для одного MAC? Может вместо «доп-сетевухи» eth1 нужно завести vmbr0-бридж?

Если так, то что тут должно быть на этом бридже vmbr0?
Gateway: 175.19.69.193 Netmask: 255.255.255.224 Brodcast: 175.19.69.223

net0 — сетевуха на виртуальной машине vm0.
Настройки сети vm0 для меня совершенно не понятны.
День убил на чтение тонны «мануалов» на примерах, но не понимаю основ и ужасно туплю. Выручайте!