Serveurs dédiés - Nouvel OS disponible : Proxmox Virtual Environment (VE) 9
... / Nouvel OS disponible : Pr...
BMPCreated with Sketch.BMPZIPCreated with Sketch.ZIPXLSCreated with Sketch.XLSTXTCreated with Sketch.TXTPPTCreated with Sketch.PPTPNGCreated with Sketch.PNGPDFCreated with Sketch.PDFJPGCreated with Sketch.JPGGIFCreated with Sketch.GIFDOCCreated with Sketch.DOC Error Created with Sketch.
Frage

Nouvel OS disponible : Proxmox Virtual Environment (VE) 9

Von
le_sbraz
Beitragender
Erstellungsdatum 2025-08-27 15:23:24 in Serveurs dédiés

Bonjour,

Nous venons d'ajouter un OS au catalogue bare metal : Proxmox Virtual VE 9, basé sur Debian 13 (Trixie). C'est la première version de Proxmox pour laquelle nous activons par défaule  ZFS sur la partition de données.


N'hésitez pas à consulter les release notes de l'éditeur pour plus d'informations.


6 Antworten ( Latest reply on 2025-11-03 16:40:28 Von
le_sbraz
)

Hello @le_sbraz 

Je te remercie pour le partage d'informations à la communauté.

^FabL

Bonjour @le_sbraz  

Petite question car je n'ai pas trouvé l'info dans les docs qui doivent peut être changer avec le ZFS par defaut. J'ai un advance 1 avec 4 disques de 960G, la question que je me pose dans l'interface de partition de l'installation initiale est ce que l'on doit mettre cette nouvelle partition ZFS en RAID 1 ou RAID 0 sachant qu'après on va faire du stripped mirror sur les 4 disques pour faire un RAID10?

Merci pour le retour car cela n'est pas encore très clair pour moi!

  • Screenshot 2025-10-31 at 11.23.40.jpg 39.82K

Bonjour @HenriL2,

Je viens de découvrir qu'on ne supportait pas le RAID10 avec ZFS, je pensais qu'on convertissait déjà ça en une pool avec mirror + striped vdev. Je vais voir si c'est compliqué à supporter pour que ça fonctionne nativement.

En attendant, vous pouvez mettre n'importe quel niveau de RAID sur la partition que vous allez créer, donnez-lui simplement un nom de pool différent. Une fois l'installation terminée, vous pourrez détruire la pool et reprendre les partitions sur laquelle elle était créée pour en faire une nouvelle.

Je lancer une install pour tester ça et je reviens vers vous avec les commandes.

Top @le_sbraz effectivement cela plante avec le RAID10 ce qui n'est pas logique en fait ;)

J'attends votre retour pour faire l'installation dans ce cas!

 

Merci encore pour cette réactivité

Voilà ce que ça donne en supprimant la pool et le dataset montés dans /var/lib/vz et en recréant en une sorte de "RAID10" avec ZFS :

root@ns1234:~# lsblk
NAME    MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
sda       8:0    0 447.1G  0 disk  
sdb       8:16   0 447.1G  0 disk  
sdc       8:32   0  12.7T  0 disk  
├─sdc1    8:33   0   511M  0 part  
├─sdc2    8:34   0     1G  0 part  
│ └─md2   9:2    0  1022M  0 raid1 /boot
├─sdc3    8:35   0    20G  0 part  
│ └─md3   9:3    0    20G  0 raid1 /
├─sdc4    8:36   0     1G  0 part  [SWAP]
├─sdc5    8:37   0  12.7T  0 part  
└─sdc6    8:38   0     1M  0 part  
sdd       8:48   0  12.7T  0 disk  
├─sdd1    8:49   0   511M  0 part  
├─sdd2    8:50   0     1G  0 part  
│ └─md2   9:2    0  1022M  0 raid1 /boot
├─sdd3    8:51   0    20G  0 part  
│ └─md3   9:3    0    20G  0 raid1 /
├─sdd4    8:52   0     1G  0 part  [SWAP]
└─sdd5    8:53   0  12.7T  0 part  
sde       8:64   0  12.7T  0 disk  
├─sde1    8:65   0   511M  0 part  
├─sde2    8:66   0     1G  0 part  
│ └─md2   9:2    0  1022M  0 raid1 /boot
├─sde3    8:67   0    20G  0 part  
│ └─md3   9:3    0    20G  0 raid1 /
├─sde4    8:68   0     1G  0 part  [SWAP]
└─sde5    8:69   0  12.7T  0 part  
sdf       8:80   0  12.7T  0 disk  
├─sdf1    8:81   0   511M  0 part  /boot/efi
├─sdf2    8:82   0     1G  0 part  
│ └─md2   9:2    0  1022M  0 raid1 /boot
├─sdf3    8:83   0    20G  0 part  
│ └─md3   9:3    0    20G  0 raid1 /
├─sdf4    8:84   0     1G  0 part  [SWAP]
└─sdf5    8:85   0  12.7T  0 part  
sr0      11:0    1  1024M  0 rom   
root@ns1234:~# zpool status -L
  pool: data
 state: ONLINE
config:

	NAME        STATE     READ WRITE CKSUM
	data        ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    sdc5    ONLINE       0     0     0
	    sdd5    ONLINE       0     0     0
	    sde5    ONLINE       0     0     0
	    sdf5    ONLINE       0     0     0

errors: No known data errors
root@ns1234:~# zpool destroy data
# Les services Proxmox créent des dossiers vides dans /var/lib/vz donc je fais le zpool create immédiatement après nettoyage
root@ns1234:~# find /var/lib/vz -empty -print -delete && zpool create -O acltype=posixacl -O compression=off -O recordsize=128K -O xattr=sa -o ashift=12 -o autoexpand=off -o autoreplace=off -o compatibility=openzfs-2.3 -m /var/lib/vz data mirror /dev/sdc5 /dev/sdd5 mirror /dev/sde5 /dev/sdf5
/var/lib/vz/images
/var/lib/vz/dump
/var/lib/vz/snippets
/var/lib/vz/private
/var/lib/vz/template/cache
/var/lib/vz/template/iso
/var/lib/vz/template
/var/lib/vz
root@ns1234:~# zpool status -L
  pool: data
 state: ONLINE
config:

	NAME        STATE     READ WRITE CKSUM
	data        ONLINE       0     0     0
	  mirror-0  ONLINE       0     0     0
	    sdc5    ONLINE       0     0     0
	    sdd5    ONLINE       0     0     0
	  mirror-1  ONLINE       0     0     0
	    sde5    ONLINE       0     0     0
	    sdf5    ONLINE       0     0     0

errors: No known data errors
root@ns1234:~# lsblk
NAME    MAJ:MIN RM   SIZE RO TYPE  MOUNTPOINTS
sda       8:0    0 447.1G  0 disk  
sdb       8:16   0 447.1G  0 disk  
sdc       8:32   0  12.7T  0 disk  
├─sdc1    8:33   0   511M  0 part  
├─sdc2    8:34   0     1G  0 part  
│ └─md2   9:2    0  1022M  0 raid1 /boot
├─sdc3    8:35   0    20G  0 part  
│ └─md3   9:3    0    20G  0 raid1 /
├─sdc4    8:36   0     1G  0 part  [SWAP]
├─sdc5    8:37   0  12.7T  0 part  
└─sdc6    8:38   0     1M  0 part  
sdd       8:48   0  12.7T  0 disk  
├─sdd1    8:49   0   511M  0 part  
├─sdd2    8:50   0     1G  0 part  
│ └─md2   9:2    0  1022M  0 raid1 /boot
├─sdd3    8:51   0    20G  0 part  
│ └─md3   9:3    0    20G  0 raid1 /
├─sdd4    8:52   0     1G  0 part  [SWAP]
└─sdd5    8:53   0  12.7T  0 part  
sde       8:64   0  12.7T  0 disk  
├─sde1    8:65   0   511M  0 part  
├─sde2    8:66   0     1G  0 part  
│ └─md2   9:2    0  1022M  0 raid1 /boot
├─sde3    8:67   0    20G  0 part  
│ └─md3   9:3    0    20G  0 raid1 /
├─sde4    8:68   0     1G  0 part  [SWAP]
└─sde5    8:69   0  12.7T  0 part  
sdf       8:80   0  12.7T  0 disk  
├─sdf1    8:81   0   511M  0 part  /boot/efi
├─sdf2    8:82   0     1G  0 part  
│ └─md2   9:2    0  1022M  0 raid1 /boot
├─sdf3    8:83   0    20G  0 part  
│ └─md3   9:3    0    20G  0 raid1 /
├─sdf4    8:84   0     1G  0 part  [SWAP]
└─sdf5    8:85   0  12.7T  0 part  
sr0      11:0    1  1024M  0 rom   
root@ns1234:~# df -h /var/lib/vz/
Filesystem      Size  Used Avail Use% Mounted on
data             26T  128K   26T   1% /var/lib/vz