Aller au contenu
Virtualisation medium

Proxmox VE : comprendre l'architecture (mental model)

16 min de lecture

Logo Proxmox

Proxmox VE organise vos ressources autour de 4 piliers : nœuds, cluster, stockage et réseau. Avant de créer votre première VM, comprendre cette architecture vous évitera des erreurs de conception et facilitera vos futures évolutions (haute disponibilité, migration, backup). Ce guide s’adresse aux débutants qui découvrent Proxmox ou la virtualisation. À la fin, vous saurez naviguer dans l’interface et comprendre comment les différents composants interagissent.

Proxmox VE n’est pas un simple logiciel de virtualisation — c’est une plateforme complète qui gère :

  • des machines virtuelles (VM),
  • des conteneurs (CT),
  • du stockage (local ou partagé),
  • du réseau (bridges, VLAN),
  • des utilisateurs et permissions.

Sans comprendre comment ces éléments s’articulent, vous risquez de :

  • créer des VM au mauvais endroit (mauvais stockage),
  • avoir des problèmes réseau difficiles à diagnostiquer,
  • ne pas pouvoir migrer vos VM vers un autre serveur,
  • perdre des données faute de stratégie de backup cohérente.

Le mental model, c’est la carte qui vous permet de naviguer dans Proxmox sans vous perdre.

Voici comment Proxmox organise vos ressources :

PilierCe que c’estAnalogie
NœudUn serveur physique avec Proxmox installéUne maison autonome
ClusterPlusieurs nœuds avec config partagéeUn plan de ville partagé + règles communes
StockageLà où sont stockés les disques des VM/CTLes placards (locaux) ou entrepôts (partagés)
RéseauComment les VM/CT communiquentLes routes et ponts du quartier

Architecture Proxmox : nœud, cluster, stockage, réseau

Un nœud Proxmox est un serveur physique (ou parfois une VM de test) sur lequel Proxmox VE est installé. C’est l’unité de base de la plateforme.

  • Exécute les VM et conteneurs
  • Fournit les ressources CPU, RAM, stockage local
  • Héberge l’interface web d’administration (port 8006)
  • Gère son propre réseau (bridges)

Même avec un seul nœud, vous pouvez :

  • créer des dizaines de VM et conteneurs,
  • configurer plusieurs réseaux virtuels,
  • faire des snapshots et backups,
  • gérer plusieurs utilisateurs avec des droits différents.

Dans l’interface web Proxmox, les nœuds apparaissent sous “Datacenter” dans le panneau de gauche :

Datacenter
└── proxmox1 (node) ← Votre nœud
├── VM 100
├── VM 101
└── CT 200

Le nom du nœud est défini à l’installation (souvent le hostname du serveur).

Un cluster Proxmox est un groupe de nœuds qui partagent une configuration commune et peuvent coopérer.

Sans clusterAvec cluster
Chaque nœud est isoléConfiguration partagée
Pas de migration entre nœudsMigration à chaud possible
Pas de haute disponibilitéHA automatique
Gestion nœud par nœudVue unifiée “Datacenter”

Un cluster Proxmox repose sur deux composants clés :

ComposantRôle
CorosyncProtocole de communication entre nœuds (heartbeat, votes)
pmxcfsSystème de fichiers distribué qui stocke la configuration

Corosync assure la communication entre les nœuds. Il envoie des “heartbeats” pour vérifier que chaque nœud est en vie et gère le quorum — le vote qui détermine si le cluster peut fonctionner.

pmxcfs (Proxmox Cluster File System) est un système de fichiers virtuel monté sur /etc/pve. C’est une base de données SQLite répliquée en temps réel sur tous les nœuds via Corosync.

Ce que contient /etc/pve :

  • Configuration des VM et conteneurs (nodes/<node>/qemu-server/, nodes/<node>/lxc/)
  • Stockages, réseaux, utilisateurs, permissions
  • Certificats SSL du cluster

Le quorum garantit qu’un cluster ne se “divise” pas en deux parties indépendantes (split-brain). Pour fonctionner, plus de 50% des votes doivent être disponibles.

ConfigurationVotes totauxMajorité requisePannes tolérées
2 nœuds220 ⚠️
3 nœuds321
4 nœuds431
5 nœuds532
2 nœuds + QDevice321 ✅

Un QDevice est un service externe qui fournit un vote supplémentaire au cluster, sans héberger de VM. C’est la solution idéale pour un cluster 2 nœuds.

Comment ça marche :

  • Sur une machine tierce (VM, Raspberry Pi, serveur Linux léger), vous installez corosync-qnetd
  • Sur chaque nœud Proxmox, vous installez corosync-qdevice
  • Le QDevice vote pour maintenir le quorum si un nœud tombe

Prérequis :

  • Port 5403/tcp ouvert entre les nœuds et le QDevice
  • Le QDevice doit être sur un réseau fiable et accessible
  • Ne pas héberger le QDevice sur l’un des nœuds Proxmox (sinon aucun intérêt)
SituationRecommandation
Budget limité, 2 serveurs max✅ 2 nœuds + QDevice
3+ serveurs disponiblesPréférez un vrai 3ème nœud
Homelab sur un seul serveurPas de cluster, nœud seul

Corosync n’a pas besoin de beaucoup de bande passante, mais exige une latence faible et stable.

CritèreExigence
Bande passante100 Mbps suffisent (1 Gbps recommandé)
Latence< 5 ms idéal, instable au-delà de 10-30 ms
StabilitéCorosync est sensible au jitter (variations de latence)
Réseau dédiéFortement recommandé (VLAN ou interface séparée)
SituationRecommandation
Homelab / TestsNœud seul
Petite prod sans criticitéNœud seul + backups réguliers
Besoin de migration à chaudCluster obligatoire
Haute disponibilité requiseCluster 3+ nœuds (ou 2 + QDevice)

Le stockage dans Proxmox désigne l’endroit où sont enregistrés :

  • les disques virtuels des VM,
  • les systèmes de fichiers des conteneurs,
  • les templates et ISO,
  • les backups.

Proxmox supporte de nombreux backends de stockage :

TypeUsagePartage possible
DirectoryDossier sur le disque localNon
LVM-thinVolumes logiques avec thin provisioningNon
ZFSSystème de fichiers avancé (snapshots, compression)Non
NFSPartage réseau (serveur NAS)Oui
iSCSIStockage bloc via réseauOui
CephStockage distribué intégré à ProxmoxOui

Stockage local : chaque nœud a son propre espace. Simple, performant, mais les VM ne peuvent pas migrer vers un autre nœud.

Stockage partagé : tous les nœuds accèdent au même espace (NFS, Ceph, iSCSI). Obligatoire pour la migration à chaud et la HA (haute disponibilité).

Architecture de stockage partagé Proxmox avec deux nœuds accédant à un stockage NFS commun

Proxmox distingue ce qu’un stockage peut contenir :

Content typeCe que c’est
imagesDisques de VM
rootdirSystèmes de fichiers CT
isoImages ISO d’installation
vztmplTemplates de conteneurs
backupFichiers de sauvegarde
snippetsScripts cloud-init, hooks

Un stockage peut être configuré pour accepter certains types seulement. Par exemple : un NFS dédié aux backups.

C’est l’erreur n°1 des débutants Proxmox. Les deux servent à “sauvegarder”, mais pas de la même façon :

CritèreSnapshotBackup
Où ?Sur le même stockage que la VMSur un stockage séparé (idéalement distant)
Quoi ?État instantané (delta)Copie complète exportable
VitesseInstantanéMinutes à heures
Impact perf⚠️ Dégrade les I/O si conservé longtempsAucun après la copie
RestaurationRollback rapideRestore sur n’importe quel nœud
Cas d’usageTest avant mise à jour, debugSauvegarde 3-2-1, PRA, migration

Le réseau dans Proxmox connecte vos VM et conteneurs au monde extérieur (ou les isole).

Un bridge (pont) est un commutateur virtuel qui relie les VM au réseau physique. Par défaut, Proxmox crée vmbr0 relié à votre interface réseau principale.

Topologie réseau Proxmox avec bridge vmbr0 connectant les VM et conteneurs à Internet

Chaque VM/CT connectée à vmbr0 reçoit une IP du même réseau que l’hôte Proxmox (via DHCP ou configuration statique).

Pour isoler des groupes de VM (prod vs dev, front vs back), vous pouvez utiliser des VLAN (Virtual LAN) :

VLANUsagePlage IP
VLAN 10Production192.168.10.0/24
VLAN 20Développement192.168.20.0/24
VLAN 30Management192.168.30.0/24

Les VLAN nécessitent un switch physique compatible et une configuration côté Proxmox.

Proxmox propose deux types de workloads : les VM KVM et les conteneurs LXC.

Une VM est un ordinateur virtuel complet avec son propre noyau, son BIOS/UEFI, ses drivers.

Avantages :

  • Isolation totale (sécurité maximale)
  • N’importe quel OS (Windows, BSD, Linux…)
  • Compatible avec les applications legacy

Inconvénients :

  • Consomme plus de ressources (RAM, CPU)
  • Démarrage plus lent
  • Overhead de virtualisation

Un conteneur partage le noyau Linux de l’hôte Proxmox. C’est une isolation au niveau du système d’exploitation.

Avantages :

  • Très léger (démarre en secondes)
  • Peu d’overhead (quasi-natif)
  • Idéal pour les services Linux

Inconvénients :

  • Linux uniquement
  • Isolation moins forte qu’une VM
  • Certaines applications incompatibles
CritèreVM KVMConteneur LXC
OS Windows✅ Oui❌ Non
Isolation forte✅ Oui⚠️ Partielle
PerformanceBonne✅ Excellente
Consommation RAMÉlevée✅ Faible
Temps de démarrage~30s✅ ~2s
Cas d’usageApps critiques, Windows, legacyServices Linux, dev, CI/CD

L’interface web Proxmox (port 8006) est organisée en 3 zones :

Layout de l'interface web Proxmox avec en-tête, arbre de ressources, zone de contenu et barre de tâches

NiveauCe que vous y configurezExemples
DatacenterPolitiques globalesUsers, permissions, HA, storages partagés, options cluster
NodeRessources physiquesDisques locaux, réseau, mises à jour, certificats SSL
VM/CTWorkload individuelCPU/RAM, disques virtuels, réseau, snapshots, backup, console
  1. Un nœud = un serveur Proxmox autonome. Suffisant pour débuter.
  2. Un cluster = plusieurs nœuds qui coopèrent. Nécessaire uniquement pour HA/migration.
  3. Le stockage local est simple et performant. Le stockage partagé est requis pour la migration à chaud.
  4. Le bridge vmbr0 connecte vos VM au réseau. Les VLAN ajoutent de l’isolation.
  5. VM KVM = isolation forte, tout OS. Conteneur LXC = léger, Linux uniquement.
  6. En cas de doute : un seul nœud, stockage local, VM KVM. Complexifiez ensuite.

Roadmap recommandée : Installer → Première VM → Backups → Réseau avancé → Cluster

Ce site vous est utile ?

Sachez que moins de 1% des lecteurs soutiennent ce site.

Je maintiens +700 guides gratuits, sans pub ni tracing. Aujourd'hui, ce site ne couvre même pas mes frais d'hébergement, d'électricité, de matériel, de logiciels, mais surtout de cafés.

Un soutien régulier, même symbolique, m'aide à garder ces ressources gratuites et à continuer de produire des guides de qualité. Merci pour votre appui.