Guide Complet Proxmox
📚 Sommaire
- Introduction Proxmox VE
- Caractéristiques et Avantages
- Prérequis Matériels
- Installation Proxmox VE 9
- Première Connexion
- Mises à Jour Système
- Importation Images ISO
- Création Machines Virtuelles
- Gestion Permissions
- Clustering & Haute Dispo
- Stockage Distribué Ceph
- Conteneurs LXC
- Automatisation IaC
- Migration VMware
- Troubleshooting
- Bonnes Pratiques
- Conclusion
1. Introduction : Proxmox VE, L'Alternative Open-Source de Référence
Dans le paysage en mutation de la virtualisation d'entreprise, marqué par les récents bouleversements chez VMware (rachat par Broadcom, changements de licensing), Proxmox Virtual Environment (Proxmox VE) s'impose comme l'alternative open-source mature et performante de référence.
Proxmox VE n'est pas un simple hyperviseur : c'est une plateforme complète de gestion d'infrastructure virtuelle qui combine puissance enterprise, flexibilité technique et maîtrise des coûts. Basée sur Debian 12 Bookworm et le kernel Linux 6.8, elle intègre nativement deux technologies de virtualisation complémentaires :
- KVM (Kernel-based Virtual Machine) : virtualisation complète avec émulation matérielle pour tout type d'OS (Linux, Windows, BSD)
- LXC (Linux Containers) : conteneurs système légers pour applications Linux natives avec performances optimales
Cette architecture hybride offre une flexibilité unique : déployez des VMs traditionnelles pour systèmes hétérogènes tout en bénéficiant de la légèreté des conteneurs pour vos workloads cloud-native.
💡 Chiffres Clés Proxmox VE
- 500 000+ serveurs déployés dans le monde
- Licence AGPLv3 : open-source libre, pas de vendor lock-in
- Utilisé par des PME aux multinationales, établissements enseignement/recherche
- Communauté active : forum 500k+ messages, développement continu
- Support entreprise optionnel disponible pour besoins critiques
2. Caractéristiques et Avantages de Proxmox VE 9
Architecture Technique Moderne
Proxmox VE 9 repose sur une base technique robuste et éprouvée :
- Debian 12 "Bookworm" : distribution stable avec support long terme (LTS)
- Kernel Linux 6.8 : support matériel récent, optimisations performances
- QEMU/KVM 8.1 : virtualisation hardware-assisted hautes performances
- ZFS et Ceph natifs : systèmes fichiers avancés avec snapshots, déduplication, réplication
- Interface web réactive : gestion complète via navigateur (HTML5/JavaScript moderne)
- API REST complète : automatisation infrastructure as code (Terraform, Ansible)
Fonctionnalités Enterprise Sans Licensing
Contrairement aux solutions propriétaires, Proxmox VE offre toutes les fonctionnalités enterprise sans restrictions artificielles :
- Haute Disponibilité (HA) : failover automatique des VMs sur panne nœud
- Live Migration : déplacement VMs à chaud entre nœuds sans interruption
- Clustering jusqu'à 32 nœuds : gestion centralisée infrastructure distribuée
- Stockage distribué Ceph : résilience données avec réplication 3x
- Snapshots et Backups : protection données intégrée, planification automatique
- Firewall par VM : isolation réseau granulaire au niveau hyperviseur
- Authentification centralisée : intégration LDAP/Active Directory, 2FA
- Templates et Cloud-Init : provisioning rapide VMs pré-configurées
- Console intégrée : accès noVNC/SPICE sans outils tiers
✅ Avantages Compétitifs vs Solutions Propriétaires
- Coût Total de Possession (TCO) réduit : pas de licensing par socket/VM, support optionnel uniquement
- Pas de vendor lock-in : format QEMU standard, export/import faciles
- Mises à jour gratuites : nouvelles fonctionnalités sans surcoût
- Transparence code source : auditabilité sécurité complète
- Flexibilité déploiement : on-premise, edge computing, homelab
- Écosystème riche : intégrations Terraform, Ansible, Puppet, Salt
3. Prérequis Matériels et Logiciels
Configuration Minimale (Tests/Lab)
- Processeur : CPU 64 bits avec support virtualisation matérielle
- Intel : Intel VT-x (vérifier :
egrep -c '(vmx)' /proc/cpuinfo) - AMD : AMD-V (vérifier :
egrep -c '(svm)' /proc/cpuinfo)
- Intel : Intel VT-x (vérifier :
- RAM : 2 GB minimum absolu (4 GB recommandé pour tests)
- Stockage : 32 GB minimum (SSD fortement recommandé)
- Réseau : Carte Ethernet 1 Gbps minimum
Configuration Production Recommandée
Pour environnement production avec 20-50 VMs :
- Processeur : Intel Xeon ou AMD EPYC multi-cœurs (8+ cores)
- Ratio recommandé : 1 core physique pour 4-8 vCPUs (selon workload)
- Privilégier fréquence élevée pour VMs single-threaded
- RAM : 32 GB minimum, 64-128 GB optimal
- Laisser 2-4 GB pour host Proxmox
- 1 GB RAM = ~10 conteneurs LXC ou 2-3 VMs légères
- Support ECC recommandé pour intégrité données
- Stockage :
- OS : 2x SSD 120-240 GB en RAID 1 (miroir)
- VMs : SSD NVMe (performances I/O critiques) ou SAS 10-15k RPM
- Backups : HDD SATA haute capacité (NAS/SAN externe)
- Réseau :
- 2x 10 Gbps en bonding (LACP) pour production critique
- VLANs : séparation management / VM / stockage Ceph / migration
⚠️ Points de Vigilance Pré-Installation
- Virtualisation activée BIOS/UEFI : VT-x/AMD-V, VT-d/IOMMU (pour passthrough GPU/réseau)
- IP fixe disponible : pour interface management Proxmox (pas de DHCP production)
- Sauvegarde données existantes : installation efface intégralement disque cible
- Support matériel vérifié : consulter HCL Proxmox/Debian pour compatibilité RAID/réseau
- Accès IPMI/iLO/iDRAC : pour gestion à distance (console virtuelle, power management)
Téléchargement ISO Officielle
Récupérer ISO Proxmox VE depuis site officiel : proxmox.com/downloads
- Version actuelle : Proxmox VE 9 (basée Debian 12.8)
- Taille ISO : ~1.2 GB
- Somme contrôle : vérifier SHA256 pour intégrité téléchargement
4. Installation Proxmox VE 9 Pas à Pas
Préparation Média d'Installation
Création clé USB bootable (méthode recommandée) :
- Windows : Rufus (mode DD ou ISO), balenaEtcher
- Linux :
dd if=proxmox-ve_8.4.iso of=/dev/sdX bs=1M status=progress - macOS : balenaEtcher ou commande dd via Terminal
Installation via IPMI/iLO (serveurs dédiés) : monter ISO virtuel depuis interface BMC pour installation distante.
Étape 1 : Boot et Sélection Mode Installation
- Démarrer serveur sur USB/ISO
- Écran boot : sélectionner "Install Proxmox VE (Graphical)"
- Alternative : mode texte, debug, rescue system
- Chargement installateur (30-60 secondes)
Étape 2 : Acceptation EULA
Lire licence End User License Agreement (EULA) et cocher "I agree" pour continuer.
Étape 3 : Sélection Disque et Configuration Stockage
Disque cible : sélectionner disque système (toutes données seront effacées).
Options avancées (bouton "Options") :
- Filesystem :
ext4: simple, stable, performances correctesxfs: performances élevées fichiers volumineuxzfs (RAID0): snapshots, compression, 1 disquezfs (RAID1): miroir 2 disques, résiliencezfs (RAID10): 4+ disques, performances + résiliencezfs (RAIDZ-1/2/3): parité distribuée, efficacité stockage
- hdsize : taille partition système (laisser espace pour données si nécessaire)
- swapsize : taille swap (par défaut : min(RAM, 8GB))
- maxroot : taille partition root (reste = /var/lib/vz pour VMs)
💡 Recommandations Filesystem Production
- ZFS RAID1 (2 SSD miroir) : optimal serveur standalone (snapshots + résilience)
- ext4 sur RAID hardware : si contrôleur RAID dédié présent
- ZFS RAIDZ2 (6+ disques) : cluster avec stockage local conséquent
- ext4 minimal si stockage externe (Ceph, NFS, iSCSI) prévu
Étape 4 : Configuration Régionale
Paramètres localisation :
- Country : France
- Time zone : Europe/Paris
- Keyboard Layout : French (fr)
Étape 5 : Mot de Passe Administrateur
Définir credentials root :
- Password : mot de passe root robuste
- Minimum 16 caractères recommandé
- Mix majuscules/minuscules/chiffres/symboles
- Éviter mots dictionnaire, infos personnelles
- Confirm : répéter mot de passe
- Email : adresse admin (notifications système, alertes)
- Utilisée pour notifications SMTP (updates, warnings, erreurs)
🔐 Sécurité Mot de Passe Root
Le compte root a accès total au système. Utilisez gestionnaire mots de passe (KeePass, Bitwarden) pour générer/stocker credentials complexes. En production, désactiver login root SSH et utiliser comptes nominatifs + sudo.
Étape 6 : Configuration Réseau Management
Paramètres réseau critiques :
- Management Interface : carte réseau principale (généralement en0/eno1)
- Devient bridge
vmbr0après installation
- Devient bridge
- Hostname (FQDN) : nom complet serveur
- Format :
proxmox01.domaine.local - Obligatoirement FQDN (avec point), pas juste hostname
- Utilisé pour clustering, certificats SSL
- Format :
- IP Address (CIDR) : adresse IP fixe avec masque
- Exemple :
192.168.1.100/24 - JAMAIS DHCP en production (cause instabilité cluster)
- Exemple :
- Gateway : passerelle réseau (ex:
192.168.1.1) - DNS Server : serveur DNS (ex:
1.1.1.1ou DNS interne)- Important pour résolution noms dans cluster
Étape 7 : Récapitulatif et Validation
Vérifier soigneusement tous paramètres affichés :
- Disque cible correct (risque perte données)
- Configuration réseau valide (IP/masque/gateway cohérents)
- Hostname FQDN respecté
Si tout est correct : cliquer "Install".
Durée installation : 5-10 minutes selon performances disque (SSD ~3 min, HDD ~8 min).
Étape 8 : Finalisation et Premier Boot
À fin installation :
- Message "Installation successful" affiché
- Retirer média installation (USB/ISO)
- Cliquer "Reboot"
- Serveur redémarre sur Proxmox VE fraîchement installé
Écran démarrage affiche :
- IP management configurée
- URL accès web interface :
https://IP:8006 - Prompt login console (utilisation avancée uniquement)
5. Première Connexion et Découverte Interface
Accès Interface Web
Depuis poste client (même réseau) :
- Ouvrir navigateur moderne (Chrome, Firefox, Edge, Safari)
- Accéder URL :
https://ADRESSE_IP:8006- Exemple :
https://192.168.1.100:8006
- Exemple :
- Avertissement certificat SSL : normal (certificat auto-signé initial)
- Chrome : "Your connection is not private" > Advanced > Proceed
- Firefox : "Warning: Potential Security Risk" > Advanced > Accept Risk
Authentification Initiale
Écran login Proxmox VE :
- Username :
root - Password : mot de passe défini installation
- Realm :
Linux PAM standard authentication- Authentification locale système (par défaut)
- Autres options si configurées : Proxmox VE, LDAP, AD
- Language : English (meilleure documentation) ou Français
Cliquer "Login".
Popup "No Valid Subscription"
Au premier login, popup apparaît :
"You do not have a valid subscription for this server. Please visit www.proxmox.com to get a list of available options."
C'est normal et attendu pour version communautaire gratuite. Cliquer "OK" pour continuer.
💡 Comprendre Modèle Licensing Proxmox
- Version Communautaire (gratuite) :
- Toutes fonctionnalités disponibles sans restriction
- Dépôt pve-no-subscription (mises à jour communauté)
- Popup "no subscription" à chaque login (cosmétique)
- Support via forum communautaire
- Souscription Enterprise (payante) :
- Dépôt pve-enterprise (updates testés, stables)
- Pas de popup subscription
- Support professionnel email/téléphone
- Prix : ~100€/an/socket CPU
Tour de l'Interface Proxmox VE
L'interface web se divise en plusieurs zones :
1. Panneau Gauche - Arborescence Ressources :
- Datacenter : vue globale, configuration cluster
- Permissions, Storage, HA, Firewall, Backup
- Nœuds : serveurs Proxmox individuels
- Informations système, réseau, stockage local
- VMs (QEMU) : machines virtuelles (icône écran)
- Conteneurs (LXC) : conteneurs Linux (icône cube)
- Storage : espaces stockage configurés
2. Panneau Central - Contenu Dynamique :
- Dashboard métriques (CPU, RAM, stockage)
- Configuration selon élément sélectionné
- Console VMs/conteneurs
- Logs système
3. Panneau Droite - Tâches et Logs :
- Tâches en cours (migrations, backups)
- Historique tâches récentes
- Logs temps réel
4. Barre Supérieure - Actions Globales :
- Bouton "Create VM/CT" (création rapide)
- Recherche globale (ressources, VMs)
- Notifications
- Compte utilisateur (logout, settings)
6. Configuration Dépôts et Mises à Jour
Problématique Dépôts Enterprise
Par défaut, Proxmox configure dépôt pve-enterprise (réservé souscription payante). Sans souscription, erreurs lors apt update :
E: Failed to fetch https://enterprise.proxmox.com/... 401 Unauthorized
Solution : désactiver dépôt enterprise et activer dépôt no-subscription (gratuit).
Configuration via Interface Web
- Sélectionner nœud dans arborescence
- Aller : Updates > Repositories
- Localiser ligne
pve-enterprise:- Clic droit > "Disable"
- Status passe à "disabled" (grisé)
- Ajouter dépôt communautaire :
- Bouton "Add"
- Sélectionner : "No-Subscription"
- Confirmer
- Clic "Refresh" pour actualiser liste packages
Application Mises à Jour
Après refresh dépôts :
- Onglet "Updates" affiche packages disponibles
- Cliquer "Upgrade"
- Fenêtre terminal s'ouvre, exécute :
apt update && apt dist-upgrade - Suivre progression (téléchargement + installation)
- Si kernel mis à jour : redémarrage nécessaire
⚠️ Redémarrage Post-Update Kernel
Mise à jour kernel Linux ne prend effet qu'après reboot serveur. Planifier fenêtre maintenance pour redémarrage (migrations VMs sur autre nœud si cluster HA).
Alternative Shell (Ligne Commande)
Via bouton "Shell" dans interface ou SSH :
# Désactiver dépôt enterprise
echo "# deb https://enterprise.proxmox.com/debian/pve bookworm pve-enterprise" > /etc/apt/sources.list.d/pve-enterprise.list
# Ajouter dépôt no-subscription
echo "deb http://download.proxmox.com/debian/pve bookworm pve-no-subscription" > /etc/apt/sources.list.d/pve-no-subscription.list
# Mettre à jour
apt update && apt dist-upgrade -y
# Reboot si kernel updated
reboot
7. Importation Images ISO pour VMs
Méthode 1 : Upload via Interface Web
Pour installer systèmes exploitation dans VMs, uploader ISOs :
- Sélectionner nœud > Storage "local" > "ISO Images"
- Cliquer "Upload"
- Bouton "Select File" : choisir ISO local
- Attendre fin transfert (indicateur progression)
Méthode 2 : Téléchargement Direct URL
Proxmox peut télécharger ISOs directement depuis URLs :
- Bouton "Download from URL"
- Coller URL ISO (ex: miroir Ubuntu)
- Renseigner nom fichier, checksum (optionnel)
- Téléchargement serveur-side (plus rapide si bande passante serveur supérieure)
ISOs Recommandées Démarrage
Systèmes courants à tester :
- Ubuntu Server 24.04 LTS : distribution populaire, support long terme
- Debian 12 : base Proxmox, ultra-stable
- Rocky Linux 9 : clone RHEL gratuit (CentOS successeur)
- Windows Server 2022 : environnements Microsoft
- pfSense/OPNsense : firewall/routeur virtualisé
Méthode 3 : Copy Direct Shell (Avancé)
Si ISO déjà sur réseau local (NFS, CIFS) :
# Via SCP depuis poste distant
scp ubuntu-24.04-server.iso root@proxmox:/var/lib/vz/template/iso/
# Via wget sur serveur Proxmox
cd /var/lib/vz/template/iso/
wget https://releases.ubuntu.com/24.04/ubuntu-24.04-live-server-amd64.iso
ISOs stockées : /var/lib/vz/template/iso/
8. Création Première Machine Virtuelle
Lancement Assistant Création
Deux méthodes :
- Bouton "Create VM" en haut à droite
- Clic droit nœud > "Create VM"
Assistant multi-étapes s'ouvre.
Étape 1 : Général
- Node : nœud hébergeant VM (pré-sélectionné si 1 nœud)
- VM ID : identifiant unique (auto-incrémenté, ex: 100, 101...)
- Name : nom descriptif VM
- Convention :
env-role-os-##(ex:prod-web-ubuntu-01)
- Convention :
- Resource Pool : groupement logique (optionnel, utile grandes infras)
Cliquer "Next".
Étape 2 : OS
- Use CD/DVD disc image file (iso) :
- Storage :
local - ISO image : sélectionner ISO uploadée
- Storage :
- Guest OS :
- Type : Linux / Windows / Other
- Version : choisir variante (Linux 6.x kernel, Windows 11...)
Cliquer "Next".
Étape 3 : System
- Graphic card : Default (adapté majorité cas)
- Machine : q35 (moderne, recommandé)
- BIOS :
SeaBIOS: legacy, compatibilité OS anciensOVMF (UEFI): moderne, requis Windows 11, Secure Boot
- SCSI Controller : VirtIO SCSI single (performances optimales)
- Qemu Agent : ✅ Cocher impérativement
- Permet shutdown propre, sync disque, snapshot cohérents
- Installer qemu-guest-agent dans VM après installation OS
- Add TPM : si Secure Boot/Windows 11 (nécessite TPM 2.0)
Cliquer "Next".
Étape 4 : Disks
- Bus/Device : SCSI (si VirtIO SCSI choisi étape précédente)
- Storage : sélectionner pool stockage
local-lvm: LVM thin (performant, snapshots)local-zfs: ZFS (si configuré installation)- Ou Ceph/NFS si configurés
- Disk size (GiB) : taille disque VM
- Ubuntu Server minimal : 20 GB
- Windows Server : 60+ GB
- Production DB : 100-500 GB selon besoins
- Cache : Write back (performances) ou None (sécurité)
- Discard : ✅ cocher si SSD (TRIM support)
- SSD emulation : cocher si VM doit détecter SSD
Cliquer "Next".
Étape 5 : CPU
- Sockets : nombre sockets CPU virtuels (généralement 1)
- Cores : nombre cores par socket
- 1 socket × 2 cores = 2 vCPUs
- 2 sockets × 2 cores = 4 vCPUs
- Ratio recommandé : 1 core physique = 2-4 vCPUs (selon workload)
- Type :
host: passthrough CPU host (meilleures perfs, moins portable)kvm64: générique (compatible migration entre CPUs différents)x86-64-v2-AES: baseline moderne avec AES-NI
- CPU units : priorité scheduler (1024 = normal)
- Enable NUMA : pour VMs larges multi-sockets (8+ vCPUs)
Cliquer "Next".
Étape 6 : Memory
- Memory (MiB) : RAM allouée
- Ubuntu Server minimal : 2048 (2 GB)
- Usage standard : 4096-8192 (4-8 GB)
- Production DB/App : 16384+ (16+ GB)
- Minimum memory (MiB) : RAM min si ballooning activé
- Ballooning Device : ✅ activer
- Permet récupération RAM dynamique si VM sous-utilise
- Nécessite drivers ballooning dans guest
Cliquer "Next".
Étape 7 : Network
- Bridge :
vmbr0(bridge par défaut sur interface physique) - VLAN Tag : si segmentation réseau (ex: VLAN 10 pour prod, 20 pour dev)
- Model :
VirtIO (paravirtualized): performances maximales (recommandé)E1000: compatibilité legacy (3-5x plus lent)vmxnet3: VMware guests
- MAC address : auto-généré (modifier si besoins spécifiques)
- Firewall : ✅ activer pour sécurité réseau VM-level
- Multiqueue : égal nb vCPUs (optimise throughput multi-cœurs)
Cliquer "Next".
Étape 8 : Confirm
Récapitulatif configuration complète :
- Vérifier tous paramètres
- Options :
- ✅ "Start after created" : démarrage auto post-création
- ⬜ "Advanced" : afficher options avancées
Cliquer "Finish".
VM apparaît dans arborescence. Si "Start after created" coché, elle démarre automatiquement.
Installation OS dans VM
- Sélectionner VM dans arborescence
- Onglet "Console" (noVNC intégré)
- Écran boot ISO apparaît
- Suivre procédure installation OS normalement
✅ Post-Installation : Installer Qemu Guest Agent
Après installation OS dans VM, installer agent pour fonctionnalités avancées :
Ubuntu/Debian :
apt update && apt install qemu-guest-agent -y
systemctl enable --now qemu-guest-agent
RHEL/Rocky/AlmaLinux :
yum install qemu-guest-agent -y
systemctl enable --now qemu-guest-agent
Windows : télécharger VirtIO drivers ISO, installer "qemu-ga"
Agent permet : shutdown propre, freeze FS snapshots, récup IP/hostname depuis Proxmox.
9. Gestion Permissions et Utilisateurs
Modèle de Sécurité Proxmox
Proxmox utilise système RBAC (Role-Based Access Control) flexible :
- Users : comptes individuels (humains, services)
- Groups : regroupements utilisateurs (ex: admins, operators)
- Roles : ensembles privilèges prédéfinis
- Paths : périmètre application (/, /vms/100, /storage/local)
- Permissions : association User/Group + Role + Path
Formule : Permission = (User OU Group) + Role + Path
Rôles Prédéfinis
| Rôle | Description | Cas usage |
|---|---|---|
Administrator | Contrôle total système, gestion users | Admins infrastructure |
PVEAdmin | Admin VMs/stockage, SANS gestion users | Admins technique |
PVEVMAdmin | Gestion complète VMs/CTs uniquement | Admins virtualisation |
PVEVMUser | Utilisation VMs : start/stop/console | Utilisateurs finaux |
PVEAuditor | Lecture seule totale (audit) | Monitoring, conformité |
PVEDatastoreUser | Alloc disques, backups | Backup operators |
Création Utilisateur
Procédure :
- Datacenter > Permissions > Users
- Bouton "Add"
- Remplir formulaire :
- User name : identifiant (ex:
jdupont) - Realm :
pve: Proxmox VE (local, géré Proxmox)pam: Linux PAM (comptes système Linux)ad/ldap: si domaine configuré
- Group : optionnel, assigner à groupe
- Expire : date expiration compte (sécurité)
- First name / Last name / E-Mail : infos utilisateur
- Keys : clés SSH publiques (pour API tokens)
- User name : identifiant (ex:
- Cliquer "Add"
- Définir mot de passe : sélectionner user > "Password"
Attribution Permissions
Donner droits à utilisateur :
- Datacenter > Permissions
- Bouton "Add" > "User Permission"
- Formulaire :
- Path : scope permission
/: datacenter entier/vms: toutes VMs/vms/100: VM ID 100 uniquement/storage/local: stockage local
- User : sélectionner user créé
- Role : choisir rôle approprié
- Propagate : ✅ appliquer aux enfants (VMs sous path)
- Path : scope permission
- Cliquer "Add"
Exemple Pratique Permissions
Cas usage : Développeur accès VM dev uniquement
- Créer user
dev01@pve - Permission :
- Path :
/vms/101(VM dev) - User :
dev01@pve - Role :
PVEVMUser
- Path :
- User peut : start/stop/console VM 101, RIEN d'autre
Authentification Externe (LDAP/AD)
Intégration annuaire entreprise :
- Datacenter > Permissions > Realms
- Bouton "Add" > type :
- LDAP : OpenLDAP, FreeIPA
- Active Directory : domaine Windows
- OpenID Connect : SSO moderne
- Configuration selon type (server, base DN, bind credentials)
- Sync users/groups automatique
Two-Factor Authentication (2FA)
Sécuriser comptes admin avec TOTP :
- User > "TFA"
- Type : TOTP (Time-based OTP)
- Scanner QR code avec app (Google Authenticator, Authy)
- Valider avec code généré
- Login suivant : password + code TOTP 6 chiffres
10. Clustering et Haute Disponibilité
Qu'est-ce qu'un Cluster Proxmox ?
Un cluster Proxmox VE permet de grouper 3 à 32 nœuds pour gestion centralisée, migration live VMs, et haute disponibilité automatique.
Avantages clustering :
- Gestion unifiée : 1 interface pour tout le cluster
- Live migration : déplacement VMs sans interruption
- HA (High Availability) : redémarrage auto VMs si nœud fail
- Stockage partagé : Ceph, NFS, iSCSI centralisés
- Mises à jour rolling : update nœud par nœud sans downtime
Prérequis Cluster
- Nombre nœuds : minimum 3 (quorum = majorité)
- 2 nœuds possible avec
qdevice(quorum device externe) - Nombre impair recommandé (3, 5, 7) pour split-brain protection
- 2 nœuds possible avec
- Réseau dédié cluster :
- Latence < 5ms (LAN requis, pas WAN)
- Bande passante 1 Gbps minimum (10 Gbps recommandé)
- Réseau séparé migration/corosync pour performances
- Synchronisation temps : NTP strict (dérive < 1s)
- Versions identiques : même version Proxmox sur tous nœuds
- Stockage partagé : Ceph, NFS, iSCSI (pour HA et migration)
Création Cluster - Procédure
Nœud 1 (master) - Créer cluster :
- Datacenter > Cluster
- Bouton "Create Cluster"
- Renseigner :
- Cluster Name : nom unique (ex:
pve-cluster-prod) - Link 0 : IP réseau cluster nœud 1
- Cluster Name : nom unique (ex:
- Cliquer "Create"
- Récupérer "Join Information" (token temporaire)
Nœuds 2-N - Rejoindre cluster :
- Sur chaque nœud : Datacenter > Cluster
- Bouton "Join Cluster"
- Coller Join Information du nœud 1
- Renseigner :
- Password : mot de passe root nœud 1
- Link 0 : IP réseau cluster nœud actuel
- Cliquer "Join"
- Attendre synchronisation (1-2 min)
Vérification cluster :
# Sur n'importe quel nœud
pvecm status
# Output attendu :
# Cluster information
# Name: pve-cluster-prod
# Config Version: 3
# Nodes: 3
# Quorum: Online
Haute Disponibilité (HA) Configuration
Activer failover automatique VMs :
- Datacenter > HA
- Onglet Resources > "Add"
- Sélectionner VM à protéger
- Paramètres :
- State :
started(maintenir démarrée) - Max. Restart : 3 (tentatives redémarrage)
- Max. Relocate : 3 (migrations si échec)
- Group : affinité nœuds (optionnel)
- State :
Test failover :
- Arrêt brutal nœud hébergeant VM HA :
reboot -f - Cluster détecte perte nœud (~30s)
- Fencing activé (isolation nœud défaillant)
- VM redémarre sur nœud sain (~60-90s)
- RTO total : 2-3 minutes
11. Stockage Distribué avec Ceph
Ceph : Stockage Résilient Intégré
Ceph est système stockage distribué open-source intégré nativement Proxmox :
- Réplication N-way : données dupliquées sur N nœuds (généralement 3)
- Self-healing : reconstruction auto en cas panne disque/nœud
- Scalabilité linéaire : ajout capacité/performance = ajout nœuds
- Pools multiples : SSD pour VMs, HDD pour backups
- RBD (RADOS Block Device) : disques VMs natifs
Architecture Ceph Proxmox
Composants Ceph :
- MON (Monitor) : maintient carte cluster (quorum, minimum 3)
- OSD (Object Storage Daemon) : 1 par disque, stocke données
- MGR (Manager) : métriques, dashboard, orchestration
- MDS (Metadata Server) : pour CephFS uniquement (optionnel)
Configuration recommandée :
- Minimum : 3 nœuds × 3 OSDs (9 disques total)
- Production : 5 nœuds × 6-12 OSDs
- Réseau dédié 10+ Gbps : séparé trafic VM
- SSD pour VMs, HDD pour archives/backups
Installation Ceph via Proxmox
- Installer packages Ceph (tous nœuds) :
- Datacenter > Node > Ceph > "Install"
- Sélectionner version (Reef recommandée pour PVE 8.x)
- Créer cluster Ceph initial (nœud 1) :
- Configuration > "Create"
- Réseau public : réseau cluster Proxmox
- Réseau cluster : réseau dédié Ceph (si séparé)
- Créer Monitors (3+ nœuds) :
- Chaque nœud : Monitor > "Create"
- Créer Managers (2+ nœuds) :
- Manager > "Create"
- Créer OSDs (chaque disque) :
- OSD > "Create OSD"
- Sélectionner disque disponible
- Optionnel : DB/WAL SSD séparé (performances)
- Créer Pool stockage VMs :
- Pools > "Create"
- Name :
rbd-vms - Size : 3 (3 réplicas)
- Min_size : 2 (tolère 1 nœud down)
- PG Num : auto-calculé (généralement 128-256)
- Ajouter storage Proxmox :
- Datacenter > Storage > "Add" > RBD
- Pool :
rbd-vms - Monitors : IPs MONs Ceph
- Content : Disk image, Container
Avantages Ceph Production
- Pas de SPOF : tolérance panne N-1 nœuds (si size=3)
- Snapshots distribués : instantanés cohérents cross-nœud
- Thin provisioning : allocation dynamique espace
- Live migration sans stockage partagé : données déjà répliquées
- Self-healing : détection et réparation auto corruptions
12. Conteneurs LXC : Virtualisation Légère
LXC vs VMs : Quand Utiliser Quoi ?
LXC (Linux Containers) : conteneurs système partageant kernel host
| Critère | LXC Containers | VMs (KVM) |
|---|---|---|
| Overhead | Minimal (~50 MB RAM) | Significatif (~500 MB+ RAM) |
| Démarrage | < 5 secondes | 30-60 secondes |
| Performances | Natives (pas émulation) | 90-95% natives |
| Isolation | Namespaces/cgroups | Hardware-assisted |
| OS supportés | Linux uniquement | Linux, Windows, BSD, etc. |
| Densité | 100+ par nœud | 20-50 par nœud |
| Kernel | Partagé host | Propre kernel VM |
Cas usage LXC idéaux :
- Serveurs web (Nginx, Apache)
- Bases données légères (MariaDB, PostgreSQL)
- Services réseau (DNS, DHCP, HAProxy)
- Reverse proxies (Traefik, Nginx)
- Environnements dev/test
- Microservices stateless
Quand préférer VMs :
- OS non-Linux (Windows Server)
- Isolation sécurité maximale
- Kernel custom requis
- Nested virtualization
- Workloads GPU/hardware passthrough
Création Conteneur LXC
- Télécharger template :
- Storage local > CT Templates > "Templates"
- Sélectionner distribution :
- ubuntu-24.04-standard
- debian-12-standard
- rockylinux-9-default
- alpine-3.20-default (ultra-léger)
- Téléchargement automatique
- Créer conteneur :
- Bouton "Create CT"
- General : hostname, password
- Template : sélectionner template téléchargé
- Root Disk : taille (8-20 GB généralement)
- CPU : cores (1-2 pour services légers)
- Memory : 512-2048 MB selon usage
- Network : bridge vmbr0, IP static ou DHCP
- Start conteneur : démarrage quasi-instantané
- Console : login root avec password défini
Privileged vs Unprivileged Containers
Unprivileged (recommandé) :
- UID/GID mapping : root conteneur ≠ root host
- Sécurité renforcée (root CT = UID 100000 host)
- Limitations : pas accès devices, NFS parfois problématique
- Usage : 99% cas, sauf besoins très spécifiques
Privileged :
- Root conteneur = root host (même UID 0)
- Accès complet devices, modules kernel
- Risque sécurité : escalade privilèges possible
- Usage : Docker/Kubernetes in LXC, NFS server
Avantages LXC Production
- Efficacité ressources : 1 nœud 128 GB RAM = 100+ conteneurs
- Rapidité déploiement : provision < 10s avec templates
- Snapshots instantanés : sauvegarde/restauration ultra-rapide
- Migration live : possibles (avec limitations vs VMs)
- Intégration Proxmox : firewall, backups, HA identiques VMs
13. Automatisation Infrastructure as Code
API REST Proxmox
Proxmox expose API REST complète pour automatisation :
- Endpoint :
https://proxmox:8006/api2/json - Authentification :
- Tickets session (login/password)
- API Tokens (recommandé automation)
- Opérations : CRUD VMs/CTs, snapshots, migrations, monitoring
- Documentation : pve-docs/api-viewer
Création API Token :
- Datacenter > Permissions > API Tokens
- User > "Add"
- Token ID :
terraform - Décocher "Privilege Separation" (héritage permissions user)
- Copier Token Secret (affiché 1 seule fois)
Terraform Provider Proxmox
Installation provider :
terraform {
required_providers {
proxmox = {
source = "Telmate/proxmox"
version = "3.0.1-rc4"
}
}
}
provider "proxmox" {
pm_api_url = "https://proxmox.local:8006/api2/json"
pm_api_token_id = "terraform@pve!mytoken"
pm_api_token_secret = "xxxxxxxx-xxxx-xxxx-xxxx-xxxxxxxxxxxx"
pm_tls_insecure = true # Dev only
}
Déploiement VM automatisé :
resource "proxmox_vm_qemu" "web_server" {
name = "web-prod-01"
target_node = "pve01"
clone = "ubuntu-2404-template" # Template pré-créé
cores = 2
sockets = 1
memory = 4096
disk {
size = "32G"
type = "scsi"
storage = "ceph-vms"
iothread = 1
}
network {
model = "virtio"
bridge = "vmbr0"
tag = 10 # VLAN
}
ipconfig0 = "ip=192.168.10.50/24,gw=192.168.10.1"
lifecycle {
ignore_changes = [
network,
]
}
}
Workflow GitOps :
- Commit Terraform code dans Git
- CI/CD (GitLab, GitHub Actions) :
terraform plan - Review modifications infrastructure
- Approve :
terraform apply - Infra provisionnée automatiquement
Ansible pour Post-Configuration
Inventory dynamique Proxmox :
# proxmox.yml
plugin: community.general.proxmox
url: https://proxmox.local:8006
user: ansible@pve
password: mypassword
validate_certs: false
group_by:
- tags
Playbook provisioning :
- name: Configure Web Servers
hosts: tag_web
tasks:
- name: Install Nginx
apt:
name: nginx
state: latest
- name: Deploy app
copy:
src: files/app/
dest: /var/www/html/
- name: Enable firewall
ufw:
rule: allow
port: '80,443'
proto: tcp
Cloud-Init Templates
Création template auto-configurable :
- Créer VM base Ubuntu 24.04
- Installer cloud-init :
apt install cloud-init - Nettoyer VM :
cloud-init clean rm -rf /var/lib/cloud/* poweroff - Convertir en template (Proxmox) :
qm set 9000 --ciuser ubuntu --cipassword 'P@ssw0rd!' qm set 9000 --sshkeys ~/.ssh/authorized_keys qm set 9000 --ipconfig0 ip=dhcp qm template 9000 - Cloner + personnaliser :
qm clone 9000 101 --name web-01 qm set 101 --ipconfig0 ip=192.168.1.50/24,gw=192.168.1.1 qm start 101
VM démarre avec config injectée, prête à l'emploi.
14. Migration depuis VMware : Guide Pratique
Contexte : L'Exode VMware
Suite rachat Broadcom (nov 2023) et changements licensing VMware :
- Fin licenses perpétuelles : passage forcé subscription
- Bundles obligatoires : plus d'achats à la carte
- Hausse prix 300-600% pour certains clients
- Arrêt produits standalone (Workstation gratuit, etc.)
Résultat : migration massive vers alternatives (Proxmox, Nutanix, OpenStack)
Méthodologie Migration 5 Phases
Phase 1 : Audit Infrastructure Existante
- Inventaire VMs :
- Export liste depuis vCenter : CPU, RAM, disques, OS
- Identification workloads critiques vs secondaires
- Dépendances applicatives (qui parle à qui)
- Features VMware utilisées :
- vMotion → Live migration Proxmox
- HA/DRS → HA Proxmox + load balancing manuel/scripts
- vSAN → Ceph
- NSX → VLANs + firewall Proxmox / pfSense
- vSphere Replication → Proxmox Backup Server
- Capacité hardware :
- Vérifier compatibilité serveurs existants avec Proxmox
- Anticiper besoins stockage (Ceph nécessite disques dédiés)
Phase 2 : Préparation Environnement Proxmox
- Déploiement cluster :
- 3-5 nœuds selon taille infrastructure
- Configuration réseau (VLANs identiques VMware)
- Setup Ceph si HA requise
- Réplication réseau VMware :
- Créer bridges/VLANs correspondants (vmbr10 = VLAN 10 prod, etc.)
- Tester connectivité inter-VLANs
- Préparation stockage :
- Provisionner espace = total VMDKs × 1.2 (overhead conversion)
Phase 3 : Conversion et Migration VMs
3 méthodes selon contexte :
Méthode A : Export/Import VMDK
- Export depuis vSphere :
- VM > Export OVF Template
- Récupération fichiers .vmdk + .ovf
- Conversion VMDK → qcow2 :
qemu-img convert -f vmdk -O qcow2 vm-disk1.vmdk vm-disk1.qcow2 - Import dans Proxmox :
qm create 100 --name "migrated-vm" --memory 4096 --cores 2 qm importdisk 100 vm-disk1.qcow2 local-lvm qm set 100 --scsi0 local-lvm:vm-100-disk-0 qm set 100 --boot order=scsi0 qm set 100 --net0 virtio,bridge=vmbr0 - Démarrage et vérification
Méthode B : virt-v2v (Automatisée)
# Conversion directe VMware → KVM
virt-v2v -i libvirtxml vm.xml -o local -os /var/lib/vz/images/
# ou depuis ESXi
virt-v2v -ic vpx://vcenter.example.com/Datacenter/esxi1 -os /var/lib/vz/images/ "VM Name"
Avantages : drivers VirtIO injectés automatiquement
Méthode C : Clonezilla (P2V/V2V)
- Boot VM source sur Clonezilla Live
- Clone disque vers image réseau (NFS/Samba)
- Restauration image sur disque VM Proxmox
- Reconfiguration bootloader si nécessaire
Phase 4 : Tests et Validation
- Tests fonctionnels :
- Boot VMs migrées
- Vérification services démarrent
- Connectivité réseau (interne + Internet)
- Tests performances :
- CPU : sysbench, stress-ng
- Disque : fio, dd
- Réseau : iperf3
- Validation métier :
- Applications fonctionnelles
- Données accessibles
- Performances acceptables
Phase 5 : Cutover et Décommissionnement
- Migration progressive :
- Groupe 1 : environnements dev/test
- Groupe 2 : applications secondaires
- Groupe 3 : workloads critiques (fenêtre maintenance)
- Procédure cutover :
- Shutdown VM source VMware
- Basculement DNS/IPs vers VM Proxmox
- Tests post-cutover
- Conserver VM VMware 1-2 semaines (rollback possible)
- Décommissionnement VMware :
- Suppression VMs migrées (après validation complète)
- Réaffectation hosts ESXi (réinstall Proxmox ou autre usage)
- Fin souscriptions VMware
Pièges à Éviter
- Drivers réseau/stockage : installer VirtIO drivers Windows avant migration (sinon boot fail)
- Licensing Windows : réactivation peut être nécessaire (KMS/MAK)
- VMware Tools : désinstaller, remplacer par qemu-guest-agent
- Snapshots VMware actifs : consolider avant export (sinon données manquantes)
- IPs statiques : vérifier configuration réseau post-migration
15. Troubleshooting : Problèmes Courants
1. VM ne démarre pas : "TASK ERROR: start failed"
Causes possibles :
- Stockage plein :
df -hvérifier espace disponible - Fichier lock :
rm /var/lock/qemu-server/lock-VMID.lock - Config BIOS incompatible : vérifier OVMF (UEFI) vs SeaBIOS
- Permissions :
chown -R root:root /etc/pve/qemu-server/
Diagnostic :
journalctl -xe | grep kvm
tail -f /var/log/syslog
2. Performances réseau dégradées
Checklist optimisation :
- Driver réseau VM : e1000 → VirtIO (3-5x plus rapide)
- Multiqueue : activer queues=nb_vcpus
qm set VMID --net0 virtio,bridge=vmbr0,queues=4 - MTU mismatch : aligner bridge (1500) et VM
- Offload features :
ethtool -K eth0 tx on rx on tso on gso on
Test performances :
# Host → VM
iperf3 -s # sur VM
iperf3 -c IP_VM -t 30 # depuis host
# Attendu : ~9 Gbps sur 10GbE avec VirtIO
3. Cluster quorum perdu "no quorum"
Symptôme : majorité nœuds inaccessibles, cluster bloqué
Solution temporaire (DANGER split-brain) :
# Sur nœud survivant
pvecm expected 1 # Force quorum à 1 nœud
# Résoudre connectivité réseau rapidement
# Restaurer quorum normal dès que possible
Prévention :
- Toujours nombre impair nœuds (3, 5, 7)
- QDevice externe pour clusters 2 nœuds
- Réseau cluster redondant (2 links)
4. Stockage LVM-thin plein malgré snapshots supprimés
Cause : métadonnées LVM non libérées
Solution :
lvchange --discard passdown pve/data
fstrim -av # Libère blocs inutilisés SSD
lvs # Vérifier usage
5. Console noVNC ne s'affiche pas
Causes :
- Certificat SSL bloqué : accepter exception navigateur
- Firewall : vérifier port 8006 ouvert
- Websocket bloqué : proxy inverse mal configuré
# Nginx config requise proxy_http_version 1.1; proxy_set_header Upgrade $http_upgrade; proxy_set_header Connection "upgrade";
6. Migration live échoue
Prérequis migration live :
- Stockage partagé (Ceph/NFS) ou réplication
- Versions Proxmox identiques source/cible
- CPU compatible (même vendor, flags similaires)
qm migrate VMID node2 --online - Bande passante 1+ Gbps
Alternatives si échec :
- Migration offline : shutdown, transfert, start
- Backup/Restore sur autre nœud
💡 Commandes Diagnostic Essentielles
pveversion -v: versions tous packagespvecm status: état cluster et quorumpveperf: benchmark stockageqm showcmd VMID: commande QEMU généréepct list: lister conteneurs LXCpvesh get /cluster/resources: ressources cluster
16. Bonnes Pratiques Production
Sécurité Multicouche
- Modifier port HTTPS : éditer
/etc/default/pveproxy, changer 8006 - Certificats SSL valides : Let's Encrypt via interface ou acme.sh
- Firewall activé : Datacenter + Node + VM levels
- Comptes nominatifs : ne jamais utiliser root quotidiennement
- 2FA obligatoire : TOTP pour tous admins
- Fail2ban : bloquer brute-force SSH/web
apt install fail2ban systemctl enable --now fail2ban - Audit logs : centraliser syslog (ELK, Graylog)
- Segmentation VLAN : isoler management/VM/stockage
Performance & Dimensionnement
- Ratio CPU : 1 core physique = 3-4 vCPUs (workloads mixtes)
- RAM host : laisser 2-4 GB pour Proxmox/Ceph
- Stockage :
- OS : SSD RAID1
- VMs critiques : NVMe ou SSD enterprise
- Backups : HDD haute capacité
- Réseau :
- Management : 1 Gbps dédié
- VMs : 10 Gbps bonding
- Ceph : 10/25 Gbps isolé
- KSM activé : déduplication RAM (gain 20-30%)
systemctl enable ksmtuned
Sauvegarde & DR
- Stratégie 3-2-1 : 3 copies, 2 supports, 1 off-site
- Proxmox Backup Server : déduplication 10:1 typique
- Rétention : 7 daily + 4 weekly + 12 monthly
- Tests restauration : mensuel minimum
- Réplication Ceph : geo-replication cross-datacenter
- Documentation DR : procédures, RTO/RPO définis
Monitoring & Alerting
- Prometheus + Grafana : métriques temps réel
- Alertes critiques :
- CPU host > 80% (5 min)
- RAM > 90%
- Stockage > 85%
- Cluster quorum lost
- Ceph health WARN/ERR
- Dashboards : vue globale cluster, drill-down par nœud/VM
- Logs centralisés : ELK stack, retention 90+ jours
Maintenance Préventive
- Updates mensuelles : 1er mardi mois (fenêtre maintenance)
- Rolling update cluster : 1 nœud à la fois, migrate VMs avant
- Vérif SMART disques :
smartctl -a /dev/sdX(attributs 5,187,197,198) - Audit sécurité trimestriel : revue permissions, rotation credentials
- Nettoyage stockage : supprimer ISOs/templates obsolètes, snapshots > 7j
- Tests DR bi-annuels : simulation panne datacenter, failover complet
17. Conclusion : Proxmox VE, Fondation Infrastructure Moderne
Vous maîtrisez désormais Proxmox VE 9 de manière exhaustive : de l'installation initiale aux architectures cluster haute disponibilité, en passant par le stockage distribué Ceph, les conteneurs LXC, l'automatisation Infrastructure as Code, et la migration depuis VMware.
Proxmox VE s'affirme comme la plateforme de virtualisation open-source de référence pour plusieurs raisons décisives :
- Maturité technique : 15+ ans développement, base Debian ultra-stable
- Richesse fonctionnelle : toutes features enterprise sans licensing (HA, clustering, Ceph, backups)
- Flexibilité architecturale : KVM + LXC cohabitent, choix selon workload
- Économie drastique : TCO réduit 70-90% vs VMware (pas coûts socket/VM)
- Indépendance stratégique : pas vendor lock-in, formats standards (QEMU, OVF)
- Écosystème dynamique : intégrations Terraform, Ansible, Kubernetes, API REST complète
- Communauté mondiale : support gratuit forum + option support pro
Au-Delà des Fondamentaux
Vous avez exploré des concepts avancés essentiels pour production :
- Clustering 3+ nœuds : gestion centralisée, quorum Corosync, fencing IPMI
- Stockage Ceph : réplication 3-way, self-healing, pools SSD/HDD mixtes
- Haute Disponibilité : failover automatique < 2 min, RTO maîtrisés
- Conteneurs LXC : densité 10x VMs, démarrage instantané, performances natives
- Infrastructure as Code : Terraform pour provision, Ansible pour config, Cloud-Init pour personnalisation
- Migration VMware : méthodologie 5 phases, conversion VMDK, outils automatisés (virt-v2v)
- Troubleshooting expert : diagnostic quorum, optimisation réseau VirtIO, résolution corruption stockage
Feuille de Route Evolution Compétences
Sujets Approfondissement :
- SDN (Software Defined Networking) : zones VXLAN, EVPN pour overlay multi-DC
- GPU Passthrough/vGPU : virtualisation stations graphiques (VDI), calcul IA/ML
- Nested Virtualization : Proxmox in Proxmox, labs Kubernetes
- Disaster Recovery géo-répliqué : async replication cross-site, automatisation failover
- Intégration Kubernetes : Proxmox CSI driver, provisionner PVs depuis Ceph
- Observabilité avancée : OpenTelemetry, Jaeger tracing, eBPF monitoring
Certifications & Formations :
- Proxmox Certified Specialist (formations officielles disponibles)
- Ceph Administrator (Ceph Foundation)
- Terraform Associate (HashiCorp)
- CKA (Certified Kubernetes Administrator) pour intégrations
Ressources Complémentaires
- Documentation officielle : pve.proxmox.com/wiki
- Forum communauté : forum.proxmox.com (500k+ posts)
- API Documentation : pve-docs/api-viewer
- Proxmox Roadmap : wiki/Roadmap
- Reddit r/Proxmox : 100k+ membres, retours expérience
- YouTube : TechnoTim, Learn Linux TV, Craft Computing (tutoriels pratiques)
Prochaines Étapes Recommandées
- Lab pratique : déployer cluster 3 nœuds (VMs nested ou hardware)
- Projet pilote : migrer 5-10 VMs non-critiques VMware → Proxmox
- Automatisation : créer pipeline Terraform/Ansible pour provision standard
- Monitoring : implémenter stack Prometheus/Grafana avec alerting
- DR plan : documenter procédures, tester failover datacenter
La transition vers Proxmox VE représente bien plus qu'un simple changement d'hyperviseur : c'est une opportunité de moderniser profondément votre infrastructure IT tout en reprenant contrôle sur votre stack technologique et vos coûts.
Que vous gériez un homelab personnel pour apprentissage, une infrastructure PME 20-100 VMs, ou un datacenter d'entreprise multi-sites avec milliers de workloads, Proxmox VE offre l'évolutivité, la fiabilité et la performance nécessaires à vos projets présents et futurs.
🎓 Besoin d'Accompagnement Expert ?
Nos consultants certifiés vous accompagnent dans votre transition vers Proxmox VE : audit infrastructure, design architecture, migration VMware, formation équipes, optimisation performances.
📊 Livrables : Architecture technique détaillée + Plan migration + Formation admin + Support post-déploiement
Cet article vous a aidé ? Partagez-le avec vos collègues infrastructure !
Article rédigé par Ayi NEDJIMI - Expert Infrastructure & Virtualisation | Dernière MAJ : Janvier 2025
📚 Articles Complémentaires
- → Top 10 Attaques Active Directory 2025
- → RAG : Retrieval Augmented Generation Expliqué
- → Audit Sécurité Kubernetes
- → Formations Infrastructure & Virtualisation
© 2025 Ayi NEDJIMI Consultants - Tous droits réservés
Articles connexes
Optimisation Proxmox
optimisation Proxmox VE 9.0 : CPU, mémoire, stockage ZFS/Ceph, réseau, cluster HA. Commandes, recettes par workload et checklist complète.
Évolutions Proxmox
Découvrez les évolutions majeures de Proxmox VE de la version 7 à la version 9 : nouvelles fonctionnalités, améliorations de performance et innovations...
Calculateur Sizing
Ayi NEDJIMI Expert Cybersécurité & IA ...