Proxmox Storage erklärt: LVM, iSCSI, NFS, CIFS/SMB, Ceph (RBD & CephFS) und ZFS praxisnah

In Virtualisierungsumgebungen entscheidet die Speicherwahl über Stabilität, Performance und Betriebsmodelle wie Live‑Migration. Proxmox VE integriert dafür klassische Netzwerkfreigaben, Block‑Storage und moderne Cluster‑Dateisysteme. Dieser Beitrag erläutert Ursprung, Nutzen und typische Einsatzszenarien der wichtigsten Storage‑Typen – verständlich und jobmarktrelevant.

Netzwerkbasierte Storage‑Typen in Proxmox VE

LVM Group über iSCSI
Was ist es? Logical Volume Management (LVM) als flexibler Volume‑Manager, dessen Blockspeicher per iSCSI über das Netzwerk bereitgestellt wird.
Warum entstanden? LVM löst die Starrheit klassischer Partitionen; iSCSI entstand als kostengünstige Alternative zu Fibre‑Channel‑SANs, um Blockgeräte über IP nutzbar zu machen.
Praxisnutzen: Zentrale Bereitstellung performanter VM‑Disks mit Snapshots/Thin‑Provisioning auf Storage‑Arrays; geeignet für Datenbanken und Workloads mit eigener Dateisystemlogik.

iSCSI Target (direkt)
Was ist es? Ein Storage‑Server exportiert einzelne LUNs (Blockgeräte), die Hosts wie lokale Platten nutzen.
Warum entstanden? Standardisierte SAN‑Funktionalität über Ethernet, ohne FC‑Infrastruktur.
Praxisnutzen: Feingranulare Zuweisung von Block‑LUNs an einzelne VMs/Hosts; gut für Umgebungen mit strikter Trennung und hoher I/O‑Vorhersagbarkeit.

NFS Share
Was ist es? Netzwerk‑Dateisystem aus der UNIX‑Welt für gemeinsamen Dateizugriff.
Warum entstanden? Einfacher, plattformübergreifender Datei‑Zugriff im LAN seit den 80ern.
Praxisnutzen: Leicht einzurichten, ideal für VM‑Images, Container‑RootFS, Templates und Backups; bewährt in Homelabs und gemischten Linux‑Stacks.

CIFS/SMB (Samba)
Was ist es? Windows‑orientiertes Datei‑Protokoll, unter Linux via Samba.
Warum entstanden? Dateifreigaben/Printservices in Windows‑Netzen.
Praxisnutzen: Für ISO/Backup‑Shares und heterogene Netze sinnvoll; als Primär‑Storage für VM‑Disks weniger verbreitet als NFS.

Ceph RBD (RADOS Block Device)
Was ist es? Verteiltes, fehlertolerantes Block‑Storage auf Standardhardware; Daten werden repliziert oder via Erasure Coding verteilt.
Warum entstanden? Cloud‑Skalierung ohne teure monolithische SANs; Ausfallsicherheit durch Verteilung.
Praxisnutzen: Hochverfügbares, clusterweites Block‑Storage für VM‑Disks; ermöglicht Live‑Migration ohne Single Point of Failure und skaliert mit der Anzahl der Nodes.

CephFS
Was ist es? Verteiltes, POSIX‑kompatibles Dateisystem auf Ceph‑Basis.
Warum entstanden? Gemeinsamer Dateibaum mit parallelem Zugriff, aber ohne klassische NFS‑Skalierungsgrenzen.
Praxisnutzen: Gemeinsame Datenspeicher für viele Workloads/Teams; geeignet für große Cluster, Build‑Artefakte, Container‑Images und gemeinsame Medienpools.

Direkte iSCSI‑LUNs & Fibre Channel
Was ist es? Klassische SAN‑Technologien, FC mit eigener Hochgeschwindigkeits‑Fabrik; iSCSI‑LUNs werden direkt gemappt.
Warum entstanden? Hohe Performance und Verlässlichkeit in Rechenzentren der 90er/2000er.
Praxisnutzen: Enterprise‑Setups mit strikten Latenz‑/Durchsatzanforderungen, dedizierten Storage‑Teams und Wartungsverträgen.

Lokale Storage‑Typen in Proxmox VE

LVM Group (lokal)
Was ist es? LVM auf lokalen Disks/SSDs (optional LVM‑thin).
Warum entstanden? Flexible Volumes/Snapshots statt starrer Partitionen.
Praxisnutzen: Solider Standard für Einzel‑Hosts; gut für VM‑Disks, wenn einfache Verwaltung und solide Performance genügen.

Directory Storage
Was ist es? Ein normales Verzeichnis auf ext4/xfs als Speicherort für Images, ISOs, Templates oder Backups.
Warum entstanden? Niedrigschwelliger, universeller Ansatz ohne Spezial‑Layer.
Praxisnutzen: Minimaler Aufwand; ideal für ISO/Template‑Ablage, Container‑Templates und Offload‑Backups.

ZFS
Was ist es? Kombiniert Volume‑Manager und Dateisystem; bietet Checksummen (Integrität), Snapshots, Replikation, Kompression und optional Deduplizierung.
Warum entstanden? Um RAID, Volume‑Management und Dateisystem zu vereinen und Datenkorruption aktiv zu erkennen/vermeiden.
Praxisnutzen: Sehr beliebt in Proxmox: Mirrors/RAIDZ für VM‑Disks und Backups, schnelle Snapshots/Clones, Replikation zwischen Hosts; starke Wahl für Homelabs bis mittlere Umgebungen.

Praktische Auswahlhilfe (Kurzfassung)

  • Einzel‑Host mit starken Features: ZFS (Mirrors/RAIDZ) für Integrität, Snapshots, Replikation.
  • Einfache Netzfreigabe: NFS für VM‑Images/Backups; CIFS/SMB für ISO/Team‑Shares.
  • Block‑Storage über IP: iSCSI (+ LVM‑thin) für performante, klar zugeteilte LUNs.
  • Großer Cluster & High Availability: Ceph RBD/CephFS für skalierendes, fehlertolerantes Storage.
  • Enterprise‑SAN: Fibre Channel/iSCSI‑LUNs auf dedizierter Storage‑Appliance.
  • Minimal & universell: Directory Storage für ISOs, Templates und Offsite‑Backups.

Warum Shared Storage Live‑Migration ermöglicht

Bei Shared Storage (z. B. NFS, Ceph RBD) greifen alle Knoten auf dieselben VM‑Datenträger zu. Die VM wird bei der Live‑Migration samt Arbeitsspeicher‑Inhalt übertragen, der Datenträger bleibt jedoch am selben Storage‑Ort erreichbar. Dadurch entfallen Kopiervorgänge großer Disk‑Images während des Umzugs.

Fazit: Die Speicherlandschaft in Proxmox spiegelt den historischen Weg von einfachen Dateifreigaben über flexible Volume‑Manager bis hin zu verteilten Clustern wider. Die passende Wahl hängt von Zielen wie Ausfallsicherheit, Skalierung, Kosten und Administrationsaufwand ab. Für homelab‑nahe Setups empfiehlt sich oft ZFS plus NFS‑Share; in größeren Umgebungen dominieren iSCSI/SAN oder Ceph‑Cluster für hochverfügbare Live‑Migration und horizontale Skalierung.

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Andreas Moor
Andreas Moor
@blog@andreas-moor.de

Hallo Fediverse, ich bin Andy!

Hier und auf meiner Website findest du mein akkumuliertes Linux-Sysadmin-Wissen, meine kleinen und größeren Projekte und die Tools, die ich nutze.

Viel Spaß beim stöbern, lesen und lernen! 🧑‍💻

236 Beiträge
16 Folgende