3 Mai 2026

7 Min. Lesezeit

Mit dem GA-Release von Amazon S3 Files im April 2026 stehen Cloud-Architekten jetzt vor einer Dreier-Wahl bei AWS-Dateisystemen. S3 Files erlaubt, S3-Buckets direkt als NFS-Mountpoint einzubinden – ohne den EFS-Aufpreis, aber mit anderen Trade-offs. Wann S3 Files die wirtschaftliche Wahl ist, wann EFS seine Multi-AZ-Stärke ausspielt und wann FSx for Lustre die einzige vernünftige Option bleibt: eine Entscheidungsmatrix für 2026.

Das Wichtigste in Kürze

  • S3 Files GA seit April 2026: S3-Buckets als NFS-Mount einbindbar, S3-Preismodell statt EFS-Durchsatzgebühren – attraktiv für Analytics- und Batch-Workloads
  • EFS bleibt führend für Multi-AZ-Shared-Storage: Parallele Schreibzugriffe aus mehreren Availability Zones, starke POSIX-Semantik, kein manuelles Capacity-Management
  • FSx for Lustre: Pflicht bei HPC und ML-Training mit sub-ms Latenzen – Lustre-Protokoll, parallele Stripes über mehrere Storage-Server, direkte S3-Integration für Daten-Import
  • Kostenvergleich 100 TB: S3 Files ~230 USD/Monat vs. EFS General Purpose ~3.100 USD/Monat vs. FSx Lustre ~4.500 USD/Monat (ScratchFS 2) – jeweils ohne Datentransfer
  • Entscheidungskriterium: Zugriffsmuster (random writes vs. sequential reads), Latenzanforderung und ob Multi-AZ-Konsistenz gebraucht wird

VerwandtKubernetes 1.36 Migration: Enterprise-Checkliste cgroup-v2 + DRA-GA  /  Amazon Bedrock AgentCore: CDK-Tool-Chain für Produktions-Agenten

Was ist Amazon S3 Files? Amazon S3 Files ist ein im April 2026 als Generally Available freigegebener AWS-Service, der es ermöglicht, S3-Buckets als NFS-v4.0-Dateisystem direkt in EC2-Instanzen einzubinden – ohne zwischengeschaltete Appliance oder separaten Filesystem-Service. Es ergänzt Amazon EFS und FSx als dritte verwaltete Dateisystem-Option auf AWS.

S3 Files: Was das GA-Release tatsächlich bedeutet

Amazon S3 Files ist nicht zu verwechseln mit dem älteren S3 File Gateway (ehemals Storage Gateway NFS). Das neue S3 Files-Feature ermöglicht direktes NFS-Mounten von S3-Buckets mit S3 Express One Zone oder Standard-Buckets als Storage-Backend. Der entscheidende Unterschied zum File Gateway: Es gibt keine On-Premises-Appliance oder VM mehr – der Mount-Endpunkt läuft vollständig in der AWS-Region als managed Service.

Das Preismodell folgt S3-Logik: Speicherkosten nach S3-Tarif, Request-Gebühren nach API-Calls. Für Read-heavy Workloads ist das günstiger als EFS, das nach provisionierter oder genutzter Kapazität plus Durchsatzgebühren abrechnet. Für Workloads mit vielen kleinen Random-Writes wird das Pricing schnell teurer als gedacht – jeder Write ist ein S3-PUT.

Was S3 Files nicht kann: POSIX-Locking (advisory locks, keine enforced byte-range locks), keine starke Konsistenzgarantie bei parallelen Schreibzugriffen aus mehreren Clients. Für Web-Server, Datenbanken oder Anwendungen die auf POSIX-Locks angewiesen sind, scheidet S3 Files aus.

Kostenvergleich: 100 TB aktiv genutzter Speicher (EU-Frankfurt, Mai 2026)

~230 USD

S3 Files (S3 Standard, ohne Request-Kosten)

~3.100 USD

EFS General Purpose (Elastic Throughput)

~4.500 USD

FSx for Lustre Scratch FS 2 (1,2 TB-Blöcke)

Preise ohne Datentransfer-Kosten. FSx Lustre für kurzlebige Scratch-Cluster konzipiert – nicht für Langzeitspeicherung.

EFS: Wann das Preispremium gerechtfertigt ist

Amazon EFS rechtfertigt seinen Aufpreis durch eine Eigenschaft, die S3 Files nicht liefert: starke Konsistenz bei parallelen Schreibzugriffen aus mehreren Availability Zones. Wer EC2-Instanzen in eu-central-1a, 1b und 1c gleichzeitig auf dasselbe Filesystem schreibt und dabei POSIX-Semantik braucht, hat mit EFS keine Alternative.

Das zweite Argument für EFS ist operativer Natur: kein Capacity-Planning. EFS wächst und schrumpft mit dem genutzten Speicher. Bei S3 Files müssen Bucket-Limits und Lifecycle-Policies aktiv gemanagt werden. Für Teams ohne dediziertes Storage-Engineering vereinfacht EFS den Betrieb spürbar.

Typische EFS-Workloads in 2026: Container-Shared-Storage für ECS und EKS (ReadWriteMany PVC), Lift-and-Shift-Applikationen die NFS aus dem Rechenzentrum erwarten, Content-Management-Systeme mit parallelen Web-Server-Instanzen, DevTools-Shared-Environments.

„EFS ist die richtige Wahl wenn Multi-AZ-Write-Konsistenz oder POSIX-Locking gebraucht wird. Für reine Read-Analytics-Workloads auf bestehenden S3-Daten ist S3 Files heute günstiger als EFS je sein wird.“

FSx for Lustre: Kein Ersatz für die anderen, aber unersetzlich für HPC

FSx for Lustre ist kein generisches Dateisystem und war es nie. Lustre wurde für parallele High-Performance-Computing-Workloads entwickelt: ML-Training-Jobs, Genomik-Analysen, Video-Rendering-Pipelines, Simulation-Workloads. Die Stärke liegt im Stripe-Pattern: Daten werden über mehrere Storage-Server verteilt, sodass ein ML-Training-Job mit hundert GPU-Instanzen gleichzeitig mit maximaler Bandbreite lesen kann.

Die S3-Integration ist ein wichtiges Detail: FSx for Lustre kann direkt einen S3-Bucket als Datenquelle importieren, verarbeitet Daten lokal mit Lustre-Performance und schreibt Ergebnisse zurück nach S3. Das macht es zur bevorzugten Wahl für ML-Pipelines, bei denen Trainings-Datasets in S3 liegen und schnell zugänglich sein müssen.

Der Hauptnachteil ist der Charakter als temporäres Filesystem: Scratch-Cluster sind für kurzlebige Workloads konzipiert, Persistent-Cluster kosten entsprechend mehr. FSx for Lustre ist kein EFS-Ersatz für dauerhaften Shared-Storage – die Kosten würden es verbieten.

Entscheidungsmatrix: Welcher Dienst für welchen Workload

Kriterium S3 Files EFS FSx Lustre
Multi-AZ-Schreibkonsistenz Nein Ja Single-AZ
POSIX-Locking Advisory only Vollständig Vollständig
Parallel-Lesebandbreite S3-Limits Gut Sehr hoch (GB/s)
Kosten 100 TB ~230 USD/Monat ~3.100 USD/Monat ~4.500 USD/Monat
Kein Capacity-Planning Nein (Bucket-Mgmt) Ja Nein (Cluster-Sizing)
Ideal für Analytics, Batch, Archiv Container, Lift-and-Shift, CMS ML-Training, HPC, Video

Pro/Contra im direkten Vergleich

S3 Files

+ Sehr günstiger Speicher

+ Kein neues Speicherlayer nötig (S3 bereits vorhanden)

+ Einfacher Einstieg für Analytics-Teams

– Kein echtes Multi-AZ-Write

– Request-Kosten bei Write-Intensiv

– Kein POSIX-Locking

EFS

+ Vollständige POSIX-Semantik

+ Multi-AZ ohne Konfigurationsaufwand

+ Kein Capacity-Management nötig

– Deutlich höhere Kosten

– Durchsatz-Tier kann Kosten treiben

– Für HPC-Bandbreite nicht ausreichend

FSx for Lustre

+ Maximale parallele Bandbreite

+ Direkte S3-Datenquellen-Integration

+ Sub-ms Latenz für ML-Training-Jobs

– Höchste Kosten der drei Optionen

– Single-AZ, kein Langzeitspeicher

– Cluster-Sizing-Aufwand

Migrationshinweise für bestehende EFS-Deployments

Für Teams, die aktuell EFS für Analytics-Workloads oder Batch-Jobs nutzen, lohnt eine Kosten-Überprüfung mit S3 Files. Die Migration ist technisch überschaubar wenn: der Workload primär sequential-read ist, kein Multi-AZ-Write benötigt wird und POSIX-Locking nicht genutzt wird.

Ein typisches Migrations-Pattern: S3-Bucket erstellen, bestehende EFS-Daten mit dem AWS DataSync-Transfer nach S3 kopieren, Mountpoint wechseln. Der kritische Schritt ist das Audit der Anwendung auf POSIX-Lock-Nutzung – viele Analytics-Frameworks nutzen kein Locking, aber einige Processing-Frameworks setzen es voraus.

Für Container-Workloads auf EKS oder ECS gilt weiterhin: EFS ist der empfohlene Weg für ReadWriteMany-Persistent-Volumes. S3 Files ist noch nicht als CSI-Driver für Kubernetes verfügbar (Stand Mai 2026), was die direkte Substitution in Container-Umgebungen einschränkt.

Häufige Fragen

Kann ich bestehende EFS-Daten direkt mit S3 Files nutzen?

Nein, EFS und S3 sind separate Storage-Backends. Für eine Migration müssen Daten zunächst via AWS DataSync von EFS nach S3 kopiert werden. Danach kann der NFS-Mountpoint von EFS auf S3 Files umgestellt werden – sofern der Workload kein POSIX-Locking und kein Multi-AZ-Write benötigt.

In welchen AWS-Regionen ist S3 Files verfügbar?

Zum GA-Zeitpunkt April 2026 ist S3 Files in den großen AWS-Regionen inklusive eu-central-1 (Frankfurt) verfügbar. Die aktuelle Regionsliste ist in der offiziellen AWS-Dokumentation gepflegt. Für DACH-Unternehmen mit DSGVO-Anforderungen ist eu-central-1 die relevante Region.

Wie unterscheiden sich FSx for Lustre Scratch und Persistent?

Scratch FS 2 ist für temporäre, kurzlebige Workloads konzipiert – etwa einen ML-Training-Job, der mehrere Stunden läuft. Es hat keine automatische Replikation und ist günstiger. Persistent FS 1 und 2 bieten automatische Daten-Replikation innerhalb der Availability Zone, höhere Durability und sind für längere Workload-Laufzeiten geeignet – aber deutlich teurer.

Unterstützt S3 Files Windows-Workloads via SMB?

Nein. S3 Files unterstützt ausschließlich NFS v4.0 und ist damit auf Linux-Workloads beschränkt. Für Windows-Umgebungen die ein gemeinsames Dateisystem benötigen, bleibt Amazon FSx for Windows File Server (SMB-Protokoll) die empfohlene Option auf AWS.

Gibt es S3-Files-Support als Kubernetes PersistentVolume?

Stand Mai 2026 gibt es keinen offiziellen CSI-Driver für S3 Files als Kubernetes PersistentVolume. EFS bleibt für ReadWriteMany-Persistent-Volumes auf EKS die empfohlene Wahl. Community-Projekte existieren, sind aber nicht für Produktions-Einsatz qualifiziert. Die Situation kann sich mit zukünftigen AWS-Releases ändern.

Adrian Garcia-Kunz schreibt für cloudmagazin.com über Cloud-native Patterns, Storage-Architektur und Developer-Tooling.

Quelle Titelbild: Pexels / Brett Sayles (px:5050305)

Auch verfügbar in

Ein Magazin der Evernine Media GmbH