7 Min. Lesezeit
Mit dem GA-Release von Amazon S3 Files im April 2026 stehen Cloud-Architekten jetzt vor einer Dreier-Wahl bei AWS-Dateisystemen. S3 Files erlaubt, S3-Buckets direkt als NFS-Mountpoint einzubinden – ohne den EFS-Aufpreis, aber mit anderen Trade-offs. Wann S3 Files die wirtschaftliche Wahl ist, wann EFS seine Multi-AZ-Stärke ausspielt und wann FSx for Lustre die einzige vernünftige Option bleibt: eine Entscheidungsmatrix für 2026.
Das Wichtigste in Kürze
- S3 Files GA seit April 2026: S3-Buckets als NFS-Mount einbindbar, S3-Preismodell statt EFS-Durchsatzgebühren – attraktiv für Analytics- und Batch-Workloads
- EFS bleibt führend für Multi-AZ-Shared-Storage: Parallele Schreibzugriffe aus mehreren Availability Zones, starke POSIX-Semantik, kein manuelles Capacity-Management
- FSx for Lustre: Pflicht bei HPC und ML-Training mit sub-ms Latenzen – Lustre-Protokoll, parallele Stripes über mehrere Storage-Server, direkte S3-Integration für Daten-Import
- Kostenvergleich 100 TB: S3 Files ~230 USD/Monat vs. EFS General Purpose ~3.100 USD/Monat vs. FSx Lustre ~4.500 USD/Monat (ScratchFS 2) – jeweils ohne Datentransfer
- Entscheidungskriterium: Zugriffsmuster (random writes vs. sequential reads), Latenzanforderung und ob Multi-AZ-Konsistenz gebraucht wird
VerwandtKubernetes 1.36 Migration: Enterprise-Checkliste cgroup-v2 + DRA-GA / Amazon Bedrock AgentCore: CDK-Tool-Chain für Produktions-Agenten
Was ist Amazon S3 Files? Amazon S3 Files ist ein im April 2026 als Generally Available freigegebener AWS-Service, der es ermöglicht, S3-Buckets als NFS-v4.0-Dateisystem direkt in EC2-Instanzen einzubinden – ohne zwischengeschaltete Appliance oder separaten Filesystem-Service. Es ergänzt Amazon EFS und FSx als dritte verwaltete Dateisystem-Option auf AWS.
S3 Files: Was das GA-Release tatsächlich bedeutet
Amazon S3 Files ist nicht zu verwechseln mit dem älteren S3 File Gateway (ehemals Storage Gateway NFS). Das neue S3 Files-Feature ermöglicht direktes NFS-Mounten von S3-Buckets mit S3 Express One Zone oder Standard-Buckets als Storage-Backend. Der entscheidende Unterschied zum File Gateway: Es gibt keine On-Premises-Appliance oder VM mehr – der Mount-Endpunkt läuft vollständig in der AWS-Region als managed Service.
Das Preismodell folgt S3-Logik: Speicherkosten nach S3-Tarif, Request-Gebühren nach API-Calls. Für Read-heavy Workloads ist das günstiger als EFS, das nach provisionierter oder genutzter Kapazität plus Durchsatzgebühren abrechnet. Für Workloads mit vielen kleinen Random-Writes wird das Pricing schnell teurer als gedacht – jeder Write ist ein S3-PUT.
Was S3 Files nicht kann: POSIX-Locking (advisory locks, keine enforced byte-range locks), keine starke Konsistenzgarantie bei parallelen Schreibzugriffen aus mehreren Clients. Für Web-Server, Datenbanken oder Anwendungen die auf POSIX-Locks angewiesen sind, scheidet S3 Files aus.
Kostenvergleich: 100 TB aktiv genutzter Speicher (EU-Frankfurt, Mai 2026)
~230 USD
S3 Files (S3 Standard, ohne Request-Kosten)
~3.100 USD
EFS General Purpose (Elastic Throughput)
~4.500 USD
FSx for Lustre Scratch FS 2 (1,2 TB-Blöcke)
Preise ohne Datentransfer-Kosten. FSx Lustre für kurzlebige Scratch-Cluster konzipiert – nicht für Langzeitspeicherung.
EFS: Wann das Preispremium gerechtfertigt ist
Amazon EFS rechtfertigt seinen Aufpreis durch eine Eigenschaft, die S3 Files nicht liefert: starke Konsistenz bei parallelen Schreibzugriffen aus mehreren Availability Zones. Wer EC2-Instanzen in eu-central-1a, 1b und 1c gleichzeitig auf dasselbe Filesystem schreibt und dabei POSIX-Semantik braucht, hat mit EFS keine Alternative.
Das zweite Argument für EFS ist operativer Natur: kein Capacity-Planning. EFS wächst und schrumpft mit dem genutzten Speicher. Bei S3 Files müssen Bucket-Limits und Lifecycle-Policies aktiv gemanagt werden. Für Teams ohne dediziertes Storage-Engineering vereinfacht EFS den Betrieb spürbar.
Typische EFS-Workloads in 2026: Container-Shared-Storage für ECS und EKS (ReadWriteMany PVC), Lift-and-Shift-Applikationen die NFS aus dem Rechenzentrum erwarten, Content-Management-Systeme mit parallelen Web-Server-Instanzen, DevTools-Shared-Environments.
„EFS ist die richtige Wahl wenn Multi-AZ-Write-Konsistenz oder POSIX-Locking gebraucht wird. Für reine Read-Analytics-Workloads auf bestehenden S3-Daten ist S3 Files heute günstiger als EFS je sein wird.“
FSx for Lustre: Kein Ersatz für die anderen, aber unersetzlich für HPC
FSx for Lustre ist kein generisches Dateisystem und war es nie. Lustre wurde für parallele High-Performance-Computing-Workloads entwickelt: ML-Training-Jobs, Genomik-Analysen, Video-Rendering-Pipelines, Simulation-Workloads. Die Stärke liegt im Stripe-Pattern: Daten werden über mehrere Storage-Server verteilt, sodass ein ML-Training-Job mit hundert GPU-Instanzen gleichzeitig mit maximaler Bandbreite lesen kann.
Die S3-Integration ist ein wichtiges Detail: FSx for Lustre kann direkt einen S3-Bucket als Datenquelle importieren, verarbeitet Daten lokal mit Lustre-Performance und schreibt Ergebnisse zurück nach S3. Das macht es zur bevorzugten Wahl für ML-Pipelines, bei denen Trainings-Datasets in S3 liegen und schnell zugänglich sein müssen.
Der Hauptnachteil ist der Charakter als temporäres Filesystem: Scratch-Cluster sind für kurzlebige Workloads konzipiert, Persistent-Cluster kosten entsprechend mehr. FSx for Lustre ist kein EFS-Ersatz für dauerhaften Shared-Storage – die Kosten würden es verbieten.
Entscheidungsmatrix: Welcher Dienst für welchen Workload
| Kriterium | S3 Files | EFS | FSx Lustre |
|---|---|---|---|
| Multi-AZ-Schreibkonsistenz | Nein | Ja | Single-AZ |
| POSIX-Locking | Advisory only | Vollständig | Vollständig |
| Parallel-Lesebandbreite | S3-Limits | Gut | Sehr hoch (GB/s) |
| Kosten 100 TB | ~230 USD/Monat | ~3.100 USD/Monat | ~4.500 USD/Monat |
| Kein Capacity-Planning | Nein (Bucket-Mgmt) | Ja | Nein (Cluster-Sizing) |
| Ideal für | Analytics, Batch, Archiv | Container, Lift-and-Shift, CMS | ML-Training, HPC, Video |
Pro/Contra im direkten Vergleich
S3 Files
+ Sehr günstiger Speicher
+ Kein neues Speicherlayer nötig (S3 bereits vorhanden)
+ Einfacher Einstieg für Analytics-Teams
– Kein echtes Multi-AZ-Write
– Request-Kosten bei Write-Intensiv
– Kein POSIX-Locking
EFS
+ Vollständige POSIX-Semantik
+ Multi-AZ ohne Konfigurationsaufwand
+ Kein Capacity-Management nötig
– Deutlich höhere Kosten
– Durchsatz-Tier kann Kosten treiben
– Für HPC-Bandbreite nicht ausreichend
FSx for Lustre
+ Maximale parallele Bandbreite
+ Direkte S3-Datenquellen-Integration
+ Sub-ms Latenz für ML-Training-Jobs
– Höchste Kosten der drei Optionen
– Single-AZ, kein Langzeitspeicher
– Cluster-Sizing-Aufwand
Migrationshinweise für bestehende EFS-Deployments
Für Teams, die aktuell EFS für Analytics-Workloads oder Batch-Jobs nutzen, lohnt eine Kosten-Überprüfung mit S3 Files. Die Migration ist technisch überschaubar wenn: der Workload primär sequential-read ist, kein Multi-AZ-Write benötigt wird und POSIX-Locking nicht genutzt wird.
Ein typisches Migrations-Pattern: S3-Bucket erstellen, bestehende EFS-Daten mit dem AWS DataSync-Transfer nach S3 kopieren, Mountpoint wechseln. Der kritische Schritt ist das Audit der Anwendung auf POSIX-Lock-Nutzung – viele Analytics-Frameworks nutzen kein Locking, aber einige Processing-Frameworks setzen es voraus.
Für Container-Workloads auf EKS oder ECS gilt weiterhin: EFS ist der empfohlene Weg für ReadWriteMany-Persistent-Volumes. S3 Files ist noch nicht als CSI-Driver für Kubernetes verfügbar (Stand Mai 2026), was die direkte Substitution in Container-Umgebungen einschränkt.
Häufige Fragen
Kann ich bestehende EFS-Daten direkt mit S3 Files nutzen?
Nein, EFS und S3 sind separate Storage-Backends. Für eine Migration müssen Daten zunächst via AWS DataSync von EFS nach S3 kopiert werden. Danach kann der NFS-Mountpoint von EFS auf S3 Files umgestellt werden – sofern der Workload kein POSIX-Locking und kein Multi-AZ-Write benötigt.
In welchen AWS-Regionen ist S3 Files verfügbar?
Zum GA-Zeitpunkt April 2026 ist S3 Files in den großen AWS-Regionen inklusive eu-central-1 (Frankfurt) verfügbar. Die aktuelle Regionsliste ist in der offiziellen AWS-Dokumentation gepflegt. Für DACH-Unternehmen mit DSGVO-Anforderungen ist eu-central-1 die relevante Region.
Wie unterscheiden sich FSx for Lustre Scratch und Persistent?
Scratch FS 2 ist für temporäre, kurzlebige Workloads konzipiert – etwa einen ML-Training-Job, der mehrere Stunden läuft. Es hat keine automatische Replikation und ist günstiger. Persistent FS 1 und 2 bieten automatische Daten-Replikation innerhalb der Availability Zone, höhere Durability und sind für längere Workload-Laufzeiten geeignet – aber deutlich teurer.
Unterstützt S3 Files Windows-Workloads via SMB?
Nein. S3 Files unterstützt ausschließlich NFS v4.0 und ist damit auf Linux-Workloads beschränkt. Für Windows-Umgebungen die ein gemeinsames Dateisystem benötigen, bleibt Amazon FSx for Windows File Server (SMB-Protokoll) die empfohlene Option auf AWS.
Gibt es S3-Files-Support als Kubernetes PersistentVolume?
Stand Mai 2026 gibt es keinen offiziellen CSI-Driver für S3 Files als Kubernetes PersistentVolume. EFS bleibt für ReadWriteMany-Persistent-Volumes auf EKS die empfohlene Wahl. Community-Projekte existieren, sind aber nicht für Produktions-Einsatz qualifiziert. Die Situation kann sich mit zukünftigen AWS-Releases ändern.
Mehr aus dem MBF Media Netzwerk
Adrian Garcia-Kunz schreibt für cloudmagazin.com über Cloud-native Patterns, Storage-Architektur und Developer-Tooling.
Quelle Titelbild: Pexels / Brett Sayles (px:5050305)
Auch verfügbar in