3 Mai 2026

6 Min. Lesezeit

Amazon S3 Files ist seit dem 7. April 2026 generell verfügbar. Die Funktion erlaubt es, S3-Buckets direkt als NFS-kompatibles Dateisystem in EC2, EKS und Lambda zu mounten – ohne Code-Änderungen an bestehenden Applikationen. Für DACH-Teams mit Legacy-Workloads, ML-Pipelines und Shared-Storage-Anforderungen ändert das die Architektur-Optionen grundlegend.

Das Wichtigste in Kürze

  • NFS-Mount ohne Applikationsänderung: S3 Files stellt einen POSIX-kompatiblen Mount-Point bereit. Bestehende Applikationen die mit open(), read() und write() arbeiten, können ohne Refactoring auf S3 zugreifen.
  • 34 Regionen, Preisunterschied zu EFS signifikant: S3-Storage kostet 0,023 USD/GB/Monat in Standard, EFS 0,30 USD/GB/Monat im Standard-Modus. Bei großen ML-Datasets und Modell-Checkpoints ist der Kostenfaktor relevant.
  • Latenz ist der Trade-off: Metadata-Operationen bei S3 Files liegen bei 10-50ms, EFS unter 1ms. Workloads mit vielen kleinen File-Operationen (transaktionale DBs, kleine Config-Files in hoher Frequenz) sind nicht das Zielszenario.
  • EKS-Integration über CSI-Driver: Der AWS S3 CSI-Driver ist aktualisiert und unterstützt S3 Files als PersistentVolume. Multi-Pod-Zugriff auf denselben Bucket ist möglich, wichtig für Distributed-Training-Setups.

VerwandtBSI-KRITIS, NIS2 und C5: Praxischeck Multi-Cloud-Compliance 2026  /  BYOD im deutschen Enterprise 2026

Was S3 Files technisch macht – und was es nicht macht

Was ist Amazon S3 Files? S3 Files ist ein neues Feature von Amazon S3, das einen POSIX-kompatiblen Dateisystem-Mount-Endpunkt für bestehende S3-Buckets bereitstellt. Unter der Haube übersetzt ein Managed Service POSIX-Aufrufe in S3-API-Operationen. Das Ergebnis: eine Applikation die /mnt/data/model.bin liest, greift tatsächlich auf s3://bucket/model.bin zu – ohne das zu wissen.

Die technische Grundlage ist der S3 Files Agent, ein Sidecar-Prozess der auf der EC2-Instanz oder im Kubernetes-Pod läuft. Er übernimmt die POSIX-zu-S3-Übersetzung und hält einen lokalen Metadaten-Cache. Der Agent ist über den AWS S3 CSI-Driver in EKS integriert; für EC2 gibt es ein RPM- und DEB-Paket. Lambda-Unterstützung ist über Managed Runtime Layers verfügbar.

Was S3 Files nicht ist: kein vollständiges POSIX-Filesystem. File-Locking (flock/fcntl) wird nicht unterstützt. Symbolische Links sind read-only. Rename-Operationen haben keine atomare Garantie bei konkurrierendem Zugriff. Für Applikationen die auf diese Primitiven angewiesen sind – insbesondere klassische SQL-Datenbanken oder Build-Systeme mit File-Locking – ist EFS weiterhin die richtige Wahl.

Drei Szenarien für DACH-Teams

Für welche Workloads lohnt S3 Files konkret?

ML-Training und Model-Serving: Das ist das Hauptszenario. Trainingsdaten und Modell-Checkpoints liegen ohnehin in S3. Mit S3 Files kann ein PyTorch-Training-Job die Daten über /mnt/training-data lesen, ohne dass der Code von S3 weiß. Multi-Pod-Zugriff auf denselben Bucket ermöglicht Distributed-Training-Setups bei SageMaker und EKS. Der Kostenvorteil gegenüber EFS ist bei Datasets im TiB-Bereich erheblich: bei 10 TiB Trainingsdaten spart S3 Files rund 2.770 USD/Monat gegenüber EFS Standard.

Legacy-Applikationen mit Filesystem-Interface: Viele ältere Java- und C++-Applikationen lesen Konfigurationen und temporäre Daten aus dem lokalen Dateisystem. Wenn der eigentliche Storage schon in S3 liegt, erlaubt S3 Files den Verzicht auf eine separate EFS-Schicht. Das vereinfacht die Deployment-Architektur, besonders bei Lift-and-Shift-Migrationen die noch nicht refactored wurden.

Lambda und Serverless-Pipelines: Lambda-Funktionen haben bisher nur EFS als persistentes Dateisystem gehabt. S3 Files ist günstiger. Für Lambda-Workloads die ohnehin auf S3-Daten operieren (ETL, Image-Processing, Batch-Transformationen) ist der Mount der natürlichere Zugang als S3-API-Calls im Code.

Kostenvergleich Storage-Optionen (us-east-1)

$0,023

S3 Files / GB / Monat (Standard)

$0,30

EFS Standard / GB / Monat

$0,145

FSx for Lustre Scratch / GB / Monat

Was sich bei EKS ändert

Für Kubernetes-Teams ist der relevante Einstiegspunkt der AWS S3 CSI-Driver in Version 1.10 der die S3 Files-Unterstützung bringt. Ein PersistentVolume mit S3 Files sieht so aus:

apiVersion: v1
kind: PersistentVolume
metadata:
  name: s3-files-pv
spec:
  capacity:
    storage: 100Gi
  accessModes:
    – ReadWriteMany
  mountOptions:
    – allow-delete
    – allow-overwrite
  csi:
    driver: s3.csi.aws.com
    volumeHandle: s3-files-bucket-name

ReadWriteMany bedeutet dass mehrere Pods gleichzeitig auf denselben Bucket schreiben können. Bei ML-Distributed-Training mit Parameter-Servern oder bei Shared-Model-Repositories ist das das klare Plus gegenüber einer einzelnen EBS-Volume die nur ReadWriteOnce kann.

Ein Hinweis für DACH-Teams unter DSGVO: der S3-Bucket muss in einer europäischen Region liegen. Frankfurt (eu-central-1) und Stockholm (eu-north-1) sind vollständig unterstützt. Der S3 Files Agent kommuniziert ausschließlich mit dem regionalen S3-Endpoint – keine Daten verlassen die Region.

Wann EFS und FSx weiterhin besser sind

S3 Files ist kein EFS-Ersatz. Die Latenz-Unterschiede sind real: Bei Applikationen mit vielen kleinen, sequenziellen Filesystem-Operationen – klassische Web-Server, PHP-Applikationen die Config-Files häufig lesen, Build-Systeme – liegt EFS klar vorn. Metadata-Operationen wie stat() oder Directory-Listings sind bei S3 Files deutlich langsamer.

FSx for Lustre bleibt das Mittel der Wahl wenn Bandbreite maximiert werden soll – Lustre ist für parallelen Hochdurchsatz designed, S3 Files nicht. Bei sehr großen ML-Workloads (Modelle über 100 GB, intensive sequenzielle Reads) lohnt der FSx-Aufpreis weiterhin.

S3 Files: richtig für

  • ML-Training auf großen Datasets (>100 GB)
  • Model-Checkpoints und Artifact-Storage
  • Lambda-Funktionen mit Dateisystem-Interface
  • Legacy-Apps bei Lift-and-Shift ohne Refactoring
  • Cost-Optimierung bei Storage-intensiven Workloads

Weiter EFS/FSx für

  • Applikationen mit File-Locking-Anforderungen
  • Viele kleine, sequenzielle Metadata-Operationen
  • Web-Server mit häufigen Config-Reads
  • Klassische SQL-Datenbankdateien
  • Maximaler Durchsatz (>10 GB/s per Pod)

Die richtige Entscheidungsfrage: Liegt der primäre Storage des Workloads heute schon in S3 – hat die Applikation kein File-Locking? Dann ist S3 Files der naheliegende Weg. Liegt der Storage in EBS oder EFS – ist die Applikation stark latenzabhängig? Dann bleibt EFS.

Quellen: AWS-Dokumentation S3 Files GA (April 2026), AWS Pricing Calculator, AWS re:Invent S3-Session-Unterlagen.

Häufige Fragen

Ist S3 Files mit allen S3-Storage-Classes kompatibel?

S3 Files unterstützt S3 Standard, S3 Intelligent-Tiering und S3 Standard-IA für Lese- und Schreiboperationen. S3 Glacier und Glacier Deep Archive sind nicht direkt mountbar – Objekte in Glacier müssen zuerst wiederhergestellt werden. Für ML-Datasets empfiehlt AWS S3 Intelligent-Tiering als Standard-Storage-Class, da Trainingsdaten-Zugriffsmuster variieren.

Wie verhält sich S3 Files bei Multi-Region-Deployments?

S3 Files mounted nur Buckets in derselben Region wie der Mount-Point. Cross-Region-Zugriff ist nicht direkt unterstützt. Wer Workloads über mehrere Regionen hat, braucht entweder S3 Replication für Read-Zugriffe oder S3 Multi-Region Access Points als separaten Layer. Für DACH-Teams mit eu-central-1 und eu-west-1 als primäre Regionen ist das ein Planungspunkt bei globalen Deployments.

Braucht S3 Files zusätzliche IAM-Berechtigungen gegenüber normalem S3-Zugriff?

Ja. Zusätzlich zu den Standard-S3-Permissions (GetObject, PutObject, DeleteObject) braucht S3 Files s3:ListBucket, s3:GetBucketLocation und die neuen s3files:*-Aktionen für Metadata-Operationen. Die vollständige IAM-Policy ist in der AWS-Dokumentation unter „S3 Files IAM Permissions“ dokumentiert. Bei Least-Privilege-Policies müssen diese Aktionen explizit ergänzt werden.

Kann S3 Files in AWS GovCloud und in EU-Sovereign-Deployments genutzt werden?

S3 Files ist in AWS GovCloud (US-East und US-West) verfügbar. Für EU-Sovereign-Anforderungen nach BSI C5 und DSGVO: S3 Files läuft in eu-central-1 (Frankfurt) und ist damit unter deutschen Datenschutz-Rahmenbedingungen nutzbar. AWS hat S3 Files im Scope des C5-Attestierungsverfahrens, das Testat-Update für 2026 war bei GA-Launch in Bearbeitung. Wer das für KRITIS-Compliance braucht, sollte das aktuelle C5-Testat beim AWS Compliance-Team direkt anfragen.

Foto: Pexels

Quelle Titelbild: Pexels / panumas nikhomkhai (px:17323801)

Ein Magazin der Evernine Media GmbH