8 Min. Lesezeit
Die Auswahl einer Cloud-Datenbank ist mehr als eine technische Entscheidung – sie beeinflusst Betriebskosten, Skalierbarkeit und Geschäftsrisiko. Managed Services wie Amazon RDS oder Google Cloud SQL reduzieren den operativen Aufwand um 80 % gegenüber selbst gehosteten Lösungen. Serverless-Optionen wie Aurora Serverless oder Neon skalieren dynamisch bis auf null, besonders sinnvoll für Entwicklungsumgebungen mit unregelmäßiger Nutzung. Doch diese Flexibilität bringt auch Trade-offs: Kosten bei Dauerlast, Latenzunterschiede und die Komplexität von Konsistenzmodellen. Die richtige Wahl erfordert kein bloßes Verständnis von Technologie, sondern ein tiefes Bewusstsein für Skalierung, Betriebsmodell und Geschäftsrisiko.
Das Wichtigste in Kürze
- Managed Databases wie Amazon RDS und Cloud SQL senken den Betriebsaufwand um 80 % im Vergleich zu selbst gehosteten Systemen – ideal für Teams mit begrenzten Ressourcen.
- Serverless Databases wie Aurora Serverless und Neon skalieren automatisch auf null – perfekt für variable Workloads und Entwicklungsumgebungen mit unregelmäßiger Nutzung, inklusive Zero für Entwicklungsumgebungen.
- SQL und NoSQL sind keine Gegensätze mehr; die Entscheidung hängt vom Zugriffsmuster ab. PostgreSQL deckt über 80 % der Anwendungsfälle ab, von relationalen bis hin zu JSON- und Vektordaten.
- Purpose-Built Databases wie Graph- oder Zeitreihendatenbanken lohnen sich erst, wenn relationale Systeme an messbare Grenzen stoßen – etwa bei über 50.000 Writes pro Sekunde.
- Multi-Region-Replikation erhöht die Verfügbarkeit, aber auch die Kosten um das 2- bis 3-fache durch Cross-Region Data Transfer und die Komplexität von Conflict Resolution.
„Die meisten Teams beginnen mit einer Managed Database – aber unterschätzen, wie schnell die Kosten bei Dauerlast steigen. Serverless lohnt sich nur bei variablen Workloads, nicht bei stabilen 24/7-Lastprofilen.“
Managed vs. Serverless: Zwei Stufen der Abstraktion
Die erste strategische Entscheidung bei der Cloud-Datenbankwahl ist die Ebene der Abstraktion: Soll es eine Managed Database oder eine Serverless Database sein? Beide Modelle reduzieren den operativen Aufwand, aber auf unterschiedlichen Wegen. Managed Services wie Amazon RDS, Azure SQL Database und Google Cloud SQL übernehmen kritische Aufgaben wie Patching, Backups und Failover – Aufgaben, die bei selbst gehosteten Instanzen kontinuierlich Ressourcen binden. Die Instanzgröße wird manuell gewählt oder über Auto-Scaling gesteuert. Die Kontrolle über Konfiguration und Performance bleibt hoch, während der Betriebsaufwand um rund 80 % sinkt.
Serverless Databases gehen einen Schritt weiter: Keine Instanzwahl, keine Kapazitätsplanung. Lösungen wie Aurora Serverless v2, Neon (Serverless Postgres) oder PlanetScale (Serverless MySQL) skalieren dynamisch – sogar auf null. Dieser Ansatz ist ein Gamechanger für unvorhersehbare Lastspitzen und Entwicklungsumgebungen. Sie zahlen ausschließlich für die tatsächliche Nutzung. Aber Achtung: Bei konstanter hoher Last wird Serverless teurer als Reserved Instances. Wer 24 Stunden am Tag, 7 Tage die Woche hohe Last hat, spart mit provisionierten Instanzen. Serverless lohnt sich daher primär bei fluktuierenden Workloads – etwa in Dev/Test-Szenarien oder SaaS-Anwendungen mit saisonalen Spitzen.
Ein weiterer Vorteil von Serverless: Keine Wartungsfenster für Skalierung. Bei RDS müssen Sie bei Lastspitzen manuell upgraden oder Auto-Scaling konfigurieren – mit Risiko von Downtime. Bei Serverless erfolgt die Anpassung nahtlos. Allerdings verlieren Sie Einfluss auf das Underlying. Wenn Deep Performance-Tuning nötig ist – etwa Index-Optimierung auf Instanzebene oder spezielle Storage-Layouts – bleibt Managed die bessere Wahl. Die Entscheidung muss also zwischen Kontrolle und Automatisierung ausbalanciert werden.
SQL, NoSQL oder NewSQL? Die Entscheidungsmatrix
Die zweite Ebene ist das Datenmodell. Die klassische Debatte zwischen SQL und NoSQL ist überholt. Heute geht es um das passende Modell für das Zugriffsmuster. Relationale Datenbanken wie PostgreSQL oder MySQL bleiben Standard für transaktionale Workloads mit komplexen Beziehungen: E-Commerce, ERP, Finanzsysteme. Alle großen Hyperscaler bieten diese als Managed Services an – beispielsweise Amazon RDS oder Google Cloud SQL. Die Entscheidung für SQL ist oft die sicherste Grundlage.
NoSQL-Datenbanken finden Einsatz bei spezifischen Use Cases: DynamoDB für Key-Value-Zugriffe mit garantierter Latenz unter 10 ms. MongoDB Atlas für dokumentenbasierte Workloads mit flexiblen Schemata – ideal für Content-Management oder IoT. Redis für Caching und Session-Management, besonders bei hohen Leseanfragen. Cassandra oder ScyllaDB für Write-Heavy-Workloads mit extremem Durchsatz – etwa Log-Aggregation oder Telemetrie.
NewSQL-Datenbanken wie Google Spanner oder CockroachDB kombinieren ACID-Transaktionen mit horizontaler Skalierung. Spanner bietet globale Konsistenz über Kontinente – kritisch für Finanzanwendungen. CockroachDB liefert PostgreSQL-Kompatibilität mit automatischem Sharding. TiDB skaliert MySQL horizontal. Diese Systeme sind teurer und komplexer, aber notwendig, wenn Transaktionssicherheit bei hoher Skalierung gefordert ist. Zielgruppe: Anwendungen, die beides verlangen – Konsistenz und massive Skalierung.
Purpose-Built Databases: Der richtige Hammer für jeden Nagel
AWS setzt seit Jahren auf Purpose-Built Databases – für jeden Use Case den optimalen Datenbanktyp. Das Prinzip ist sinnvoll: Eine Graphdatenbank wie Neptune modelliert Beziehungsnetzwerke natürlicher als ein SQL-Join über fünf Tabellen. Eine Zeitreihendatenbank wie TimescaleDB oder InfluxDB komprimiert und aggregiert IoT-Daten effizienter als PostgreSQL – oft um den Faktor 10.
Doch die Kehrseite ist die operative Komplexität. Jede zusätzliche Datenbank-Engine erhöht den Wartungsaufwand, die Monitoring-Last und das Risiko von Fehlkonfigurationen. Die Empfehlung: Starten Sie mit PostgreSQL. Es deckt über 80 % der Anwendungsfälle ab – inklusive JSONB, Geodaten (PostGIS), Volltextsuche und Vektorsuche (pgvector). Erst wenn PostgreSQL an messbare Grenzen stößt – etwa bei über 50.000 Writes pro Sekunde oder globaler Konsistenz – sollten Sie eine spezialisierte Engine evaluieren.
Beispiel: Ein E-Commerce-Startup nutzt PostgreSQL für Produktkatalog, Bestellungen und Nutzerdaten. Erst wenn die Produktempfehlungen auf Machine Learning basieren und Vektorsuche benötigen, kommt pgvector zum Einsatz. Wenn die Bestellhistorie in Echtzeit analysiert werden soll, prüft man TimescaleDB. Aber nicht umgekehrt: Keine spezialisierte Engine einführen, bevor das Problem messbar ist. Der Overhead von mehreren Datenbanktypen ist oft höher als der Performance-Gewinn.
Multi-Region-Replikation: Verfügbarkeit hat ihren Preis
Für geschäftskritische Anwendungen ist Single-Region kein akzeptables Risiko. Region-wide Outages sind selten – aber sie passieren. AWS hatte 2021 einen mehrstündigen Ausfall in der Region us-east-1, Google Cloud 2022 Probleme in eu-west1. Multi-Region-Replikation verteilt Daten über geografische Regionen und ermöglicht Failover innerhalb von Sekunden.
Die Kosten sind jedoch signifikant: Cross-Region Data Transfer, Compute in mehreren Regionen und die Komplexität von Conflict Resolution bei Multi-Writer-Setups. Google Spanner löst das mit TrueTime, aber das ist teuer. Alternativ: Read Replicas in anderen Regionen. Für Read-Heavy-Workloads ist das der pragmatische Mittelweg – günstiger und weniger komplex als Full Multi-Region Active-Active.
Ein Beispiel: Ein Finanzdienstleister nutzt Cloud SQL mit Multi-Region-Replikation. Die primäre Instanz läuft in eu-west1, die sekundäre in eu-central1. Bei Ausfall erfolgt automatisches Failover. Der Preis? 3x höhere Kosten als Single-Region. Aber für eine Bank ist das kein Diskussionspunkt – Verfügbarkeit ist Pflicht. Für ein Startup mit 10.000 Nutzern reichen Read Replicas in einer zweiten Region, um Latenz zu reduzieren und Ausfälle abzufedern. Die Entscheidung hängt also direkt vom Business-Impact ab.
Migration: Der sichere Weg in die Cloud-Datenbank
Datenbank-Migrationen sind die risikoreichste Phase jedes Cloud-Projekts. Ein Fehler kann Datenverlust oder mehrstündige Downtime verursachen. Die Hyperscaler bieten Managed Migration Services: AWS DMS, Azure Database Migration Service und GCP Database Migration Service. Alle unterstützen Continuous Replication – die Quelldatenbank wird im laufenden Betrieb auf die Ziel-Cloud repliziert.
Das Standardmuster: Continuous Replication bis zur Synchronität, dann Switchover in einem kurzen Wartungsfenster von 5 bis 30 Minuten. Der Fallback-Plan muss für 48 bis 72 Stunden aktiv bleiben – nur für den Fall, dass kritische Fehler auftreten. Kritische Erfolgsfaktoren: Schema-Kompatibilität prüfen (besonders bei Engine-Wechsel), Performance-Tests unter Produktionslast durchführen und einen Rollback-Plan haben, der innerhalb von 30 Minuten ausführbar ist.
Ein Beispiel: Ein Unternehmen migriert von einer Self-Hosted MySQL-Instanz auf Aurora Serverless. Mit AWS DMS wird die Replikation eingerichtet. Nach 48 Stunden ist das Lag stabil unter 1 Sekunde. Der Switchover erfolgt am Wochenende. Der Rollback-Plan ist getestet. Alles läuft – aber erst nach mehreren Testläufen. Wer das überspringt, riskiert Dateninkonsistenzen. Migration ist kein One-Click-Prozess – es braucht Vorbereitung, Tests und Contingency.
Häufige Fragen
Welche Cloud-Datenbank eignet sich für Startups?
PostgreSQL auf einem Managed Service – entweder Neon Serverless oder Supabase für schnellen Start, RDS oder Cloud SQL für mehr Kontrolle. PostgreSQL deckt relationale und JSON-Workloads ab, hat eine riesige Community und skaliert bis zu erheblicher Last. Erst bei spezifischen Anforderungen wie unter 5 ms Latenz global oder über 100.000 Writes pro Sekunde sollten spezialisierte Engines evaluiert werden.
Was kostet eine Managed Database im Vergleich zu Self-Hosted?
Managed Services kosten 20 – 40 % mehr als die reinen Compute- und Storage-Kosten einer Self-Hosted-Instanz. Dieser Aufpreis wird durch reduzierten Ops-Aufwand (Patching, Backups, Monitoring, Failover) mehr als kompensiert. Ein DBA kostet 80.000 – 120.000 € pro Jahr – Managed Services für eine typische Produktionsdatenbank liegen bei 300 – 1.000 € pro Monat. Der Break-even liegt bei etwa 3 – 6 Monaten.
Wann lohnt sich eine Serverless Database?
Serverless Databases sind optimal für variable Workloads – etwa Dev/Test-Umgebungen oder SaaS mit unvorhersehbarer Last – und Scale-to-Zero-Szenarien. Für stabile, hohe Last sind provisioned Instanzen günstiger, weil Serverless-Pricing bei Dauerlast teurer wird als Reserved Instances. Ab etwa 1.000 €/Monat lohnt sich der Wechsel oft.
Kann man PostgreSQL für alles nutzen?
Fast. PostgreSQL unterstützt relationale Daten, JSON (JSONB), Volltextsuche, Geodaten (PostGIS), Zeitreihen (TimescaleDB-Extension) und sogar Vektorsuche (pgvector). Für 80 % der Anwendungsfälle reicht PostgreSQL. Grenzen zeigen sich bei extrem niedrigen Latenzanforderungen unter 1 ms, massivem Write-Throughput über 50.000 Writes pro Sekunde und globaler Replikation mit Konsistenz.
Wie minimiert man Downtime bei einer Datenbank-Migration?
Durch Continuous Replication: Die Quelldatenbank wird im laufenden Betrieb auf die Ziel-Cloud repliziert. Wenn die Replikation synchron ist (Lag unter 1 Sekunde), erfolgt der Switchover in einem kurzen Wartungsfenster (typisch 5 – 30 Minuten). AWS DMS, Azure DMS und GCP DMS automatisieren diesen Prozess. Kritisch ist ein getesteter Rollback-Plan, der innerhalb von 30 Minuten durchführbar ist.
Quelle Titelbild: