3 Min. Lesezeit
Das Wichtigste in Kürze
- Edge Computing verarbeitet Daten dort, wo sie entstehen – Latenz sinkt von 50-200ms (Cloud) auf 1-10ms
- IDC: 75 Prozent der Enterprise-Daten werden bis 2025 außerhalb traditioneller Rechenzentren verarbeitet
- Use Cases: Autonome Fahrzeuge, Industrieautomation, AR/VR, Real-Time-Analytics im Einzelhandel
- Hyperscaler reagieren: AWS Outposts/Wavelength, Azure Stack Edge, Google Distributed Cloud
- Herausforderungen: Heterogene Hardware, Remote-Management, Security an verteilten Standorten
Die Cloud hat ein Physik-Problem: Licht braucht 67 Millisekunden von Frankfurt nach Virginia und zurück. Für eine E-Mail irrelevant, für einen autonomen Gabelstapler in der Fabrikhalle tödlich. Edge Computing löst dieses Problem, indem es Rechenleistung dorthin bringt, wo die Daten entstehen – an den Rand des Netzwerks.
Warum die Cloud nicht für alles reicht
Drei Faktoren treiben Edge Computing: Latenz (Echtzeitanwendungen brauchen Antwortzeiten unter 10ms – das ist physikalisch nur lokal möglich), Bandbreite (eine Fabrik mit 10.000 IoT-Sensoren generiert Terabytes pro Tag – alles in die Cloud zu schicken ist teuer und langsam) und Verfügbarkeit (Produktionsanlagen müssen auch ohne Internetverbindung funktionieren).
Edge ersetzt die Cloud nicht – es ergänzt sie. Die Cloud bleibt für Training von ML-Modellen, Langzeit-Analyse und zentrale Steuerung. Edge übernimmt Echtzeitverarbeitung, lokale Entscheidungen und Datenvorfilterung.
Edge-Topologie: Vom Sensor bis zur Cloud
Die Edge ist kein einzelner Punkt, sondern ein Kontinuum: Far Edge – direkt am Gerät (Sensor, Kamera, Maschine). Meist spezialisierte Hardware (NVIDIA Jetson, Intel NUC). Near Edge – im lokalen Netzwerk (Werkhalle, Filiale). Server oder Micro-Datacenter. Regional Edge – in der Nähe des Endnutzers (CDN PoPs, Telco Edge). AWS Wavelength und Azure Edge Zones.
Je näher am Gerät, desto niedriger die Latenz – aber desto eingeschränkter die Rechenleistung. Die Architektur-Entscheidung: Welche Verarbeitung muss in Echtzeit lokal passieren, und welche kann asynchron in die Cloud?
Hyperscaler am Edge
AWS Outposts bringt AWS-Infrastruktur ins eigene Rechenzentrum. AWS Wavelength positioniert Compute in Telco-Netzwerken für 5G-Anwendungen. Azure Stack Edge ist ein Managed-Appliance-Modell für Edge-Workloads. Google Distributed Cloud bietet ein ähnliches Modell mit Anthos-Integration.
Der gemeinsame Nenner: Die Management-Plane bleibt in der Cloud – die Data-Plane ist lokal. Unternehmen nutzen vertraute APIs und Tools, die Workloads laufen aber physisch am Edge. Das vereinfacht den Betrieb enorm im Vergleich zu proprietären Edge-Lösungen.
Herausforderungen: Security, Management, Heterogenität
Edge-Standorte sind physisch weniger geschützt als Rechenzentren. Ein Server in einer Fabrikhalle oder einer Einzelhandelsfiliale ist anfälliger für physischen Zugriff, Diebstahl und Manipulation. Hardware-Encryption (TPM), Remote-Attestation und Zero-Trust-Networking sind Pflicht.
Management über Hunderte verteilte Standorte erfordert Automatisierung: GitOps (FluxCD, ArgoCD) für Deployments, Infrastructure-as-Code für Konfiguration und zentrales Monitoring für Sichtbarkeit. Manuelles Management skaliert nicht.
Häufige Fragen
Braucht jedes Unternehmen Edge Computing?
Nein. Edge Computing löst spezifische Probleme: Echtzeit-Anforderungen, hohe Datenvolumen und Offline-Fähigkeit. Für eine typische Büro-IT-Umgebung mit Web-Anwendungen und SaaS reicht die Cloud vollständig.
Was kostet Edge-Infrastruktur?
Stark abhängig vom Use Case. Ein NVIDIA Jetson für Kamera-Inferenz: 500-2.000 EUR. Ein Micro-Datacenter für eine Fabrikhalle: 20.000-100.000 EUR. AWS Outposts Rack: ab 250.000 EUR. Die Kosten müssen gegen die Alternative (Cloud-Latenz, Bandbreitenkosten) gerechnet werden.
Wie verhalten sich Edge und 5G zueinander?
5G bietet niedrige Latenz (1-10ms) und hohe Bandbreite – ist aber kein Ersatz für Edge Computing. 5G liefert die Konnektivität, Edge liefert die Rechenleistung. Zusammen ermöglichen sie Anwendungen, die weder Cloud allein noch 5G allein leisten können.
Kann ich Kubernetes am Edge nutzen?
Ja, mit leichtgewichtigen Distributionen: K3s (Rancher), MicroK8s (Canonical), KubeEdge (CNCF). Diese sind optimiert für ressourcenbeschränkte Umgebungen und können mit weniger als 512MB RAM betrieben werden.
Was ist der Unterschied zwischen Edge und Fog Computing?
Edge Computing verarbeitet am Endgerät oder in unmittelbarer Nähe. Fog Computing (Cisco-Terminus) bezeichnet die gesamte Schicht zwischen Cloud und Endgerät – also Near Edge und Regional Edge zusammen. In der Praxis werden die Begriffe zunehmend synonym verwendet.
Quelle des Titelbildes: Pexels / Craig Dennis
Lesetipps der Redaktion
- Lenovo ThinkCentre M75q Tiny Gen 5: Enterprise-Mini-PC mit AMD PRO und 5 Watt Idle für Edge und Kiosk
- Serverless KI ist überbewertet – hier ist was stattdessen zählt
- QNAP TS-464: 4-Bay-NAS mit Docker, HDMI und PCIe-Slot – was Synology in dieser Klasse nicht bietet