30 Oktober 2025

Zoom und NVIDIA definieren die technische Grundlage von Enterprise-KI neu. Im Zentrum steht eine föderierte Architektur, die spezialisierte Sprachmodelle, leistungsfähige Reasoning-Modelle und GPU-beschleunigte Infrastruktur intelligent kombiniert. Das Ziel: geringere Latenz, kontrollierte Kosten und skalierbare KI-Funktionen für regulierte Unternehmensumgebungen.

Mit der Erweiterung seiner KI-Plattform AI Companion verfolgt Zoom einen klaren Bruch mit monolithischen KI-Stacks. Statt ein einziges Large Language Model für alle Aufgaben einzusetzen, orchestriert Zoom künftig mehrere Modellklassen innerhalb einer föderierten Architektur. Jede Anfrage wird dabei dem Modell zugewiesen, das technisch am besten zur jeweiligen Anforderung passt.

Einfache, latenzkritische Aufgaben wie Transkription, Übersetzung oder Zusammenfassungen laufen auf proprietären Small Language Models. Komplexe Aufgaben mit höherem Reasoning-Bedarf werden an ein feinabgestimmtes Large Language Model weitergereicht.

NVIDIA Nemotron als Grundlage

Kern der Erweiterung ist die Integration der offenen NVIDIA Nemotron-Technologie. Zoom nutzt sie als Basis für ein eigenes LLM mit neunundvierzig Milliarden Parametern, entwickelt mit den NeMo-Tools von NVIDIA. Der Fokus liegt nicht auf maximaler Modellgröße, sondern auf einem technisch optimierten Gleichgewicht aus Genauigkeit, Rechenaufwand und Kosten.

Durch die offene Architektur kann Zoom sowohl eigene Modelle als auch externe KI-Services dynamisch einbinden. Für Unternehmen bedeutet das eine größere technologische Unabhängigkeit und die Möglichkeit, KI-Workloads flexibel an regulatorische, wirtschaftliche oder operative Anforderungen anzupassen.

GPU-Beschleunigung und geringere Latenzen

Ein wesentlicher technischer Hebel ist die tiefe Verzahnung mit NVIDIAs GPU- und Software-Stack. Die Beschleunigung der Inferenzprozesse senkt die Antwortzeiten des AI Companion spürbar. Gleichzeitig lassen sich Entwicklungszyklen verkürzen, da neue Funktionen schneller marktreif werden.

Gerade in kollaborativen Szenarien wie Meetings oder Live-Chats ist niedrige Latenz entscheidend. Die neue Architektur adressiert diese Herausforderung systemisch, nicht nur auf Anwendungsebene, sondern direkt im KI-Kern.

RAG und Systemintegration im Unternehmenskontext

Ein weiterer technischer Schwerpunkt liegt auf Retrieval-Augmented Generation. Die neue Architektur beschleunigt den Zugriff auf externe Wissensquellen und Geschäftssysteme. Der AI Companion kann Inhalte aus Plattformen wie Microsoft Drei Sechs Fünf, Google Workspace, Slack, Salesforce oder ServiceNow kontextuell verarbeiten, ohne Daten dauerhaft zu replizieren. Damit verschiebt sich KI-Nutzung von isolierten Assistenzfunktionen hin zu einem integrierten Arbeitslayer, der bestehende Systemlandschaften respektiert und ergänzt.

Die föderierte Architektur ist dabei explizit auf Branchen mit hohen Compliance-Anforderungen ausgelegt. Finanzwesen, Gesundheitssektor und öffentliche Verwaltung profitieren davon, dass sensible Daten nicht pauschal in ein externes Modell fließen müssen. Stattdessen entscheidet die Architektur granular, wo und wie Daten verarbeitet werden. Zoom positioniert sich damit technisch klar für Szenarien, in denen Datenschutz, Datenhoheit und kontrollierbare KI-Workflows wichtiger sind als maximale Modellgröße.

Ein Paradigmenwechsel für den KI-Einsatz im Unternehmensumfeld

Die Zusammenarbeit von Zoom und NVIDIA zeigt, wohin sich Unternehmens-KI entwickelt. Weg vom All-In-One-Modell, hin zu modularen, steuerbaren und leistungsoptimierten Architekturen. Der Federated-AI-Ansatz von Zoom wird damit zu einem zentralen Designprinzip für skalierbare, verantwortungsvolle KI im Unternehmensumfeld.

 

 

 

Quelle Titelbild: Cloudmagazin / KI-generiert