5 Februar 2026

Das Wichtigste in Kürze

  • 87 Prozent der Organisationen stufen KI-Schwachstellen als größtes Cyberrisiko ein – doch laut WEF-Daten verursachen interne GenAI-Nutzung und Datenleaks mehr Vorfälle als externe KI-Angriffe.
  • Über die Hälfte aller Beschäftigten nutzt private GenAI-Accounts beruflich und gibt dabei regelmäßig sensible Unternehmensdaten ein.
  • Agentic AI – autonome KI-Agenten ohne eigene Identität im IAM – schafft unkontrollierte Angriffsflächen in Unternehmensnetzwerken.
  • 89 Prozent der Organisationen hatten innerhalb von drei Monaten mindestens einen als riskant eingestuften KI-Prompt in Produktivsystemen.
  • CISOs müssen jetzt AI Usage Policies technisch durchsetzen, Shadow-AI-Audits durchführen und IAM auf nicht-menschliche Identitäten erweitern.

Fast neun von zehn Organisationen weltweit stufen KI-bedingte Schwachstellen als das am schnellsten wachsende Cyber-Risiko ein. So steht es im Global Cybersecurity Outlook 2026 des World Economic Forum. 94 Prozent der befragten Führungskräfte betrachten Künstliche Intelligenz als den wichtigsten Treiber für Cybersecurity im laufenden Jahr. Das klingt nach breitem Konsens. Doch wer genauer hinsieht, stellt fest: Die Mehrheit schaut in die falsche Richtung. Während Vorstände und Sicherheitsverantwortliche sich auf externe Bedrohungen durch KI-gestützte Angreifer vorbereiten, entsteht die größte Gefahr dort, wo sie kaum jemand vermutet – in den eigenen Workflows, den eigenen Abteilungen, den eigenen Prompts.

Die Verschiebung, die kaum jemand bemerkt

Noch 2025 dominierte das Schreckbild der sogenannten adversarial AI die Sicherheitsdebatte: KI-gestützte Phishing-Kampagnen, autonome Malware, Deepfake-basierter CEO-Fraud. Die externe Bedrohung stand im Zentrum aller Risikoanalysen. Zwölf Monate später hat sich das Bild gedreht. Laut den aktuellen WEF-Daten nennen 34 Prozent der Befragten Datenleaks durch generative KI als ihre größte Sorge – gegenüber 29 Prozent, die adversarial AI als Hauptbedrohung identifizieren. Das ist eine bemerkenswerte Kehrtwende, die in vielen Unternehmen noch nicht angekommen ist.

Der Grund für diese Verschiebung ist weniger spektakulär, als es die Deepfake-Schlagzeilen vermuten lassen. Er liegt in der massenhaften Adoption von GenAI-Werkzeugen durch Mitarbeitende, die keinerlei böse Absicht haben. Studien verschiedener Anbieter kommen übereinstimmend zu dem Befund, dass mehr als die Hälfte aller Beschäftigten private GenAI-Accounts für berufliche Zwecke nutzt. Ein erheblicher Anteil davon gibt dabei regelmäßig sensible Unternehmensdaten ein – Kundenlisten, Vertragsentwürfe, Quellcode, strategische Planungen. Nicht aus Nachlässigkeit, sondern aus Produktivitätsdruck. Die Schatten-KI ist längst Realität, und sie ist der Haupttreiber des Risikos.

Agentic AI als blinder Fleck im Sicherheitskonzept

Die nächste Eskalationsstufe ist bereits da, wird aber von den meisten Sicherheitsorganisationen noch nicht adressiert. Agentic AI – also autonome KI-Agenten, die eigenständig Entscheidungen treffen, Workflows anstoßen und Aktionen über mehrere Systeme hinweg ausführen – verbreitet sich rasant. No-Code- und Low-Code-Plattformen ermöglichen es inzwischen praktisch jedem Fachanwender, solche Agenten zu erstellen. Ein Vertriebsmitarbeiter baut sich einen Agenten, der automatisch CRM-Daten abfragt, E-Mails verfasst und Termine koordiniert. Eine Controllerin lässt einen Agenten Finanzberichte zusammenfassen und an einen definierten Verteiler senden. Das klingt harmlos. Es ist es nicht.

KI Agenten sind Sicherheitsrisiko

KI-Agenten mit umfassendem Systemzugriff stellen ein hohes Sicherheitsrisiko dar. Bildquelle: Unsplash / Xavier Cee.

Diese KI-Agenten operieren mit Zugriffsrechten, die ihnen über die Benutzerkonten ihrer Ersteller vererbt werden – oft weit über das hinaus, was für die jeweilige Aufgabe nötig wäre. Sie haben aber keine eigene Identität im Identity & Access Management. Sie tauchen in keinem Berechtigungskonzept auf. Sie werden in keinem Audit erfasst. Gartner warnt in seinen Cybersecurity-Trendanalysen für 2026 ausdrücklich: Bestehende IAM-Sicherheitsmechanismen reichen für nicht-menschliche Identitäten nicht aus. Das betrifft nicht nur KI-Agenten, sondern auch Bots, automatisierte Workflows und API-Integrationen, die GenAI-Dienste anbinden.

Das Problem verschärft sich durch die Architektur moderner Agentic-AI-Systeme. Ein autonomer Agent, der über eine Toolchain mit mehreren Unternehmensanwendungen verbunden ist, kann bei einer Prompt-Injection-Attacke dazu gebracht werden, Aktionen auszuführen, die sein Ersteller nie beabsichtigt hat. Die Angriffsfläche wächst mit jeder neuen Integration, jeder neuen Automatisierung – und sie wächst dort, wo die klassische Perimetersicherheit blind ist.

Die Zahlen, die CISOs ihrem Vorstand zeigen sollten

Der Cyber Security Report 2026 von Check Point Software liefert Daten, die das Ausmaß des Problems quantifizieren. Demnach hatten 89 Prozent der untersuchten Organisationen innerhalb eines Dreimonatszeitraums mindestens einen als riskant eingestuften KI-Prompt. Das ist kein Randphänomen und kein Laborbefund – das sind Produktivsysteme in realen Unternehmensumgebungen.

Im Durchschnitt ist einer von 41 Prompts als hochriskant klassifiziert. Hochriskant bedeutet in diesem Kontext: potenzielle Datenexfiltration, Missbrauch erweiterter Berechtigungen oder gezielte Prompt-Injection, die Sicherheitsmechanismen umgeht.

Für CISOs, die ihrem Vorstand erklären müssen, warum GenAI-Governance kein Innovationshemmnis, sondern eine operative Notwendigkeit ist, bieten diese Zahlen eine belastbare Argumentationsgrundlage. Bei einem Unternehmen mit tausend aktiven GenAI-Nutzern, die jeweils zehn Prompts pro Arbeitstag absetzen, ergeben sich rechnerisch rund 240 hochriskante Interaktionen pro Tag. Jede einzelne ist ein potenzieller Sicherheitsvorfall, den keine klassische DLP-Lösung und kein herkömmliches SIEM erkennen würde, weil die Daten das Unternehmen nicht über einen überwachten Kanal verlassen, sondern über eine als produktiv eingestufte Anwendung.

Was CISOs jetzt tun sollten

Die gute Nachricht: Die Maßnahmen, die jetzt nötig sind, erfordern keine dreijährigen Transformationsprojekte. Sie erfordern Klarheit, Entschlossenheit und eine realistische Einschätzung dessen, was bereits im eigenen Netz passiert.

AI Usage Policy mit technischer Durchsetzung: Eine interne Richtlinie, die Mitarbeitende bittet, kein ChatGPT für vertrauliche Daten zu nutzen, ist wirkungslos. Wirksam sind technisch erzwungene Kontrollen: Approved-Lists für GenAI-Dienste über den Unternehmens-Proxy, Pflicht zur Nutzung unternehmenseigener GenAI-Instanzen mit Data-Loss-Prevention-Integration und automatisches Blocking von Uploads, die als vertraulich klassifizierte Inhalte enthalten.

Shadow-AI-Audit durchführen: Die meisten CISOs wissen nicht, welche GenAI-Tools in ihrem Unternehmen tatsächlich genutzt werden. Ein systematisches Audit über Netzwerk-Traffic-Analyse, Endpunkt-Telemetrie und Cloud-Access-Security-Broker-Logs schafft die Faktengrundlage für jede weitere Maßnahme. Erfahrungsgemäß fördert ein solches Audit eine zweistellige Zahl bisher unbekannter GenAI-Dienste zutage.

IAM auf nicht-menschliche Identitäten erweitern: Jeder KI-Agent, jeder Bot, jede Automatisierung, die auf Unternehmensdaten zugreift, braucht eine eigene, verwaltete Identität mit eigenem Berechtigungsprofil, eigener Protokollierung und eigenem Lifecycle-Management. Das Prinzip des Least Privilege, das für menschliche Nutzer selbstverständlich sein sollte, muss für maschinelle Akteure erst noch implementiert werden.

Prompt-Monitoring etablieren: DLP-Systeme, die bisher E-Mail, Cloud-Storage und Endpunkte überwachen, müssen um GenAI-Schnittstellen erweitert werden. Das umfasst sowohl die Überwachung ausgehender Prompts als auch die Analyse eingehender Antworten auf potenzielle Datenrückflüsse.

Rahmenwerke als Rückendeckung

CISOs, die diese Maßnahmen intern durchsetzen wollen, finden in den aktuellen Veröffentlichungen starke Unterstützung. Der WEF Global Cybersecurity Outlook 2026 liefert die strategische Einordnung auf Vorstandsniveau. Die Gartner Top Cybersecurity Trends for 2026 bieten die operative Detailtiefe für die Maßnahmenplanung. Beide Rahmenwerke betonen übereinstimmend, dass die Absicherung der eigenen KI-Nutzung mindestens so dringlich ist wie die Abwehr KI-gestützter externer Angriffe.

Die eigentliche Botschaft dieser Verschiebung ist unbequem, aber klar: Die Bedrohung, die 2026 die meisten Sicherheitsvorfälle verursachen wird, kommt nicht von hochentwickelten staatlichen Akteuren mit KI-Waffen. Sie kommt von einem Produktmanager, der einen Vertragsentwurf in ein GenAI-Tool kopiert. Von einem KI-Agenten, der mit vererbten Admin-Rechten auf eine Kundendatenbank zugreift. Von einer Automatisierung, die niemand im Sicherheitsteam auf dem Schirm hat. Wer als CISO jetzt nicht handelt, verteidigt die Festung nach außen – während die Tore nach innen weit offen stehen.

 

Weiterlesen auf cloudmagazin.com

Mehr zum Thema: Weitere Artikel auf mybusinessfuture

Häufige Fragen

Was ist Schatten-KI und warum ist sie gefährlich?

Schatten-KI (Shadow AI) bezeichnet die Nutzung nicht genehmigter GenAI-Tools durch Mitarbeitende für berufliche Zwecke. Sie ist gefährlich, weil sensible Unternehmensdaten wie Kundenlisten, Quellcode oder Vertragsentwürfe in externe Systeme gelangen, ohne dass das Sicherheitsteam davon erfährt oder die Datenflüsse überwachen kann.

Was bedeutet Agentic AI für die Cybersicherheit?

Agentic AI beschreibt autonome KI-Agenten, die eigenständig Entscheidungen treffen und Aktionen über mehrere Systeme hinweg ausführen. Für die Cybersicherheit sind sie problematisch, weil sie häufig mit vererbten Zugriffsrechten operieren, keine eigene Identität im IAM besitzen und in keinem Audit erfasst werden – was unkontrollierte Angriffsflächen schafft.

Wie viele KI-Prompts in Unternehmen gelten als riskant?

Laut dem Check Point Cyber Security Report 2026 ist durchschnittlich einer von 41 Prompts als hochriskant eingestuft. Bei 89 Prozent der untersuchten Organisationen wurde innerhalb von drei Monaten mindestens ein riskanter Prompt in Produktivsystemen dokumentiert.

Was sollte eine AI Usage Policy beinhalten?

Eine wirksame AI Usage Policy geht über schriftliche Richtlinien hinaus und umfasst technisch durchgesetzte Kontrollen: Approved-Lists für GenAI-Dienste, Pflicht zur Nutzung unternehmenseigener KI-Instanzen mit DLP-Integration sowie automatisches Blocking von Uploads mit vertraulichen Inhalten.

Wie führe ich ein Shadow-AI-Audit im Unternehmen durch?

Ein Shadow-AI-Audit erfolgt über die systematische Analyse von Netzwerk-Traffic, Endpunkt-Telemetrie und Cloud-Access-Security-Broker-Logs (CASB). So lässt sich ermitteln, welche GenAI-Dienste tatsächlich genutzt werden. Typischerweise werden dabei eine zweistellige Zahl bisher unbekannter Tools entdeckt.

Warum reicht klassische DLP-Software bei GenAI nicht aus?

Klassische DLP-Lösungen überwachen bekannte Kanäle wie E-Mail, Cloud-Storage und Endpunkte. GenAI-Tools werden jedoch als produktive Anwendungen eingestuft, sodass Datenabflüsse über Prompts nicht erkannt werden. DLP-Systeme müssen daher gezielt um GenAI-Schnittstellen und Prompt-Monitoring erweitert werden.

Welche Rolle spielt Identity & Access Management bei KI-Agenten?

KI-Agenten operieren meist mit den Zugriffsrechten ihrer Ersteller, ohne eigene verwaltete Identität. IAM muss daher auf nicht-menschliche Identitäten erweitert werden: Jeder Agent benötigt ein eigenes Berechtigungsprofil, Protokollierung und Lifecycle-Management nach dem Least-Privilege-Prinzip.

 

Quelle des Titelbildes: Unsplash / Philipp Katzenberger