16 September 2025

Stellen Sie sich vor, Ihr Unternehmen überträgt morgen die Hälfte aller Routineaufgaben an eine Künstliche Intelligenz (KI). Verlockend – bis ein Chatbot versehentlich vertrauliche Verträge veröffentlicht oder ein autonomer Agent eigenmächtig eine Testdatenbank löscht. Ob KI Ihr Wachstum beschleunigt oder zum Bumerang wird, entscheidet Ihre KI-Sicherheit, wie Benjamin Eidam, KI-Berater, Dozent und Keynote-Speaker, in seinem Beitrag zeigt. 

 

 

Kurz gesagt: Immer mehr Menschen in Unternehmen nutzen KI und diese kann erwiesenermaßen vieles sicherer machen. Doch gleichsam auch auf immer mehr Arten Schaden verursachen.

In diesem Artikel betrachten wir exemplarisch zwei Perspektiven, die Ihnen hoffentlich ein fundiertes erstes Gefühl für das Thema KI-Sicherheit im Unternehmen vermitteln.

Zwei Wissensfallen, die jeden erwischen können (auch Sie!)

Das Szenario kennen wir alle: Man nutzt eine KI, freut sich über schnelle Ergebnisse – und übersieht dabei leicht, was im Hintergrund passiert. Genau in diesem Moment können kritische Fehler unbemerkt bleiben. Passend dazu sagt ein altes Sprichwort: Unwissenheit schützt vor Strafe nicht. Zwei konkrete Beispiele zeigen, wie fehlendes Wissen über KI zu ernsthaften Problemen führen kann:

1. Das schönredende Etikett als entscheidendes Zünglein an der Waage

‚Agentic AI‘ – KI, die eigenständig komplexe Aufgaben übernimmt – gilt als das neue Buzzword 2025. Kein Wunder: Innerhalb von fünf Jahren haben sich KI-Systeme von  Aufgaben auf 1-Sekunden-Niveau zu Tätigkeiten hochgearbeitet, für die ein Mensch heute eine ganze Stunde brauchen würde. Klingt beeindruckend. Was dabei oft verschwiegen wird: Diese Wunder-KI liefert ihre Erfolge nicht zuverlässig. Nach einer der gängigsten Messmethoden schafft sie ihre Aufgaben nur in etwa der Hälfte der Fälle. Trotzdem wird genau das als Erfolg verkauft.

Ein Mitarbeiter, der nur 50 % seiner Arbeit erledigt, bekommt keinen Bonus – sondern ein klärendes Gespräch mit der Personalabteilung.

Das Problem liegt im Maßstab: Oft wird KI mit „pass@k“ bewertet („Hat’s wenigstens einmal bei k Versuchen geklappt?“). Super für Prototypen, nicht selten katastrophal für den Live-Betrieb. Wirklich einsatzfähige KI braucht „pass^k“ – zuverlässige Erfolge bei jedem einzelnen Durchlauf. Klar wird KI wahrscheinlich bald bei 99 %+ statt z. B. der Hälfte wie heute liegen. Jetzt jedoch sind wir aber oft noch – zumindest mit Agenten – im Glücksspielmodus.

Also aufgepasst: Prüfen Sie echte Zuverlässigkeit, nicht Glückstreffer.

2. Die RAG-Illusion: „Meine PDFs lügen doch nicht …“

 Retrieval-Augmented Generation (RAG) klingt nach der Garantie für richtige Antworten – schließlich kommen die Informationen ja direkt aus den eigenen Dokumenten. Doch die Realität ist tückischer: Das KI-Modell muss alles Wichtige im begrenzten Kontextfenster unterbringen – und das klappt nicht immer. Der „Needle in a Haystack“-Test zeigt beispielsweise: Selbst wenn der richtige Satz enthalten ist, kann die KI ihn glatt übersehen – vor allem bei langen Kontexten oder ungeschickter Position. Prompt-Details, die auf den ersten Blick irrelevant wirken, entscheiden plötzlich über den Unterschied zwischen 27 % oder 98 % Trefferquote. Ein LLM kann also den korrekten Absatz direkt vor Augen haben – und trotzdem komplett danebenliegen. Auch hier gilt wieder: Vertrauen ist gut – strukturiertes Prompting und gezielte Evaluation sind besser. Und unerlässlich, sobald es um Geld und/oder Leben geht.

Dieses Beispiel zeigt, wie gefährlich fehlendes Wissen am falschen Ort sein kann – ähnlich wie bei dem Irrtum, Gabel und Steckdose seien eine gute Kombination. Und genau wie bei diesem buchstäblich schockierenden Beispiel hilft auch bei KI ein Minimalverständnis, um Grobes zu vermeiden. Was uns zur zweiten Kategorie bringt:

Schadensszenarien, die man besser vermeidet

Unwissen ist das eine – gezielter Schaden von außen etwas ganz anderes. KI-Systeme bieten eine Vielzahl von möglichen Angriffswinkeln. Hier geht es nicht darum, alle im Detail zu beleuchten, sondern ihr Potenzial ins Bewusstsein zu rufen und so informierte Entscheidungen zu ermöglichen. Werfen wir dazu einen Blick auf zwei Beispiele:

1. DeepfakeAnruf beim Chef

Mehr Autonomie bedeutet mehr Angriffsfläche

Mehr Autonomie bedeutet mehr Angriffsfläche – eine Herausforderung für die KI-Sicherheit. Bildquelle: Benjamin Eidam.

Mit gerade einmal drei Sekunden Originalton können Tools wie Microsoft VALL‑E eine täuschend echte Stimme klonen. Erschwerend zeigen Studien, dass Menschen solche Audiofälschungen, je nach Setting, nur in circa 30–50 % der Fälle erkennen. Im Juli 2025 fiel sogar US‑Außenminister Marco Rubio einem Betrüger zum Opfer, der sich mithilfe eines KI-Stimmenimitators bei mehreren Amtskollegen als Rubio ausgab. Ein einziger gefälschter Freigabe‑Call genügt, um multiple Millionenbeträge zu bewegen. Mögliche Lösung zur Vermeidung: Individuelle “Catch-Phrases”, die schnell und eindeutig zeigen, dass man der echte Anrufer ist. Beispiel: Mein erster Hamster Manfred hatte Augen, die geglitzert haben wie Diamanten. Oder auch nur einzelne, in der spezifischen Konversation einzigartige “Passwörter” wie Brokkoliauflauf (wenn man nicht mit einem Gemüsehändler spricht). Vorher klären, kurz üben, Audio-Deepfake-Sicherheit haben.

2. Autonome Agenten, autonome Fehler

Jeder zusätzliche Schritt, den ein Agent unbeaufsichtigt gehen darf, vervielfacht die Angriffsflächeerheblich. Dabei kann nicht nur beim Schreiben etwas schieflaufen, sondern auch bei der autonomen Internetrecherche, der Interaktion mit anderer Software oder der Integration der Ergebnisse in eigene Systeme – und in vielen weiteren Situationen, in denen ein Agent eigenständig handelt. In der Praxis heißt das: Agentische Systeme können funktionieren – und oft beeindruckend gut, wie etwa Genspark zeigt. Aber je eigenständiger ein System agiert, desto gründlicher, tiefer und wiederholter muss es getestet werden – immer und immer wieder. Sonst baut man sich russisches Roulette als Software nach.

Was tun von hier an?

Allein zu wissen, dass KI-Sicherheit kein Randthema ist, sondern ganz reale Risiken birgt, ist schon die halbe Miete – die vielzitierte Awareness. Die andere Hälfte? Handeln – mit Verstand, nicht aus Panik.

Wer versteht, warum das Thema entscheidend ist (weil sonst sensible Daten, Budgets oder ganze Geschäftsprozesse gefährdet sind), kann gezielt gegensteuern: Prozesse hinterfragen, Systeme absichern, Teams sensibilisieren – und vor allem kontinuierlich weiterbilden.

So lässt sich auch der eigene Arbeitsalltag anpassen, um die Chancen von KI sicher zu nutzen, ohne unnötige Risiken einzugehen.

 

 

Quelle Titelbild: Benjamin Eidam