22 August 2023

Im Juli 2023 ging die Meldung viral, dass ChatGPT immer dümmer wird. Gleichzeitig ist die Angst groß, dass Algorithmen oder Modelle wie diese für Deep Fakes missbraucht werden. Da stellt sich die Frage: Wurde mit ChatGPT eine lügende, betrügende Büchse der Pandora ausgegraben?

Anfang des neuen Jahres war die Begeisterung groß, was ChatGPT und andere neue Sprachmodell schon leisten. Eine Demonstration, die im Nachherein etwas nach hinten losging, war ein in Sekundenschnelle erstelltes Märchen. Denn seitdem mehren sich Berichte, dass ChatGPT sich allzu oft aus ungefilterten Social-Media Posts „geistig nährt“ und entsprechend auch so manchen Unsinn in die Welt posaunt.

Dabei gibt so Schönes wie ein von ChatGPT erstelltes englisches Haiku, der kürzesten Gedichtform, über Dual- oder Binärzahlen im klassischen japanischen 5-9-5-Format, gefunden bei Exploring Binary: „In binary code, / Two simple digits create, Limitless numbers.“ Und: „A language so brief, On and off, zeros and ones, Infinite power.”

Viele Menschen befürchten nun aber, dass immer intelligentere Sprachmodelle und Algorithmen ihnen die Jobs wegnehmen und wie in Sci-Fi-Filmen bald sogar die Weltherrschaft übernehmen könnten.

KI voller Halluzis?

Umso größer war Mitte Juli 2023 die Häme, als Tageszeitungen vermeldeten, ChatGPT werde immer dümmer. „KI-Entwicklung: Künstliche Verblödung“, titelte etwa die Süddeutsche Zeitung und sprach von „Kannibalisierung“, wenn KI sich mit eigenen Daten füttert. Je mehr ChatGPT oder Google Bard produzierten, desto häufiger würden sie eigene, zum Teil erfundene Inhalte in die ihnen zugrunde liegenden Datensätze aufnehmen. Und dadurch würden sich immer mehr sogenannte Halluzinationen und daraus resultierende Rückkopplungsschleifen ergeben.

Tatsächlich ist jedes Computerprogramm nur so gut, wie es gefüttert und trainiert wird. Aber ChatGPT und ähnliche fortschrittliche Modelle sind in der Lage, sich selbst aus unzähligen Informationen im Netz der Netze „geistig“ zu füttern oder „schlau zu machen“. Das Problem ist aber, dass nicht alles, was im Internet oder in den sozialen Medien steht, auch richtig, wahr und faktenbasiert ist. Dabei werden auch ohne ChatGPT und Co.  bereits immer mehr Fake News und Verschwörungstheorien verbreitet.

Deepfakes können tiefe Depressionen auslösen

Und wenn das Ganze auch noch in Bild und Ton als Deepfake untermauert wird, dann glauben viele vielleicht wirklich, dass der Papst wie ein Gangster Rapper im schneeweißen, langen Daunenmantel herumstolziert. Solche Bilder oder die von Angela Merkel und Barack Obama in inniger Umarmung am Strand mögen ja noch lustig sein, weil sie oft leicht zu entlarven sind. Denkt man aber daran, wie einfach es heute schon dank AI ist, virtuelle oder unechte Bilder zu erzeugen, um andere in peinliche Situationen zu bringen, muss man sich nicht wundern, welche Angst Jugendliche vor solchen Deepfakes haben.

Das zusammen mit einem übersteigerten Schönheitswahn nährt oft noch, dass Teenager bei Instagram und TikTok öffentlich immer mehr über Selbstmord nachdenken. Gefährdet sind aber nicht nur sie. Wie soll zum Beispiel der Direktor einer Schule erklären, dass er nicht mit einem der Kinder „herumgeknutscht“ hat, wenn der Shitstorm über ihn längst hereingebrochen ist?

Bitkom-Studie: Weit verbreitete Angst vor Deepfakes

Bitkom hat in einer Ende Juli 2023 veröffentlichten Umfrage mit über 1.000 Teilnehmer:innen herausgefunden, dass ein Drittel der Deutschen noch nie von Deepfakes gehört und 63 Prozent sogar  Angst davor haben Der vermeintliche Papst im Daunenmantel und das angebliche Gespräch der ehemaligen Berliner Oberbürgermeisterin Franziska Giffey mit einem angeblich ebenso falschen Klitschko sind in der Pressemeldung des Digitalverbands nur zwei Beispiele für sogenannte Deepfakes.

Die Mehrheit der Deutschen (60 Prozent) hat der Bitkom-Studie zufolge schon davon gehört oder darüber gelesen, aber nur 15 Prozent können erklären, was sich dahinter verbirgt; 23 Prozent wissen immerhin ungefähr darüber Bescheid.

Viele Deutsche sind der Studie nach verunsichert: 8 von 10 oder genauer 81 Prozent sagen, sie würden Deepfake nicht erkennen; 44 Prozent geben zu, schon einmal darauf hereingefallen zu sein; 70 Prozent sind der Meinung, dass man Fotos und Videos nicht mehr vertrauen könne. 60 Prozent sehen sogar eine Gefahr für die Demokratie. Dagegen stehen aber auch 55 Prozent der Befragten, die Deepfakes im Film oder in der Kunst etwas Positives abgewinnen können.

Aufklärung und Medienkompetenz tun Not

„Die Retusche ist so alt wie die Fotografie und seit jeher werden Audios und Videos bearbeitet und verändert. Solche Eingriffe waren früher hochspezialisierten Experten vorbehalten, heute können sie mit wenigen Klicks auch ohne entsprechende Vorbildung erzeugt werden. Umso wichtiger ist es, Bewusstsein für dieses Phänomen zu schaffen und die Menschen dafür zu sensibilisieren“, gibt Bitkom-Hauptgeschäftsführer Dr. Bernhard Rohleder zu denken.

Die große Mehrheit der Deutschen (84) Prozent fordert aber wie viele Politiker:innen eine Kennzeichnungspflicht für Deepfakes; 60 Prozent sagen gar, dass sie verboten gehörten. Rohleder zufolge würden sich aber genau diejenigen nicht daran halten, vor denen man sie schützen wolle. Er nennt dabei explizit „Cyberkriminelle und Troll-Fabriken uns feindlich gesonnener Staaten“. Stattdessen sollte man die Aufklärung beziehungsweise Medienkompetenz im Kampf gegen Deepfakes stärken. „Jede und jeder Einzelne sollte genau prüfen, ob ein Text, Bild oder Video authentisch ist, bevor man es zum Beispiel in sozialen Medien liket oder teilt“, so Rohleder.

 

 

 

 

Quelle Titelbild: Freepik, macrovector