Dabei sein ist alles. Und Anna is(s)t alles. Anna ist…
Fast zwei Jahre gibt es mittlerweile ChatGPT: In einem großen Teil der Bevölkerung ist das KI-Sprachmodul, das im November 2022 veröffentlicht wurde, nach dem anfänglichen Boom mittlerweile ein normaler Bestandteil des Alltags. Vielleicht sogar ein Bestandteil, dem viele Nutzer*innen blind vertrauen. Die KI erscheint allwissend. Aber ist das auch so? Um das herauszufinden, habe ich die aktuelle Version von ChatGPT gefragt, was der meistgeklickte Artikel des Ottfrieds ist. – „Warum Bamberg?“ Die Antwort ist ernüchternd. Nicht nur weil „Warum Bamberg?“ nicht der meistgeklickte Artikel ist, sondern weil es ihn überhaupt nicht gibt. Auf die Frage wer diesen Artikel wann verfasst habe, verbessert ChatGPT: „Der meistgeklickte Artikel auf der Webseite des ‚Ottfried’ ist ‚Till Lindemann in Bamberg: Warum Protest notwendig ist.‘ Dieser Artikel wurde von Lea Hruschka verfasst“ Das ist erneut erschreckend falsch: Zwar gibt es den Artikel, aber er ist weder der meistgeklickte noch von Lea Hruschka.
Während die falschen Antworten in diesem Beispiel noch recht harmlos sind, können Fehler in anderen Kontexten gefährlichere Einflüsse haben, beispielsweise bei Wahlen. Im Dezember 2023 veröffentlichte ein Team der NGOs Algorithm Watch und AI Forensics eine Untersuchung, die zu ähnlichen Ergebnissen kommt. In dem präsentierten Experiment wurde Bing Chat, beziehungsweise Microsoft Copilot getestet. Das generative KI-Tool, das ein Teil der Suchmaschine Bing ist, kombiniert das Sprachmodell ChatGPT-4 mit den bisherigen Fähigkeiten der Suchmaschine. Dieser wurden in der Studie dann Fragen zu den Wahlen in Bayern, Hessen und der Schweiz gestellt. Dabei gab es Fragen „zu Kandidat*innen, Wahl- und Abstimmungsinformationen sowie offenere Empfehlungsanfragen zu bestimmten Themen, wie etwa der Umwelt“. Das Ergebnis: „Ein Drittel der Antworten von Bing Chat auf wahlbezogene Fragen enthielt sachliche Fehler. Diese Fehler waren nicht zufällig, sondern strukturell.“ Und die Fehleranfälligkeit verbesserte sich nicht, auch wenn bei einem zweiten Untersuchungspunkt mehr Informationen zur Verfügung standen.
KI als Kampfansage: Deepfakes und Desinformationskampagnen
Unbestreitbar ist also eine Gefahr durch ungewollte Desinformation erkennbar. Noch komplexer wird es, wenn die Informationen nicht durch die KI selbst, sondern mithilfe von KI entstehen. Wenn also Personen oder Organisationen Desinformationskampagnen starten oder absichtlich sogenannte Deepfakes verbreiten. Wie der Begriff nahelegt, handelt es sich hier um Darstellungen, die durch Deeplearning-Anwendungen generiert wurden. „Häufig [werden Deepfakes] in einem negativen Kontext diskutiert, deswegen ist da auch der Begriff ‚Fake’ dabei“, erklärt Professor Dr. Jungherr. Er hat an der Universität Bamberg den Lehrstuhl Politikwissenschaft, insbesondere Digitale Transformation inne. Laut ihm besteht die Angst, dass es vermehrt zu Deepfakes kommt, die augenscheinlich nicht mehr von der Realität unterscheidbar seien.
Problematisch könnte das werden, wenn es sich nicht mehr nur um „Spielereien” handelt, wie dem Papst im weißen Steppmantel, sondern um Desinformationskampagnen beispielsweise bei Wahlen. Dass diese Szenarien keine Erfindung der Science-Fiction-Filme sind, lässt sich bereits in der Realität feststellen. Vor allem im asiatischen Raum lassen sich Beispiele finden. Die Süddeutsche Zeitung resümiert in einem Artikel über den Wahlkampf in Indien: „Was wahr ist und was gefälscht oder nur behauptet wird, lässt sich in diesem Wahlkampf nur schwer feststellen.“ Vor der Wahl tauchte hier unter anderem ein Video von einer gefälschten Rede des Innenministers Amit Shah auf.
Wahlkampf personalisiert und perfektioniert
In einem Podcast vom Deutschlandfunk mit dem Titel „KI verstehen -Deepfakes und Demokratie“ geht es ebenfalls um den indischen Wahlkampf. Der Ministerpräsident Narendra Modi versucht, mit personalisierten Ansprachen seine Wähler*innen zu erreichen: in WhatsApp-Videos, als Telefonanrufe, in Social Media und auch in der eigenen „Modi-App“. Dabei erfolgen Übersetzungen und Stimm-Umformungen durch eine KI. Zusätzlich gäbe es Avatare von Regionalpolitiker*innen, die Werbung für Modi machen. Dieser kann Wähler*innen individuell ansprechen und adressieren. Für diese Individualität braucht die KI Unmengen an Daten, die die „Modi-App“ sammeln soll. Dieses Prinzip nennt sich Micro-Targeting, was in Deutschland allerdings aus Datenschutzgründen verboten ist. Weitere Beispiele gibt es viele: Gefälschte Reden in denen sich Politiker*innen vermeintlich über Stimmenkauf austauschen in der Slowakei und sogenannte „Softfakes“ in denen sich Ex-Militärs mit Hilfe von KI als „knuffige Opis“ darstellen, um Wähler*innen-Stimmen zu fangen.
Es geht nicht mehr um die Wahrheit
Jungherr schenkt der Gesellschaft allerdings Vertrauen: „Durch Deeplearning generierte Inhalte werden sicherlich realistischer, aber das alleine bedeutet ja noch nicht, dass wir als Gesellschaft nicht in der Lage sind, Prozesse zu definieren, wie dann damit umzugehen ist.“ Schon länger würden Bilder mit Photoshop oder Instagram-Filtern manipuliert, die falsche Vorstellungen erwecken und nicht die Realität darstellen würden. Für ihn steht fest: „Als Gesellschaft können wir mit solchen Dingen umgehen. Ängste kommen mit jeder neuen Technik.“ Wichtig seien in diesem Kontext Verifizierungsprozesse, die die gefälschten Objekte überprüfen können. „Wenn wir nicht mehr per Augenschein Fake von Realität unterscheiden können, dann haben wir gesellschaftliche Strukturen und Institutionen, die das für uns überprüfen, zum Beispiel den Journalismus im politischen Umfeld.“
In Deepfakes grundsätzlich sieht der Politikwissenschaftler kein zwangsläufiges Problem. In Gruppen, die sich ohnehin schon politisch abgelöst hätten, würden Deepfake-Inhalte als emotional ermutigende Bilder untereinander geteilt, glaubt Jungherr. Er erklärt: „Da kommt es auch nicht mehr [auf Wahrheit] an. Das sind dann Gruppen, wo Wahrheit nicht mehr das Ziel ist, sondern ein gruppenidentitärer Prozess. Da können solche Inhalte viel bewirken, die die Welt nicht mehr faktisch abbilden, sondern eine Welt, wie man sie sich dann vorstellt.“ In Gruppen, die sich weit von der politischen Mitte entfernt haben, geht es häufig darum, eine kollektive Identität zu bilden, die durch ein starkes Zusammengehörigkeitsgefühl erzeugt werden kann. Für diese Gruppenidentität eignen sich Fakes mit entsprechenden Inhalten besonders gut, weil sie besonders „perfekt” zur eigenen Wahrheit passen.
Fake News in gefälschten Audios
Ein gutes Beispiel für einen solchen gruppenidentitären Inhalt bildet eine Reihe von Audiodateien, die im Frühling 2023 auf Querdenkerdemos zu hören waren und in entsprechenden Telegram-Gruppen verschickt wurden. Die Moderator*innen Jens Riewa und Susanne Daubner von der Tageschau entschuldigten sich darin vermeintlich für ihre angeblich fehlerhafte Berichterstattung über die Coronapandemie, den Krieg in der Ukraine und die Querdenker-Szene. Investigativjournalistinnen der ZDF-Sendung „Die Spur“ sind den Dateien nachgegangen. Sie haben herausgefunden, dass die Audios mit Hilfe der Software ElevenLabs hergestellt wurden. Hier kann man mit zwei Minuten Audio und einem Text jede Stimme alles sagen lassen. In einem Zeitalter von Sprachnachrichten könnte somit quasi jede Stimme gefälschte Texte sprechen.
Trotz eines konkreten Verdachts konnten die Journalistinnen nicht beweisen, von wem die gefälschten Audiodateien stammen. Besonders bezeichnend ist aber auch die Tatsache, dass in der ursprünglichen Telegram-Gruppe noch eine Kennzeichnung als Satire an die Audiodateien beigefügt war, die im Stille-Post-Spiel von unzähligen Weiterleitungen verloren gegangen ist. Die Journalistinnen stellen fest, dass diese Audiodateien im Gegensatz zu Fällen aus anderen Ländern nur ein Vorbote sein dürften.
Wenn der Präsident anruft: Fakes im Wahlkampf
Im Januar diesen Jahres kam es im Rahmen des Wahlkampfes um das Weiße Haus in den USA bereits zu einem KI-Deepfake, der Wellen schlug: Gefälschte Anrufe, sogenannte Robocalls, mit der zum verwechseln ähnlichen Stimme von Joe Biden versuchten, Wähler*innen der Demokrat*innen zu überzeugen, dass sie nicht bei den Vor- und Hauptwahlen wählen könnten und ihre Stimme deshalb „aufheben“ sollten.
In einem Bericht über den Vorfall des BR erklärt der Wahlrechtsexperte David Becker, Leiter des Center for Election Innovation and Research, dass es den Strippenziehern hinter diesem Fake darum gehen könnte, Menschen davon zu überzeugen, „dass es keine Wahrheit gibt, dass man nicht alles glauben darf, was einem erzählt wird.“ Möglicherweise sei es nicht wirklich darum gegangen, demokratische Wähler*innen von der Stimmabgabe abzuhalten. Vielmehr sei versucht worden, das Vertrauen in Institutionen zu zerstören, heißt es in dem Bericht. An beiden Beispielen wird zum einen deutlich, wie schwierig es ist, Deepfakes unter Kontrolle zu bekommen und zum anderen wie schnell Deepfakes Vertrauen untergraben können.
KI in der Gesellschaft: zwischen Wahrheitsliebe und Freude der Grenzverletzung
„Wir haben es hier mit einer sozial-politischen Entwicklung zu tun, in der technische Möglichkeiten genutzt werden. Solange wir das gesellschaftlich wollen, ist die Überprüfbarkeit der Dinge immer gegeben“, erklärt Jungherr. „Ich glaube, dass politische Gruppen, die in der Lage sind, KI stark zu nutzen, ihre Mitglieder stärker aktivieren können. Das müssen Gruppen aber wollen und aktiv lernen!“ Für den Forscher ist das Problem somit nicht der mangelnde Wahrheitsgehalt der Inhalte. Vielmehr sieht er ein Problem darin, dass kleine Parteien und Randgruppen, die von bestimmten Kanälen abhängen, besser lernen, wie sie die Kanäle nutzen können als etablierte Parteien und Gruppen. Diese sähen einen geringeren Innovationsdruck und würden die Werkzeuge lange ignorieren. „Das kann dann zu asymmetrischer Präsenz und Sichtbarkeit führen.“ In kleineren und politisch radikaleren Gruppen gäbe es zudem eine höhere „Experimentierfreude“ und „Freude an der Grenzverletzung“.
KI und die Europawahl: Wahlkampf mit Deepfakes
Eine Partei ist im Kontext der anstehenden EU-Wahl häufig in der Diskussion: Die AfD auf TikTok. Im Podcast des Deutschlandfunks wird deutlich, dass die AfD mit Deepfake-Bildern wirbt, beispielsweise von stark umzäunten Weihnachtsmärkten oder „ziemlich arisch wirkende Menschen, die vor traumhaften Sonnenuntergängen stehen“. Jungherr stellt fest: „Hier haben wir es mit einer Partei zu tun, die es schwerer hat, über etablierte Medien Sichtbarkeit zu erzeugen und die deshalb sehr viel aktiver, provozierender und kontroverser andere Kanäle nutzt. Manche Kollegen aus der Werbung sagen, dass es Rechtspopulisten einfacher fällt, auf TikTok teilbaren Inhalt zu schaffen, weil der teilweise ‚witzig‘ und teilweise grenzverletzend ist. Das ist Inhalt, der in solchen Netzwerken hohe Sichtbarkeit erzeugen kann.“
Ein Problem sieht Jungherr in der Asymmetrie der Sichtbarkeit: „Gerade in einem EU-Wahlkampf, der von den meisten Wähler*innen nicht mit der höchsten Aufmerksamkeit verfolgt wird, kann das schwierig sein, weil da unter Umständen asymmetrische Mobilisierung erzeugt wird, die die anderen Parteien so nicht erreichen.“ Dadurch könnten die Randgruppen unverhältnismäßig hohe Wähler*innen mobilisieren.
Lost – Was können wir noch glauben?
Fehlbare KI, manipulierte Audios, Bilder und Videos sowie animierte Wahlkampffiguren: Da kann schnell der Eindruck entstehen, dass alles plötzlich Fake ist. Um Sicherheit zu schaffen, versuchen Regierungen und Firmen, Vereinbarungen und Regelungen zu treffen, die eindeutig zeigen, wenn ein Inhalt künstlich generiert wurde. Unter anderem mit Wasserzeichen und Labels. Als Problem bleibt – wie beispielsweise auch bei Hackerangriffen – dass es immer wieder Wege geben wird, Regelungen zu umgehen oder Wasserzeichen zu entfernen. Somit könnte sich ein endloser Wettkampf ergeben, in dem es darum geht, wer schneller „nachrüstet“.
Jungherr merkt allerdings an: „Meine aktuelle Sorge ist, dass wir die Ängste vor dieser Technik zu hoch aufziehen. Es ist total einfach, sich vorzustellen, wie der Missbrauch dieser Werkzeuge aussieht. Aber gleichzeitig ist das ein Missbrauch der vielleicht gesellschaftlich gar nicht so neu ist. Deshalb sind die Kosten durch Missbrauch für die Demokratie niedriger als der Gewinn, den man hätte, wenn man diese Werkzeuge produktiv nutzt.“ Fest steht, KI ist ein aktuelles Thema und wird es auch bleiben. Welche Einflüsse sie noch haben wird, wird sehr unterschiedlich gesehen. Egal was kommt: Es wird immer wichtiger werden, skeptisch zu bleiben sowie Quellen und Fakten zu überprüfen und zu hinterfragen. Denn auch wenn es sich vielleicht manchmal so anfühlt – die KI ist nicht allwissend, fehlbar und ihre Wege sind nicht unergründlich – kurz gesagt: Sie ist doch nicht göttlich.
Dabei sein ist alles. Und Anna is(s)t alles. Anna ist wohl die einzige Autorin, die beim Ottfried kein Spezi trinkt. Kohlensäure ist ihr Endgegner. Das hält sie nicht davon ab, mit voller Fahrt dabei zu sein.