Super-Wahljahr 2024: Russland, China, ChatGPT und Wahlbeeinflussung

Illustration mit Midjourney generiert. Prompt: Troll farms and the thinking brain of a voter.

In den letzten drei Monaten hat OpenAI fünf “Operationen” gestoppt, die versuchten, die KI-Modelle von OpenAI für die Verbreitung von Fake News zur Wahlbeeinflussung zu nutzen. Die aufgedeckten Gruppen haben Verbindungen zu Russland, China, dem Iran und Israel. Daran sind einige Dinge erwartbar und andere überraschend.

Aufdeckung und Maßnahmen

In einem kürzlich veröffentlichten Beitrag beschreibt OpenAI die Gruppen, die identifiziert und deren Konten gesperrt wurden, sowie die Trends und Security-Maßnahmen im Zusammenhang mit diesen Vorfällen.

Was genau aufgedeckt wurde und wer die fünf gestoppten Gruppen sind

Bad Grammar: Eine bislang unbekannt russische Gruppe, die hauptsächlich auf Telegram aktiv war und die Ukraine, Moldawien, die baltischen Staaten und die USA im Visier hatte. Diese Gruppe nutzte OpenAI-Modelle, um Code für Telegram-Bots zu debuggen und kurze politische Kommentare in Russisch und Englisch zu erstellen.

Doppelganger: Ebenfalls aus Russland stammend, nutzte diese Gruppe die Modelle von OpenAI, um Kommentare in verschiedenen Sprachen zu generieren, Artikel zu übersetzen und zu bearbeiten sowie Schlagzeilen und Facebook-Posts zu erstellen.

Spamouflage: Ein chinesisches Netzwerk, das öffentliche Social-Media-Aktivitäten durchsuchte und Texte in verschiedenen Sprachen generierte, die dann auf Plattformen wie X, Medium und Blogspot veröffentlicht wurden. Zudem wurden Codes für die Verwaltung von Datenbanken und Websites debuggt.

International Union of Virtual Media (IUVM): Eine iranische Gruppe, die lange Artikel, Schlagzeilen und Website-Tags generierte und übersetzte, die dann auf einer verlinkten Website veröffentlicht wurden.

Zero Zeno: Eine kommerzielle Gruppe aus Israel, die Artikel und Kommentare generiert und auf verschiedenen Plattformen wie Instagram, Facebook und X postet.

Bedrohungstrends

OpenAI informiert auch über die Trends und Szenarien im Bereich KI-gestützter Meinungsmanipulation.

Inhaltsgenerierung: Alle Akteure nutzten die Dienste von OpenAI zur Textgenerierung in großem Umfang und produzieren damit weniger Sprachfehler als das früher der Fall war. Die Grammatik der Angreifer wird also besser, was Inhalte authentischer erscheinen lässt.
Mischung aus alten und neuen Methoden: KI-generiertes Material war nur ein Teil des geposteten Inhalts, neben traditionellen Formaten wie manuell geschriebenen Texten oder Memes.
Troll-Farmen und gefakte Interaktionen: Es sieht nach viel Interaktion aus, tatsächlich interagieren nur Bots. Diese Methode ist ein Dauerbrenner, der von vielen Gruppen verwendet wird. um den Anschein von Relevanz zu generieren.
Produktivitätssteigerung: Bedrohungsakteure versuchten, ihre Produktivität zu steigern, beispielsweise durch das Zusammenfassen von Social-Media-Posts oder das Debuggen von Code.

Security

OpenAI listet danach auch noch eine Reihe von Maßnahmen, die ergriffen wurden, um derartige Aktivitäten rascher feststellen und unterbinden zu können.

Defensives Design: Sicherheitssysteme, die das Generieren bestimmter Inhalte verhindern.
KI-gestützte Analyse: OpenAI setzt eigene KI-Tools ein, die Anomalie-Erkennung und Analyse verbessern.
Verteilungsstrategie: AI-generiertes Material muss verbreitet werden, um ein Publikum zu erreichen. Durch die Zusammenarbeit mit (Social) Media Plattformen kann rascher reagiert werden.
Industry Sharing: Der Austausch detaillierter Indikatoren mit Branchenkollegen.

OpenAI betont, dass es der Entwicklung sicherer und verantwortungsvoller KI verpflichtet bleibt und weiterhin aktiv gegen den Missbrauch ihrer Modelle vorgehen wird.

Die Moral von der Geschicht’

Unabhängig davon, ob nun bei OpenAI Konten gesperrt wurden, sind Troll-Farmen und Meinungsbeeinflussung eine Realität, die bleiben wird. Während Maßnahmen zur Eindämmung solcher Aktivitäten immer angezeigt sind, so müssen wir uns als Gesellschaft gleichzeitig der Realität stellen, dass Denken wohl die wichtigste der 21st Century Skills sein wird. Wenn wir dafür ein Zeugnis bekommen würden, dann wäre es derzeit gesamtgesellschaftlich wohl ein Armutszeugnis. Klingt hart, und das ist es auch.
Eine häufig gestellte Frage: “Was kann man denn noch glauben?” Wie wäre es mit: “Nichts”? Also außer in der Kirche bitte, dort ist Glauben ja ausdrücklich erwünscht und passend.
Es gibt bessere Fragen. Wie wäre es mit: “Kann das sein?”. Eine andere gute Frage wäre: “Wem nützt das?”
Wenn wir also sicher sein können, dass 2024 (und danach) der mit Abstand größte Teil der kursierenden Informationen falsch sein wird, welche Konsequenzen ziehen wir? Dazu gäbe es noch eine gute Frage: “Muss ich jeden Tag in den letzten reißerischen, hetzerischen, und vor allem schlechten Nachrichten köcheln?” (Zitat geborgt bei Mark Zuckerberg. Bemerkenswert, nicht wahr?) “Was muss ich für meine Entscheidungsfindung bei einer Wahl wirklich wissen?” “Und wo werde ich das finden?” “Wohne ich in der Kommentarspalte eines Boulevard-Mediums und muss ich dort eigentlich einen Meldezettel lösen?” Fragen über Fragen.

Abschließend noch eine letzte, dringende Frage: Können wir uns benehmen wie eine Gesellschaft im 21. Jahrhundert? Und warum nicht? Jetzt waren’s doch zwei.


Quelle: https://openai.com/index/disrupting-deceptive-uses-of-AI-by-covert-influence-operations/

Upcoming events