Desinformation im Zeitalter künstlicher Intelligenz

06.06.2024

„Erstelle mir ein realistisches Foto, dass Militärpräsenz in sächsischen Wahllokalen zeigt“;  “Die Stimme von Michael Kretschmer erklärt die Wahl für ungültig” – mithilfe künstlicher Intelligenz wie Midjourney, Lovo oder OpenAI (ChatGPT) könnten antidemokratische Akteur*innen, jede Wahl mit ein paar wenigen Tastenanschlägen untergraben. Generative künstliche Intelligenz (KI) ist die erste Technologie, die in einen Bereich eindringt, der bisher nur wenigen Menschen vorbehalten war, nämlich in die Produktion von Inhalten jeglicher Form (Bild, Text, Video, Ton). Und genau das ist es, was generative KI zu einer Herausforderung für moderne Demokratien macht, zumal diese Technologie für die Erstellung massenwirksamer Desinformationen missbraucht wird. 

Welche Gefahren gehen von KI-erzeugter Desinformation aus?

Im Superwahljahr 2024 wird nicht nur hierzulande gewählt, sondern weltweit. Von den kommenden EU-Wahlen am 09. Juni, zu beispielsweise Wahlen in Rumänien oder Indien, wird dieses Jahr etwa ein Viertel der Weltbevölkerung wählen. Und genau in diesen demokratisch wichtigen Zeiten wird es immer schwerer zu erkennen, ob ein Inhalt von einem Menschen oder einer Maschine stammt, und ob wir als Gesellschaft dem, was wir lesen, sehen oder hören, vertrauen können. Welche Auswirkungen hat der Einsatz solcher Technologien für die Verbreitung von Desinformation? Was können wir dagegen tun?

Was bedeutet KI für die Verbreitung von Desinformationen? 

Der Einsatz generativer Technologien für Desinformationskampagnen sprengt jede bis jetzt dagewesene Desinformationskampagne, denn sie sprengt jegliches Wahrheitsgefühl und umgeht alle Grundsätze faktenbasierter Arbeit, um das Vertrauen in glaubwürdige Quellen nachhaltig zu zersetzen. KI-gesteuerte Desinformation greift unser Realitätsgefüge an und führt dazu, dass Menschen nicht mehr erkennen können, ob sich beispielsweise hinter einem Text, Bild oder Video ein Mensch verbirgt oder eine Maschine. Doch anders als klassische Desinformation, die von Menschen erst erstellt werden muss, brauchen KI-gesteuerte Desinformationen viel weniger Zeit zu entstehen, zumal sie mit wenigen Klicks in großer Variation entstehen können. So zeigt auch eine Studie der Universität Zürich aus dem Jahr 2023 eindrücklich, wie generative KI zwar faktenbasierte, echte Informationen produzieren kann, aber viel überzeugender Desinformationen produziert. In der Studie wird auch deutlich, dass die Studienteilnehmer*innen Schwierigkeiten hatten, zwischen Beiträgen auf X (ehemals Twitter), die von ChatGPT geschrieben wurden, und Beiträgen, die von echten Menschen stammten, zu unterscheiden. Hinzu kommt, dass sich KI-Technologien rasant weiterentwickeln und somit ein besonderes Sicherheitsrisiko darstellen, zumal die Sicherheitsarchitekturen von beispielsweise Social Media bezüglich Kennzeichnung und Moderation KI-generierter Desinformation weit hinterherhinken. 

Aus Sicht von Mediennutzer*innen zersetzt KI-gesteuerte Desinformation das Vertrauen in Medien und führt zu enormen Schwierigkeiten bei der Überprüfung des Wahrheitsgehaltes von Inhalten. Und das insbesondere vor Wahlperioden, wo Menschen einen erhöhten Drang nach Information verspüren, um ihrem demokratischen (Wahl-)Recht nachzukommen. Die digitale Informationsbeschaffung, beispielsweise über Parteien oder politische Kandidat*innen kann durch Störfeuer wie Deepfakes – also täuschend echt wirkende, künstlich erzeugte Foto-, Video- oder Sprachaufzeichnungen – sabotiert werden. So kann der Entscheidungsfindungsprozess erschwert werden, da nicht mehr zwischen Fakt vs. Meinung oder wahr vs. falsch selektiert werden kann. Was passiert, wenn KI-erzeugte Desinformationen vor Wahlen verbreitet werden, um die Meinungsbildung und den Wahlausgang zu beeinflussen?

Wie mithilfe von KI Wahlen beeinflusst werden sollen

Wahlen und generative KI stehen in einer besonderen Beziehung. Generative KI schafft eine Art alternativer Wirklichkeit, die als Waffe im Informationskrieg sehr gezielt eingesetzt werden kann. Konkret tauchen im Superwahljahr 2024 künstlich erzeugte Deepfakes immer öfter auf, vornehmlich in den sozialen Medien. Unlängst ist schon der politisierende Effekt von sozialen Medien bekannt, die als digitale Marktplätze für die Verhandlung von Wahrheit fungieren. Aktuell werden besonders Plattformen wie TikTok, YouTube, Facebook, Instagram oder X(ehem. Twitter) anvisiert und mit künstlich erzeugten Desinformationen geflutet, die die Absicht verfolgen, Demokratien während des Wahlprozesses zu schädigen. 

Beispiele für KI-Desinfo vor Wahlen

Ein Beispiel hierfür ist eine kurz vor der slowakischen Wahl erschienene Deep Fake Tonaufnahme des politischen Spitzenkandidaten, Michal Šimečka, der darin behauptet, die Wahl manipuliert zu haben. Dabei war die Desinformation rundum Šimečka nur eine von vielen Audio-Fakes, die in den sozialen Medien kurz vor den slowakischen Wahlen die Runde gemacht haben. Ein eindrückliches Beispiel dafür, wie mit künstlicher Intelligenz gefakte Stimmen erzeugt werden können, wurde vom Guardian veröffentlicht. In dem Selbsttest hat die britische Zeitung, die im Apple und Google Store erhältliche App Parrot AI verwendet, um die Stimme von Donald Trump und Joe Biden künstlich zu erzeugen. Nutzer*innen können bei den Audioaufnahmen raten, welche Stimme echt und welche fake ist. 

Eine weitere KI-gesteuerte Desinformationskampagne richtete in den Vereinigten Staaten vor den demokratischen Vorwahlen (Primary) in New Hampshire Schaden an. Tausende Einwohner*innen von New Hampshire erhielten gefälschte Anrufe von Joe Biden, in denen sie ausdrücklich von der Stimmabgabe bei den Vorwahlen abgehalten wurden. In diesen Anrufen behauptete eine künstlich erzeugte Stimme von Joe Biden fälschlicherweise, dass die Stimmen für die allgemeinen Wahlen im November „aufgespart“ werden sollten und dass Stimmabgaben bei der Vorwahl in New Hampshire wirkungslos wären. 

Beispiele aus Deutschland

Doch auch in Deutschland gibt es erste Beispiele für KI-gesteuerte Desinformation. Unter anderem wurde in 2022 eine vielschichtige russische Desinformationskampagne unter dem Namen Operation Doppelgänger aufgedeckt. In dieser Kampagne wurden die Seiten von Online-Nachrichtenportalen wie etwa Bild, Spiegel, Tageszeitung, t-online und taz gefälscht, um auf den Fake-Webseiten KI-gesteuerte Desinformationstexte zu platzieren. Darüber hinaus wurden die gefälschten Seiten von gefälschten KI-gesteuerten Profilen (sogenannten Bots) auf Plattformen wie Facebook oder X weiterverbreitet. 

Auch in Sachsen lassen sich Beispiele finden. So wurde eine Dresdner Demo im Februar aufgelöst, nachdem Fake Tagesschau Audios vom Moderator Jens Riewa auf der Bühne für das Publikum vorgespielt wurden. Gegen den Veranstalter der Demo, Marcus Fuchs, ermittelt mittlerweile der Staatsschutz. Auch das Bundesamt für Sicherheit in der Informationstechnik (BSI) und die  sächsische Regierung warnen während einer Dresdner Pressekonferenz über die steigende Gefahr von künstlicher Intelligenz. Hintergrund der Konferenz war das Thema Kommunal-, Europa- und Landtagswahlen in Sachsen in diesem Jahr. 

Wie kann ich KI-gesteuerte Desinformation oder Deepfakes erkennen?

  1. Achte auf Gesichter und Mimiken. Deepfake-Manipulationen haben manchmal Schwierigkeiten, menschliche Mimiken zu imitieren. Ein besonderes Augenmerk sollte deswegen auf Augenbrauen und Mund gelegt werden. Die Gesichter können künstlich oder leicht verzerrt wirken. Wirkt die Haut zu glatt oder zu faltig? Passt das Alter der Haut zum Alter der Haare oder Augen? Deepfakes können manchmal Altersverzerrungen hervorrufen und dadurch Personen älter oder jünger aussehen lassen. 
  2. Achte auf Unstimmigkeiten beim Outfit. Passt die Kleidung zu der dargestellten Person, oder wirkt sie sehr skurril? Ist der Faltenwurf richtig, oder wirkt die Klamotte gestellt oder unlebendig?  
  3. Achte auf Lichtverhältnisse und Perspektiven. Ohrringe, Ketten, Brillen werfen viele Schatten und reflektieren in der Regel Licht. Wenn diese jedoch in allen Bildeinstellungen gleich aussehen, könnte dies ein Hinweis auf manipuliertes Bildmaterial sein. Ähnlich verhält es sich mit Raumperspektiven. Hat das Bild eine Tiefenschärfe, werfen Objekte einen Schatten?
  4. Achte auf die Haare. Von Gesichtsbehaarung bis zu vollen Frisuren, Haare haben ihre eigene Dynamik und Bewegung. Sind diese komplett unbewegt, oder bewegen sie sich unschlüssig zum Verhalten einer Person, könnte es sich um eine Fälschung handeln. 
  5. Wiedererkennungsmerkmale. Zähne, Leberflecken, Narben oder Besonderheiten im Gesicht können, insbesondere bei Personen öffentlichen Lebens, Hinweise liefern.
  6. Achte auf Ticks und kleine Gesten. Blinzelt die Person genug? Hat sie im echten Leben etwa einen kleinen nervösen Tick oder spricht sie besonders?
  7. Aussprache und Stimme. Wirkt die Stimme heller oder tiefer? Spricht die Person leiser oder etwa schneller als sonst?
  8. Klang und Akustik. Wirkt die Stimme künstlich oder verfremdet? 

Was kann ich gegen KI-gesteuerte Desinformation tun?

  1. Überprüfe dein eigenes Informationsnetzwerk, versuche verschiedene Perspektiven einzunehmen und beziehe deine Nachrichten aus hochwertigen, vertrauenswürdigen Quellen.
  2. Überlege, was du öffentlich teilst. Desinformation hat nur so viel Kraft, wie man ihr schenkt.  Treffe eine Vorauswahl vor dem Veröffentlichen.
  3. Führe einen doppelten Quellencheck durch. Frage dich, aus welcher Quelle die Information stammt. Prüfe Impressum, oder via Suchmaschine, ob andere darüber berichten. 
  4. Nutze Tools wie etwa Bilder- oder Videorückwärtssuchen.
  5. Nutze online Factchecking-Angebote. Hat vielleicht schon jemand anderes die Information überprüft, mit denen du dich beschäftigst? Correctiv, Mimikama, Volksverpetzer und etliche Redaktionen öffentlicher Rundfunkanstalten bieten mittlerweile zuverlässige Faktenchecks an. Oder probiere gleich den Google Fact Check Explorer aus. Das ist eine Art Suchmaschine für Faktenchecks, die die meisten der verbreitetsten Faktencheck-Seiten durchsucht.
  6. Melde KI-gesteuerte Desinformation beim Plattformbetreiber. 
  7. Jede*r macht Fehler und steht in der Gefahr, Desinformation zu verbreiten. Nehme auf geteilte Inhalte Bezug, korrigiere die Desinformation oder ergänze Inhalte.