Während des Brexit-Referendums 2016 und der US-Präsidentschaftswahlen wurden viele Menschen von Desinformationen überrascht. Seither hat sich eine Mini-Industrie zur Analyse und Bekämpfung von Desinformation entwickelt. Doch im Jahr 2024, in dem weltweit mehr als 40 Wahlen stattfinden, ist die Angst vor Desinformation größer denn je. In vielerlei Hinsicht ist das Problem schwieriger als 2016.
Ein Grund dafür ist der technologische Fortschritt, insbesondere die Entwicklung synthetischer Medien, auch Deepfakes genannt. Es wird immer schwieriger zu erkennen, ob Medien von einem Computer fabriziert wurden oder auf etwas basieren, das tatsächlich passiert ist. Wir müssen noch herausfinden, wie groß der Einfluss von Deepfakes auf Wahlen sein könnte. Aber es gibt eine Reihe von Beispielen, die uns zeigen, wie sie eingesetzt werden können. Dieses Jahr könnte das Jahr sein, in dem viele Fehler gemacht und Lektionen gelernt werden.
Seit der Desinformationskampagne rund um die Wahlen 2016 haben Forscherinnen und Forscher zahlreiche Bücher und Artikel verfasst, Journalistinnen und Journalisten haben sich zu Expertinnen und Experten für die Überprüfung und Verifizierung von Fakten weitergebildet, Regierungen haben sich in “großen Ausschüssen” und Kompetenzzentren engagiert. Darüber hinaus sind Bibliotheken in den Mittelpunkt von Resilienzstrategien gerückt, und eine Reihe neuer Institutionen ist entstanden, die Analysen, Schulungen und Ressourcen anbieten.
Diese Arbeit war nicht umsonst. Wir haben heute ein differenzierteres Verständnis von Desinformation als soziales, psychologisches, politisches und technologisches Phänomen. Vielversprechend sind auch die Bemühungen, den Journalismus im öffentlichen Interesse zu unterstützen und kritisches Denken in der Bildung zu fördern. Vor allem die großen Technologieunternehmen geben nicht mehr vor, neutrale Plattformen zu sein. Inzwischen haben die politischen Entscheidungsträger ihre Aufgabe wiederentdeckt, die Technologie im öffentlichen Interesse zu regulieren.
KI und synthetische Medien
Die Regulierungsdebatte hat an Dringlichkeit gewonnen, seit KI-Tools zur Erstellung synthetischer Medien – Medien, die teilweise oder vollständig von Computern erzeugt werden – alltäglich geworden sind. Diese Deepfakes können verwendet werden, um die Stimme und das Aussehen echter Menschen zu imitieren. Deepfake-Medien sind beeindruckend realistisch und erfordern keine großen Fähigkeiten oder Ressourcen.
Dies ist der Höhepunkt der allgemeinen digitalen Revolution, bei der aufeinander folgende Technologien die Produktion hochwertiger Inhalte für fast jedermann zugänglich gemacht haben. Im Gegensatz dazu wurden die Regulierungsstrukturen und institutionellen Standards für die Medien zumeist zu einer Zeit entwickelt, als nur eine Minderheit von Fachleuten Zugang zur Produktion hatte.
Politische Deepfakes können unterschiedliche Formen annehmen. Bei den jüngsten Wahlen in Indonesien gab es ein Deepfake-Video, in dem der verstorbene Präsident Suharto “auferstand”. Es wurde jedoch als Propaganda bezeichnet, da es von seiner Partei produziert wurde. Eine vielleicht noch offensichtlichere Verwendung von Deepfakes ist die Verbreitung von Lügen über politische Kandidaten. So wurde beispielsweise wenige Tage vor den slowakischen Parlamentswahlen im September 2023 eine gefälschte KI-generierte Tonaufnahme veröffentlicht.
Abgesehen von dem offensichtlichen Versuch, eine politische Partei zu untergraben, ist dieser Deepfake, dessen Ursprung unklar war, ein Beispiel für die Bemühungen, Minderheiten zu Sündenböcken zu machen und den Mainstream-Journalismus zu verteufeln. Glücklicherweise war die Audioaufnahme in diesem Fall von schlechter Qualität, so dass die Faktenprüfer schneller und einfacher feststellen konnten, dass es sich um eine Fälschung handelte. Die Integrität demokratischer Wahlen darf jedoch nicht von der Ungeschicklichkeit der Fälscher abhängen.
Die Deepfake-Audiotechnologie ist so ausgereift, dass eine Erkennung schwierig ist. Deepfake-Videos haben noch Schwierigkeiten mit bestimmten menschlichen Merkmalen, wie der Darstellung von Händen, aber die Technologie ist noch jung.
Wichtig ist auch, dass das slowakische Video in den letzten Tagen des Wahlkampfes veröffentlicht wurde. Dies ist ein idealer Zeitpunkt für Desinformations- und Manipulationsangriffe, da Zielpersonen und unabhängige Journalisten alle Hände voll zu tun haben und daher wenig Zeit zum Reagieren bleibt. Außerdem ist es teuer, zeitaufwändig und schwierig, Deep Fakes zu untersuchen, und es ist unklar, wie Wahlkommissionen, politische Kandidaten, die Medien oder sogar die Wählerschaft reagieren sollten, wenn potenzielle Fälle auftreten. Schließlich kann eine falsche Anschuldigung durch einen Deep Fake ebenso beunruhigend sein wie der Deep Fake selbst.
Eine weitere Möglichkeit, wie Deepfakes zur Wahlbeeinflussung eingesetzt werden können, ist die bereits weit verbreitete Art und Weise, wie sie zur Belästigung und zum Missbrauch von Frauen und Mädchen eingesetzt werden. Diese Art der sexuellen Belästigung fügt sich in ein bestehendes Missbrauchsmuster ein, das die politische Partizipation von Frauen einschränkt.
Die Integrität der Wahlen in Frage stellen
Das Problem ist, dass noch nicht klar ist, welche Auswirkungen Deepfakes auf die Wahlen haben könnten. Es ist gut möglich, dass wir bei den nächsten Wahlen in diesem Jahr weitere ähnliche Deepfakes sehen werden. Und wir könnten sogar erleben, dass Deepfakes auf eine Art und Weise eingesetzt werden, an die wir noch gar nicht gedacht haben.
Es lohnt sich aber auch, daran zu denken, dass nicht alle Desinformation Hightech ist. Es gibt auch andere Wege, die Demokratie anzugreifen. Gerüchte und Verschwörungstheorien über die Integrität des Wahlprozesses sind ein heimtückischer Trend. Wahlbetrug ist ein globales Problem, da viele Länder nur dem Namen nach Demokratien sind.
Es ist klar, dass Social-Media-Plattformen Desinformation in vielerlei Hinsicht ermöglichen und fördern, aber es ist ein Trugschluss zu glauben, dass das Problem online beginnt und endet. Eine Möglichkeit, über die Herausforderung der Desinformation bei den nächsten Wahlen nachzudenken, ist die Stärke der Systeme, die die Demokratie aufrechterhalten sollen.
Gibt es ein unabhängiges Mediensystem, das in der Lage ist, im öffentlichen Interesse qualitativ hochwertige Recherchen durchzuführen? Gibt es unabhängige Wahlbehörden und -kommissionen? Gibt es unabhängige Gerichte, die bei Bedarf Urteile fällen? Und gibt es Politiker und politische Parteien, die sich in ausreichendem Maße demokratischen Werten und nicht ihren eigenen Interessen verpflichtet fühlen? In diesem Wahljahr werden wir vielleicht Antworten auf diese Fragen finden.