KI im Superwahljahr 2024: Zwischen freier Meinungsbildung und Manipulation

KI-Algorithmen beeinflussen, welche Informationen uns in sozialen Medien angeboten werden. Mit Hilfe generativer KI-Systeme lassen sich auf überzeugende Weise gefälschte Texte, Videos oder Bilder (Deep Fakes) erstellen. Was bedeutet das für die politische Meinungsbildung – insbesondere im Vorfeld von Wahlen, wie sie dieses Jahr etwa in Europa, drei ostdeutschen Bundesländern und den USA stattfinden? Im Rahmen der Veranstaltungsreihe „acatech am Dienstag“, die am 07. Mai in Kooperation mit der Plattform Lernende Systeme (PLS) in München stattfand, diskutierten Fachleute dazu mit rund 60 Gästen.

V.l.n.r.: C. Neuberger, F. Espenlaub (Moderation), A-R. Sadeghi, L. Mache

Desinformation und Fake News sind keine neue Erscheinung: Bereits Stalin nutzte die politische Retusche und ließ seinen Gegenspieler Leo Trotzki aus einem Foto entfernen, das diesen mit seinem Revolutionsgefährten Lenin zeigt. Neu aber sind die Möglichkeiten, mithilfe von Künstlicher Intelligenz (KI) falsche Informationen zu generieren und in die Breite zu tragen, so Jan Wörner, Co-Vorsitzender der Plattform Lernende Systeme und acatech Präsident, bei seiner Begrüßung.

Was bedeutet das für die Meinungsbildung im Jahr 2024, in dem rund die Hälfte der Weltbevölkerung zu Wahlen aufgerufen ist? Befördern generative KI und Empfehlungsalgorithmen eine Polarisierung des Diskurses oder eine Einflussnahme aus dem Ausland? Empirisch belegen lasse sich der Einfluss von KI auf Wahlergebnisse nicht, weil der Forschung schlichtweg der Zugang zu relevanten Daten – etwa von Internet-Plattformen – fehle, so Christoph Neuberger, Professor für Publizistik- und Kommunikationswissenschaft an der Freien Universität Berlin, Direktor des Weizenbaum-Instituts sowie Mitglied von acatech und der Plattform Lernende Systeme. Zu unterschätzen sei der Einfluss von KI aber keineswegs.

Generative KI noch im Experimentierstadium

In seinem Impulsvortrag skizzierte Christoph Neuberger die mit generativer KI verbundenen Befürchtungen – von der Überflutung der sozialen Medien durch bot-generierte Kommentare über die Verbreitung von Fake News bis zur Abschottung von Teilöffentlichkeiten. Gleichwohl berge generative KI auch Chancen für den öffentlichen Diskurs, etwa durch Tools zur Überprüfung von politischen Positionen oder zur Analyse von Kommentaren. Aufhalten lasse sich die technologische Entwicklung nicht, aktuell befänden wir uns in einem unübersichtlichen Experimentierstadium, so Christoph Neuberger. Im Sinne der Demokratie gelte es, sich rasch auf Regeln für den Einsatz von generativer KI zu verständigen.

Desinformation im KI-Zeitalter zu erkennen, ist nicht trivial. Generative KI macht es zunehmend einfach, täuschend echt wirkende Fotos, Videos oder Tonaufnahmen zu erstellen. Diese mit Hilfe von technologischen Lösungen zu erkennen, gleiche einem Wettlauf, so Ahmad-Reza Sadeghi, Professor für Informatik und Leiter des System Security Lab an der TU Darmstadt sowie Mitglied von acatech und der Plattform Lernende Systeme. Auf gute Detektions-Tools folgten noch bessere Technologien zur Generierung von gefälschten Informationen. Rein technologisch werde sich Desinformation künftig nicht entlarven lassen, so Ahmad-Reza Sadeghi. Wichtig sei, kritisches Denken in der Bevölkerung anzuregen.

Manipulationsversuche erkennen können

Zugleich stehen die Technologieanbieter in der Verantwortung. Lutz Mache, Manager Government Affairs and Public Policy bei Google Deutschland, nannte als eine Maßnahme das so genannte Prebunking: Über ein Webangebot klärt Google Internet-Nutzende anhand von Beispielen auf, wie sie manipulative Inhalte erkennen und sich dagegen wappnen können. Die Inhalte der eigenen Plattformen lasse Google – im Vorfeld von Wahlen verstärkt – von internen Teams auf Desinformation prüfen. Als Anbieter von generativer KI setze Google bei Bedarf Grenzen und schränke die Verbreitung bestimmter Tools ein, die zur Desinformation genutzt werden könnten, so Lutz Mache.

Bei allen Bemühungen: Die Büchse der Pandora ist geöffnet, die Herausforderung für unsere Gesellschaft groß, so der Tenor der Diskussion. Neben technologischen Lösungen und Digital Literacy plädierte Christoph Neuberger in seinem Schlusswort auch für Faktenprüfer und Institutionen, die die Bürgerinnen und Bürger beim Erkennen von Desinformation unterstützten.

Die Veranstaltung fand im Rahmen des „Wissenschaftsjahres 2024 – Freiheit“ des Bundesministeriums für Bildung und Forschung (BMBF) statt. Moderiert wurde sie von Fritz Espenlaub, freier Journalist und Host von "Der KI-Podcast" der ARD.

Wie werden Internet-Nutzende gegen Deep Fakes geschützt?

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

KI und Journalismus: Werkzeug oder Bedrohung?

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Nachgefragt zu KI: Wie gut lassen sich Deep Fakes aufspüren?

Empfohlener redaktioneller Inhalt

An dieser Stelle finden Sie einen externen Inhalt von YouTube, der den Artikel ergänzt. Sie können ihn sich mit einem Klick anzeigen lassen und wieder ausblenden.

Weitere Informationen:

Linda Treugut / Birgit Obermeier
Presse- und Öffentlichkeitsarbeit
Lernende Systeme – Die Plattform für Künstliche Intelligenz
T.: +49 89/52 03 09-54 /-51
M.: +49 172/144 58-47/-39
presse@plattform-lernende-systeme.de

Zurück