Im Vorfeld der Bundestagswahl am 23. Februar 2025 nutzt die AfD verstärkt Künstliche Intelligenz (KI) zur Beeinflussung der Wähler. So setzt die Partei gezielt auf gefälschte Bilder, Videos und generierte Nutzerprofile, um emotionalisierende Inhalte zu verbreiten und Stimmungsmache im Netz zu betreiben. Dies berichtet op-online. Ein besorgniserregender Aspekt ist, dass viele Bürger oftmals nicht erkennen, dass es sich um KI-generierte Inhalte handelt, was die Diskussion über eine Kennzeichnungspflicht für solche Inhalte neu entfacht.

AfD-Spitzenpolitiker klassifizieren die von ihnen geteilten KI-generierten Inhalte in zwei Hauptkategorien: nostalgische Zukunftsvisionen, die Bilder von lächelnden, hellhaarigen Kindern und jungen Frauen zeigen, sowie dystopische Zukunftsvisionen, die ältere Menschen beim Sammeln von Plastikflaschen oder Frauen in Burkas abbilden. Norbert Kleinwächter, ein AfD-Abgeordneter, erklärt, dass diese KI-Inhalte darauf abzielen, Emotionen zu verstärken und die Lebensweise der AfD zu veranschaulichen. Diese Taktik der emotionalen Klischeeverstärkung wird als Teil einer übergreifenden Strategie der partizipativen Propaganda angesehen.

Strategie und Unterstützung

Die AfD nutzt eine sogenannte „Fan-Armee“, um KI-generierte Inhalte auf sozialen Medien zu verbreiten. Algorithmen werden eingesetzt, um die Reichweite dieser Inhalte zu maximieren. Ein Beispiel für diese Strategie ist die KI-generierte Influencerin namens Larissa, die in sozialen Medien Werbung für die AfD macht. Eine Studie der Otto-Brenner-Stiftung verdeutlicht, dass viele Menschen KI-generierte Wahlkampfbilder nicht als Fälschung identifizieren können. Zudem erzeugen diese emotionalen Inhalte ähnliche Reaktionen wie authentische Bilder.

Die Diskussion um den Einsatz von KI im Wahlkampf ist nicht neu. So kursierte am 21. November 2024 ein KI-generiertes Fake-Video über CDU-Chef Friedrich Merz, das in sozialen Medien für Aufsehen sorgte. In diesem Clip, der von einem SPD-Abgeordneten verbreitet wurde, äußert Merz angeblich, er müsse keine Lösungen anbieten, solange er andere als inkompetent darstellen kann. Merz reagierte empört im Bundestag und betonte die Notwendigkeit, KI-Inhalte deutlicher zu kennzeichnen, während der SPD-Abgeordnete Bengt Bergt sich entschuldigte und auf den bevorstehenden AI-Act aus Europa verwies, der 2026 in Kraft treten soll.

Politische Reaktionen und Ausblick

Das Bundesinnenministerium hat bereits Maßnahmen zur Beobachtung von Hass-Posts eingeführt und eine Früherkennungseinheit für Desinformation gegründet. Innenministerin Nancy Faeser hebt hervor, wie wichtig es ist, technische Veränderungen in Inhalten verständlich zu machen. Experten warnen, dass KI die Manipulation von Wahlen erleichtern könnte, und die Frage der Kennzeichnung von KI-Inhalten bleibt weiterhin strittig. Während die CDU noch keine klare Entscheidung über den Einsatz von KI im Wahlkampf getroffen hat, nutzen die SPD und andere Parteien wie die FDP und die Grünen bereits Strategien, die auf die Kennzeichnung von KI-Inhalten setzen.

Die AfD hingegen hat sich klar zu den Möglichkeiten von KI bekannt und arbeitet aktiv an deren Nutzung, während führende Wissenschaftler, wie Philipp Lorenz-Spreen, darauf hinweisen, dass Deutschland und die Welt nicht ausreichend auf manipulierte Inhalte vorbereitet sind. Die technischen Sicherheitsmaßnahmen hinken den Entwicklungen hinterher und könnten von neuen KI-Techniken übergangen werden, was besorgniserregende Perspektiven für die politische Kommunikation und Wahlkampfstrategien aufwirft.