Täuschend echte Audio-Aufnahmen von Kandidierenden, Anrufe durch KI-generierte Stimmen von Politikern, bis ins kleinste Detail gefälschte Nachrichtenseiten – all dies ist heute mit Künstlicher Intelligenz bereits möglich. Doch wenn Wählerinnen und Wähler nicht mehr unterscheiden können, ob ein Video echt ist oder ob ein Kommentar von einem Menschen stammt oder von einer KI generiert wurde, bricht die Vertrauensbasis weg, die für den demokratischen Meinungs- und Willensbildungsprozess von entscheidender Bedeutung ist.
Desinformation beeinflusst Meinungen, verzerrt Debatten und kann politische Entscheidungen gezielt manipulieren. Gerade im Wahlkampf verbreiten sich falsche oder bewusst irreführende Meldungen schnell – oft emotional aufgeladen, vereinfacht dargestellt und schwer als solche zu erkennen. Wer jedoch weiß, wie Desinformation funktioniert und sich umfassend informiert, kann Fakten prüfen, Manipulation durchschauen und sich eine eigene, fundierte Meinung bilden.
Eine große Gefahr stellen KI-generierte Bilder dar: Sie wirken täuschend echt und können Politikerinnen und Politiker in Situationen zeigen, die nie stattgefunden haben mit Aussagen, die nie getätigt wurden. Solche Bilder untergraben Vertrauen, schüren Zweifel und beeinflussen Wahlentscheidungen, noch bevor ihre Echtheit hinterfragt wird. Um die Gesellschaft und den demokratischen Prozess zu schützen, ist es wichtig, die Bürgerinnen und Bürger aktuell und sachlich über Desinformation oder KI-Fälschungen zu informieren.
Die Taskforce Desinformation Baden-Württemberg stellt gemeinsam mit der Cyberabwehr des Landesamts für Verfassungsschutz praxisnahes und übersichtliches Informationsmaterial zu KI-basierter Desinformation und Deepfakes zum Download bereit. Dieses Material richtet sich in erster Linie an Abgeordnete und Kandidierende, aber auch an alle interessierten Bürgerinnen und Bürger.
Das Material steht hier zum Download bereit:
Checkliste: Erste Hilfe bei Desinformation & Deepfakes
Risiken durch KI-basierte Desinformation und hybride Einflussnahme