Ist es einfach ein billiger Gag oder eine fiese Masche, um Wähler zu täuschen? SVP-Nationalrat Andreas Glarner (61) hat ein Video verbreitet, in dem Grünen-Nationalrätin Sibel Arslan (43) dafür wirbt, den Aargauer SVP-Hardliner zu wählen.
Natürlich würde die echte Arslan den SVP-Mann nie empfehlen. Vielmehr hat Glarner ihr die Worte mit Hilfe künstlicher Intelligenz (KI) in den Mund gelegt. Der Aargauer rechtfertigt das Video: «Es ging darum, einen heiteren Schlusspunkt im Wahlkampf zu setzen», sagt er zu Blick. Auch ist im Video eingeblendet, dass dieses mit KI erstellt wurde.
«Kriminelle Energie»
Muss sich Arslan das gefallen lassen? Die Basler Grüne findet Nein und hat bei Gericht mit einer superprovisorischen Verfügung erwirkt, dass Glarner das Video löschen muss, wie CH Media berichtet. Was dieser auch tat: Kurz nach 18 Uhr abends war das Video tatsächlich bereits gelöscht.
Arslans Kollegen im Parlament stützen das Vorgehen der Grünen und äussern sich empört über Glarners Verhalten. So sagt Beat Flach (58), Jurist und GLP-Nationalrat, zu Blick: «Wer KI verwendet, um Politikerinnen und Politikern gefälschte Aussagen in den Mund zu legen, hat die Ebene der politischen Debatte verlassen und beweist, dass er lieber kriminelle Energie walten lässt als demokratische Kultur.»
Auch die Präsidien aller grossen Parteien – bis auf die SVP – verurteilen, KI-generierte und persönlichkeitsverletzende Videos im Wahlkampf zu verbreiten. In einer Medienmitteilung schrieben sie, das «untergräbt das Vertrauen der Schweizer Bevölkerung in die Aussagen von Politikerinnen.»
Bis ein Jahr Gefängnis
Martin Steiger, Anwalt und Spezialist für Datenschutzrecht, sagt, Fake-Videos ohne die Zustimmung der abgebildeten Personen zu verbreiten, könne strafrechtlich relevant sein. So kenne das Schweizer Strafrecht den Tatbestand Ehrverletzung und neu auch Identitätsmissbrauch.
«Wer die Identität einer Person ohne deren Einwilligung verwendet, um dieser zu schaden oder um sich einen unrechtmässigen Vorteil zu verschaffen, wird mit einer Freiheitsstrafe bis zu einem Jahr oder Geldstrafe bestraft», zitiert Steiger aus dem Gesetz. Zudem könnten sogenannte Deepfakes auch zivilrechtlich relevant sein. «Dann muss die betroffene Person wegen Persönlichkeitsverletzung klagen», so Steiger.
Politik stellt Regeln auf
Die Technik hinter solchen sogenannten Deepfakes basiert auf KI. Sie lässt sich heutzutage auch für Laien einfach nutzen und liefert inzwischen ziemlich realistische Ergebnisse. Apps ermöglichen es für wenig Geld, beliebige Fake-Videos zu generieren – benötigt wird oft lediglich ein Porträtfoto.
Die Schweizer Parteien hatten darum schon im Vorfeld der Wahlen Regeln für den Umgang mit künstlicher Intelligenz im Wahlkampf vereinbart. SP, Mitte, Grüne, GLP und EVP hatten sich auf einen Kodex geeinigt. Gemäss diesem verzichten sie darauf, künstliche Intelligenz für Negativkampagnen zu nutzen. Nicht mitgemacht haben bei diesem Pakt die Bürgerlichen.
Auch SPlerin setzte schon auf KI
Die FDP – die im aktuellen Wahlkampf mit einem KI-generierten Plakat mit Klimakleber-Motiv antrat – hat sich inzwischen selbst KI-Regeln auferlegt. «Mit diesen wäre ein solches Video nicht zu vereinbaren», sagt FDP-Generalsekretär Jon Fanzun zu Blick. Die FDP nutze keine KI-erzeugten audiovisuellen Inhalte mit der Absicht, die Öffentlichkeit zu täuschen.
Auch die Aargauer SP-Ständeratskandidatin Gabriela Suter (50) hatte vor kurzem ein mit KI verändertes Video veröffentlicht, in dem FDP-Präsident Thierry Burkart (48) im Mittelpunkt stand. Nachdem Burkart das Video als «Irreführung der Wählerinnen und Wähler» kritisierte und es einen «direkten Angriff auf unsere Demokratie» genannt hatte, löschte Suter den Clip.