Die Fähigkeiten von generativer künstlicher Intelligenz (KI) sind beeindruckend bis alarmierend. Generative KI umfasst jede Art von damit erstellten Texten, Bildern und Videos. Mit generativer KI erstellte Bilder können so lebensecht wirken, dass die US-Bundespolizei FBI jetzt vor Deepfakes warnt, mit denen Kriminelle ihre Opfer erpressen. Niemand sei gegen solche Deepfake-Techniken gefeit.
«Das FBI erhält weiterhin Berichte von Opfern, einschliesslich minderjähriger Kinder und nicht einwilligender Erwachsener, deren Fotos oder Videos in explizite Inhalte umgewandelt wurden», schrieb die Behörde am Montag in einer Warnung an die US-Bevölkerung – die nicht nur Menschen in den USA betrifft.
Deepfakes, das sind immer häufiger vorkommende Video- oder Audioinhalte, die mit KI erstellt wurden und falsche Ereignisse vorspiegeln. Dank KI-Plattformen wie Midjourney, Dalle-e und OpenAI sind solche Deepfakes immer schwieriger als Fälschung zu erkennen.
Keine Science-Fiction mehr
Entsprechend nehmen Meldungen über Online-Erpressungen zu, sogenannte «Sextortion Scams», die sich laut FBI vorab gegen Minderjährige richten. Deepfakes sind keine Grenzen gesetzt. Im Mai war ein Deepfake von Tesla- und Twitter-CEO Elon Musk (51) viral gegangen. Das in den sozialen Medien geteilte Video enthielt Aufnahmen von Musk aus früheren Interviews, die so bearbeitet wurden, dass sie zum Betrug passten.
Das FBI warnt davor, Lösegeld zu zahlen, da dies keine Garantie dafür ist, dass die Kriminellen das Deepfake nicht trotzdem veröffentlichen. Ausserdem wird geraten, bei der Weitergabe von persönlichen Informationen und Inhalten im Internet äusserst vorsichtig zu sein.
«Künstliche Intelligenz ist nicht länger eine weit hergeholte Idee aus einem Science-Fiction-Film», warnte schon das US-Büro für Konsumentenschutz (FTC) im März. «Wir leben mit ihr, hier und jetzt. Ein Betrüger könnte künstliche Intelligenz nutzen, um die Stimme eines geliebten Menschen zu klonen.» Kriminelle brauchen nur einen kurzen Audioclip der Stimme eines Familienmitglieds, um die Aufnahme echt klingen zu lassen – so zum Beispiel eine Mitteilung, es brauche Geld. (kes)