Er suchte Belege für Gerichtsverfahren zusammen
Ex-Trump-Anwalt Cohen gibt fälschliche Nutzung von KI zu

Er suchte sich mit einer künstlichen Intelligenz Belege für ein Gerichtsverfahren zusammen, die nur ausgedacht waren. Dies gab Michael Cohen, ehemaliger Anwalt von Donald Trump, am Freitag zu.
Publiziert: 29.12.2023 um 21:23 Uhr
|
Aktualisiert: 29.12.2023 um 22:24 Uhr
Michael Cohen, Ex-Anwalt von Donald Trump, hat mit KI Belege für ein Gerichtsverfahren erstellt.
Foto: keystone-sda.ch

Der ehemalige Trump-Anwalt Michael Cohen hat vor Gericht zugegeben, mit Künstlicher Intelligenz Falschinformationen generiert und an seinen Anwalt weitergegeben zu haben. Der 57-Jährige habe mit dem Google Chatbot Bard Belege für ein Gerichtsverfahren in New York herausgesucht, die sich die Software ausgedacht habe. Das geht aus neu veröffentlichten Unterlagen des Bundesgerichts in Manhattan hervor, in denen Cohen sich für sein Verhalten rechtfertigt.

Cohen sagte dem Gericht in einer am Freitag veröffentlichten eidesstattlichen Erklärung, dass er sich nicht bewusst gewesen sei, dass Google Bard ein Textgenerator ähnlich dem von ChatGPT ist. Cohen räumte seinen Fehler ein, nachdem der Richter in dem Fall zu insgesamt drei zitierten Fällen, die dieser nicht finden konnte, um Erklärung gebeten hatte.

Hat Nutzung von KI Einfluss auf Prozess gegen Trump?

Der Jurist hatte sich wegen Verstössen gegen die Nutzung von Wahlkampfspenden für Trump 2018 schuldig bekannt und wurde zu drei Jahren Gefängnis verurteilt, durfte aber wegen der Corona-Pandemie einen Teil der Strafe im Hausarrest absitzen. Die fehlerhaften Informationen fanden sich nun in der Bitte Cohens an das Gericht, den Fall zu den Akten zu legen.

Es bleibt abzuwarten, ob die Episode Einfluss auf einen gegenwärtig laufenden Prozess gegen den ehemaligen Präsidenten Donald Trump haben wird. Dort hat Cohen als zentraler Zeuge ausgesagt und wird von der Trump-Verteidigung immer wieder als nicht vertrauenswürdig dargestellt.

Die neuartigen KI-Programme haben immense Fähigkeiten – die Art ihrer Programmierung macht sie jedoch anfällig für das «Halluzinieren» von vermeintlichen Fakten. Schon vor Cohen hatte es Fälle von Anwälten gegeben, die sich mit KI-Chatbots die Arbeit erleichtern wollten, damit aber letztendlich falsche Informationen zur Verfügung stellten. (SDA)

Fehler gefunden? Jetzt melden
Was sagst du dazu?