Ethik künstlicher Intelligenz
Viel Lärm um eine angeblich bedrohliche KI

Eine neue künstliche Intelligenz kann Fake News schreiben. Die Entwickler halten sie geheim – aus Angst vor Missbrauch. Diesen Entscheid kritisieren Insider heftig.
Publiziert: 18.03.2019 um 09:45 Uhr
1/4
Eine neue KI-Anwendung kann Fake News schreiben. Ihre Qualität ist besorgniserregend hoch. (Symboldbild)
Foto: iStock
Cornelia Eisenach @higgsmag

Diesen Text tippe ich, die Autorin, und was ich hier schreibe, entspricht der Wahrheit. Obwohl – kann man das wirklich glauben? Diese Zeilen könnten genauso gut aus der virtuellen Feder einer neuen künstlichen Intelligenz (KI) stammen. Solche selbstschreibenden Programme gab es zwar bereits zuvor, allerdings ergab das Geschriebene nicht immer Sinn.

Doch eine neuen KI-Technik namens GPT-2 liefert nun Texte in nie dagewesener Qualität. Nach Aussage seiner Entwickler soll GPT-2 so gut sein, dass genaue Angaben über seine Funktionsweise vorerst geheim bleiben müssen. Zu gross sei die Gefahr, so sagt die Entwicklerfirma OpenAI, dass die Technologie in die falschen Hände gerät und dazu genutzt wird, massenhaft «hochwertige» Fake News in Umlauf zu bringen.

KI wird kreativ

Das neue Sprachmodell – welches auf einer Spielart der künstlichen Intelligenz namens Deep Learning beruht – durften bislang nur einige Journalisten ausprobieren, unter ihnen solche des britischen «Guardian». Sie fütterten den Textgenerator mit Sätzen aus George Orwells «1984», und das Modell schrieb Anschlusssätze, die den Stil der Geschichte erstaunlich gut aufgriffen. Auch den Anfang einer Newsstory über den Brexit konnte GPT-2 sinnvoll vervollständigen, gewürzt mit passenden Zitaten wichtiger britischer Politiker.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.


Das Kuriose daran: Die Technologie stammt vom kalifornischen Unternehmen OpenAI, das bis vor kurzem noch als Non-Profit-Organisation agierte. Diese wurde unter anderem von Elon Musk Ende 2015 ins Leben gerufen, als Antwort auf die vermeintlich zunehmende Bedrohung der Menschheit durch eine generalisierte künstliche Intelligenz, auch Superintelligenz genannt. Die Idee: die ethischen Risiken der KI zu minimieren, indem man sie so offen und transparent wie möglich entwickelt. In der OpenAI-Charter heisst es unter anderem: «Wir werden aktiv mit anderen Forschungs- und Politikinstitutionen zusammenarbeiten.» Ihre Forschung und Patente machte die Firma anderen Forschern und der Öffentlichkeit bekannt – bis jetzt.

Insider üben Kritik

Dass OpenAI nun mit seiner eigenen Mission bricht, findet der KI-Forscher Zachary Lipton von der US-amerikanischen Carnegie Mellon University ungerechtfertigt. «Die Resultate, die OpenAI beschreibt, sind interessant, aber sie sind nicht überraschend. Diese Art von Fortschritt war zu erwarten. In einigen Monaten werden andere Entwickler ähnlich weit sein.»

Dem stimmt Animashree Anandkumar vom California Institute of Technology zu. «Es gibt viele andere Forschungsgruppen, die an sehr ähnlichen Modellen arbeiten», sagt die Professorin am Departement für Computing und Mathematical Sciences und Direktorin für maschinelles Lernen bei der Firma Nvidia. Dass OpenAI seine Entwicklung nicht wie üblich von anderen Forschern prüfen liess, sondern sich direkt an die Medien gewandt hat, hätte zu einer überzogenen Darstellung der Fähigkeiten des Modells geführt.

Auch das ethische Argument von OpenAI will Anandkumar nicht gelten lassen. Erstens könnten technisch Versierte auch mit den bisher veröffentlichten Informationen zum Modell schon Missbrauch betreiben. Und zweitens würden diejenigen, die Fake News im grossen Stil in Umlauf brächten, dies auch ohne künstliche Intelligenz schon ziemlich effektiv tun. Das Einzige, was OpenAI mit seinem Verhalten bewirke, sei eine Verlangsamung des Fortschritts, weil andere Wissenschaftler das Modell nicht untersuchen könnten.

Systematische Ethikforschung nötig

OpenAI erklärt seine Handlung in einem Blogbeitrag. Die Zurückhaltung des Modells sei ein «Experiment in verantwortungsbewusster Offenlegung», heisst es. Es sei ein schwieriger Balanceakt, äussert sich der für die OpenAI-Firmenstrategie verantwortliche Jack Clark auf Twitter. Es gebe noch keine guten Richtlinien für die Verbreitung transformativer Technologien.

«Ich denke, wenn die Firma ethische Bedenken hat, ist es eine verantwortungsbewusste und vernünftige Strategie, die Resultate vorerst nur teilweise zu publizieren», sagt Cansu Canca, Philosophin und Leiterin des AI Ethics Lab, ein Start-up mit Sitz in Boston und Istanbul, welches Computerwissenschaftler, Philosophen und Rechtswissenschaftler zusammenbringt. Canca sagt: «Dieses Problem war abzusehen. Es ist wichtig, gleichzeitig mit der Entwicklung eines Produktes mögliche Risiken zu erforschen.» Doch weder bei OpenAI noch bei anderen Firmen, die KI-Technologie entwickeln – unter ihnen Google, Amazon und Facebook –, finde eine systematische und seriöse Erforschung der ethischen Aspekte ihrer Produkte und deren Risiken für die Gesellschaft statt.

So vertreiben viele Firmen KI-Software zur automatischen Gesichtserkennung. Doch eine Untersuchung aus dem letzten Jahr zeigte: Oft behandeln Algorithmen nicht alle Menschen gleich. Anwendungen von Microsoft und IBM funktionierten zwar sehr gut für hellhäutige Menschen; sollten sie das Geschlecht von dunkelhäutigen Personen erkennen, schnitten sie jedoch deutlich schlechter ab. Ein Amazon-Produkt musste während der Entwicklung gestoppt werden. Es sollte automatisch Bewerbungsunterlagen sichten. Doch die Verantwortlichen bemerkten: Das Programm hatte eine auffallende Vorliebe für weisse Männer.

OpenAI stösst Diskussion an

Doch in der Maschinenethik geht es nicht nur darum, wie eine künstliche Intelligenz entscheidet, sondern auch darum, wie ihre Anwendung die Gesellschaft verändert.

«Ich finde die Entscheidung von OpenAI gut», sagt Jessica Heesen, Informations- und Medienethikerin an der Universität Tübingen. Auch wenn OpenAI die neue Sprachanwendung nicht aufhalten könne – mit seiner vorsichtigen Veröffentlichungspolitik stosse das Unternehmen eine wichtige Diskussion an. Denn Fake News gebe es zwar schon lange, aber weil sich die Medienlandschaft verändere, würde diese immer wirksamer und könnte den öffentlichen Diskurs immer effektiver bestimmen.

Dazu kommt, dass es immer mehr technische Möglichkeiten zur Fälschung von Nachrichteninhalten gibt. So kann die künstliche Intelligenz schon längst Tonaufnahmen einer Person mit Hilfe weniger Sprachfetzen fälschen. Oder sogenannte Deepfakes erstellen – Videos, bei denen Gesichter von Menschen dank der Deep-Learning-Technologie in jegliche Aufnahmen einkopiert werden können.

In Weltuntergangsstimmung muss man jedoch nicht verfallen. Denn zum einen ist der neue Textgenerator von OpenAI wohl nicht so gefährlich, wie er von der Firma und in Medienberichten dargestellt wird. Zum anderen liegen Fluch und Segen wie so oft dicht beieinander. Etliche Forschungsprojekte beschäftigen sich derzeit mit der Entwicklung von KI-Systemen, die Fälschungen entlarven sollen. Ob hinter einem Text Mensch oder Maschine steckt – in Zukunft wird wohl die KI selber dabei helfen, das zu erkennen.

Mehr Wissen auf higgs, dem Magazin für alle, die es wissen wollen.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.
Fehler gefunden? Jetzt melden
Was sagst du dazu?