Foto: Jessica Keller

Experte Nicolas Economou nervt sich am Umgang mit künstlicher Intelligenz
«Algorithmen haben uns längst im Griff»

Es sei bereits Realität, dass wir von künstlicher Intelligenz bestimmt werden, sagt Nicolas Economou. Er warnt vor der Macht der Algorithmen.
Publiziert: 28.01.2019 um 23:51 Uhr
1/5
Die Gesellschaft kümmere sich zu wenig um die Risiken von künstlicher Intelligenz, sagt der internationale Experte für künstliche Intelligenz und Ethik Nicolas Economou.
Foto: Jessica Keller
Interview: Claudia Gnehm

Nicolas Economou (53) nervt sich zunehmend an Firmen und deren Umgang mit künstlicher Intelligenz. Allein im Finanz- und Rechtsbereich würden Algorithmen und künstliche Intelligenz Voreingenommenheiten aufweisen, die für die Gesellschaft nicht tolerierbar seien, warnte er zuletzt vor ein paar Tagen an der Digitalkonferenz Worldwebforum in Zürich.

BLICK: Wieso warnen Sie vor künstlicher Intelligenz?
Nicolas Economou:
Künstliche Intelligenz birgt grosse Hoffnungen. Aber die Risiken sind genauso gross. Die Gesellschaft fokussiert zu wenig auf die Risiken. Es ist höchste Zeit, die Alarmglocken zu läuten, die Bürger aufzuwecken und die Risiken zu minimieren.

Sie denken an die Horrorvision, dass wir von künstlichen Wesen regiert werden?
Diese Technologie hat unser Leben heute schon teilweise im Griff. Künstliche Intelligenz definiert sogar «wer man ist» – zumindest in den USA.

Wie genau soll das gehen?
Menschen erhalten Bewertungen über ihre Kreditwürdigkeit. Es ist also von künstlicher Intelligenz abhängig, wie viel Kredit sie bekommen. Und in der US-Justiz gilt: Wer einmal verurteilt wurde, dessen Risiko für die Gesellschaft wird nachher von KI beurteilt. Entsprechend fällt das Strafmass aus. Wir werden heute über KI schon auf viele Arten beurteilt und bestimmt. Bedenklich ist: Wir reagieren darauf und richten uns danach. Die Gefahr von KI ist real, auch wenn wir noch keine Roboter sehen, die übernehmen.

Internationaler Experte für Ethik und künstliche Intelligenz

Nicolas Economou (53), Chef von H5 und Experte für künstliche Intelligenz und Ethik arbeitet für die Initiative «Ethik und autonome intelligente Systeme» des Internationalen Ingenieurverbands (IEEE). Der Amerikaner mit Schweizer Pass studierte unter anderen an der Universität Genf und der Harvard Kennedy School und bezeichnet sich als stolzen Ex-Mitarbeiter von ABB. Er war Teil des Justizkomitees in der Präsidentschaftskampagne von Barack Obama.

Nicolas Economou (53), Chef von H5 und Experte für künstliche Intelligenz und Ethik arbeitet für die Initiative «Ethik und autonome intelligente Systeme» des Internationalen Ingenieurverbands (IEEE). Der Amerikaner mit Schweizer Pass studierte unter anderen an der Universität Genf und der Harvard Kennedy School und bezeichnet sich als stolzen Ex-Mitarbeiter von ABB. Er war Teil des Justizkomitees in der Präsidentschaftskampagne von Barack Obama.

Die Schweizer Banken sagen, dass KI ihnen bessere Entscheidungsgrundlagen gibt, aber am Schluss immer noch der Mensch bestimmt.
Das ist ein Irrtum. Es ist gut, dass Menschen beteiligt sind. Aber ohne Experten ist es sehr schwierig, zu beurteilen, ob KI sauber funktioniert. Eine Beobachtung der Technologie reicht nicht, um zu beurteilen, ob sie richtig funktioniert und fair ist. KI im Finanz- und Rechtsbereich weist Voreingenommenheiten auf, die für die Gesellschaft nicht tolerierbar sind.

Wo sehen Sie das Problem, wenn KI die Kreditwürdigkeit von Kunden beurteilt?
Wenn automatisierte KI die Kreditwürdigkeit wirklich so genau beurteilen könnte, dann könnte man Mikrofinanzkredite für fünf Milliarden Menschen zugänglich machen – ein globaler Zugang zu Krediten. Aber heute können wir KI nicht vertrauen. Es gibt keine Hinweise, dass Algorithmen die Kreditwürdigkeit von Menschen korrekt beurteilen können. Es besteht also die Gefahr, dass Menschen für die falschen Gründe keine Kredite erhalten.

Wenn künstliche Intelligenz so intelligent ist, dann könnte man sie für Kriegszwecke doch dazu programmieren, dass sie im Krieg Menschenrechte einhält.
Wie weit wir autonome Waffen dazu bringen können, sich an Menschenrechte zu halten, ist eine sehr spannende Frage. Auch wie weit wir möchten, dass sie sich über menschliche Entscheide hinwegsetzen, wenn es um einen Angriff geht. Menschen machen manchmal Fehler beim Einsatz von Lenkwaffen.

Und die autonomen Maschinen?
Das wissen wir nicht. Aber es fragt sich, was passiert, wenn man beweisen kann, dass KI-gesteuerte Waffen weniger Menschenleben kosten und das Kriegsziel mit weniger Zerstörung erreichen können. Sollten wir als Gesellschaft selbstgesteuerten Waffen trauen? Ich habe keine Antwort.

Was ist zu tun?
Wir müssen das machen, was wir mit anderen nützlichen, aber auch tödlichen Risikotechnologien wie Nuklearenergie gemacht haben. Dazu braucht es einen globalen Konsens, was man mit ihnen nicht machen darf. Wir sollten uns von über 2000 Jahre Erfahrung im Lenken von menschlicher Intelligenz inspirieren lassen. Es gibt bereits sehr gute Arbeit vom Internationalen Verband der Ingenieure (IEEE). Sie setzen ethische Standards für KI, die schon angewendet werden.

Welche Regulierung ist sinnvoll, um die Verantwortung von selbstfahrenden Autos festzulegen?
Es muss nicht unbedingt Regulierung sein, auch marktwirtschaftliche Anreize können dienen. Das Wichtigste ist, dass die Menschen zur Rechenschaft gezogen werden können. Auf die künstliche Intelligenz kann man die Verantwortung nicht abschieben.

Stehen die Autobauer also in der Verantwortung?
In der Verantwortung stehen sollten diejenigen, die die Autos gebaut und gekauft haben sowie jene, die sie verwenden. Denn wenn etwas passiert, ist es wegen einer Entscheidung, die diese Leute gemacht haben. KI kann man nur kontrollieren, indem alle Involvierten zur Rechenschaft gezogen werden.

Fehler gefunden? Jetzt melden
Was sagst du dazu?
Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.