Drohnen werden zu Killer-Maschinen
1:39
Das ist kein Computerspiel:Drohnen werden zu Killer-Maschinen

Zürcher KI-Forscher
«Als wir das sahen, erschraken wir»

Sie entwickeln künstliche Intelligenz – und fürchten sich vor deren Verwendung. Schweizer Forschende warnen vor tödlichen Konsequenzen und betonen die Notwendigkeit ethischer Überlegungen bei der Entwicklung von KI-Systemen.
Publiziert: 15.01.2023 um 00:37 Uhr
|
Aktualisiert: 15.01.2023 um 14:50 Uhr
1/8
Der Lanius (lateinisch für «Fleischer») ist eine Kamikaze-Drohne mit künstlicher Intelligenz.
Marguerite Meyer und Ariane Lüthi

Man sieht eine zerschossene Stadt. Soldaten sind auf der Suche nach feindlichen Kämpfern. Es knallt, einer ruft: «Wir werden getroffen. Schickt den Lanius!» Acht kleine Drohnen steigen auf. Sie nähern sich den gegnerischen Soldaten und töten einen nach dem anderen.

Es sind keine Szenen eines Kriegsfilms, sondern aus einem neuen Werbe-Clip für den israelischen Waffenhersteller Elbit Systems. Der Lanius (lateinisch für «Fleischer») ist eine Kamikaze-Drohne mit künstlicher Intelligenz (KI). Sie kann selbständig navigieren, findet ihren Weg sogar durch enge Gebäudeöffnungen und erkennt menschliche Ziele.

Killermaschine auf Knopfdruck

Der Soldat braucht nur noch einen Knopf zu drücken und die Drohne wird zur Killermaschine: Sie feuert auf ein Ziel oder stürzt sich darauf und explodiert – die nahtlose Verzahnung von menschlicher Kampfentscheidung, Drohnentechnik und KI. Und womöglich braucht es den Mann oder die Frau am Steuerpult gar nicht mehr. Heute ist die Waffe noch so eingestellt, dass ein Mensch aus Fleisch und Blut die tödliche Aktion auslösen muss – und dafür die Verantwortung trägt –, über kurz oder lang jedoch wird sich dieser Zwischenschritt wegprogrammieren lassen.

Externe Inhalte
Möchtest du diesen ergänzenden Inhalt (Tweet, Instagram etc.) sehen? Falls du damit einverstanden bist, dass Cookies gesetzt und dadurch Daten an externe Anbieter übermittelt werden, kannst du alle Cookies zulassen und externe Inhalte direkt anzeigen lassen.

An dem, was Waffen wie die im Elbit-Videoclip leisten, wird auch hierzulande getüftelt: in der Grundlagenforschung an Schweizer Universitäten. Davide Scaramuzza berichtet in seinem Büro der Universität Zürich in Oerlikon: «Als mein Team und ich das Video von Elbit sahen, waren wir erschrocken.» Der Professor leitet die Forschungsgruppe «Robotik und Wahrnehmung», mit seinem Team ist er weltweit führend auf diesem Gebiet. Unter anderem arbeiten Scaramuzza und seine Mitarbeiter an der künstlichen Intelligenz, um Drohnen akrobatische Manöver beizubringen, die sie auch in komplexer Umgebung verwendbar machen. In einem Video der Universität flitzt eins dieser Fluggeräte in einem Wald herum, surrt zwischen Bäumen hindurch und um dicht stehende Gebäude, fliegt in Fenster hinein. Die Ähnlichkeit zur Technologie, wie sie in den Videos von Elbit zu sehen sind, ist unübersehbar.

Armeen weltweit arbeiten an solchen Technologien

2021 schickte Israels Militär zum ersten Mal einen Schwarm solcher Drohnen in den palästinensischen Gazastreifen. Noch war ein Mensch in die Handlungskette involviert. Im Jahr zuvor erfolgte in Libyen der Einsatz einer autonomen Drohne vom türkischen Typ Kargu-2. Die genauen Umstände sind unklar, womöglich aber operierte dieser Flieger bereits ohne menschliches Zutun. Nebst Israel und der Türkei arbeiten auch andere Armeen an solchen Technologien, so auch in den USA, China, Grossbritannien und Indien.

KI-Forschende sind schon länger alarmiert. Sie fürchten ein Wettrüsten autonomer Waffen. 2017 machte das sogenannte «Slaughterbots»-Video die Runde, in dem Mini-Drohnen gezielte Jagd auf Menschen machen, ohne dass sie jemand steuert. Slaughterbot bedeutet «schlachtender Roboter».

«
«Dabei geht es um Massenvernichtungswaffen, die allen zugänglich würden.»
Max Tegmark, Physikprofessor
»


Führende Wissenschafter aus aller Welt fordern seit Jahren eine effektivere Regulierung solcher Forschungsansätze. Sie wollen verhindern, dass autonome Waffen die Kalaschnikows von morgen werden. «Viele Politiker haben die Technologie nicht gut genug verstanden», sagt Max Tegmark, Physikprofessor am Massachusetts Institute of Technology in Boston, der führenden Technik-Hochschule der USA. «Dabei geht es um Massenvernichtungswaffen, die allen zugänglich würden.» Und der amerikanische Militärexperte Zachary Kallenborn vergleicht die Gefahren von bewaffneten Drohnenschwärmen mit denen chemischer und biologischer Kampfmittel.

Wissenschaftlicher Appell an die Politik

Acht Schweizer Forschende richteten schon im November 2021 einen dringlichen Appell an die Politik. In ihrem Papier, das jetzt bekannt wird und SonntagsBlick vorliegt, fordern sie Bundesrat Ignazio Cassis auf, dafür zu sorgen, dass Algorithmen niemals über Leben und Tod von Menschen entscheiden dürfen. Ohne staatliche Regulierung könnten tödliche, autonome Waffen schon in zehn Jahren Wirklichkeit werden. Cassis antwortete: «Der Bundesrat teilt viele der rechtlichen, ethischen und sicherheitsrelevanten Bedenken, die Wissenschafter und Forschende zu solchen Waffen äusserten.» Die Schweiz wolle sich international für eine angemessene Regulierung einsetzen, wie es sie für chemische oder nukleare Waffen bereits weltweit gibt.

Das Problem dabei: Derzeit ist eine internationale Einigung unrealistisch (siehe Interview mit Reto Wollenmann). Und der US-Militärexperte Kallenborn sieht es genauso: «Die militärischen Grossmächte wollen keine Waffen aufgeben, die ihnen nützen könnten.»

Auch die Schweiz lässt sich nicht davon abhalten, alle Register zu ziehen und als Spitzenstandort der Drohnenentwicklung an vorderster Front dabei zu sein. Die technischen Hochschulen des Landes gehören zu den besten der Welt. Gemessen an der Qualität der wissenschaftlichen Publikationen und deren Einfluss auf die Forschung liegt die Schweiz sogar auf dem ersten Platz. Wobei der Raum Zürich als «Silicon Valley der Robotik» gilt – dank Google und Co., aber auch wegen seiner universitären Top-Labors.

Zu Besuch im Drohnen-Labor

In einem solchen Labor ist SonntagsBlick bei Professor Scaramuzza zu Besuch. Im Gang sind Drohnen in Vitrinen ausgestellt. Ein Raum ist als Flughalle hergerichtet, mit Hindernissen auf dem Boden und Netzen, die von der Decke hängen – zur Sicherheit, sollte mal eine Drohne vom Weg abkommen.

Scaramuzza hat den Brief an Cassis mitunterzeichnet. Er ist nicht einer, der Diskussionen scheut. Zwei Stunden Zeit nimmt sich der Forschungsleiter, uns zu erklären, wie sein Labor arbeitet – und wie seine Anwendungen funktionieren, die jenen der israelischen Rüstungsfirma so ähnlich zu sein scheinen. Bereits 2009 gelang Scaramuzzas Team ein Durchbruch: die Konstruktion einer Drohne, die mit einer Kamera ausgestattet autonom fliegen kann, ganz ohne GPS. Seither jagt ein Erfolg den nächsten. Der Professor leitete ein europäisches Projekt, mit dem ein Autopilot entwickelt wurde – heute wird das Patent millionenfach eingesetzt. Einer seiner Teamkollegen ging zur Nasa und brachte in der Schweiz entwickelte Technologie auf den Mars. Das erste unternehmerische Projekt von Scaramuzzas Labor wurde 2016 von Facebook gekauft – und entwickelte «Oculus Quest», die führende Virtual-Reality-Brille, auch VR-Headset genannt.

Begeistert erzählt Scaramuzza von seiner Arbeit, dass sein Team an neuen Sensoren tüftelt, um auch bei Rauch fliegen zu können, und dass es Algorithmen für KI entwickelt, mit deren Hilfe Roboter menschliche Aufgaben übernehmen können.

Herausforderung: Gute Technologien in den falschen Händen

«Natürlich wirft das viele ethische Fragen auf», sagt der Professor. «Alles, was für gute Zwecke genutzt werden kann, lässt sich auch für schlechte einsetzen.» Das sei eine bekannte Herausforderung der Robotik – seit jeher. Im gleichen Atemzug stellt Scaramuzza klar: «Dieselben Algorithmen, mit denen wir diese Drohnen fliegen, wurden für Brustkrebs-Screenings benutzt. Sie haben schon Millionen von Menschen gerettet. Sollten wir sie verbieten? Nein.»

Um in einem Krieg benutzt zu werden, seien die KI-gelenkten Drohnen noch zu ungenau. Aber die Forschung mache Fortschritte. Deshalb hält es Scaramuzza für den richtigen Zeitpunkt, sich jetzt zu fragen: «Wie stellt man sicher, dass die Technologie nicht missbraucht wird?»

Scaramuzza hat selbst an einem Projekt gearbeitet, das vom US-Militärinstitut DARPA finanziert wurde. Reine Grundlagenforschung, wie er betont. Er nahm an einem vom Rüstungskonzern Lockheed Martin organisierten Drohnenrennen teil und demonstrierte 2021 in Dübendorf ZH, dass KI schneller fliegen kann als ein menschlicher Pilot. Man habe dem amerikanischen Militär jedoch keine Software zur Verfügung gestellt, es sei lediglich vor der Publikation über die Resultate informiert worden. Auch dem Rüstungskonzern habe sein Team keinen Code geliefert.

Kein Austausch zwischen Uni Zürich und Rüstungskonzern

Aber: Die visuelle Steuerung, wie er sie erforscht, spielt für militärische Anwendungen eine Schlüsselrolle. Was also ist die Verbindung zwischen den neuen Waffensystemen des Rüstungskonzerns Elbit und seiner Forschung? «Sie benutzen ähnliche Algorithmen», erklärt Scaramuzza.

Zwischen seinem Labor und Elbit gebe es weder direkten Kontakt noch Technologietransfer, sagt der Forscher. «Ich verurteile jegliche militärische Anwendung unserer Technologie», fügt er unmissverständlich hinzu. Jede Zusammenarbeit mit externen Unternehmen werde von der Universität geprüft. Bei Dual-Use-Gütern, also solchen, die sowohl zivil als auch militärisch genutzt werden können, brauche es eine Bewilligung der Universitätsleitung und des Seco. Die Medienstelle der Universität Zürich bestätigt das. Indirekte Verbindungen sieht Scaramuzza aber durchaus: Akademische Publikationen sind meist frei zugänglich. Und Mitarbeitende nehmen bei einem Stellenwechsel ihr Know-how mit – auch dann, wenn sie zu einer Rüstungsfirma wechseln.

Wie man Risiken eindämmen kann

Fortschritt lebe vom freien Austausch des Wissens, betont der Forscher. Jede Zensur sei gefährlich. Es gebe aber Wege, die Risiken einzudämmen. «Forschende können Teile eines Codes zurückbehalten oder nur unter Lizenz weitergeben», meint Scaramuzza. Dies werde bereits heute so gehandhabt – aus ethischen oder kommerziellen Überlegungen. Allerdings existierten in der Schweiz noch keine strukturierten Prozesse dafür.

Weshalb einige Universitäten im Ausland bereits begonnen hätten, nach Risiken zu fragen. Der Professor: «Das ist gut, weil es den Forschenden die Augen öffnet.»

Die Recherche wurde unterstützt von einem Stipendium des Journafonds.


Recherche-Hinweise

Hast du Hinweise zu brisanten Geschichten? Schreibe uns: recherche@ringier.ch

Hast du Hinweise zu brisanten Geschichten? Schreibe uns: recherche@ringier.ch

Fehler gefunden? Jetzt melden
Was sagst du dazu?