«Das autonome Auto muss lernen, Regeln zu brechen»
2:03
ETH-Professor Roland Siegwart:«Das autonome Auto muss lernen, Regeln zu brechen»

Interview mit ETH-Professor Roland Siegwart
«Das autonome Auto muss lernen, Regeln zu brechen»

Im Interview verrät ETH-Professor Roland Siegwart, wie weit der Weg zum autonomen Auto noch ist, welche Gefahr von «Terminator»-Robotern ausgeht und warum es irgendwann unethisch sein wird, überhaupt noch einen Menschen hinter das Steuer zu lassen.
Publiziert: 15.03.2021 um 11:00 Uhr
|
Aktualisiert: 19.04.2021 um 12:21 Uhr
1/18
ETH-Professor Roland Siegwart in seinem Forschungslabor in der Zürcher Innenstadt.
Foto: Thomas Meier
Interview: Andreas Engel

BLICK: Herr Siegwart, wann fahren wir denn endlich alle autonom Auto?
Roland Siegwart: Diese Frage kann man nicht ganz präzise beantworten. In strukturierten Umfeldern ist die Technologie schon heute bereit, zum Beispiel auf der Autobahn, wie man das bei Tesla, Mercedes und anderen Herstellern sieht. Komplex wird es allerdings in Umgebungen mit vielen anderen Verkehrsteilnehmern, wie Innenstädten. Die Geschwindigkeit ist dort zwar relativ tief, aber das Risiko, dass plötzlich etwa ein Mensch einfach auf die Strasse läuft, ist erheblich grösser. Bis man autonome Technik abseits der Autobahn zuverlässig einsetzen kann, wird es wohl noch fünf bis zehn Jahre dauern. Für den nächsten Schritt – komplett autonom überall – braucht es aus meiner Sicht nochmals mindestens zehn Jahre länger.

Was sind die grössten Herausforderungen?
Die Fahrzeuge müssen in schwierigen Umfeldern und überraschenden Situationen nachweislich zuverlässig handeln. Stellen Sie sich zum Beispiel vor, Sie fahren irgendwo auf dem Land und es schneit derart, dass Sie statt der Strasse nur eine Schneedecke sehen. Wir Menschen können meist erahnen, wo die Strasse sein könnte – für eine Maschine ist dies kaum möglich. Bis die Technik weiterentwickelt, geprüft und getestet ist und auch die Konzepte ausgearbeitet sind, wie autonome Autos ihre Zulassung bekommen, dauert es noch lange.

Also wird Schlafen oder Lesen während der Fahrt so schnell nicht möglich sein?
Ein Fahrzeug kaufen zu können, dem Sie «Ich möchte jetzt schlafen!» sagen, und das Auto fährt Sie autonom an die Destination, sollte etwa 2030 möglich sein. Schon vorher wird es gewisse Zwischenstufen geben, etwa Shuttle-Taxis: Diese bewegen sich in einem genau festgelegten Bereich in der Stadt, wie es mit dem Projekt nuTonomy von ETH-Kollege Emilio Frazzoli schon in Singapur ausgiebig getestet wurde. Das Fahrzeug kennt die Umgebung sehr genau, der Betrieb wäre möglich. Da geht es nur noch darum, wie man das zulässt.

Wird es einen Mischbetrieb zwischen autonomen und konventionellen Autos geben?
Wir haben ja heute schon eine Art Mischbetrieb auf der Autobahn, wo gewisse Autos bereits teilautonom unterwegs sind, auch wenn die Fahrer trotzdem jederzeit die Hände am Lenkrad haben müssen. Doch je mehr Verkehrsteilnehmer überraschende Bewegungen machen, desto schwieriger ist es für autonome Autos. Nehmen Sie das Central unterhalb der ETH in Zürich: Dort im Stossverkehr ohne Drängeln und Handzeichen durchzukommen, ist fast nicht möglich. Da autonome Autos viel mehr auf Sicherheit getrimmt sind als wir, würden sie dort einfach stillstehen. Dort halte ich Mischverkehr aus heutiger Sicht für sehr schwierig.

Persönlich: Roland Siegwart

Roland Siegwart (61) ist Professor für Autonome mobile Roboter an der ETH Zürich. Er studierte und promovierte im Bereich Ingenieurwissenschaften an der ETH. Siegwart war Professor an der EPFL Lausanne sowie Gastforscher an der amerikanischen Stanford University und bei der US-Raumfahrtbehörde Nasa. Seit 2006 forscht der dreifache Familienvater im Bereich Robotik an der ETH Zürich und war zudem zwischen 2010 bis 2014 Vizepräsident der Forschung und Wirtschaftsbeziehungen der ETH Zürich. Von seinem Forschungslabor aus sind über ein Dutzend Start-ups gegründet worden.

Thomas Meier

Roland Siegwart (61) ist Professor für Autonome mobile Roboter an der ETH Zürich. Er studierte und promovierte im Bereich Ingenieurwissenschaften an der ETH. Siegwart war Professor an der EPFL Lausanne sowie Gastforscher an der amerikanischen Stanford University und bei der US-Raumfahrtbehörde Nasa. Seit 2006 forscht der dreifache Familienvater im Bereich Robotik an der ETH Zürich und war zudem zwischen 2010 bis 2014 Vizepräsident der Forschung und Wirtschaftsbeziehungen der ETH Zürich. Von seinem Forschungslabor aus sind über ein Dutzend Start-ups gegründet worden.

Wie können autonome Autos im Alltag getestet werden?
Eine einfache Möglichkeit ist, dass Personen im Fahrzeug sitzen, es überwachen und somit die Sicherheit garantieren. Das hat ausserdem den Vorteil, dass das Fahrzeug von aussen nicht als autonom wahrgenommen wird. Ich bin aber überzeugt, dass wir in Zukunft die meisten Tests virtuell absolvieren. Bereits heute gibt es enorm gute Simulationen, in denen man ganze Städte nachbauen und alle Verkehrsteilnehmer mit ihrem individuellen Verhalten einbeziehen kann. In der realen Welt müsste man etwa 200 Millionen Kilometer unfallfrei zurücklegen, um zu zeigen, dass ein autonomes Auto sicherer ist als ein Mensch am Steuer.

Ist komplett virtuelles Testen denn möglich?
Natürlich wird man auch immer parallel im realen Verkehr testen, um Schwachstellen herauszufinden. Das Fahrzeug muss etwa lernen, in gewissen Situationen sogar die Verkehrsregeln zu missachten. Nehmen wir den Lastwagen, der zum Ausladen halb auf dem Trottoir und halb auf der Strasse steht – an einer durchgezogenen Linie. Wenn man also vorbei möchte, muss man – und darf – in dieser Situation ein wenig über die Linie fahren.

Warum sind autonome Autos den Menschen eigentlich überlegen? Intuitiv haben wir den Roboterautos immer etwas voraus.
Ich denke, dass der Mensch auch in 20 Jahren in spezifischen Situationen noch besser ist als ein Roboterauto. Unser grösster Schwachpunkt ist: Wir lassen uns ablenken, ein Computer nicht. Wir telefonieren während der Fahrt, sprechen mit dem Beifahrer, geniessen die Farben des Sonnenuntergangs – ein Grossteil der Unfälle geht auf menschliches Versagen zurück. Ausserdem ist der Mensch auch nur beschränkt mit Sinnen ausgerüstet. Wir haben Augen und Gehör, ein autonomes Auto auch Radar und Laser, mit dem es durch Nebel gucken kann und viel genauere Tiefeninformationen hat. Wie alle Maschinen sind Roboterautos auf gewisse Aufgaben spezialisiert, können aber sonst nichts. Der Mensch hingegen ist generalistisch ausgerüstet.

Würden die Menschen autonomen Autos überhaupt vertrauen?
Das Vertrauen ist verblüffend schnell aufgebaut. Nehmen Sie den Autopiloten von Tesla. Obwohl der ja nicht für rein autonomes Fahren zugelassen ist, haben manche Käufer ihm so schnell vertraut, dass sie hinter dem Steuer geschlafen haben. Oder die Shuttle-Taxis in Singapur: Gäste, die dort – in Begleitung eines Backup-Fahrers – mitgefahren sind, waren zu Beginn ein wenig skeptisch. Meist ging es dann keine Minute, bis sie total relaxt waren und der Technik vertraut haben. Ich selber habe schon Forschungsprojekte erlebt, bei denen sich an Demo-Veranstaltungen ausgebildete Ingenieure vor die Fahrzeuge geworfen haben, obwohl diese noch mitten in der Entwicklung standen. Die Akzeptanz wird schnell da sein.

Wie entscheidet sich das autonome Auto beim Unfall: Senioren- oder Kindergruppe? Grundsätzlich entscheidet sich das autonome Auto basierend auf den Algorithmen, mit denen es programmiert ist. Am Ende sind vieles Optimierungsprobleme. Auch wir Menschen wägen in so einer Situation unterbewusst ab und versuchen zu optimieren. Aber ein System wie ein Roboterauto kann das natürlich viel besser als wir. Es kennt den exakten Bremsweg. Es weiss, ob eine so extrem scharfe Kurve überhaupt möglich ist, und entscheidet sich dann für die beste Lösung. Aus meiner Sicht müsste das Auto da hinfahren, wo die kleinste Wahrscheinlichkeit besteht, einen tödlichen Unfall zu generieren. Zu bewerten, welches die günstigen und teuren Leute sind, die wichtigen und weniger wichtigen, ist nicht vertretbar. Und dann sind so spezifische Fragen – ob Rentner oder Kindergärtler – auch gar nicht mehr relevant, weil das System immer die beste Lösung wählt. Im Gegensatz zum Menschen.

Also lautet die Frage der Ethik irgendwann: Darf der Mensch noch ans Steuer?
Ganz genau! Das braucht zwar noch Zeit, aber irgendwann wird sich zeigen, dass das autonome Auto wesentlich sicherer fährt, und dann muss man sich fragen, ob man Menschen hinter dem Steuer von Autos ethisch noch vertreten kann. Ich denke, dass der Mensch in speziellen Situationen wie Spezialtransporten noch selber fahren darf, wenn die Kompetenz gebraucht wird. Ansonsten ist der Mensch zunehmend ein Sicherheitsrisiko.

Und was ist mit dem Auto als Statussymbol, das viele Menschen verlieren?
Ich fahre selber auch gerne Auto, aber seien wir ehrlich: Richtigen Fahrspass kann man heute ja fast nur noch erleben, wenn man auf den Nürburgring geht. An die Grenzen darf man – richtigerweise – im Alltag sowieso nicht gehen. In der ETH arbeite ich mit sehr vielen jungen Leuten zusammen, und ich stelle da einen Generationenwechsel fest: Die meisten haben gar kein eigenes Auto mehr, sondern nutzen die Mobilitätsform, die gerade am besten passt. Es gibt heute andere Möglichkeiten, sich zu verwirklichen und sich auszutoben.

Wie viel Autonomie dürfen wir Maschinen grundsätzlich geben?
Maschinen haben ja keinen Selbstzweck, sondern erfüllen Aufgaben, die ihnen vorgegeben sind. Autonomie können wir dabei so viel geben, wie sie uns nützt – in gewissen Bereichen bringt sie uns mehr Nutzen, in anderen weniger. Beim autonomen Auto wollen wir natürlich möglichst viel Autonomie, um letztlich Mobilität auch viel nachhaltiger zu machen.

Was meinen Sie mit «nachhaltiger»?
Heute besitzen viele Leute ein eigenes Auto, auch ich. Die meiste Zeit steht es aber einfach still und benötigt Platz, ohne dass es einen Nutzen hätte. Wenn wir eines Tages autonome Autos per App auf Abruf bestellen könnten, hätten wir die gleiche Qualität bei der Mobilität, müssten uns aber nicht ums Auto kümmern. Damit sind neue Mobilitätskonzepte möglich.

In Science-Fiction-Filmen machen sich Maschinen immer wieder selbständig und werden für Menschen zur Gefahr. Realistisch?
In diesen Visionen entwickeln die Maschinen eine Art Selbstbewusstsein, einen inneren Drang, sich fortzupflanzen und durchzusetzen. Solange wir es mit mechanischen Teilen und Mikrochips zu tun haben, aus denen Maschinen bestehen, wird von ihnen selbst nie eine Gefahr ausgehen: Wir können sie einfach abschalten. Wenn dann allerdings auch noch die Biologie ins Spiel kommt und Roboter zu biologischen Wesen wie wir Menschen werden könnten, ist das natürlich eine ganz andere Welt. Aber das ist noch ferne Zukunftsmusik. Die Gefahr geht heute vom Menschen aus, wenn er diese Maschinen bösartig als Waffe einsetzt, um sich stärker zu machen –Maschinen sind letztlich nichts anderes als Werkzeuge.

Maschinen sind vom Menschen programmiert. Menschen machen Fehler. Kann es die fehlerfreie Maschine überhaupt geben?
Die fehlerfreie Maschine wird es kaum geben, genauso wenig wie es fehlerfreie Menschen gibt. Doch wie wir Menschen lernen die Maschinen selbständig über Interaktionen mit ihrer Umwelt. Der Mensch gibt zwar den Lernalgorithmus vor, doch das System wird über Deep Learning und neuronale Netzwerke selber versuchen, sich Dinge beizubringen. Auch solche, die gar nicht in der Vorstellungskraft von uns Menschen liegen: Wie zum Beispiel sollen wir wissen, wie man einen dreidimensionalen Lasersensor am besten nutzt, den wir gar nicht haben? Der Roboter muss es also selbst lernen und sich selber immer besser machen.

Wenn autonome Autos irgendwann Realität sind, wie geht es dann weiter?
Die nächste Stufe werden Maschinen sein, die sich nicht einfach «nur» von A nach B bewegen, sondern auch aktiv die Umwelt manipulieren können, beispielsweise etwas greifen. Das ist nochmals wesentlich komplexer. Ein Gebiet, auf dem wir weltführend sind, sind Drohnen, die eben nicht nur frei herumfliegen können, sondern auch direkt interagieren können, etwa Bohrungen in eine Wand machen. Da gibt es zahlreiche Arbeiten, etwa im Baubereich, in der Landwirtschaft oder in Minen, die der Mensch nicht machen sollte, weil sie gefährlich oder gesundheitsschädlich sind. Der Mensch wird also nicht verdrängt, sondern von den Robotern unterstützt.

Fehler gefunden? Jetzt melden
Was sagst du dazu?