Autonomes Fahren
Robust muss es sein

Schon nächstes Jahr sollen autonome Taxis im amerikanischen San Francisco herumkurven: Daimler und Bosch wollen das autonome Fahren so schnell wie möglich auf Stufe 4 anheben. Die Technik? Hoch beeindruckend!
Publiziert: 18.08.2018 um 18:16 Uhr
|
Aktualisiert: 14.09.2018 um 20:17 Uhr
1/14
Im Cockpit eines autonomen Testfahrzeugs zeigt ein Zusatzbildschirm, wie Sensoren die Umgebung sehen.
Foto: Werk
Wolfgang Gomoll

Zukunft ist kompliziert: Kennen Sie die «Stixelwelt»? Techniker verstehen darunter die Kombination aus Stäben und Pixeln. Beim autonomen Fahren soll diese Darstellungsform die Umgebung eines Autos effizienter und zuverlässiger abbilden. Neue Kameras liefern heute zwei Millionen Pixel pro Bild und machen 20 Bilder pro Sekunde. Also eine irrwitzige Datenmenge innerhalb kürzester Zeit. Aus diesen zwei Millionen Pixeln werden im Roboterauto 1000 Stixel, die zudem erst vom System klassifiziert werden müssen – in diesem Falle blau markiert für Autos, grün für Vegetation, rot sind Menschen, dunkelrot Velos, pink die Strasse, magentafarben Trottoirs und grau Gebäude.

Eine Millisekunde reicht noch nicht

Diese Klassifizierung der Objekte allein reicht aber noch längst nicht für ein zuverlässiges Robo-Taxi. Es geht ja auch um die Erkennung, die «robuste Detektion», wie die Ingenieure sagen – und um die zuverlässige Definition der Bewegungen. «Bei der Erkennung haben wir grosse Fortschritte gemacht», sagt uns Jascha Freess, dessen Fachgebiet bei Bosch die Musterkennung sowie Kameras sind. Und er zeigt auf den Monitor im Prototyp eines autonomen Fahrzeugs: Wir können dem System quasi beim Arbeiten zuschauen. Kleine Pfeile zeigen auf dem Monitor die erkannte Bewegungsrichtung der Menschen. Selbst Personen, die für uns versteckt hinter parkenden Autos stehen, werden zuverlässig wahrgenommen. Das alles geschieht innerhalb von Millisekunden – und reicht trotzdem noch nicht: Das autonome Fahren wird erst durchs Zusammenspiel aller Sensoren erreicht. Und für eine solche Datenmenge benötigt man heute die Riesen-Rechenleistung von sechs High-End-Gaming-PCs.

Erkennen und identifizieren

Doch die besten Computerchips sind hilflos ohne gute Datenbasis. Auf der Autobahn ist automatisiertes Fahren noch relativ simpel – aber der Stadtverkehr die Königsdisziplin. Damits klappt, muss der gute alte Radarsensor des Abstandstempomaten weit mehr können als bisher. «Beim Radar findet ein Paradigmenwechsel statt: weg vom Erkennen, dass da was ist, hin zum Erkennen, was genau da ist», erklärt Uwe Franke, der sich bei Mercedes mit dem autonomen Fahren beschäftigt. So beachtet der Sensor auch Reflektionen von Autos und schaut unter Autos durch. Anhand der Achsen und Radkästen erkennt er, obs sich beim Fahrzeug dahinter um ein Auto oder einen LKW handelt oder ein Velo. Für ein Bild gibts 100 Millionen klassifizierte Radarreflektionen. Deswegen erkennen die Radarsensoren gar Fussgänger, die sich noch in einer Entfernung von bis zu 90 Metern befinden.

Die Welt in Punkten

Ohne menschliche Hilfe funktioniert das freilich (noch) nicht. Beim «Deep Learning» wird dem Computer wie einem Kind beigebracht, wie die verschiedenen Pixel und Daten zu interpretieren sind – und je mehr das System vom Menschen lernt, desto schneller und besser lernt es weiter. Ergänzt werden die Daten durch die Ergebnisse des Lidar (Lichterkennungs- und Entfernungsmessungs-Sensor), der 360 Grad abdeckt. Auch hier versuchen Software-Tüftler aus jedem Bildpunkt das Optimum herauszukitzeln. «Wir messen Distanzen und Intensitäten», erklärt Lidar-Fachmann Philipp Lehner. Zum Beispiel reflektiert ein Verkehrsschild das Lidar-Signal intensiver als ein schwarzes Auto. Damit leistet dieser Sensor weit mehr als eine Darstellung – nämlich eine Entschlüsselung einer dreidimensionalen Punktewolke zum Verständnis der Szene. Techniker bezeichnen dies als «semantische Punktewolke», in der jeder Punkt seine Klassifizierung hat. Also: Auto, Strasse, Trottoir, Mensch. Und weil der Lidar-Sensor zentimetergenau die Entfernung misst, hilft dies auch bei der Erkennung einer Bewegung.

Dank der Armada von Sensoren, Kameras und Radar sowie einem Superrechner an Bord soll also ab nächstem Jahr versuchsweise in San Francisco (USA) ein autonomes Taxi herumkurven. Hoffen wir mal, es klappt … .

Die Level der Automation

Experten sprechen von automatisiertem Fahren – weil erst die höchste Stufe (Level 5) der Automatisierung im Wortsinne autonom ist. Und unterscheiden dabei folgende Stufen:

Level 0

Nicht automatisiert: Nur der Fahrer fährt. Systeme warnen, greifen aber nicht ein.

Level 1

Assistiert: Fahrer fährt, aber Einzelsysteme (etwa Radartempomat) unterstützen.

Level 2

Teilautomatisiert: Auto fährt, vom Fahrer stets überwacht, teils selbst. Gibts seit 2013.

Level 3

Bedingt automatisiert: Auto fährt zeitweise, Fahrer übernimmt nach Vorwarnung. Ab 2020.

Level 4

Hochautomatisiert: Auto fährt Teilstrecken (z.B. Autobahn) selbst, andere der Fahrer.

Level 5

Vollautomatisiert: Das Auto kann autonom ohne Fahrer fahren. Nicht vor 2030.

Experten sprechen von automatisiertem Fahren – weil erst die höchste Stufe (Level 5) der Automatisierung im Wortsinne autonom ist. Und unterscheiden dabei folgende Stufen:

Level 0

Nicht automatisiert: Nur der Fahrer fährt. Systeme warnen, greifen aber nicht ein.

Level 1

Assistiert: Fahrer fährt, aber Einzelsysteme (etwa Radartempomat) unterstützen.

Level 2

Teilautomatisiert: Auto fährt, vom Fahrer stets überwacht, teils selbst. Gibts seit 2013.

Level 3

Bedingt automatisiert: Auto fährt zeitweise, Fahrer übernimmt nach Vorwarnung. Ab 2020.

Level 4

Hochautomatisiert: Auto fährt Teilstrecken (z.B. Autobahn) selbst, andere der Fahrer.

Level 5

Vollautomatisiert: Das Auto kann autonom ohne Fahrer fahren. Nicht vor 2030.

Fehler gefunden? Jetzt melden
Was sagst du dazu?