Wie schnell das Model 3 seinerzeit auf Taiwan unterwegs war, ist nicht bekannt. Auch nicht, was der Tesla-Fahrer damals gerade trieb, dass er das Hindernis auf der Fahrbahn vor ihm nicht sah. Bekannt ist nur, dass er mit eingeschaltetem „Autopiloten“ in voller Fahrt den umgekippten Lastwagen rammte, der den Fahrstreifen blockierte. Bei klarer Sicht und nur wenig Verkehr.

Das Internet ist voll von spektakulären Unfall-Videos dieser Art. Sie alle sollen belegen: Das vollautonome Fahren ist noch Zukunftsmusik – und hochauflösende Kameras reichen bei weitem nicht aus, um Hindernisse auf der Fahrbahn unter allen Umständen zweifelsfrei erkennen zu können. Vor allem braucht es eine Software, die in der Lage ist, die Verkehrssituation und Straßenlage in Sekundenbruchteilen durch den Abgleich mit abgespeicherten Bildern und Szenarien in einer Datenbank zu analysieren – und daraus blitzschnell auch die richtigen Schlüsse zu ziehen.

Mustererkennung und Training sind das A und O

„Das automatisierte Fahren auf Level 3 ist ein hochkomplexer Vorgang – und der kamerabasierte Autopilot von Tesla hat offensichtlich ein Problem mit Objekten, die sich nicht bewegen“, sagte Ziv Binyamini, CEO und Co-Gründes des israelischen Unternehmens Foretellix, dieser Tage bei einer Präsentation vor Journalisten auf der Tech-Messe CES in Las Vegas. Der frühere Intel-Manager hat zusammen mit Kollegen eine Software zur Verifizierung und Validierung von Daten für das hochgradig autonome Fahren entwickelt.

Gespickt mit Sensoren aller Art
Über fünf Millionen Kilometer haben die Testfahrzeuge der GM-Tochter Cruise bereits in den USA zurückgelegt, um Verkehrssituation zu erlernen und das vollautonome auch im Stadtverkehr zu perfektionieren. Schneller geht es im Simulator.
Gespickt mit Sensoren aller Art
Über fünf Millionen Kilometer haben die Testfahrzeuge der GM-Tochter Cruise bereits in den USA zurückgelegt, um Verkehrssituation zu erlernen und das vollautonome auch im Stadtverkehr zu perfektionieren. Schneller geht es im Simulator.

Denn so genannte Computer-Vision-Systeme erkennen im Unterschied zum Menschen nur Dinge, auf die sie zuvor trainiert wurden – erst in Computersimulationen im Labor, später dann auf der Straße. Und das kann dauern: Um alle Verkehrssituationen bei realen Straßentests zu erfassen, wären theoretisch über 500 Jahre oder 17 Billionen Fahrkilometer erforderlich, rechnete Binyamini vor. Und auch dann wären längst nicht alle denkbaren Fahrsituationen und möglichen Reaktionen von Menschen und Tieren (Hunde, Katzen, Elche, auch Kängurus) im Verkehr erfasst.

Fahrermangel treibt die Entwicklung

Aber so viel Zeit hat die Autoindustrie nicht. Denn noch in diesem Jahrzehnt soll beim hochautomatisierten Fahren Level 4 erreicht werden – die Vorstufe zum vollautonomen Fahren. Der Bordcomputer übernimmt hier die komplette Fahrzeugführung, die Fahrer sind lediglich Passagiere. Sie können schlafen oder die Mails auf dem Smartphone verwenden, müssen allerdings weiterhin fahrtüchtig sein, um im Bedarfsfall wieder das Steuer übernehmen zu können. Binyamini ist überzeugt davon, dass zumindest in der Hub-to-Hub-Logistik (Lkw-Fahrten zwischen Logistikzentren über Schnellstraßen) Level 4 erreicht sein wird. Denn der Fahrermangel im Straßengüterverkehr ist nicht nur in den USA ein wachsendes Problem. Die beiden großen Nutzfahrzeughersteller Daimler Trucks und Volvo sind kürzlich Partnerschaften mit bzw. Beteiligungen an Foretellix eingegangen.

Im Pkw-Verkehr ist derzeit gerade einmal Level 3 erreicht, können nur wenige Autos wie der Mercedes EQS (und demnächst der BMW i7) über längere Strecken und auf der Autobahn komplett selbständig zu fahren. In Deutschland derzeit bis zu einer Geschwindigkeit von 60 km/h, im Laufe des Jahres schrittweise bis zu Tempo 130 – das Bundesverkehrsministerium hat dafür kürzlich die gesetzliche Grundlage geschaffen. Fahrer entsprechend zertifizierter Autos können dann die Hände vom Lenkrad und die Füße vom Fahrpedal nehmen und müssen sich nicht mehr auf den Verkehr konzentrieren. Das „Enhanced Autopilot“ genannte und 3.800 Euro teure Tesla-System kommt hingegen aktuell über Level 2 nicht hinaus, erlaubt also nur ein teilautomatisiertes Fahren.

Veränderter Blickwinkel
Apex.AI-Gründer Jan Becker sieht ein Umdenken in der Autoindustrie: Die Performance der Systeme sei inzwischen wichtiger als die Preis. Die von ihm entwickelten Betriebssysteme vereinfachen das Zusammenspiel der Module deutlich. Foto: Apex.AI
Veränderter Blickwinkel
Apex.AI-Gründer Jan Becker sieht ein Umdenken in der Autoindustrie: Die Performance der Systeme sei inzwischen wichtiger als die Preis. Die von ihm entwickelten Betriebssysteme vereinfachen das Zusammenspiel der Module deutlich. Foto: Apex.AI

Die größte Herausforderung für die Fahrzeughersteller ist neben der Datenanalyse die Sensorik, die im Auto verbaut sein muss, um dem Bordcomputer eine gute Entscheidungsgrundlage bei Fahrmanövern zu geben. Kameras allein, darin sind sich inzwischen alle Experten einig, reichen dafür nicht. Erforderlich sind zusätzlich Radarsysteme und auch Laser-Scanner, so genannte LiDAR-Systeme. Um auch umgekippte Lastwagen jederzeit sicher erkennen zu können, aber auch wesentlich kleinere Objekte wie umgestürzte Motorräder, verloren gegangene Lkw-Räder und Ladungsteile sowie Reifenteile. Idealerweise mehrere hundert Meter im Voraus. Und natürlich auch bei Gegenlicht, Regen und in Schneeschauern.

Apex.AI-Gründer erkennt Umdenken der Autohersteller

Jan Becker, der deutsche Präsident, CEO und Co-Gründer des US-Software-Unternehmens Apex.AI, sieht große Fortschritte bei der Hardware – auch weil sich nach seinen Feststellungen der Blickwinkel der Autohersteller geändert hat. „Die Sensorik war lange vorrangig kostengetrieben – Kameras durften allenfalls einen zweistelligen Eurobetrag kosten“, weiß er Inzwischen habe die Performance der Sensorik einen höheren Stellenwert, was nicht nur die Zulieferer beflügele, sondern auch erlaube, andere Systemarchitekturen zu realisieren. Mit einem Zentralrechner statt mehrerer hundert Steuergeräte verschiedener Hersteller. Diese erlauben es nicht nur, neue Funktionen schneller in Fahrzeuge zu integrieren.

Die neuen Betriebssysteme optimieren auch das Zusammenspiel der Systeme und verkürzen darüber die Reaktionszeiten. Apex.AI hat dafür eine Reihe Software-Bibliotheken und Entwicklungswerkzeuge entwickelt, die alle bereits die Anforderungen der Autoindustrie an Sicherheit und Zuverlässigkeit erfüllen. Der Weg zum Software-definierten Auto, so Becker, sei damit bereitet. Erste Serienprojekte würden noch in diesem Jahr gestartet, erste Serienanwendungen um das Jahr 2026 zu erwarten. Becker: „Gerade im Nutzfahrzeugbereich tut sich gerade ungeheuer viel“.

Mit dem Blick des Hammerhais

Also eher Robo-Truck als Robo-Taxi. Na klar, da rechnet sich die Investitionen in das vollautonome Fahren schneller, weil die Fahrer für die Speditionen die größten Kostenblöcke darstellen. Wenn die Fahrer in Zukunft nur noch benötigt werden, um den Lastzug durch die Stadt oder aus der Stadt zur Autobahn zu lotsen, wäre schon viel gewonnen. Auch bei der Verkehrssicherheit: Ein Großteil der Lkw-Unfälle ist nach wie vor auf zu geringe Sicherheitsabstände und „nicht angepasste Geschwindigkeit“ zurückzuführen, mithin menschliches Versagen.

Spähen wie ein Hammerhai

Computer hingegen werden nicht müde. Aber auch Sensoren und Kameras sind stets hellwach – und „sehen“, sofern sie nicht verschmutzen, obendrein besser als das menschliche Auge. Bis zu 1100 Meter weit schauen beispielsweise die Stereo-Kameras des US-Startups Nodar, die auf der CES vorgestellt wurden. Und sie liefern hochauflösende Bilder von Objekten bis zu einer Größe von zehn Zentimetern, die von der zugehörigen Software dreidimensional dargestellt werden können – blitzschnell und zu deutlich niedrigeren Kosten als LiDAR-Systeme, wie der ehemalige MIT-Mitarbeiter und Firmengründer Leaf Jiang vor Journalisten warb. Zum Vorbild nahmen sich den Hammerhai: Der Raubfisch hat aufgrund seiner außergewöhnlichen Kopfform eine besonders gute Tiefenwahrnehmung und Rundumsicht. Für seine Kamera-Kits sieht Nodar-Chef Jiang aber nicht nur im Straßenverkehr Einsatzfelder. Auch Roboter und Drohnen sollen davon profitieren.

Aber auch die LiDAR („Light Detection and Ranging“)-Technik vermeldete in Las Vegas spektakuläre Fortschritte. Licht wird hier in Form eines gepulsten Lasers ausgestrahlt, um anhand von Reflektionen Objekte in der Umgebung zu erkennen und zu kategorisieren. Aus einer Vielzahl von Datenpunkten werden dann per Software dreidimensionale Bilder geformt.

Festkörper-Laser verschießt Lichtblitze

Die Sensoren, hieß es in Las Vegas übereinstimmend, sind nicht nur deutlich billiger geworden, sondern auch leistungsfähiger. Zudem werden die Bauteile aufgrund neuer Konstruktionen kleiner und sind deshalb deutlich einfacher in Karosseriestrukturen zu integrieren.

Mikro-Laserblitze im Millisekunden-Takt 
Nur so groß wie eine Kreditkarte ist das Festkörper-LiDAR-System des israelischen Herstellers Opsys. Ab 2024 soll es in China in großen Stückzahlen und zu entsprechend niedrigen Kosten produziert werden. Foto: Hersteller
Mikro-Laserblitze im Millisekunden-Takt
Nur so groß wie eine Kreditkarte ist das Festkörper-LiDAR-System des israelischen Herstellers Opsys. Ab 2024 soll es in China in großen Stückzahlen und zu entsprechend niedrigen Kosten produziert werden. Foto: Hersteller

Das Laser-System des erst 2016 in Israel gegründeten Unternehmens Opsys ließe sich beispielsweise auch verschmutzungsfrei hinter einer Windschutzscheibe montieren – und könnte trotzdem bis zu 300 Meter weit sehen. Denn statt mit mechanisch bewegten Mikrospiegeln (die mit der Zeit verschleißen) arbeitet das System mit Laserdioden und Halbleiterchips, welche Laser-„Blitze“ mit extrem hohen Geschwindigkeiten „abschießen“. Ausgewertet werden die reflektierten Bildpunkte anschließend auf einem Computerchip mithilfe eines CMOS-Sensors, wie man ihn auch aus Digitalkameras und Camcordern kennt.

Für das vollautonome Fahren auf Level 3 würde eine Einheit genügen, für vollautonom fahrende Lastzüge auf Level 4 zwei – eines für den Blick nach vorne und ein zweites etwa in den Heckleuchten für den Blick nach hinten und zur Seite. Opsys wird die Produktion des so genannten Festkörper-Mikroblitz-LiDAR-Systems im kommenden Jahr in China aufnehmen, bei dem mehrheitlich zur chinesischen Shanghai Automotive Industry Corporation (SAIC) gehörenden Autozulieferer HUAYU Automotive Systems (HASCO). Große Anteile an dem Unternehmen hält übrigens auch eine Tochter des deutschen Rüstungs- und Technologiekonzern Rheinmetall. Opsys-Gründer und Chairman Eitan Gertel sprach in Las Vegas von Systemkosten von etwa 150 Dollar – gegenüber 500 Dollar konventioneller LiDAR-Sensoren, wie sie etwa Bosch baut. „Und das Ganze ist leicht skalierbar“. Darauf lässt sich aufbauen.

Artikel teilen

Kommentar absenden

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert