Autofahrer, die sich vom Navigationssystem leiten lassen, kennen das Problem: Liegen die Fahrspuren eng beieinander, kann das Navi nicht erkennen, auf welcher sich das Fahrzeug befindet. Dafür ist GPS nicht präzise genug – es kann die Position nur auf zwei bis zehn Meter genau bestimmen. Deutlich besser ist ein System, das Porsche Engineering derzeit entwickelt: Es nutzt Künstliche Intelligenz (KI), um aus den GPS-Daten eine exaktere Position zu errechnen. „Damit lässt sich zum Beispiel die Ideallinie auf einer Rennstrecke erkennen“, sagt Dr. Joachim Schaper, Leiter des Bereichs Artificial Intelligence and Big Data bei Porsche Engineering. Die nötigen Berechnungen können im Fahrzeug selbst ablaufen, und zwar in einem kompakten Rechner, der mit Grafikprozessoren (Graphics Processing Units, GPUs) bestückt ist. „Das bringt KI-Funktionalität ins Fahrzeug“, so Schaper.
Hergestellt wird die Hardware-Plattform von der Firma Nvidia aus dem kalifornischen Santa Clara. „Wer den Namen hört, denkt nicht unbedingt an den Automobilbereich“, so Schaper. Denn die meisten PC-Nutzer verbinden Nvidia vor allem mit Grafikkarten. Oder besser gesagt: besonders schnellen Grafikkarten, wie sie für Computerspiele benötigt werden. Dieser Ruf stammt noch aus den frühen 2000er-Jahren. Zu dieser Zeit kamen die ersten Games mit aufwendiger 3D-Grafik auf den Markt, und wer Spiele wie „Quake 3“ oder „Far Cry“ ohne Bildschirmruckeln spielen wollte, brauchte leistungsstarke Hardware. Unter Gamern kristallisierte sich schnell ein Favorit heraus: die Grafikkarte GeForce von Nvidia. Sie wurde zum Verkaufsschlager und katapultierte die 1993 gegründete Firma in die Spitzengruppe der Hardware-Hersteller. Zur Jahrtausendwende machten die Amerikaner schon drei Milliarden US-Dollar Umsatz.
KI-Forscher als neue Kundengruppe
Anfang der 2010er-Jahre bemerkte Nvidia, dass eine völlig neue Kundengruppe auf den Plan trat, die sich nicht für Computerspiele interessierte: KI-Forscher. In der Wissenschaft hatte sich nämlich herumgesprochen, dass Grafikprozessoren perfekt für aufwendige Berechnungen im Bereich des maschinellen Lernens geeignet sind. Soll zum Beispiel ein KI-Algorithmus trainiert werden, sind GPUs, die Rechenschritte hochgradig parallel abwickeln, klassischen sequenziellen Prozessoren (Central Processing Units, CPUs) deutlich überlegen und können die Rechenzeiten wesentlich verkürzen. So entwickelten sich Grafikprozessoren rasch zum Arbeitspferd der KI-Forschung.
Nvidia erkannte die Chance früher als die Konkurrenz und brachte 2015 die erste Hardware auf den Markt, die für KI optimiert war. Dabei konzentrierte sich das Unternehmen sofort auf den Automobilsektor: Unter dem Label Nvidia Drive wurde eine erste Rechenplattform für den Einsatz im Pkw vorgestellt. Die sogenannte PX 1 konnte Bilder von zwölf angeschlossenen Kameras verarbeiten und gleichzeitig Programme zur Kollisionsvermeidung oder Fahrerüberwachung ausführen. Sie hatte die Rechenleistung von über 100 Notebooks. Etliche Hersteller nutzten die Plattform, um die ersten Prototypen autonomer Fahrzeuge auf die Straße zu bringen.
Stetig wachsende Umsätze im Automobilsektor
Zunächst setzte Nvidia auf eine reine Hardware-Strategie und belieferte die OEMs mit Prozessoren. Derzeit hat das Geschäft im Automobilsektor zwei Säulen: Grafiksysteme für das Cockpit und Hardware für autonomes beziehungsweise computerunterstütztes Fahren. Die Umsätze im Automobilsektor wuchsen zwischen 2015 und 2020 stetig, sind aber bis heute im Vergleich zum Gesamtumsatz niedrig. Im letzten Jahr hat Nvidia im Automotive-Bereich 700 Millionen US-Dollar umgesetzt, was gut sechs Prozent des Gesamtumsatzes entspricht; allerdings steigen die Umsätze um neun Prozent pro Jahr. Jensen Huang, Gründer und CEO von Nvidia, sieht hier große Marktchancen. „Die Autos von morgen sind rollende KI-Supercomputer. Von den zahlreichen Steuergeräten werden nur zwei übrig bleiben: eines für das autonome Fahren und eines für die User Experience“, so der Vorstandschef.
Um noch stärker in der Automobilwelt Fuß zu fassen, hat Nvidia seine Strategie verändert: Das Unternehmen konzentriert sich nicht mehr nur auf Chips, sondern bietet ein komplettes Paket aus Hard- und Software an. „Der Kunde kann sich seine Lösung zusammenstellen und spart sich die Grundentwicklung“, erklärt Ralf Herrtwich, Senior Director Automotive Software von Nvidia. Ein OEM, der zum Beispiel ein teilautonomes Fahrzeug anbieten will, kann von Nvidia sowohl die Hardware zur Auswertung der Kamerabilder bekommen als auch neuronale Netze, die vortrainiert wurden – zum Beispiel eines, das selbstständig Verkehrsschilder erkennt. Anders als bei anderen Herstellern ist dieses Baukastensystem offen. „Alle Schnittstellen lassen sich einsehen. Der OEM kann das System so nach seinen Wünschen anpassen“, erklärt Herrtwich. Theoretisch kann ein Hersteller also vortrainierte neuronale Netze von Nvidia nutzen und diese dann mit Eigenentwicklungen kombinieren.
Nvidia-Produkte sind ein System-on-a-Chip
Durch diese Strategie der Offenheit will das US-amerikanische Unternehmen möglichst viele OEMs als Anwender gewinnen, was letztlich auch die Entwicklung der Produkte vorantreibt. „Wir können unsere Hardware am besten optimieren, wenn wir wissen, wie sie eingesetzt wird“, erklärt Herrtwich und gibt ein Beispiel: Die meisten Nvidia-Produkte sind ein System-on-a-Chip (SoC). Das heißt, ein Prozessor wird mit anderen elektronischen Komponenten auf einem Halbleiter zusammengefasst. Im Automobilbereich etwa kommen Chips mit eingebauten Videoeingängen zum Einsatz, an die externe Kameras angeschlossen werden. Doch wie viele Eingänge braucht man? Und wie muss die Netzwerkverbindung ausgelegt werden? Solche Fragen ließen sich nur im engen Kontakt mit den Anwendern klären, so Herrtwich. KI-Experte Schaper sieht das ähnlich: „Der Input von anderen OEMs ist wichtig.“ Entscheidend sei in der jetzigen Phase, die Entwicklungsprozesse gemeinsam zu beschleunigen.
Neben Hard- und Software bietet Nvidia eng kooperierenden OEMs auch Zugriff auf die eigene Infrastruktur an. So können die Hersteller daran mitarbeiten, neuronale Netze in Nvidia-Rechenzentren, in denen Tausende von GPUs parallel arbeiten, zu trainieren. Ein Selbstfahr-Algorithmus muss schließlich erst lernen, einen Fußgänger, einen Baum oder ein anderes Fahrzeug zu erkennen. Dafür wird er mit Millionen von Bildern aus dem realen Verkehr gefüttert, auf denen händisch die entsprechenden Objekte markiert wurden. Durch Trial-and-Error lernt der Algorithmus, sie zu identifizieren. Dieser Vorgang macht viel Arbeit (etwa das „Labeln“ der Objekte) und benötigt hohe Rechnerkapazitäten. Nvidia übernimmt beides. Automobilhersteller können so auf eine Künstliche Intelligenz zugreifen, die quasi schon einige Jahre die Schulbank gedrückt hat.
Drei Fragen an Ralf Herrtwich
Wann kommt Künstliche Intelligenz (KI) im Auto an?
Das ist sie schon, zum Beispiel im Cockpit. Viele Hersteller bieten Sprachsteuerung an, die auf KI basiert. Die Leistungsfähigkeit dieser Systeme hat in den letzten Jahren spürbar zugenommen. Daneben wird vom Fahrzeug zunehmend erwartet, dass es seine Umgebung wahrnimmt und passend reagiert, Stichwort: Assistenzsysteme. Auch hier spielt KI eine wachsende Rolle. Solche Anwendungen im Fahrzeug gehören zu den anspruchsvollsten überhaupt. Wir erwarten, dass dieser Bereich die ganze KI nach vorne bringt.
Wann kommt das autonome Fahren?
In örtlich begrenzten Gebieten werden Roboter-Fahrzeuge schon eingesetzt, vor allem an Orten, wo das Wetter gut ist. Allerdings sehen wir bis auf Weiteres den Hauptmarkt bei den regulären Fahrzeugen mit Unterstützungsfunktionen, also bei den Autonomie-Leveln 1 bis 3. Insgesamt werden die kommenden Jahre von einem Wettstreit solcher Systeme geprägt sein – also von der Frage, welches Hersteller-System die meisten Situationen meistern kann. Es geht weniger um den Anspruch, wirklich komplett selbststeuernd zu sein.
Wie verändert Künstliche Intelligenz das automobile Ökosystem?
Je wichtiger Software-Funktionen werden, desto stärker verändert sich die Rolle der Tier-1-Zulieferer. Ihre traditionell starke Bindung an die Hersteller wird schwächer. In Zukunft können wir uns eine Dreieckskonstellation vorstellen: Die OEMs arbeiten mit Technologieunternehmen wie Nvidia bei Prozessoren und Softwaremodulen zusammen, und der Tier 1 baut das Steuergerät. Einige OEMs legen heute schon Wert darauf, Softwarefunktionen selbst in der Hand zu behalten.
Warum Grafikprozessoren die besseren KI-Rechner sind
Grafikprozessoren sind darauf spezialisiert, geometrische Berechnungen durchzuführen: einen Körper auf dem Bildschirm zu rotieren, ihn zu vergrößern oder zu verkleinern. Die dafür nötigen Matrix- und Vektorberechnungen beherrschen GPUs (Graphics Processing Units) besonders gut. Das ist ein Vorteil bei der Entwicklung von neuronalen Netzen. Sie ähneln dem menschlichen Gehirn und bestehen aus mehreren Schichten, in denen Daten verarbeitet und an die nächste Schicht weitergereicht werden. Um sie zu trainieren, sind vor allem Matrixmultiplikationen nötig – also genau die Spezialität von GPUs.
Darüber hinaus besitzen diese Rechnerarchitekturen sehr viel Speicher, um Zwischenergebnisse und Modelle effizient abzulegen. Die dritte Stärke von GPUs liegt darin, dass sie mehrere Datenblöcke gleichzeitig verarbeiten können. Die Prozessoren enthalten Tausende sogenannter Shader-Einheiten, von denen jede einzelne recht simpel und langsam ist. In der Masse jedoch können diese Rechenwerke parallelisierbare Aufgaben wesentlich schneller abarbeiten als herkömmliche Prozessoren (Central Processing Units, CPUs). Beim Training von neuronalen Netzen etwa senken Grafikprozessoren den Zeitaufwand um bis zu 90 Prozent.
Info
Text: Constantin Gillies
Mitwirkender: Dr. Joachim Schaper
Text erstmalig erschienen im Porsche Engineering Magazin, Nr. 1/2021