Das Gerät kann in die Top Ten der Supercomputer eingeordnet werden und unterstützt die Weiterentwicklung des „Autopiloten“. Die neue Arbeitsweise erfordert auch Rechenleistung.
Mit 1,8 Eflops und zehn Petabyte NVME-Speicher soll der neue Rechner 1,8 Terabyte pro Sekunde verarbeiten können. Teslas KI-Chef Andrej Karpathy sagte bei seiner Enthüllung am Montag, dass ihn die Gesamtzahl der Flops etwa auf den fünften Platz der 500 besten Supercomputer bringen würde. Nvidia hat aktuell den Selene-Cluster, der mit einer ähnlichen Architektur arbeitet, allerdings nur mit 4.480 statt 5.760 Grafikprozessoren. Es hat kürzlich sein Microsoft-Pendant ersetzt. Eine Platzierung kann erst erfolgen, wenn Teslas neuer Monstercomputer die speziellen Benchmarks bestanden hat, um es unter die Top 500 zu schaffen. Karpathy erklärte auf der Conference on Computer Vision and Pattern Recognition, warum er die ganze Rechenleistung und die Vision dahinter nutzt: Das Schlagwort lautet autonomes Fahren nach dem Vision-only-Ansatz.
Vision-Only benötigt sehr hohe Rechenleistung
Der neue Supercomputer werde es Tesla ermöglichen, Radar- und Lidar-Sensoren durch optische Hochleistungskameras zu ersetzen, sagte der 34-Jährige. Ein Computer, der wie ein Mensch reagieren soll, braucht einen immensen Datensatz. Außerdem wird ein sehr leistungsfähiger Computer benötigt, um die neuronalen Netze der autonomen Fahrsysteme mit dieser Masse an Informationen zu trainieren. Teslas Supermaschine sammelt Videos von acht Kameras mit 36 Bildern pro Sekunde. Das System beschriftet dann die wahnsinnige Menge an Umweltdaten – wenn auch mit menschlicher Hilfe. Das neue Gerät hat bereits eine Million Videos von etwa zehn Sekunden Länge gesammelt und sechs Milliarden Objekte mit Tiefe, Geschwindigkeit und Beschleunigung erfasst. Tesla benötigt dafür 1,5 Petabyte Speicherplatz – das sind etwa 1,5 Millionen Gigabyte.
Vor- und Nachteile des Vision-Only-Ansatzes
Elon Musk betont seit langem die Vorteile der Methode. Kameras arbeiten schneller als Radar und Lidar. Deshalb verzichtet er auf die neuen Versionen des Modell Y und Modell 3 in den USA nur ohne Radar gebaut. Außerdem benötigt die Technologie keine hochauflösenden Karten, sodass sie theoretisch überall auf der Welt funktioniert. Der reine Vision-Ansatz ist skalierbarer, sagt Karpathy, stellt aber auch die größere Herausforderung dar: Die Systeme müssen in der Lage sein, riesige Datenmengen in einer Geschwindigkeit zu sammeln, die der menschlichen Fähigkeit entspricht, Tiefe und Geschwindigkeit zu erkennen. In dünn besiedelten Gebieten funktionierten sie bereits sehr gut, während sie „in sehr ungünstigen Gegenden wie San Francisco“ sicherlich mehr Probleme hätten.
KI erkennt Verwechslung von Gas- und Bremspedal
Karpathy zeigte einige Implementierungsszenarien. Dazu gehörte eine Notbremsung zur Vermeidung einer Kollision mit einem Fußgänger und eine Warnung, wenn der Fahrer an einer gelben Ampel noch nicht abgebremst hat. „Pedal Misapplication Mitigation“ heißt eine neue Funktion, die das Schalten von Gas- und Bremspedal richtig interpretiert und eingreift. Es befindet sich derzeit in der Testphase. In den gezeigten Szenarien arbeitet der Supercomputer mit dem Vision-only-Ansatz. Gerüchten zufolge könnte Tesla auch Daten für den neuen Ansatz über Lidar-Systeme eingeben – entsprechende Testfahrzeuge wurden kürzlich gesichtet.