Mit dem neu entwickelten Computerchip D1 will Tesla die Serverprodukte von AMD und Nvidia übertrumpfen. Ein Supercomputer auf Basis des D1 soll die bisher verwendeten Nvidia-Beschleuniger von Tesla in Sachen Effizienz und Platzbedarf übertreffen.
Das amerikanische Unternehmen Tesla entwickelt nicht nur Elektroautos, Batteriespeicher und Photovoltaikanlagen, sondern auch Computerchips. Bei einer kürzlich durchgeführten Präsentation zum Thema KI stellte das Unternehmen das „Project Dojo“ vor, bei dem Tesla die Nvidia-Technologie nutzt, die zuvor für KI-Training verwendet wurde.Grafikkarten ersetzen möchten.
Tesla mit D1-Chips und Trainingsplättchen
Herzstück des Dojo-Projekts wird ein Computerchip namens D1 sein, der im 7-nm-Verfahren hergestellt wird und auf 645 mm² 50 Milliarden Transistoren aufnehmen kann. Der Chip ist in 354 sogenannte Trainingsknoten mit jeweils einem Quad-Core unterteiltProzessor Einbeziehen. Dieser soll besonders für Matrixmultiplikation (8×8) und Berechnungen in den Formaten FP32, BFP16, CFP8, INT32, INT16 und INT8 geeignet sein. Damit konkurriert die D1 nicht mit klassischen CPUs, sondern mit Computerbeschleunigern wie Nvidias A100 oder AMDs Instinct MI100.
Was: Tesla
Im Allgemeinen sollte ein einzelner D1 eine Rechenleistung von 362 TFLOPS für Berechnungen mit FP16 / CFP8-Daten erreichen, während 22,6 TFLOPS für FP32-Daten aufgerufen werden. Beide Werte liegen über den Spezifikationen der Konkurrenzprodukte von AMD und Nvidia, aber auch die TDP des Chips. Dieser ist mit 400 W beim Tesla D1 deutlich höher als bei der Konkurrenz, die mit 300 W (AMD) bzw. 250 W (Nvidia) konkurriert.
Chip | AMD Instinct MI 100 | Nvidia A100 | Tesla D1 |
---|---|---|---|
FP64 | 11,5 TFLOPS | 9.7 TFLOPS | – |
FP32 | 23.1 TFLOPS | 19,5 TFLOPS | 22.6 TFLOPS |
FP16 | 184,6 TFLOPS | 312 TFLOPS | 362 TFLOPS |
Transistoren | 50 Milliarden | 54 Milliarden | 50 Milliarden |
Spanfläche | 750mm² | 826mm² | 645mm² |
Produktion | 7nm TSMC | 7nm TSMC | 7 nm |
TDP | 300W | 250 W | 400W |
Auch spannend: AMD Instinct MI200: Das Bild zeigt die Dual-Die-GPU für HPCs
Der D1-Chip wird von Tesla in sogenannten Trainingskacheln verwendet, die 25 D1-Chips kombinieren. Diese Trainingskacheln müssen eine kombinierte Rechenleistung von 9 PFLOPS bei einem Verbrauch von 10 kW aufweisen. Zukünftig will Tesla insgesamt 120 Trainingskacheln zu einem Supercomputer zusammenfassen, der eine Rechenleistung von 1,1 ExaFLOPS bereitstellen würde.
Was: Tesla
Was: Tesla
Laut Tesla wird dieser Supercomputer fünfmal kleiner und gleichzeitig 30 Prozent effizienter als die aktuelle Konkurrenz von Nvidia. Anzumerken ist, dass Tesla den D1 möglicherweise gezielt auf den eigenen Anwendungsbereich abgestimmt hat, während die Produkte von Nvidia und AMD für mehrere Anwendungsbereiche gleichzeitig geeignet sind, was bei der Entwicklung ein Nachteil ist.
Wer geht Computerbasis / Grafikkarte
[PLUS] Widescreen-Format mit 21:9 – Ist die CPU limitiert? Ein Praxistest
Die mit * gekennzeichneten Links sind Affiliate-Links. Affiliate-Links sind keine Werbung, da wir bei der Recherche und Auswahl der präsentierten Produkte unabhängig sind. Für Produktverkäufe erhalten wir eine kleine Provision, mit der wir die kostenlosen Inhalte der Website teilweise finanzieren.