Suchen

Supercomputer mit 1536 GPU-Kernen trainiert autonome Fahrsoftware

| Redakteur: Hendrik Härter

Nvidia hat einen Supercomputer entwickelt, der mit seinen 1536 GPU-Kernen helfen soll, autonome Fahrzeuge zu entwickeln. Zudem ist der Rechner modular aufgebaut, wodurch er schnell einsatzbereit ist.

Firmen zum Thema

Rechenpower für autonome Fahrsoftware: Der DGX SuuperPOD von Nvidia bietet 1536 V100-Tensor-Core-GPUs.
Rechenpower für autonome Fahrsoftware: Der DGX SuuperPOD von Nvidia bietet 1536 V100-Tensor-Core-GPUs.
(Bild: Nvidia)

Für das Training von selbstfahrenden Autos ist viel Rechenpower notwendig. So erzeugt ein einzelnes Fahrzeug zur Datenerfassung in einer Stunde einen Terabyte an Daten. Multipliziert man das mit jahrelangen Testfahrten über eine ganze Flotte, gelangt man schnell zu Petabyte an Daten. Entwickler nutzen diese Daten, um Algorithmen die Regeln des Straßenverkehrs anzutrainieren – und um mögliche Schwachstellen in den im Fahrzeug betriebenen tiefen neuronalen Netzen zu finden, die dann in einem kontinuierlichen Loop neu trainiert werden.

Für solche Rechenanwendungen ist leistungsfähige Hardware notwendig, wie beispielsweise der DGX SuperPOD. Entwickelt von Nivida steht der Rechner aktuell auf Platz 22 [1] der schnellsten Supercomputer der Welt. Zum Vergleich: Auf Platz neun steht der SuperMUC-NG des Leibnitz Rechenzentrums aus Deutschland. Das System stellt eine KI-Infrastruktur bereit, die den massiven Anforderungen für die Entwicklung autonomer Fahrzeuge in den Unternehmen entspricht.

1536 GPU-Kerne im Dauereinsatz

Angetrieben wird der Supercomputer DGX SuperPOD mit 1536 V100-Tensor-Core-GPUs von Nvidia. Die GPUs sind mit NVSwitch und Mellanox-Netzwerkstruktur verbunden. Damit ist der Rechner in der Lage, Daten mit hoher Leistung zu verarbeiten. Das System ist rund um die Uhr im Einsatz, optimiert die autonome Fahrsoftware und trainiert neuronale Netze mit einer viel schnelleren Bearbeitungszeit als bisher möglich. So benötigt beispielsweise die DGX SuperPOD Hard- und Softwareplattform weniger als zwei Minuten für das Trainieren von ResNet-50. Als dieses KI-Modell 2015 herauskam, dauerte es 25 Tage, bis es auf dem damals modernsten System geschult wurde. Das war ein einzelner K80-Grafikprozessor von Nvidia. Jetzt liefert der DGX SuperPOD Ergebnisse, die bis zu 18.000-mal schneller sind.

Während andere TOP500-Systeme mit ähnlicher Leistung auf Tausenden von Servern aufgebaut sind, nimmt der DGX SuperPOD einen Bruchteil des Platzes ein: etwa 400-mal kleiner als seine gelisteten Nachbarsysteme. Und die DGX-Systeme wurden bereits von anderen Unternehmen mit massiven eigenen Rechenanforderungen eingesetzt. Das reicht von Automobilherstellern und -zulieferern wie BMW, Continental, Ford und Zenuity über Unternehmen wie Facebook, Microsoft und Fujifilm bis hin zu Forschungsinstituten wie Riken und dem nationalen Labors des U.S. Department of Energy.

Ein DGX SuperPOD berechnet nicht nur Deep-Learning-Modelle sehr schnell. Durch sein modulares Design auf Enterprise-Niveau ist der Rechner zudem schnell einsatzbereit. Einen baugleichen Rechner bereitzustellen dauert bei Systemen dieser Größenordnung sechs bis neun Monate. Der Supercomputer von Nvidia ist nach drei Wochen startklar, wobei die Ingenieure einem vorschriftsmäßigen, validierten Ansatz folgten.

Referenz

Die Top500-Liste der schnellsten Rechner vom Juni 2019

Dieser Beitrag ist urheberrechtlich geschützt. Sie wollen ihn für Ihre Zwecke verwenden? Kontaktieren Sie uns über: support.vogel.de (ID: 45986374)