DeuAq.com >> Leben >  >> Elektronik

Fahrerlose Autos sollten in VR trainiert werden, nicht auf Straßen, sagt Nvidia

With Da weltweit mehr selbstfahrende Autos getestet werden als je zuvor, werden Vorfälle wie der Uber-Unfall in Arizona wahrscheinlich so lange passieren, bis die Technologie als verkehrssicher gilt. Das ist ein schwieriges Unterfangen für die meisten Unternehmen, die keine privaten Testbereiche wie die geschlossene Community von Google aufbauen können.

Siehe verwandt Die langsamen selbstfahrenden Autos von GreenwichWen wird das fahrerlose Auto kollidieren? Dieser Comic-Simulator beantwortet einige wirklich schreckliche Fragen Fahrerlose Autos der Zukunft:Wie weit sind wir von autonomen Autos entfernt?

Geben Sie Nvidia ein. Das KI- und GPU-Unternehmen gab heute auf seiner GPU Technology Conference (GTC) in San Jose bekannt, dass es eine Cloud-basierte Testanlage für autonome Fahrzeuge mit modernsten fotorealistischen Simulationen aufgebaut hat. Anstatt eine abgesperrte Teststrecke zu bauen, können Entwickler alle Systeme ihres autonomen Fahrzeugs vollständig in einer simulierten Version der realen Welt testen.

Das als Nvidia Drive Constellation bezeichnete System arbeitet auf zwei verschiedenen Servern, die zusammen verwendet werden, um eine virtuelle Darstellung des Testwagens zu erstellen. Ein Server simuliert alle Sensoren eines selbstfahrenden Fahrzeugs (Lidar, Radar, Kameras usw.) über Nvidia Drive Sim, während der andere auf einem Nvidia Drive Pegasus AI-Computer läuft, der in echten selbstfahrenden Fahrzeugen zu finden ist. Die Pegasus-KI-Komponente entschlüsselt alle Informationen, die von den Sensoren des virtuellen Autos kommen, und verarbeitet sie so, als ob es echte Daten wären, die von einem Auto stammen, das selbst auf der Straße fährt.

Fahrerlose Autos sollten in VR trainiert werden, nicht auf Straßen, sagt NvidiaSensoren an einem echten Nvidia Drive Pegasus-betriebenen autonomen Auto

„Der Einsatz selbstfahrender Autos in der Produktion erfordert eine Lösung zum Testen und Validieren auf Milliarden von Fahrkilometern, um die Sicherheit und Zuverlässigkeit zu erreichen, die Kunden benötigen“, sagte Rob Csongor, VP und GM of Automotive bei Nvidia. „Mit Drive Constellation haben wir das erreicht, indem wir unsere Expertise in Visual Computing und Rechenzentren kombiniert haben. Mit der virtuellen Simulation können wir die Robustheit unserer Algorithmen erhöhen, indem wir Milliarden von Kilometern benutzerdefinierter Szenarien und seltener Eckfälle testen, und das alles in einem Bruchteil der Zeit und der Kosten, die für die Durchführung auf physischen Straßen erforderlich wären.“

WEITER LESEN:Wie können wir dafür sorgen, dass sich Menschen mit fahrerlosen Autos wohlfühlen?

Der ganze Prozess hat einen Hauch von Black Mirror oder Get Even; Drive Constellation bringt das „Gehirn“ eines autonomen Autos im Wesentlichen dazu, zu glauben, dass es sich in einer realen Welt statt in einer Simulation befindet, indem es seine Sensoreingaben mit simulierten Eingaben anstößt. Stellen Sie sich das so vor, wie The Matrix uns 1999 umgehauen hat, indem sie angedeutet hat, dass unsere gesamte Welt falsch sei. Das macht Nvidia mit autonomen Fahrzeugen, um sie zu trainieren, ohne sie auf die Straße zu bringen.

In der Praxis funktioniert Drive Constellation durch den Aufbau einer Simulation über die GPUs von Nvidia, um einen Informationsstrom für jeden der Sensoren des Autos zu erzeugen. Diese Daten werden dann zur Verarbeitung in den Drive Pegasus AI-Server eingespeist. Pegasus verwendet dann diese verarbeiteten Informationen, um das Verhalten des Autos wieder in den Simulator einzuspeisen. Laut Nvidia findet dieser Vorgang 30 Mal pro Sekunde statt, sodass Pegasus das simulierte Fahrzeug korrekt bedienen kann.

Die Simulation läuft in einer fotorealistischen Umgebung, die Tester nicht nur sehen lässt, was das Auto sehen kann, sondern auch dynamisches Testen von Umgebungen und Situationen ermöglicht. Sie können unterschiedliche Wetterbedingungen wie Regenstürme und Schneestürme einbringen; Ändern Sie den Sonnenstand, um Blendlicht über die Straße oder direkt in die Sensoren des Autos zu werfen, und ändern Sie sogar das Straßengelände und die Oberflächen. Entwickler können sogar Skripte für zu simulierende Gefahrensituationen hinzufügen, um zu sehen, wie das autonome Auto reagieren würde, ohne Tiere oder Menschen in Gefahr zu bringen. Vielleicht könnten sie sogar ein oder zwei Kängurus vorbeibringen.

Hier ist eine Demo von der CES 2018, die die Drive Sim-Technologie während der Keynote von Nvidia vorführt.

Auf der CES 2018 enthüllte Nvidia auch, dass Drive Sim Tester simulierte Autos in Echtzeit fahren lassen könnte, was bedeutet, dass ein virtuelles autonomes Auto lernen könnte, wie es auf reale Fahrer reagiert, ohne auch nur einen einzigen setzen zu müssen Reifen auf einer echten Straße.

„Autonome Fahrzeuge müssen mit einem System entwickelt werden, das das Training über das Testen bis hin zum Fahren abdeckt“, sagte Luca De Ambroggi, Research Analyst und Direktor bei IHS Markit, in einer Pressemitteilung. „Nvidias End-to-End-Plattform ist der richtige Ansatz. Drive Constellation für Virtual-Reality-Tests und -Validierungen wird uns der Produktion selbstfahrender Autos einen Schritt näher bringen.“