Nvidia bringt Omniverse auf Apple Vision Pro

Digital Twins streamen

20.03.2024
Von 
Jürgen Hill ist Chefreporter Future Technologies bei der COMPUTERWOCHE. Thematisch befasst sich der studierte Diplom-Journalist und Informatiker derzeit mit aktuellen IT-Trendthemen wie KI, Quantencomputing, Digital Twins, IoT, Digitalisierung etc. Zudem verfügt er über einen langjährigen Background im Bereich Communications mit all seinen Facetten (TK, Mobile, LAN, WAN). 
Digitale Zwillinge auf der Vision Pro – das möchte Nvidia künftig mit Omniverse und seinem Graphics Delivery Network ermöglichen.
Digitale Zwillinge aus dem Omniverse können künftig auf die Apple Vision Pro gestreamt werden.
Digitale Zwillinge aus dem Omniverse können künftig auf die Apple Vision Pro gestreamt werden.
Foto: NVIDIA

Ein neues Software-Framework von Nvidia, das auf Omniverse Cloud APIs (Application Programming Interfaces) basiert, soll es künftig ermöglichen, Digital Twins auf die Apple Vision Pro zu streamen. Hierzu müssen lediglich die Digitalen Zwillinge auf Basis von OpenUSD an das Nvidia Graphics Delivery Network (GDN) gesendet werden.

Rendering in der Cloud

Das Rendering findet dann im GDN statt. Das GDN ist laut Nvidia in über 130 Ländern verfügbar und nutzt die globale Cloud-to-Edge-Streaming-Infrastruktur des Herstellers. Durch die Verlagerung rechenintensiver Aufgaben auf das GDN können Anwender anspruchsvolle Rendering-Anwendungsfälle bewältigen, unabhängig von der Größe oder Komplexität des Datensatzes.

Digital Twin in allen Details

Welches Potenzial das Verfahren auf der Apple Vision Pro hat, zeigte Nvidia auf seiner KI-Konferenz GTC24. Dazu streamte das Unternehmen den interaktiven, physikalisch exakten Digital Twin eines Autos, in voller Detailtreue auf die hochauflösenden Displays der Apple Vision Pro.

Spatial Computing und Cloud

In einer Demo zeigt Nvidia einen Designer, der die Vision Pro trägt und eine vom CGI-Studio Katana auf der Omniverse-Plattform entwickelte Autokonfigurator-Anwendung verwendet. Der Designer schaltet zwischen verschiedenen Lackierungs- und Ausstattungsoptionen um und steigt sogar in das Fahrzeug ein. Dabei nutzt er die Möglichkeiten des Spatial Computing, indem er fotorealistische 3D-Umgebungen mit der realen Welt verschmilzt.

Der Cloud-basierte Ansatz ermöglicht es dabei, physikalisch basierte Renderings in Echtzeit nahtlos an die Apple Vision Pro zu streamen und so hochauflösende Bilder zu liefern, ohne die Details der großen, ingenieurgetreuen Datensätze zu beeinträchtigen.