In Spielen und virtuellen Welten wie Horizon Call of the Mountain bestehen 3D-Objekte aus Millionen von miteinander verbundenen Polygonen, die gefärbt, schattiert und texturiert sind. Nur so entsteht eine überzeugende Simulation. Obwohl dies funktioniert, bleibt Realismus eine große Herausforderung. Um dieses Problem zu lösen, werden einige Spiele, wie z.B. Pistol Whip, mit stilisierten Grafiken erstellt, da die reale Welt aus unvollkommenen, fließenden Formen besteht, die schwer nachzubilden sind. Raytracing ist dabei eine Technologie, die Millionen von Lichtstrahlen simuliert, um realistische Bilder zu erzeugen. Diese erfordert aber enorme Grafikleistung. Mit der NeRF-Technologie gibt es nun eine Lösung, um reale Objekte in virtuellen, digitalen Umgebungen zu replizieren.
Was ist eine NeRF?
NeRF ist eine Abkürzung für „Neural Radiance Fields“ (dt. Neuronale Strahlungsfelder). Das Wort „Radiance“ bedeutet Licht und so wie Raytracing Licht und Schatten darstellen kann, erreichen Radiance-Felder ebendiesen Realismus auf andere Weise: Durch ein Strahlungsfeld wird Licht aus jedem einzelnen Winkel sowie an jedem Punkt der Simulation dargestellt. Der Realismus stellt sich quasi automatisch ein. Dadurch können virtuelle Kamerafahrten durch NeRFs unternommen werden, die realistische Darstellungen von Personen, Objekten und Umgebungen bieten. Die Qualität von NeRFs kann jedoch schwanken, da schnell oder mit wenigen Quellbildern erzeugte Felder verrauscht oder gerissen erscheinen können. Nichtsdestotrotz ist die Gesamtrealität des intakten Teils einer Szene ausgezeichnet. Der Name „NeRF“ betont auch das neuronale Rendering, das diese Technik auf Geräten mit niedrigem Stromverbrauch ermöglicht. Kosten und Notwendigkeit teurer Grafikkarten werden damit reduziert. Daher ist die NeRF-Technologie aufgrund ihrer Fähigkeit, mit kosteneffizienter Hardware schnell realistische 3D-Bilder zu erzeugen, attraktiv.Der Status-Quo der NeRF-Technologie
Zwar gibt es die NeRF-Technologie bereits eine Weile, sie befindet sich aber noch in der Entwicklung. Dennoch erscheint sie bereits zum jetzigen Zeitpunkt als unvermeidlich hinsichtlich dem Aufbau virtueller Welter oder verschiedenster Metaversen. Besonders hochkomplexe Szenen oder Objekte, wie im obigen Beispiel von Horizon Call of the Mountain, können auch einen leistungsstarken PC mit teurem Grafikprozessor überfordern. Um diese Welten realistisch und den Ansprüchen gerecht umsetzen zu können, braucht es eine fortschrittliche Lösung. Während zu Beginn der Forschung neuronales Rendering noch sehr zeitaufwendig war, ist es dank spezieller Prozessoren und Grafikchips in Computern, Handys und VR-Brillen mittlerweile schnell und einfach. Die Fortschritte der NeRF-Technologie sind bemerkenswert und ihre Einsatzmöglichkeiten werden als Resultat dessen immer vielfältiger. In diesem Zusammenhang wird das neuronale Rendering voraussichtlich eine wichtige Rolle bei der Erstellung von virtuellen Objekten und Umgebungen spielen, die die virtuellen Welten sowie das Metaverse füllen und die VR- und AR-Brillen in Zukunft möglicherweise unverzichtbar machen werden.
In Spielen und virtuellen Welten wie Horizon Call of the Mountain bestehen 3D-Objekte aus Millionen von miteinander verbundenen Polygonen, die gefärbt, schattiert und texturiert sind. Nur so entsteht eine überzeugende Simulation. Obwohl dies funktioniert, bleibt Realismus eine große Herausforderung. Um dieses Problem zu lösen, werden einige Spiele, wie z.B. Pistol Whip, mit stilisierten Grafiken erstellt, da die reale Welt aus unvollkommenen, fließenden Formen besteht, die schwer nachzubilden sind. Raytracing ist dabei eine Technologie, die Millionen von Lichtstrahlen simuliert, um realistische Bilder zu erzeugen. Diese erfordert aber enorme Grafikleistung. Mit der NeRF-Technologie gibt es nun eine Lösung, um reale Objekte in virtuellen, digitalen Umgebungen zu replizieren.