Am vergangenen Donnerstag hat Nvidia die GTC-2020-Präsentation in digitaler Form nachgeholt und dabei die A100-GPU auf Basis der Ampere-Architektur vorgestellt. Hierbei handelte es sich um einen leistungsstarken Grafikprozessor für Rechenzentren. Konkrete Angaben zur nächsten GeForce-Grafikkarten-Generation (RTX 3000) wurden trotz vieler Vermutungen und „geleakter Daten“ nicht gemacht.
Bei der Ankündigung der ersten RTX-Grafikkarten verfuhr Nvidia ähnlich. Zunächst wurde die Rechenzentrum-Version (Nvidia Volta) vorgestellt und einige Monate später folgte die Ankündigung der RTX-Turing-Grafikkarten für Spieler. Ob die Vorstellung der neuen Grafikkarten noch in diesem Jahr folgen wird, bleibt abzuwarten. Die RTX-Grafikkarten wurden im August 2018 im Vorfeld der gamescom präsentiert. Fest steht jedenfalls, dass die 7nm-Ampere-Mikroarchitektur für alle Grafikkarten der nächsten Generation verwendet werden soll (einheitliche Mikroarchitektur laut Marketwatch). Die Veröffentlichung wird angeblich für das 3. Quartal 2020 vorbereitet, da die AIB-Partner (Grafikkarten-Hersteller, die Chips von AMD oder Nvidia nutzen) laut Techradar ihre Lagerbestände räumen würden, um Platz für die Einführung von Nvidia-Ampere-Produkten vorzubereiten.
Die Spiele-bezogenen Ankündigungen hielten sich bei der GTC-Keynote (Aufzeichnung) von Nvidia-Frontmann Jensen Huang (nur echt mit Lederjacke) in Grenzen, sollen aber nachfolgend zusammengefasst werden. So kam der Chef von Nvidia auf die Raytracing-Implementierung am Beispiel von Minecraft RTX (wir berichteten, mehrfach) und auf die Verbesserungen von DLSS zu sprechen. Zu Beginn erklärte er die grundlegende Funktionsweise von DLSS – und wie Deep-Learning-Technologien zur Hochskalierung der Auflösung von Bildern verwendet werden und wie die Machine-Learing-Programme anhand der „Wahrheit“ lernen (Details zu DLSS 2.0). DLSS ist im Raytracing-Zusammenhang sehr wichtig, da Raytracing sehr rechenaufwändig ist und der Rechenaufwand natürlich mit der gewählten nativen Auflösung zusammenhängt. Wird das Spiel z.B. nur in 720p berechnet, ist logischerweise weniger Rechenleistung als in 1440p erforderlich (gut für Raytracing). Die Hochskalierung z.B. von 720p auf 1440p wird dann via DLSS (Deep Learning Super Sampling) realisiert, wobei das Verfahren auch explizit ohne Raytracing funktioniert. Der Nvidia-Chef zeigte in dem Zusammenhang die Steigerung der Bildqualität von DLSS 2.0 im Vergleich zu DLSS 1.0. Version 1.0 sorgte bei höheren Auflösungen zwar für einen ordentlichen Schub bei der Bildwiederholrate, oft aber auf Kosten der Bildschärfe und stellenweise mit seltsamen Artefakten bei sich bewegenden Objekten.
Nach der Zusammenfassung der weitgehend bekannten Entwicklungen im GeForce-Spiele-Bereich wurde eine spielbare Tech-Demo gezeigt, die als Blick in die Zukunft angesehen werden könnte (siehe Video unterhalb dieses Absatzes). Die Tech-Demo, die schwer an „Marble Madness“ erinnert, soll die Leistungsfähigkeit auf der Omniverse-Plattform (3D-Production-Pipeline) von Nvidia in Echtzeit veranschaulichen, mit hochdetaillierten Objekten, vollständiger Raytracing-Beleuchtung, aufwändiger Physik-Berechnung und keine für das „Echtzeit-Gaming“ normalweise vorgenommenen Vereinfachungen zur Reduktion der Komplexität von 3D-Szenen. Auch viel KI-Unterstützung kam in der Demo zum Einsatz. Die Tech-Demo lief auf einer Quadro RTX 8000 – einer knapp 6.000 Euro teuren Grafikkarte mit 48 GB GDDR6-Speicher für professionelle Grafikanwendungen inkl. dedizierter Raytracing-Recheneinheiten wie in den RTX-Grafikkarten (Quadro RTX 8000: 72 RT-Recheneinheiten; GeForce 2080 Ti: 68 RT-Recheneinheiten).
Ehrlich?
Die Technik und so ist echt gut.
Aber es muss auch für den normalen User verständlich sein.
Am besten soll ein Spiel eine Benchmark laufen lassen und dann die Einstellungen die zum System passen vornehmen.
So wie es Nvidia auch macht.
Klappt nur nicht so richtig gut finde ich.
Bei dem ganzen Wunst an Zeugs das es gibt, wird man gaga.
Ich will doch nur spielen
Das letzte Video sieht aus wie Marble Madness
So sehr die UE 5 auch beeindruckt, muss halt doch zugegeben werden:
Photorealismus kann nur mit Raytracing erreicht werden. Schade, dass wir das noch lange nicht in seiner vollen Pracht haben werden.
Nvidia muss hier rumtricksen, mit geringer Berechnugsäuflösung, wenigen Iterationen und dann erforderlichen Tricks wie Entrauschung / Kompensation niedriger Ausgangsdetails durch intelligente Skalierung / DLSS. Trotzdem sehen die Ergebnisse, Marble-Demo auf sehr starker! Nvidia-Hardware, gut aus.
Was ist mit den Gründen, die ich genannt habe?