Nvidia GTC-2020-Keynote: Themen mit Gaming-Bezug, Raytracing-Tech-Demo und Ampere-Mikroarchitektur

Nvidia
17.05.2020 15:45, Marcel Kleffmann

Nvidia GTC-2020-Keynote: Themen mit Gaming-Bezug, Raytracing-Tech-Demo und Ampere-Mikroarchitektur

Am vergangenen Donnerstag hat Nvidia die GTC-2020-Präsentation in digitaler Form nachgeholt und dabei die A100-GPU auf Basis der Ampere-Architektur vorgestellt . Hierbei handelte es sich um einen leistungsstarken Grafikprozessor für Rechenzentren. Konkrete Angaben zur nächsten GeForce-Grafikkarten-Generation (RTX 3000) wurden trotz vieler Vermutungen und "geleakter Daten " nicht gemacht .

Bei der Ankündigung der ersten RTX-Grafikkarten verfuhr Nvidia ähnlich. Zunächst wurde die Rechenzentrum-Version (Nvidia Volta) vorgestellt und einige Monate später folgte die Ankündigung der RTX-Turing-Grafikkarten für Spieler. Ob die Vorstellung der neuen Grafikkarten noch in diesem Jahr folgen wird, bleibt abzuwarten. Die RTX-Grafikkarten wurden im August 2018 im Vorfeld der gamescom präsentiert. Fest steht jedenfalls, dass die 7nm-Ampere-Mikroarchitektur für alle Grafikkarten der nächsten Generation verwendet werden soll (einheitliche Mikroarchitektur laut Marketwatch ). Die Veröffentlichung wird angeblich für das 3. Quartal 2020 vorbereitet, da die AIB-Partner (Grafikkarten-Hersteller, die Chips von AMD oder Nvidia nutzen) laut Techradar ihre Lagerbestände räumen würden, um Platz für die Einführung von Nvidia-Ampere-Produkten vorzubereiten.

Die Spiele-bezogenen Ankündigungen hielten sich bei der GTC-Keynote (Aufzeichnung ) von Nvidia-Frontmann Jensen Huang (nur echt mit Lederjacke) in Grenzen, sollen aber nachfolgend zusammengefasst werden. So kam der Chef von Nvidia auf die Raytracing-Implementierung am Beispiel von Minecraft RTX (wir berichteten, mehrfach) und auf die Verbesserungen von DLSS zu sprechen. Zu Beginn erklärte er die grundlegende Funktionsweise von DLSS - und wie Deep-Learning-Technologien zur Hochskalierung der Auflösung von Bildern verwendet werden und wie die Machine-Learing-Programme anhand der "Wahrheit" lernen (Details zu DLSS 2.0). DLSS ist im Raytracing-Zusammenhang sehr wichtig, da Raytracing sehr rechenaufwändig ist und der Rechenaufwand natürlich mit der gewählten nativen Auflösung zusammenhängt. Wird das Spiel z.B. nur in 720p berechnet, ist logischerweise weniger Rechenleistung als in 1440p erforderlich (gut für Raytracing). Die Hochskalierung z.B. von 720p auf 1440p wird dann via DLSS (Deep Learning Super Sampling) realisiert, wobei das Verfahren auch explizit ohne Raytracing funktioniert. Der Nvidia-Chef zeigte in dem Zusammenhang die Steigerung der Bildqualität von DLSS 2.0 im Vergleich zu DLSS 1.0. Version 1.0 sorgte bei höheren Auflösungen zwar für einen ordentlichen Schub bei der Bildwiederholrate, oft aber auf Kosten der Bildschärfe und stellenweise mit seltsamen Artefakten bei sich bewegenden Objekten.

Your browser doesn't support HTML5 video.

Video: Marbles RTX (Tech-Demo) von der GTC 2020

Kommentare
M4g1c79

Ich fands interessant, wie der Nvidia-Chef erst das native Bild zeigt, und dann die DLSS-Variante, und einfach so behauptet: "Sieht sogar besser aus! Wow!" Ist doch klar, das auf den ersten Blick ein Bild besser aussieht. Es ist ja auch ganz bewusst so gemacht, das es "besser" wirkt. Unter anderem mit digitalem Kontrast-Effekt, der Kanten farblich so abändert, das es für das Auge schärfer aussieht. Kann jeder mal an seinem Fernseher ausprobieren. "Schärfe" nach oben drehen. Ist der gleiche Effekt. Und sicherlich werden sie noch andere Techniken anwenden.

Nicht falsch verstehen: Machine Learning zu nutzen um Bilder hoch zu skalieren ist eine sehr interessante Technik, aber so übertrieben wie NVidia das hier verkauft, das ist schon bekloppt. "Hier, sieht besser aus!" Nein. Tuts ehrlicherweise nicht. Ist aber auch OK, weil man sich mit der schlechteren visuellen Qualität etwas Leistung erkauft. Ist doch Okay. Muss ja nicht alles eine eierlegende Wollmilchsau sein.

Was der Quatsch mit der Pipeline sollte, das weiß ich allerdings nicht so richtig. Scheint ein Grafik-Server zu sein, der die Geometrie der Welt im Speicher hat und mehrere virtuelle Kameras unterstützt, die dann per Stream zum Künstler kommen. Die haben sich echt so große Mühe gegeben, das Wort "Streaming" nicht zu benutzen, das man kaum wusste was das jetzt eigentlich sein soll.

Was dann allerdings diese "Demo" damit zu tun hat, das weiß ich überhaupt nicht. Das hatte weder was mit Physik, noch mit Kollaboration zu tun. Das war ziemlich random. Von der Büste vom Nvidia-Chef mal ganz zu schweigen.
Dann schau dir mal das DLSS von Control von Digital Foundry an. Das ist wirklich unfassbar gut. Erstens läuft es so natürlich viel besser und zweitens hat 2.0 wirklich einen riesen Sprung gemacht, was die Qualität angeht. Aus meiner Sicht wird's ohne DLSS in Zukunft kaum noch gehen, wenn man denn alles ausreizen will.

vor 4 Jahren
hullabaloo

Das letzte Video sieht aus wie Marble Madness

vor 4 Jahren
Progame

So sehr die UE 5 auch beeindruckt, muss halt doch zugegeben werden:
Photorealismus kann nur mit Raytracing erreicht werden. Schade, dass wir das noch lange nicht in seiner vollen Pracht haben werden.

Nvidia muss hier rumtricksen, mit geringer Berechnugsäuflösung, wenigen Iterationen und dann erforderlichen Tricks wie Entrauschung / Kompensation niedriger Ausgangsdetails durch intelligente Skalierung / DLSS. Trotzdem sehen die Ergebnisse, Marble-Demo auf sehr starker! Nvidia-Hardware, gut aus.

Zuletzt bearbeitet vor 4 Jahren

vor 4 Jahren
Doc Angelo

Was ist mit den Gründen, die ich genannt habe?

vor 4 Jahren