Nvidia - CES 2021: GeForce RTX 3060, RTX-3000er-Reihe für Notebooks und Resizable BAR als Antwort auf SAM

Nvidia
12.01.2021 21:22, Marcel Kleffmann

Nvidia - CES 2021: GeForce RTX 3060, RTX-3000er-Reihe für Notebooks und Resizable BAR als Antwort auf SAM

Bei der CES 2021 hat Nvidia die GeForce-RTX-3000er-Grafikprozessoren für Notebooks, die GeForce RTX 3060 für Desktop-Rechner und Resizable BAR als Antwort auf SAM (Smart Access Memory von AMD) angekündigt.

Die GeForce RTX 3060 soll Ende Februar 2021 erscheinen und 319 Euro kosten. Die fünfte Grafikkarte auf Basis der Ampere-Architektur hat 12 GB GDDR6-Speicher - und damit paradoxerweise mehr Speicher als RTX 3080, 3070 und 3060 Ti, allerdings ist die Speicherbandbreite deutlich geringer (3060 Ti: 256 Bit; 3060: 192 Bit). Den vergleichsweise "großen Speicher" versucht Nvidia damit zu erklären, dass auch "Inhaltsersteller" (YouTuber, Influencer etc.) zu dieser Grafikkarte greifen könn(t)en, die mit großen Datensätzen, Modellen und detaillierten Szenen arbeiten. Ansonsten bietet die RTX 3060 Ti deutlich mehr Rechenkerne in den drei Bereichen.

Laut Nvidia bietet die Grafikkarte 13 TFLOPS im Bereich der Single-Precision-Compute-Performance, 35 TFLOPS bei Raytracing und bis zu 101 Tensor-FLOPS in KI-Operationen. Nvidia positioniert die Grafikkarte als Nachfolger der GeForce GTX 1060 und für die Nutzung in 1080p (Full HD). Laut Hersteller soll die RTX 3060 die doppelte Rasterisierungsleistung und die zehnfachen Raytracingleistung im Vergleich zur GeForce GTX 1060 bieten (Details ). Die RTX 3060 unterstützt RTX-Raytracing-Effekte, DLSS, Reflex, Studio, Broadcast und Resizable BAR.

RTX 3060 (319 Euro)

  • CUDA Cores (Streaming-Prozessoren): 3584
  • Raytracing Cores: 28
  • Tensor Cores: 112
  • Speicher: 12 GB GDDR6
  • Speicher-Durchsatz: 16 Gbps
  • Speicher-Bandbreite: 192-bit

RTX 3060 Ti (399 Euro)
  • CUDA Cores (Streaming-Prozessoren): 4864
  • Raytracing Cores: 38
  • Tensor Cores: 152
  • Speicher: 8 GB GDDR6
  • Speicher-Durchsatz: 14 Gbps
  • Speicher-Bandbreite: 256-bit


Mit Resizable BAR hat Nvidia eine Technologie für die standardisierte PCI-Express-Schnittstelle angekündigt, welche es "modernen" CPUs ermöglicht, auf den gesamten GPU-VRAM gleichzeitig zuzugreifen, anstatt wie bisher viele (kleinere) Datenpakete anzufordern und zu übertragen. Da CPU und GPU ständig Daten austauschen, kann dies in einem großen Schwung (Batch), anstatt in mehreren kleineren Schritten geschehen und somit die Leistung in bestimmten Spielen erhöhen. Resizable BAR soll auch die Leistung ohne Erhöhung des Stromverbrauchs bei Notebooks steigern.

Laptops der GeForce-RTX-3000-Serie mit Intel- und AMD-CPUs sollen bei ihrer Veröffentlichung in den kommenden Wochen Resizable BAR unterstützen. Um Resizable BAR auf Desktop-Systemen nutzen zu können, werden eine Grafikkarte, ein Motherboard und ein Grafiktreiber benötigt, die diese Funktion unterstützen. Ausschließlich RTX-Grafikkarten der 3000er-Reihe (beginnend mit der GeForce RTX 3060) werden Unterstützung für Resizable BAR haben. Nvidia und andere Grafikkarten-Hersteller bereiten Grafikkarten-BIOS-Updates für bestehende GeForce-RTX-3000er-Karten vor. Darüber hinaus arbeitet Nvidia mit Intel, AMD und Mainboard-Herstellern wie ASUS, ASRock, EVGA, GIGABYTE und MSI zusammen, um die Unterstützung von Resizable BAR auf eine breite Palette von Mainboards zu bringen.

Die Grafikprozessoren der RTX-3000er-Reihe werden ebenfalls für Notebooks auf den Markt kommen. Ab dem 26. Januar werden Hersteller weltweit mit dem Versand von über 70 verschiedenen GeForce RTX Gaming- und Creator-Notebooks mit GeForce RTX 3080- und GeForce RTX 3070-Laptop-GPUs beginnen, gefolgt von GeForce RTX 3060-Laptop-GPUs am 2. Februar. Weitere Details findet ihr hier .

Nvidia: "Mit der Einführung von über 70 Notebookmodellen mit GeForce-RTX-Laptop-GPUs der 30er-Serie beginnt eine neue Ära von Notebooks mit NVIDIA-Ampere-Architektur. Die Notebooks der nächsten Generation steigern die Energieeffizienz um das Doppelte, beschleunigen die Leistung drastisch und führen Max-Q-Technologien der dritten Generation für dünne und leichte Designs ein. Die Modelle beginnen bei 1.099 Euro. (...) Ebenfalls angekündigt wurden die neuen NVIDIA-Studio-Notebooks, die mit den gerade erst vorgestellten GeForce-RTX-30-Laptop-GPUs ausgestattet sind. Diese Notebooks, die noch in diesem Monat auf den Markt kommen, ermöglichen die nächste Generation von Kreativität, indem sie bis zu zweimal mehr Leistung in kreativen Anwendungen bieten. Sie sind mit bis zu 16 GB Videospeicher ausgestattet, um mit großen Datenmengen und mehreren Apps gleichzeitig arbeiten zu können, verfügen über pixelgenaue Displays mit 1440p- und 4K-Optionen und bieten GPU-Beschleunigung für Raytracing, KI und Videocodierung, damit Kreativschaffende in Rekordzeit arbeiten können."

  • "GeForce RTX 3060 liefert 90 Bilder pro Sekunde bei den neuesten Games auf Ultra-Einstellungen bei 1080p. RTX-3060Notebooks beginnen bei 1.099 Euro und sind schneller als Laptops mit Nvidias bisheriger Flaggschiff-GPU, GeForce RTX 2080 SUPER. 
  • Die GeForce RTX 3070 ist ein 1440p-Gaming-Gigant und liefert 90 Bilder pro Sekunde auf Ultra-Einstellungen bei 1440p. RTX 3070-Notebooks beginnen bei 1.499 Euro und sind 50 Prozent schneller als Laptops mit einer RTX 2070.
  • GeForce RTX 3080 ist Nvidias neues GPU-Flaggschiff für Notebooks. Mit bis zu 16 GB G6-Speicher versorgt sie die schnellsten Laptops der Welt für Gamer und Kreativschaffende. Sie liefert 100+ Bilder pro Sekunde auf Ultra-Einstellungen bei 1440p. Systeme mit der RTX 3080 beginnen bei 2.199 Euro."

Max-Q und Dynamic Boost 2.0: "Vor vier Jahren haben wir Max-Q eingeführt, einen Systemdesign-Ansatz, der hohe Leistung für schlanke und leichte Gaming-Notebooks bietet. Max-Q war ein Paradigmenwechsel in der Art und Weise, wie Notebooks konstruiert und gebaut werden.  Dabei ist jede Komponente und jedes Element des Notebooks leistungsoptimiert – ob GPU, CPU, Software, Leiterplattendesign, Stromversorgung oder Thermik. (...) Mit unseren neuen Notebooks und dem neu eingeführten Dynamic Boost 2.0 wird die Leistung zwischen CPU, GPU und GPU-Speicher per KI ausgeglichen. Die KI-Netzwerke in Dynamic Boost 2.0 verwalten die Leistung frameweise, sodass dein Notebook ständig ermittelt, an welcher Stelle die Leistung am dringendsten benötigt wird und er eine Optimierung für maximale Leistung vornimmt."

Kommentare
monthy19

Am Ende landet man eh immer wieder auf dem selben Punkt.
Mehr Speicher ist oft dann doch besser.
Hat auch keiner gesagt, das mehr Speicher schlecht wäre. Im Zweifelsfall ist es immer besser mehr zu haben. Aber weniger Speicher haben ist auch nicht der Weltuntergang, wie von manchen hier dargestellt.
Ist ein Auslagern der Daten in den normalen Arbeitsspeicher nicht möglich?
Ist möglich, wird schon immer so gemacht. Wenn die GPU aber auf normalen Arbeitsspeicher zugreifen will, muss das über die CPU geschehen und das ist langsam. Abgesehen davon, das da der PCIe-Bus dazwischen ist und der mit Gen4 x16 knapp 32GB/s das Limit setzt. Was auch gar nicht soweit ab ist, weil DDR4 3200Mhz sowieso nur eine Bandbreite von 25,6GB/s erreicht. Mit DualChannel wären es also eh nur gut 50GB/s. Der VRAM einer 3060 erreicht 360GB/s. Der einer 3080 760GB/s.
Oder könnten die neuen noch schnelleren SSDs nicht Abhilfe schaffen?
Die neuen SSDs (NVMe PCIe4) erreichen Geschwindigkeiten von ~7-8GB/s. Noch Fragen?
Was andersrum gesehen gar nichtmal so übel ist. Vor 10-15 Jahren war RAM gerade mal halb so schnell (z.B. DDR2-400 gerademal 3,2GB/s) wie heute also Top-Festplatten.
Konzept: eher nicht vorhanden...
Oder nicht verstanden.
Ne, stimmt schon, so ein bisschen planlos wirkt es mancherorts schon, man merkt aber auch an den Kritiken das leider viele Leute überhaupt keinen Plan davon haben wie irgendwas wirklich funktioniert und ihr Hardwarewissen auch nur in "mehr ist besser" besteht.
Deshalb bin ich hier.
ich will nicht blind kaufen.
Am Ende fällt, auch wegen des Preises, die Wahl dann auf die 3060 oder 3060 TI.
Bei der letzten stört mich der fehlende Speicher.
Ich glaube nicht, dass die Entwickler die Spiele bis auf das kleinste Detail anpassen und deshalb das Mehr an Speicher eventuell besser ist. Auch wenn an anderer Stelle gespart bzw. reduziert wurde...

vor 3 Jahren
Liesel Weppen

Am Ende landet man eh immer wieder auf dem selben Punkt.
Mehr Speicher ist oft dann doch besser.
Hat auch keiner gesagt, das mehr Speicher schlecht wäre. Im Zweifelsfall ist es immer besser mehr zu haben. Aber weniger Speicher haben ist auch nicht der Weltuntergang, wie von manchen hier dargestellt.
Ist ein Auslagern der Daten in den normalen Arbeitsspeicher nicht möglich?
Ist möglich, wird schon immer so gemacht. Wenn die GPU aber auf normalen Arbeitsspeicher zugreifen will, muss das über die CPU geschehen und das ist langsam. Abgesehen davon, das da der PCIe-Bus dazwischen ist und der mit Gen4 x16 knapp 32GB/s das Limit setzt. Was auch gar nicht soweit ab ist, weil DDR4 3200Mhz sowieso nur eine Bandbreite von 25,6GB/s erreicht. Mit DualChannel wären es also eh nur gut 50GB/s. Der VRAM einer 3060 erreicht 360GB/s. Der einer 3080 760GB/s.
Oder könnten die neuen noch schnelleren SSDs nicht Abhilfe schaffen?
Die neuen SSDs (NVMe PCIe4) erreichen Geschwindigkeiten von ~7-8GB/s. Noch Fragen?
Was andersrum gesehen gar nichtmal so übel ist. Vor 10-15 Jahren war RAM gerade mal halb so schnell (z.B. DDR2-400 gerademal 3,2GB/s) wie heute also Top-Festplatten.
Konzept: eher nicht vorhanden...
Oder nicht verstanden.
Ne, stimmt schon, so ein bisschen planlos wirkt es mancherorts schon, man merkt aber auch an den Kritiken das leider viele Leute überhaupt keinen Plan davon haben wie irgendwas wirklich funktioniert und ihr Hardwarewissen auch nur in "mehr ist besser" besteht.

Zuletzt bearbeitet vor 3 Jahren

vor 3 Jahren
monthy19

Man ist also mit den Grafikkarten vom Hersteller der Software abhängig.
Wenn diese es beherrschen, dann bekommt man ein gutes Gesamtbild.
Haben sie es nicht drauf, dann ist der Arbeitsspeicher der Flaschenhals.
Der Programmierer muss reduzieren und das Spiel sieht nicht so gut aus.
Am Ende landet man eh immer wieder auf dem selben Punkt.
Mehr Speicher ist oft dann doch besser.
Auch wenn dieser heute schneller ist.
Ist ein Auslagern der Daten in den normalen Arbeitsspeicher nicht möglich?
Oder könnten die neuen noch schnelleren SSDs nicht Abhilfe schaffen?

Für mich als nicht Hardware Junkie ist die momentane Grafikkartenlage echt ätzend, unübersichtlich und komplett unverständlich.
Konzept: eher nicht vorhanden...

vor 3 Jahren
Liesel Weppen

Mir ist gerade langweilig, also erkläre ich das mal etwas ausführlichen, auch wenns Perlen vor die Säue sind, weil die dies eh grundsätzlich besser wissen sich für die Technik gar nicht interessieren, aber recht haben müssen:

Orientiert an Wikipedia wird Speicher gebraucht für:

  • Framebuffer
    Nehmen wir mal UHD an.
    3840x2160x32Bit = 31,65Mbyte
    Selbst mit Tripplebuffering also knapp 95Mbyte
  • z-Buffer
    3840x2160x32Bit = 31,65Mbyte
  • Geometriedaten
    Je mehr Polygone, desto mehr Speicher wird benötigt. Hat aber nichts mit der Renderauflösung zu tun.
    Ist also nicht absolut bezifferbar, aber ich versuchs trotzdem mal:
    1 Polygon benötigt 3 Eckpunkte (3x 32Bit Float) und und für jeden Eckpunkt den Normalvektor (32Bit Float). Ein Polygon also insgesamt 4 Byte.
    Hab leider keine direkten Zahlen dazu gefunden, wieviel Polygone eine aktuelle Engine so handlet. Unreal Engine 4 kommt wohl mit bist zu 5 Mio Polygonen klar. Nehmen wir einfach mal 10Mio... das wären gerade mal knapp 5Mbyte an Geometriedaten. Das es so wenig ist, glaube ich nicht wirklich. Evtl. sind das Rohdaten, ohne Tesselation, aber man sieht schon das es nicht soooo viel ist.
  • Shader
    Das sind (binäre) "Programme" die die Texturdarstellung manipulieren (z.B. um einer Wasseroberfläche eine gewisse Bewegung zu geben). Ein Shader ist idR nur wenige Bytes, maximal eine Handvoll Kilobytes groß.
    Analog zu den Geometriedaten finde ich keine Zahlen wieviel unterschiedliche Shader in aktuellen Spielen so eingesetzt werden, aber selbst wenn das mehrere Tausend sind, reden wir hier immernoch nur von wenigen Mbyte.
  • Texturen
    Jetzt wirds interessant.
    Ich möchte zunächst einmal beschreiben, wie die Texturauflösung mit der Bildschirmauflösung zusammenhängt.
    Nehmen wir mal an es wird in UHD gerendert und man blickt exakt senkrecht auf eine Wand. Die maximal darstellbare Texturauflösung ist als gleich UHD. In WQHD oder gar nur FHD natürlich entsprechend weniger.
    Blickt man jetzt exakt winkelhalbierend in eine Ecke, es werden also 2 Wände die jeweils aus einem Winkel von 45° angezeigt werden, kann entsprechend der Bildschirmauflösung pro Wand nur noch die Hälfte an Pixeln dargestellt werden (eigentlich sogar weniger, wegen perspektivischer Verzerrung, man sieht die maximale Texturauflösung nur an direkt an der Spitze in der Mitte, zum Bildschirmrand hin wird die Textur ja verzerrt, Pixel davon fallen also sogar noch oben und unten raus.)
    Wikipedia sagt, "Texturen bis zu 8096x8096 Pixel"... nehmen wir das mal als Worst Case an. Senkrecht auf eine Wand mit so einer Textur blickend, können eh nur 3840x2160 (UHD) von dieser Textur dargestellt werden. In allen anderen Winkeln noch weniger. Das ist nichtmal ein Viertel der originalen Texturauflösung.

    Eine EINZIGE solche Textur mit 8Kx8K bei 32Bit Farbtiefe belegt somit allerdings schon ZWEIHUNDERTFÜNFZIG Megabyte. Allerdings noch UNKOMPRIMIERT. Spätestens jetzt dürfte klar werden, warum ohne Texturkompression schonmal quasi gar nichts geht. Auf die schnelle hab ich gefunden, das diverse Texturecompressionalgos wohl von 1:4 bis 1:16 erzielen. Nehmen wir 1:16, dann belegt eine einzelne 8K Textur immernoch ~15Mbyte.
    Ich nehme mal an, 8K Texturen sind immernoch überzogen, andererseits gehen wir hier eh schon von UHD als Renderauflösung aus und wie oben schon erwähnt, wäre 8K dort selbst im Worst-case "too much".
    Aber es sollte die Dimensionen verdeutlichen, was wieviel Speicher braucht und klar erkenntlich machen: Das meiste geht für Texturen drauf.
    Und da ist noch nichtmal erwähnt, das eine Oberfläche idR nicht nur eine Textur hat. Da kommen noch Bump-Maps, Lightmaps (die könnten durch Raytracing obsolet werden, was dazu führen würde, das man MIT Raytracing sogar ein bisschen weniger Texturspeicher braucht) und diverse MipMap-Stufen (Eine Textur liegt in verschiedenen Auflösungen vor, für weiter entfernte Objekte werden die niedriger aufgelösten Varianten benutzt um wiederrum Rechenleistung zu sparen).
Eine Analyse, wieviel bei einem konkreten (aktuellem) Spiel für was draufgeht, fände ich durchaus hoch interessant, aber wie oben schon angedeutet, lässt sich schon rein der tatsächliche, wirkliche Speicherbedarf nicht unbedingt konkret beziffern. Die Anzeigen im Taskmanager oder diverser Tools sind bestenfalls zweifelhaft. Da müsste also wirklich ein Entwickler ran, der entsprechenden Zugriff auf die Internas eines Spiels (oder der Engine) hat.

Es gibt nebenbei auch ein sehr interessantes Making-Of zu Horizon: Zero Dawn für die PS4, das auch schön zeigt, wie enorm optimiert und "getrickst" wurde um derartige Grafikqualität auf der PS4 überhaupt zu ermöglichen. Sehr enorm sieht man dort auch, wie z.B. Geometrie und Texturdaten je nach aktuellem Blickwinkel gestreamt werden, weil die Speichermenge eben bei weitem nicht ausreicht um da massig Daten mal einfach so im (V)RAM zu halten.

Zuletzt bearbeitet vor 3 Jahren

vor 3 Jahren
Liesel Weppen

Und Du legst also fest, dass man sich mit geringeren Auflösungen und weniger Texturqualität zufrieden zu geben hat?
Du willst es nicht kapieren, oder?
Mit einer schnelleren GPU mit wenig VRAM kannst du auf HÖHEREN Auflösungen aber nicht optimalen Texturen spielen. Auf einer langsamen GPU mit viel Speicher kannst du TROTZDEM NICHT auf höheren Auflösungen spielen, aber Ultra-Texturen benutzen, die dir dank niedrigerer Bildschirmauflösung eh nichts bringen.
Mal abgesehen davon, dass es Unsinn ist zu behaupten, dass die VRAM Nutzung fast nur von der Texturqualität und der Auflösung abhängt. Raytracing spielt da z.B. ebenfalls eine große Rolle, häufig auch die Schattenqualität, Sichtweite usw...
Nein. Es hängt sogar fast NUR von der Texturauflösung ab. Die Bildschirmauflösung ist dagegen sogar weitgehend komplett egal. Es gibt da nur eine Korrelation, das man mit höherer Bildschirmauflösung eben AUCH höhere Texturauflösungen verwendet.
Raytracing und Schatten (wofür verwendet man Raytracing unter anderem nochmal?) braucht sicher nicht keinen VRAM, aber es braucht Hauptsächlich RECHENLEISTUNG. Also am Ende profitert GERADE Raytracing von einer schnelleren GPU, aber so gut wie gar nicht von mehr VRAM.

Edit:
Um das nochmal zu untermauern:
https://tipps.computerbild.de/hardware/ ... 93895.html
Ein Großteil des Speicheranteils wird daher von den Texturen beansprucht, die jedoch zunächst komprimiert werden.
https://de.wikipedia.org/wiki/Grafikspeicher
Alle verwendeten Texturen einer Szene werden meist aus Platzgründen komprimiert im Grafikspeicher abgelegt; Komprimierungsalgorithmen sind zum Beispiel FXT1 und S3TC. Dieser Bereich nimmt den größten Anteil am Grafikspeicher ein und ist von sehr vielen Faktoren abhängig, zum Beispiel Anzahl, Größe (bis zu 8192 × 8192 Pixel) und Farbtiefe der verwendeten Texturen.
Nebenbei unterstützen die 3000er auch einen neuen, verbesserten Texturkompressionsalgorithmus, was wiederrum dazu führt, das man für Texturen gleicher Qualität etwas weniger Speicher braucht (sofern der neue Algorithmus unterstützt/genutzt wird).

Zuletzt bearbeitet vor 3 Jahren

vor 3 Jahren