News AMD Radeon RX 6700XT 12GB vs. NVIDIA RTX 3060 12GB – Warum DLSS für NVIDIA so wichtig ist – Performance-Prognose | Update

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.478
Punkte
1
Standort
Redaktion
Mittlerweile verdichten sich auch die Gerüchte zu den kommenden Grafikkarten von NVIDIA und AMD. Während der Launch der GeForce RTX 3060 am 25.02.202 in sichtbarer Nähe liegt, kolportiert man den Launch der Radeon RX 6700 (XT) für den 18.03.2021. Einge der möglichen Eckdaten der kommenden Radeon RX 6700 (XT) hatte ich ja bereits im November […]

Hier den ganzen Artikel lesen
 
Danke für den Artikel und die Einschätzung. DLSS wäre dann praktisch als "Performance Zugabe" der Amperekarten gegenüber BigNavi gedacht...oder? Wäre das dann so von NV, von Anfang an geplant oder hat es sich so im Lauf der Zeit ergeben?
 
DLSS war schon immer geplant bei allen RTX Karten aus der 30 Serie. Mir ist nichts anderes bekannt.


Mal sehen was AMD da genau liefert und wie es Performant. Ob sie echt noch 6 GB Karten bringen...
Gekauft wirds aktuell ob 6 GB oder 12 GB
 
Ich meinte damit, das NV DLSS als festen Bestandteil der "Gesamtperformance" der z.B. 3060 ansieht.
 
Ich meinte damit, das NV DLSS als festen Bestandteil der "Gesamtperformance" der z.B. 3060 ansieht.
Kaum, weil alle Medien bei direkten Benchmarks ja ohne DLSS vergleicht. Was ja auch richtig ist. DLSS ist "nur" ein Bonus, aber ein wichtiger. Nur keiner, der auf den ersten Blick in die Balkendiagramme Einzug hält.
 
@Igor Wallossek die 6700 XT ist ja quasi eine 5700 XT gem. den Rohrdaten...

Die Frage die sich mir und eventuell auch dem ein oder anderen hier stellt: Wird die 6700 XT schneller sein? Wieviel GCN Architektur steckt eigentlich noch in RDNA2?

Die RNDA1 basierte ja noch auf alten GCN Strukturen...

Die Brandbreite ist zwar etwas kleiner als bei der 5700 XT, aber der Infinity-Cache und ggf. die Achitekturverbesserungen müssten doch, selbst taktbereinigt, die 6700 XT hier besser dastehen lassen. Sonst wäre diese Karte eigentlich überflüssig... Raytracing hin oder her!
 
Ich habe langsam den Eindruck, das NV darauf zunehmend setzt....
 
Vielleicht sollte man aber auch mal das Preisleistungsverhältnis mit berücksichtigen, dann sieht die neuen Grafikkartenserie gar nicht mehr so gut aus. 50 Prozent Leiszungszuwachs sind zwar ne gute Sache, die erkauft man sich aber auch mit 210 Prozent vom Preis.
Für die Preise die für aktuelle Grafikkarten aufgerufen werden hätte NVIDIA aber noch einiges an Leistung drauflegen müssen.
Die Fantasiepreise des Herstellers auf dessen Webseite sorgen zwar für tolle Bewertungen bei den Reviewern nützen aber dem Verbraucher letztlich nichts.
Und die Politik mit dem Speicher habe ich auch noch nicht so ganz durchschaut...
12GB bei der 3060 und 8 GB bei der 3070?
Dann müsste jan och ne 3080 mit 6GB und ne 3090 mit 4GB folgen...
Mehr Speicher bei weniger Rechenleistung macht für mich keinen Sinn...
 
12GB bei der 3060 und 8 GB bei der 3070?
Das sind technische Gründe. Die Breite des Speicherinterfaces gibt die Speichermenge vor, genauer, die Schrittweite.

Die 3060 könnte man auch mit 6GB bauen, aber das ist zu wenig. Und der nächst größere Schritt ist eben schon 12GB.

Bei der 3070 ist 8GB der kleinstmögliche Ausbau, die nächst größere Stufe wären dann schon 16 GB.
 
Vielleicht sollte man aber auch mal das Preisleistungsverhältnis mit berücksichtigen, dann sieht die neuen Grafikkartenserie gar nicht mehr so gut aus. 50 Prozent Leiszungszuwachs sind zwar ne gute Sache, die erkauft man sich aber auch mit 210 Prozent vom Preis.
Für die Preise die für aktuelle Grafikkarten aufgerufen werden hätte NVIDIA aber noch einiges an Leistung drauflegen müssen.
Die Fantasiepreise des Herstellers auf dessen Webseite sorgen zwar für tolle Bewertungen bei den Reviewern nützen aber dem Verbraucher letztlich nichts.
Und die Politik mit dem Speicher habe ich auch noch nicht so ganz durchschaut...
12GB bei der 3060 und 8 GB bei der 3070?
Dann müsste jan och ne 3080 mit 6GB und ne 3090 mit 4GB folgen...
Mehr Speicher bei weniger Rechenleistung macht für mich keinen Sinn...
Das ist genau meine Meinung... Was macht es für einen Sinn, wenn ich einer GPU die für mich eher in FHD oder max WQHD angesiedelt ist mit 12 statt 8 GB ausstatte und eine 3070 bekommt für WQHD mit Max Details und RTX on nur 8 GB...

Das soll mal einer verstehen!
 
[...] Und die Politik mit dem Speicher habe ich auch noch nicht so ganz durchschaut...
12GB bei der 3060 und 8 GB bei der 3070?
Dann müsste jan och ne 3080 mit 6GB und ne 3090 mit 4GB folgen...
Mehr Speicher bei weniger Rechenleistung macht für mich keinen Sinn...
@Grestorn hat das Thema ja schon weitestgehend erklärt, ergänzend:
Nicht die Kombination Rechenleistung und Kapazität ist relevant sondern die Kombination Rechenleistung und Speicherbandbreite und letztere wird bei GDDR maßgeblich durch die Breite des verwendeten Speicherinterfaces (Anzahl der GDDR-Controller, jeweils 32 Bit *) bestimmt:
GA102 : 384 Bit = 12 Controller
GA104 : 256 Bit = 8 Controller
Daraus ergeben sich direkt die möglichen Speicherkapazitäten, so bspw. eine RTX 3090 mit zwangsweise minimal 12 BGAs = 12 GiB und maximal 48 GiB (16 Gb-BGAs im Clamshell-Verfahren, also zwei BGAs pro Controller). #)
Oder bei der RTX 3070 minimal 8 BGAs für die Nutzung der vollen Speicherbandbreite = 8 GiB oder aber alternativ 16 GiB mit 16 Gb-BGAs, optional auch 32 GiB im Clamshell-Verfahren, nur macht so eine Lösung nur wenig Sinn (bestenfalls für das Datacenter fürs Interencing), sodass man eine solche absehbar nicht zu Gesicht bekommen wird.

Auch bei AMD ist die Speicherbestückung nicht unbedingt "sinnvoller" (16 GiB sind für den Mainstream bspw. maßlos überzogen und eher ein vertreiebstechnisches Argument), sondern resultiert unmittelbar aus den getroffenen Designentscheidungen und technischen Notwendigkeiten.
AMD kam wohl rechentechnisch zu dem Schluss, dass es fertigungstechnisch für sie günstiger wird (also höhere Marge) mit einem großen L3-Cache und dafür einem schmaleren Speicherinterface. Die Grenzen wurden hier bei 128 MiB L3 und bei 8 Controllern gezogen. Der Cache verbraucht pauschal zusätzliche, zu belichtende Wafer-Flache, die sich TSMC bezahlen lässt, dafür braucht es im Chip jedoch weniger Controller (eine Strom- und Platzersparnis), weniger Leitungen auf dem PCB (bspw. keine Erhöhung der PCB-Lagen erforderlich) und es müssen weniger GDDR-Chips verbaut werden. Mit 8 Controllern gehen bei AMD jedoch bestenfalls 8 oder 16 GiB **) um die volle Speicherbandbreite zu erhalten und 8 GiB wären für die HighEnd-Karten nicht konkurrenzfähig gewesen, also hatte AMD gar keine andere Wahl als 16 GiB anzubieten.
Zudem erkennt man bei AMD, dass die Kombination 128 MiB L3 und 256 Bit (8 Controller) bereits einen Kompromiss darstellt, denn bei 4K sinkt die Leistung von BigNavi bereits etwas stärker ab, weil die Cache-Hitrate signifikant sinkt, da der beschränkte Cache hier die nur 256 Bit Speicherbandbreite nicht mehr ausreichend kompensieren kann. ***)

#) Natürlich könnte man auch eine RTX 3090 mit zwei deaktivierten Cotntrollern und nur 10 GiB betreiben, jedoch bleibt zu vermuten, dass sich nVidia was bei den 12 Controllern und 936 GiB/s gedacht haben wird, denn die sind voraussichtlich notwendig um die 82 SMs nicht nennenswert auszubremsen.

*) Wobei die 32 Bit sich auf 32 Datenleitungen beziehen. Die aktuellen GDDR6-BGAs verwenden faktisch 180 Pins bzw. Balls unter dem Chipgehäuse.

**) Theoretisch wären auch via Clamshell 32 GiB möglich, jedoch wird man so etwas sicherlich ausschließlich auf Radeon Pro's zu sehen bekommen.

***) In Verbindung mit RDNA3 und einem neueren Fertigungsprozess kommen dann vielleicht 192 MiB L3 zum Einsatz, denn am SI lässt sich nicht viel optimieren, da mehr als 8 Controller, also 16 MiB auch Ende 2022 für Consumer wenig Sinn ergeben werden.
Sollte dagegen die Rechenleistung beträchtlich gesteigert werden können, würde auch die benötigte Speicherbandbreite deutlich ansteigen. In dem Fall wird man erneut bewerten müssen ob eine HBM-Implementation in Verbindung mit RDNA3 zumindest im HighEnd dann vielleicht doch wirtschaftlich wäre.
Ähnliche Überlegungen gelten auch für nVidia mit Blick auf 2022, wobei hier die Frage ist, ob deren Micron-Experiment tatsächlich nur für eine Gen herhalten soll(te) bzw. geplant war. Micron erklärte seinen OC-Speicher weiterentwickeln zu wollen, auch nVidia könnte seinen L2 deutlich vergrößern oder einen L3 hinzufügen und auch hier könnte man zumindest im HighEnd über HBM nachdenken. Letzten Endes schlicht eine Frage der Wirtschaftlichkeit ... man wird sehen.
 
Zuletzt bearbeitet :
Ich bin ünerhaupt kein Freund von dieser A/B Chip Variante, das ist meiner Meinung nach verarsche am Kunden. Sowas muss klar deklariert sein meiner Meinung nach. Ich bin auch mal gespannt ob man dann die Leistungsaufnahme via MPT noch ändern kann...
 
Nicht die Kombination Rechenleistung und Kapazität ist relevant sondern die Kombination Rechenleistung und Speicherbandbreite

Für den Konsument ist aber doch egal, welches technische Detail welches bedingt - die Aussage ist ja, das die Kombination aus GPU Leistung und Speicherkapazität/Speicherbandbreite/whatsoever keine rundes Gesamtpaket abgeben.
 
Das sind technische Gründe. Die Breite des Speicherinterfaces gibt die Speichermenge vor, genauer, die Schrittweite.

Die 3060 könnte man auch mit 6GB bauen, aber das ist zu wenig. Und der nächst größere Schritt ist eben schon 12GB.

Bei der 3070 ist 8GB der kleinstmögliche Ausbau, die nächst größere Stufe wären dann schon 16 GB.
Ja, das ist mir schon alles klar, nur denke ich bei der ganzen Geschichte auch an den "normalen" Nutzer und nicht nur an Leute, die wie ich oder auch viele andere hier z.B. über 25 Jahre in dem Bereich tätig sind.
Für den normalen Endkunden sind diese Konfigurationen nicht unbeding nachvollziehbar.
Bei CPUs fragt sich der "Normalo" wieviele Kerne, wieviel GHz.
Über IPC, Lithographie, Pipelinelänge, Cache usw. macht der sich keine Gedanken.
Der kauft sich ne CPU mit ner TDP von 125 Watt packt nen 140 Watt Ventilator drauf und wundert sich das er bei Prime nach 3 Sekunden nur noch rot sieht und die CPU die Notbremse zieht.
Dann steckt der sich da noch ne 350 Watt Grafikkarte drauf, macht 425 Watt plus hundert für den Rest, 600 Watt Netzteil passt gut.
Und plopp ist das Dingen aus...
 
Wenn man auf die Minimum-FPS in Spielen mit RTX "on" schaut, fehlt es auf, dass alle 3000-er NVidia Grafikkarten mit < 10 GB VRAM heftige Einbrüche produzieren, je nach Auflösung und Spiel bis Faktor x ~ 2,5 !
Da ist die RTX 2080 Ti dank 11 GB VRAM sogar deutlich schneller unterwegs als alle anderen 8 GB Modelle.

Theoretisch müsste die RTX 3060 @ 12 GB VRAM auch im Min-FPS Bereich bessere Leistung zeigen. :unsure:
 
Der kauft sich ne CPU mit ner TDP von 125 Watt packt nen 140 Watt Ventilator drauf und wundert sich das er bei Prime nach 3 Sekunden nur noch rot sieht und die CPU die Notbremse zieht.
Dann steckt der sich da noch ne 350 Watt Grafikkarte drauf, macht 425 Watt plus hundert für den Rest, 600 Watt Netzteil passt gut.
Und plopp ist das Dingen aus...
Genau so sehe ich das auch. Viele Hobby-PC-Schrauber haben noch nicht gemerkt, dass andere dafür eine jahrelange Ausbildung machen. Auch wenn man die Teile einzeln kaufen kann, ist kein Händler oder Hersteller verpflichtet einem die nötigen Informationen nachzutragen und einem auf jedes mögliche Problem aufmerksam zu machen.
 
Wenn man auf die Minimum-FPS in Spielen mit RTX "on" schaut, fehlt es auf, dass alle 3000-er NVidia Grafikkarten mit < 10 GB VRAM heftige Einbrüche produzieren, je nach Auflösung und Spiel bis Faktor x ~ 2,5 !
Da ist die RTX 2080 Ti dank 11 GB VRAM sogar deutlich schneller unterwegs als alle anderen 8 GB Modelle.

Theoretisch müsste die RTX 3060 @ 12 GB VRAM auch im Min-FPS Bereich bessere Leistung zeigen. :unsure:
Min-FPS ist gemauso wenig wie Max-FPS die allein seligmachende Zahl. Ja, Einbrüche sind unschön, aber es kommt auf die Situation und Häufigkeit an.
 
Wenn hier tatsächlich nachher zwei Karten erscheinen, die den gleichen Namen tragen aber durch A und B Chip unterschieden werden, dann finde ich das auch nicht gut. Da wird AMD sich so einiges anhören dürfen, denke ich.
Wenn sollte die schnellere Variante im Namen das XT tragen und die andere ohne XT an den Start gehen.
 
Oben Unten