News Die GeForce RTX 3080 Ti kommt später, die RTX 3060 eher und die GTX 1060 3GB bekommt eine beschnittene Nachfolgerin | Exklusiv

Mal schauen ob für die 3080Ti dann wirklich die Platine der 3090 benutzt werden muß oder ob Micron die 2GiB Chips marktreif bekommt und in Stückzahlen produzieren kann.
Dann könnte der Pfennigfuchser wieder ein bisserl sparen für ne neue Lederjacke.
 
Mich juckt die 3080Ti mit ihren 20 GB voll.
Lediglich stellt sich mir die Frage, wie nVidia es lösen will mit dem Stromverbrauch der doppelten Speichermenge.
Warten sie bis die 2 GB Speicherbausteine auf dem Markt sind oder gehen sie mit dem Takt runter ?!?

MfG Föhn.
 
hmm ja... also da fragt man sich ja wozu die 3080 TI eigentlich gut sein soll?

3090 für "günstig", wobei "günstig" vermutlich heißt 6900XT Preis und damit dieser an dem Preispunkt immer vorgezogen wird während man die 3080 EOL schickt.

Sieht letztlich besser aus, als nun die 3090 um 300~500 in der UVP zu kippen ;)

Wir sehen hier wunderschön, dass NV nur das tut, was sie machen müssen (logisch). AMD hätte noch etwas schneller sein müssen, um Jensen zu einem fetteren Move zu zwingen. So asber ist alles wie gehabt. Wundert ja auch nicht :(

Das sollte doch aller spätestens seit Turing mehr als klar sein. Davor war das Verhalten auch alles andere als Unüblich, nur hat der Super Salat dem ganzen doch noch den Boden ausgeschlagen. Das wahrlich blöde (für uns): AMD springt preislich auf den Marge-Umhang auf und alle freuen sich.

Im 150~200 Segment wartet man heute noch auf einen RX480 Ablöser 🤷‍♂️
 
@Capsaicin
Laut Computerbase liegt die Hitrate des Infinity Cache bei FHD bei 80% und bei UHD noch bei 58%, was wohl Informationen sind, welche von AMD kommen.
Auch das wäre ein Ansatz, warum die RX6000er Serie bei geringeren Auflösungen besser performt - relativ zur RTX 3000 Serie. Da eine RX5700 aber sowieso nur ein 256bit Interface hat, performt die RX6000 dann in höheren Auflösungen relativ zum Vorgänger trotzdem deutlich besser.
Wenn die Zahlen korrekt und vor allem das relative Verhältnis einigermaßen stimmig ist, erklärt das natürlich durchaus, warum RDNA2 in 4K zu "schwächeln" beginnt. Aufgabe des InfinityCaches ist hier die geringe Bandbreite des GDDR zu kompensieren, da AMD hier günstiger fertigen wollte/musste und nur ein sehr schmales SI implementierte. Die Cache-Größe kann man jedoch nicht beliebig steigern, da die pauschal Wafer-Fläche verschlingt (in diesem Fall schätzungsweise bereits knapp über 100 mm2), d. h. man hat sich für 128 MiB entschieden. Bei FullHD mit gerade mal 2,1 MPixeln scheint die Hitrate noch ausreichend hoch, wobei zu beachten ist, dass hier eine Menge Buffer in der Grafikpipeline verwendet werden. Mit dagegen 8,3 MPixeln in 4K reicht die Cachegröße offensichtlich nicht mehr aus (und höhere Auflösungen verwenden ggf. tendenziell auch noch höher aufgelöste Texturen) um die geringe Speicherbandbreite des GDDR vollends zu kompensieren, d. h. hier werden die CUs voraussichtlich leicht ausgebremst, da Speicherlatenzen zunehmen.
In dem Falle könnte eine HBM2-Variante (ohne IC) tatsächlich Abhilfe schaffen, jedoch ist die Frage, ob der Marktdruck hier tatsächlich hoch genug ist noch ein separates Design aufzusetzen, was erneut mit beträchtlichen Kosten verbunden sein würde. Ich würde nach wie vor davon ausgehen: eher nicht, d. h. voraussichtlich wird es in 2021 keine nachgereichte HBM2-RDNA2-Variante geben.
 
Zuletzt bearbeitet :
Kleiner Fehler Bereits zur virtuellen CES 2012 (11. bis 14. Januar 2021)

Ich verstehe Nvidias Politik gerade nicht.
 
Wenn die Zahlen korrekt und vor allem das relative Verhältnis einigermaßen stimmig ist, erklärt das natürlich durchaus, warum RDNA2 in 4K zu "schwächeln" beginnt. Aufgabe des InfinityCaches ist hier die geringe Bandbreite des GDDR zu kompensieren, da AMD hier günstiger fertigen wollte/musste und nur ein sehr schmales SI implementierte. Die Cache-Größe kann man jedoch nicht beliebig steigern, da die pauschal Wafer-Fläche verschlingt (in diesem Fall schätzungsweise bereits knapp über 100 mm2), d. h. man hat sich für 128 MiB entschieden. Bei FullHD mit gerade mal 2,1 MPixeln scheint die Hitrate noch ausreichend hoch, wobei zu beachten ist, dass hier eine Menge Buffer in der Grafikpipeline verwendet werden. Mit dagegen 8,3 MPixeln in 4K reicht die Cachegröße offensichtlich nicht mehr aus (und höhere Auflösungen verwenden ggf. tendenziell auch noch höher aufgelöste Texturen) um die geringe Speicherbandbreite des GDDR vollends zu kompensieren, d. h. hier werden die CUs voraussichtlich leicht ausgebremst, da Speicherlatenzen zunehmen.
In dem Falle könnte eine HBM2-Variante (ohne IC) tatsächlich Abhilfe schaffen, jedoch ist die Frage, ob der Marktdruck hier tatsächlich hoch genug ist noch ein separates Design aufzusetzen, was erneut mit beträchtlichen Kosten verbunden sein würde. Ich würde nach wie vor davon ausgehen: eher nicht, d. h. voraussichtlich wird es in 2021 keine nachgereichte HBM2-RDNA2-Variante geben.
Unter FullHD sind die Karten aber auch kein Leistungswunder, eher im Gegenteil.
Wo wird denn offensichtlich, dass der Cache für 4K nicht ausreicht? Wie oben ausgeführt, mir scheint da kein Problem zu bestehen (bis auf die starke 4K-Konkurrenz durch NVidia).
Eine HBM-Variante halte ich für höchst unwahrscheinlich, sonst hätte man sich schon dafür entschieden. Nicht umsonst hat man den Cache eingebaut, denn sie bewirken ja beide das ähnliches, nur für unterschiedliche Anforderungen: Geringere Latenzen, höhere effektive Bandbreite und höhere Effizienz. Beides zusammen in einem Design wäre dann overkill, es reicht für Navi 21 ja augenscheinlich (mindestens knapp) schon ein einfaches 256bit GDDR6-Interface.
 
Ich will niemanden enttäuschen aber die Varianten sollten schon längst auf dem Markt sein, es ist derzeit eher zu vermuten, das man eine 3070ti 10-12GiB bringt und zwar auf Basis des GA102 (um die Lücke zwischen 3070 und 3080 zu schließen, in die AMD gerade launcht) und die 3080 (als Super) auf 16GiB schiebt, soweit die Yield es zulässt. Derzeit ist die mehr als schlecht, was Nv selbst bestätigte.

Es wäre imo die einfachste Lösung, im eigenen Portfolie der 3090 nicht zuviel Konkurrenz zu machen (weil man vermutlich gerade da richtig verdient) und anzubieten was Käufer im Konkurrenzdruck fordern.

Bin mal gespannt wann Fudzilla und wccftech darüber berichten. Morgen...:devilish:.
 
Zuletzt bearbeitet von einem Moderator :
Wo wird denn offensichtlich, dass der Cache für 4K nicht ausreicht? Wie oben ausgeführt, mir scheint da kein Problem zu bestehen (bis auf die starke 4K-Konkurrenz durch NVidia).

Der Rückschluss erfolgt aus den verschiedenen der Leistungsverhältnissen der Karten basierend auf der Auflösung.

Währen die 6800/6900XT unter FullHD und WQHD stark bis stärker als die Konkurrenz ist, fällt man bei 4K meist auf 'nur' 3080 Performance herunter, während sich eine 3090 im Schnitt 8~10% nach oben absetzt. Reine Rechenleistung sollten die Bretter allerdings haben, weshalb Cache-Misses und Nachladen über einen 'Krüppelbus' (im Vergleich zu Nvidia) als möglicher Grund in den Vordergrund rücken. Allerdings ist Ampere auch bekannt dafür recht schlecht nach unten zu skalieren, insofern kann es durchaus ein Nvidia downscaling Problem sein, als ein AMD upsclaing.

Geht man allerdings von suboptimaler Cache-Prediction aus, stellt sich noch die Frage was man hier zukünftig machen kann, um das Problem zu minimieren. Weiß gerade nicht ob das Cache-Handling BIOS Seitig geschieht oder Treibergeschichte ist. In allen Fällen könnte man via Software über die Zeit nachbessern, sofern man Bedarf sieht. Luft anhalten werde ich allerdings nicht ;)
 
Der Rückschluss erfolgt aus den verschiedenen der Leistungsverhältnissen der Karten basierend auf der Auflösung.

Währen die 6800/6900XT unter FullHD und WQHD stark bis stärker als die Konkurrenz ist, fällt man bei 4K meist auf 'nur' 3080 Performance herunter, während sich eine 3090 im Schnitt 8~10% nach oben absetzt. Reine Rechenleistung sollten die Bretter allerdings haben, weshalb Cache-Misses und Nachladen über einen 'Krüppelbus' (im Vergleich zu Nvidia) als möglicher Grund in den Vordergrund rücken. Allerdings ist Ampere auch bekannt dafür recht schlecht nach unten zu skalieren, insofern kann es durchaus ein Nvidia downscaling Problem sein, als ein AMD upsclaing.

Geht man allerdings von suboptimaler Cache-Prediction aus, stellt sich noch die Frage was man hier zukünftig machen kann, um das Problem zu minimieren. Weiß gerade nicht ob das Cache-Handling BIOS Seitig geschieht oder Treibergeschichte ist. In allen Fällen könnte man via Software über die Zeit nachbessern, sofern man Bedarf sieht. Luft anhalten werde ich allerdings nicht ;)
Du vergleichst also mit den NVidia-Karten. Meine These ist aber, dass die RTX 3000 in 4K überproportional stark ist bzw. in geringeren Auflösungen überproportional schwach. Unterschiedliche Ursache, gleiches Ergebnis. Wie ich in einem meiner Posts oben schon dargelegt habe, skaliert die 6900XT im Vergleich zur 5700XT aber mehr als gut in 4K, und ziemlich exakt gleich gegenüber der 6800 ohne XT, die die gleiche Bandbreite zur Verfügung hat. Wenn also die Bandbreite in 4K ein Problem wäre, müsste man das anhand dieser Vergleiche nachvollziehen können, was aber nicht der Fall ist. Stattdessen passt die Skalierung zur Rechenleistung der Radeon-Karten.
Was spricht denn, abseits des FPS-Vergleichs zu NVidias Karten, für einen Bandbreiten-Flaschenhals?

Edit: Ich habe natürlich die gut skalierenden Spiele verglichen. Vielleicht ist es bei anderen Spielen sehr wohl der Speicher, der limitiert. Würde mich interessieren, ob man das herausfinden kann.
 
Zuletzt bearbeitet :
Super, die 3080ti wird immer wahrscheinlicher, eine 3060 mit 12 GB wäre eine preiswerte Karte für Anwender mit kleinem Budget, wird viele Studenten und Hobby-Grafiker glücklich machen.

Bezüglich des Argumentes, man tue nur so viel, wie nötig um besser als die Konkurrenz zu sein, das entspricht dem menschlichen Charakter und der wird in der freien Marktwirtschaft gut abgebildet. Ich will garnicht wissen, wie viele Menschen sich aufgrund fehlenden Ehrgeizes oder Disziplin mit einer Bildung weit unterhalb ihres Potenzials zufriedengeben. Das nun unbedingt dem Marktführer vorzuwerfen . . . . der ist immer noch besser als alle anderen. Besser bedeutet hier: Mehr Umsatz/mehr Gewinn, mehr Kunden.
Wenn man jemandem Vorwürfe machen muss, dann den Konkurrenten, warum diese so lange geschlafen haben.
 
Irgendwie verwirrt mich die Produktpolitik jetzt etwas. Da soll jetzt eine RTX 3060 mit 12GB Speicher auf den Markt kommen. Wozu ist dann die RTX 3060 Ti mit 8GB gut? Die kam ja gerade auf den Markt. Ich kann mir nicht vorstellen, dass NVidia nun in wenigen Wochen eine neue 3060 nachschiebt.
Eine neue RTX 3070 mit 12 oder 16GB Speicher wäre für mich logischer. Die würde dann gut zwischen 3060 und 3080 Ti passen.
 
Zunächst Mal vielen Dank für die Infos, Igor!
Eine Frage, ein Kommentar:
Hast Du irgendwelche Neuigkeiten über RTX 3000 für Laptops? Meine alter dGPU-bestückter Mobilkiste wartet schon aufs elektronische Nirvana, aber jetzt noch eine 2070 oder 2080 MaxQ kaufen macht wirklich keinen Sinn.
Kommentar und Frage: wird VRAM memory access durch die CPU bei NVIDIA dann wirklich soviel bringen, wenn die Karten dort ja doch deutlich weniger VRAM haben (von der 3090 Mal abgesehen)? Um Speicher nutzen zu können, muss er ja erst Mal verfügbar sein.
 
Egal wie viel, er muss ja auch gefüllt werden. ;)
 
es ist derzeit eher zu vermuten, das man eine 3070ti 10-12GiB bringt und zwar auf Basis des GA102 (um die Lücke zwischen 3070 und 3080 zu schließen, in die AMD gerade launcht) und die 3080 (als Super) auf 16GiB schiebt, soweit die Yield es zulässt.
Ganz so einfach ist es nicht,weil Speicherbandbreite und Speichergröße nicht ganz unabhängig sind. Bei einer 3080 16GiB wird man nur 8 der 12 Speicherkanäle des GA 102 nutzen können und hat damit 20% weniger Speicherbandbreite wie bei der 3080. Bei einer 3070ti mit 10 bzw. 12 benutzten Speicherkanälen erreicht man dann eine gleiche oder höhere Speicherbandbreite wie bei der 3080. Und Speicherbandbreite macht sich bei UHD in den Benchmarks durchaus bemerkbar.
 
Zu erwarten, aber irgendwie sinnlos.

Wo so diese Karte noch hin? Gddr6 statt 6x und dann doppelt so viel Speicher? Ich weiß nicht, wo diese Karte Sinn ergibt.
384bit und 6x reichen ja als Durchsatz aus, dass 10 GB nicht überlaufen (produktive Umgebung mal außen vor).
Mehr shader? Was dann mit der 3090?


Sinn ergeben würde eine 3070ti mit mehr Speicher. Da klafft eine riesige Lücke in der Leistung, gerade in UHD.
 
Unter FullHD sind die Karten aber auch kein Leistungswunder, eher im Gegenteil.
Wo wird denn offensichtlich, dass der Cache für 4K nicht ausreicht? Wie oben ausgeführt, mir scheint da kein Problem zu bestehen (bis auf die starke 4K-Konkurrenz durch NVidia).
Eine HBM-Variante halte ich für höchst unwahrscheinlich, sonst hätte man sich schon dafür entschieden. Nicht umsonst hat man den Cache eingebaut, denn sie bewirken ja beide das ähnliches, nur für unterschiedliche Anforderungen: Geringere Latenzen, höhere effektive Bandbreite und höhere Effizienz. Beides zusammen in einem Design wäre dann overkill, es reicht für Navi 21 ja augenscheinlich (mindestens knapp) schon ein einfaches 256bit GDDR6-Interface.
Igor schreibt hier sicherlich nicht ohne Grund: "Geht man auf Ultra-HD, dann sieht man erstaunliche Dinge, denn die Radeon RX 6800XT fällt auch ohne SAM hinter eine GeForce RTX 3080 FE zurück." Das habe ich einfach mal unvalidiert übernommen, da ich bspw. in diesem Jahr durchgehend den Eindruck hatte (zumindest bei dem was ich von ihm gelesen habe), dass er hier immer faktenbasiert argumentiert und wohlüberlegt schreibt.

Ich habe mir aber zusätzlich dann doch noch mal einige PCGH-Ergebnisse hinzugenommen, die hier in mehreren Auflösungen mit maximalen Settings vermaßen und da zeigte sich folgendes bei den Titeln (die ich rein zufällig rausgepickt habe, weil ich nicht alles "abschreiben" wollte):

relative_6800xt_to_3080_pcgh.png
Wie zu sehen ist, passiert es relativ häufig, dass bei der RDNA2-Karte der Abstand zur Konkurrenz bei höheren Auflösungen größer wird. Bei den fettmarkierten Titeln verliert die Karte deutlich ggü. FullHD und stellenweise selbst ggü. WQHD, bei den übrigen Titeln bleibt das Leistungsverhältnis zur RTX 3080 dagegen relativ stabil. Vermutlich beobachtete Igor auch entsprechendes in seinen Tests und kam daher zu einer derartigen Aussage.
Und diese ließe sich bspw. durch eine schlechtere Hitrate des IC bei hohen Auflösungen erklären (die ZRUF ins Spiel brachte), der für eine hohe Speicherbandbreite unverzichtbar ist, da das SI auf gerade mal 256 Bit eingedampft wurde und damit auf lediglich 448 GiB/s.

Zu HBM: Vergleichbares erklärte ich ja bereits zuvor. Ich erwähnte das nur, weil es immer wieder Gesellen gibt, die noch die Hoffnung hegen, dass AMD doch noch den "ultimativen nVidia-Killer" auspacken wird. Und den könnte AMD selbstredend auch etwas später bringen, denn die müssen keinesfalls gleich vorweg "mit dem Kopf durch die Wand" (und haben nicht umsonst mindestens so geheimniskrämerisch wie nVidia getan wärend der Entwicklung ggü. den Boardpartnern). nVidia hat sich hier auch Zeit gelassen und vorerst auf das erste Release von AMD gewartet, was schlicht vertriebsstrategische Gründe hat.
Darüber hinaus machen HBM und der IC zusammen keinen Sinn und deshalb schrieb ich ja bereits zuvor explizit "HBM2-Variante (ohne IC)", denn der IC kostet beträchtliche Wafer-Fläche und würde in einem HBM-Design nur noch einen sehr geringen Mehrwert bieten, insbesondere bei hohen Auflösungen, wie es nun scheint, wo die Hitrate beträchtlich niedriger zu liegen scheint gemäß der bereitgestellten Werte von ZRUF, d. h. selbst Latenzvorteile würden sich hier weitestgehend nivellieren.
AMD hat zurzeit schlicht nicht den Marktanteil und die Akzeptanz um die zusätzlichen Kosten für ein derartiges Produkt zu rechtfertigen, auch wenn sich einige AMD-Fans das sehnlichst herbeiwünschen (zumal einige dem HBM gar stellenweise mystische Fähigkeiten anzudichten scheinen. ;)). Dabei übersehen diese Fans jedoch, dass ein derartiges Produkt nur einen extrem kleinen Teil des Marktes bedienen würden und da AMD hier primär höhere Margen, mehr Gewinn und Wachstrum anstrebt, wäre das vorschnelle In-den-Markt-bringen eines derartigen Produktes schlicht kontraproduktiv für ihre geschäftliche Entwicklung.
 
Zuletzt bearbeitet :
@gerTHW84 der Vergleich mit nVidia ist aber unzulässig, solange man nicht weiß, ob Navi2 schlecht nach oben oder Ampere schlecht nach unten skaliert. Um das herauszufinden, muss man schon innerhalb der Architektur vergleichen:
Relativ simple Rechnung (Werte aus dem CB Test, weil schnell nachzusehen):
6800 60CU
6900XT 80CU
gleiche Speicherbandbreite, +33% Rohleistung
FullHD 6900XT 21% Vorsprung
WQHD 6900XT 25% Vorsprung
UHD 6900XT 28% Vorsprung
Daher skaliert die 6900XT mit steigender Auflösung sogar besser mit der höheren Rohleistung bei exakt selber Bandbreite, bei einem Limit durch die Bandbreite müsste es aber exakt gegenteilig sein.
 
Igor schreibt hier sicherlich nicht ohne Grund: "Geht man auf Ultra-HD, dann sieht man erstaunliche Dinge, denn die Radeon RX 6800XT fällt auch ohne SAM hinter eine GeForce RTX 3080 FE zurück." Das habe ich einfach mal unvalidiert übernommen, da ich bspw. in diesem Jahr durchgehend den Eindruck hatte (zumindest bei dem was ich von ihm gelesen habe), dass er hier immer faktenbasiert argumentiert und wohlüberlegt schreibt.

Ich habe mir aber zusätzlich dann doch noch mal einige PCGH-Ergebnisse hinzugenommen, die hier in mehreren Auflösungen mit maximalen Settings vermaßen und da zeigte sich folgendes bei den Titeln (die ich rein zufällig rausgepickt habe, weil ich nicht alles "abschreiben" wollte):

Anhang anzeigen 8596
Wie zu sehen ist, passiert es relativ häufig, dass bei der RDNA2-Karte der Abstand zur Konkurrenz bei höheren Auflösungen größer wird. Bei den fettmarkierten Titeln verliert die Karte deutlich ggü. FullHD und stellenweise selbst ggü. WQHD, bei den übrigen Titeln bleibt das Leistungsverhältnis zur RTX 3080 dagegen relativ stabil. Vermutlich beobachtete Igor auch entsprechendes in seinen Tests und kam daher zu einer derartigen Aussage.
Und diese ließe sich bspw. durch eine schlechtere Hitrate des IC bei hohen Auflösungen erklären (die ZRUF ins Spiel brachte), der für eine hohe Speicherbandbreite unverzichtbar ist, da das SI auf gerade mal 256 Bit eingedampft wurde und damit auf lediglich 448 GiB/s.

Zu HBM: Vergleichbares erklärte ich ja bereits zuvor. Ich erwähnte das nur, weil es immer wieder Gesellen gibt, die noch die Hoffnung hegen, dass AMD doch noch den "ultimativen nVidia-Killer" auspacken wird. Und den könnte AMD selbstredend auch etwas später bringen, denn die müssen keinesfalls gleich vorweg "mit dem Kopf durch die Wand" (und haben nicht umsonst mindestens so geheimniskrämerisch wie nVidia getan wärend der Entwicklung ggü. den Boardpartnern). nVidia hat sich hier auch Zeit gelassen und vorerst auf das erste Release von AMD gewartet, was schlicht vertriebsstrategische Gründe hat.
Darüber hinaus machen HBM und der IC zusammen keinen Sinn und deshalb schrieb ich ja bereits zuvor explizit "HBM2-Variante (ohne IC)", denn der IC kostet beträchtliche Wafer-Fläche und würde in einem HBM-Design nur noch einen sehr geringen Mehrwert bieten, insbesondere bei hohen Auflösungen, wie es nun scheint, wo die Hitrate beträchtlich niedriger zu liegen scheint gemäß der bereitgestellten Werte von ZRUF, d. h. selbst Latenzvorteile würden sich hier weitestgehend nivellieren.
AMD hat zurzeit schlicht nicht den Marktanteil und die Akzeptanz um die zusätzlichen Kosten für ein derartiges Produkt zu rechtfertigen, auch wenn sich einige AMD-Fans das sehnlichst herbeiwünschen (zumal einige dem HBM gar stellenweise mystische Fähigkeiten anzudichten scheinen. ;)). Dabei übersehen diese Fans jedoch, dass ein derartiges Produkt nur einen extrem kleinen Teil des Marktes bedienen würden und da AMD hier primär höhere Margen, mehr Gewinn und Wachstrum anstrebt, wäre das vorschnelle In-den-Markt-bringen eines derartigen Produktes schlicht kontraproduktiv für ihre geschäftliche Entwicklung.
Ich stimme dir ja zu in deinen Punkten, von Igors Aussage bis zum HBM. Meine Frage war aber nicht, ob die AMD-Karten in 4K schlechter werden, sondern, was @guggi im ersten Satz geschrieben hat geschrieben hat:
ob Navi2 schlecht nach oben oder Ampere schlecht nach unten skaliert.
Denn logisch ist beides genau gleich möglich. Und meine Beiträge unterstützen eben die These, dass Navi 21 eben schon gut skaliert, und quasi bei Ampere die Skalierung nicht so gut ist (nach unten). Es kann aber auch beides sein, oder noch ganz andere Gründe haben.

Daher skaliert die 6900XT mit steigender Auflösung sogar besser mit der höheren Rohleistung bei exakt selber Bandbreite, bei einem Limit durch die Bandbreite müsste es aber exakt gegenteilig sein.
Naja, es gibt ja auch noch CPU-Limit & Co., das für diese Unterschiede sorgt
 
@gerTHW84 der Vergleich mit nVidia ist aber unzulässig, [...]
Lol, der Vergleich ist grundsätzlich zulässig, es sei denn du hast hier einen ganz andere Motivation diesen "verbieten" zu wollen. ;) Selbstredend kann man sich das ansehen, insebsondere, wenn man die architektonischen Unterschiede kennt (eine durchgehend stabile und hohe Bandbreite und Latenz bei nVidia, da hier nur ein schnelles, breiteres GDDR6-OC-Interface genutzt wird, während bei AMD die Kombination eines deutlich langsameren GDDR6-Interfaces zum Tragen kommt, dass man mit dem IC zu kompensieren versucht und dieses führt effektiv zu dynamischen Bandbreiten/Latenz-Kurven, da die Effizienz des ICs sich bei höheren Auflösungen verringert).
Darüber hinaus verhält sich bspw. die RX 6900 XT in exakt der gleichen Weise:

relative_6900xt_to_3090_pcgh.png
PCGH hat (nachvollziehbarerweise) bei den Karten kein FullHD mehr getestet, jedoch auch hier beobachtet man, dass die RDNA2-Karte in 4K weiter zurückfällt und der beschränkte IC (insbesondere, da ja AMD schon selbst erklärt, dass dessen Hitrate in 4K beträchtlich kleiner ausfällt, was nun mal grundsätzlich die Wirksamkeit eines jeden Caches verringert) ist hier die plausibelste Erklärung für das beobachtete Verhalten.

Wie ich bereits zuvor erklärte ist das schlicht ein TradeOff, den AMD hier designtechnisch bzgl. Kosten/Nutzen zu treffen hatte. Grundsätzlich werden die auf der Wafer-Seite zusätzlichen Kosten absehbar die Kosten unterbieten, die angefallen wären, wenn man ein breiteres SI implementiert hätte. *) Aber der Sweetspot lag wohl bei etwa zusätzlichen 100 - 130 mm2 bzw., den 128 MiB, für die man sich nun entschieden hat. Bei weniger wären die Karten "abgesoffen" aufgrund einer viel zu geringen Bandbreite, sodass man dennoch ein zumindest etwas breiteres SI hätte implementieren müssen **), bei mehr Cache wären die Wafer-Kosten voraussichtlich zu hoch geworden (sodass man den Kostenvorteil verloren hätte, d. h. die Cache-Implementation wäre sinnlos geworden), zumal man auch noch bedenken muss, dass die zusätzliche Fläche sich auch zusätzlich im Yield niederschlägt und nicht nur unmittelbar in den reinen Flächenfertigungskosten.


*) Andernfalls hätte man sich nicht für diese (unflexible) Lösung entschieden. Die Alternative wäre gewesen: Mehr Bandbreite durch mehr GDDR6-Controller on-die, damit auch ein wenig mehr Wafer-Fläche (d. h. minus IC-Fläche, aber plus zusätzliche Controller-Fläche) und zusätzlicher Stromverbrauch auf dem Chip, d. h. das für die Berechnungen verfügbare energetisch/thermische Limit wird weiter reduziert, mehr Lanes auf dem PCB, ggf. gar ein PCB mit mehr Lagen und schlussendlich auch zwangsweise mehr GDDR-BGAs, mehr Aufwand beim Zusammenbau und insgesamt etwas mehr Abwärme, also Bedarf für eine leicht stärkere Kühllösung.
Die Lösung bezeichne ich in dem Kontext als "unflexibel", weil sie AMD zwingt, hier 16 GiB auf ihren oberen drei Modellen zu verbauen, was beträchtliche Kosten verursacht und die Marge schmälert, insbesondere, wenn man berücksichtigt, dass das kleinste Modell RX 6800 bereits nur noch mit einer MSRP von 579 US$ belegt ist. AMD bleibt aber nichts anderes übrig, da es keinen sinnvollen Zwischenschritt mit diesem Design gibt, d. h. man hat nur die Wahl zwischen 16 oder 8 GiB. Zwischenstufen kommen hier nicht infrage, da sie eine weitere Verkleinerung des SIs erfordern würde, was die Bandbreitenproblematik nur noch verschärfen würde. (Etwaige andere Lösungsansätze für dieses kleine Modell sind aber voraussichtlich bilanztechnisch noch negativer zu bewerten, sodass man in den saueren Apfel beißen und auch hier 16 GiB implementieren musste.) Den Konsumenten wird es freuen, AMD hat dies jedoch zweifelsfrei nicht "freiwillig" in der Art implementiert, sondern schlicht, weil sich die Notwendigkeit dafür aus den zuvor getroffenen Designentscheidungen und Kostenerwägungen ergab.

**) Beispielsweise 96 MiB hätten den Chip etwas kleiner werden lassen, mit den 448 GiB/s über das GDDR wäre man aber nicht mehr konkurrenzfähig gewesen, was die ganze Übung ad absurdum geführt hätte, also hätte man bspw. auch ein 320 Bit Interface für 10 BGAs parallel implementieren müssen (oder signifikant schnelleres und damit teueres GDDR ***). Damit hätten sich absehbar aber die Kostenvorteile der ursprünglichen Maßnahme soweit verringert, das das kein echter Case mehr gewesen wäre, zumal man dann auch in der Zwickmühle gesessen hätte, denn man hätte nun nur noch 10 GiB VRAM oder aber gleich 20 GiB VRAM anbieten können. Mit ersterem konnte man sich leicht ausrechnen, von nVidia "überrollt" zu werden, mit letzterem wäre das Design auf einer anderen Ebene erneut teuerer geworden, da hier nun min. zwei zusätzliche BGAs verbaut werden müssten (zusätzlich zu dem etwas kleineren IC).

***) Hier sind die Möglichkeiten jedoch beschränkt. In relevanten Mengen verfügbar drüften bestenfalls 16 Gbps-BGAs sein, der Bandbreitenzugewinn bei 256 Bit (8 BGAs) ist jedoch noch sehr überschaubar. 18 Gbps-Module dürften weiterhin kaum produziert werden, d. h. man hätte spezielle Verträge mit einem Speicherhersteller bzgl. 18 Gbps-BGAs abschließen müssen, was für AMD grundlegend schwieriger ist aufgrund ihrer kleineren Abnahmemengen (i. V. z. nVidia) und hinzu kommt noch, dass man im Worst Case gar Bedarf für 8 und 16 Gb-BGAs gehabt hätte, was diesen Vertrag weiter verkompliziert und verteuert hätte.
 
Zuletzt bearbeitet :
Lol, der Vergleich ist grundsätzlich zulässig, es sei denn du hast hier einen ganz andere Motivation diesen "verbieten" zu wollen. ;)
Was soll denn das für ein sinnloser Vorwurf sein.
Wenn ich die These innerhalb der selben Architektur untersuchen kann, nehm ich mir doch nicht unnötig zweiten unbekannten Faktor (nVidia) mit rein. Da kannst du noch tausend Mutmaßungen aufstellen, solange man nicht weiß, wie gut/schlecht Ampere mit der Auflösung skaliert hast du hier nur eine Gleichung aber mit zwei Unbekannten ;)
Die These "Big Navi wird in UHD von der Bandbreite ausgebremst" ist ja komplett unabhängig von irgendwelchen nVidia Karten.
Wenn ich rausfinden will, ob die großen Ampere erst in hohen Auflösungen richtig ausgelastet werden, nehme ich ja auch andere Ampere Karten als Vergleichswert.
 
Oben Unten