Wo die 600 Watt der NVIDIA GeForce „RTX 4090“ eigentlich herkommen – eine Schätzung von GPU und Komponenten | Exklusiv

Auf dem Papier ist das so, in der Realität hat dies aber nichts mehr mit den teils enormen Sprüngen der vergangenen Jahre zu tun, von 14nm auf 7nm ist halt eine Halbierung (auch wenn es erstmal nur Namen sind), von 7 auf 5 ist dagegen quasi Nix!
TSMC spricht von einer rund 15%igen Leistungssteigerung von 7nm auf 5nm, selbst wenn man Samsungs 8nm deutlich dahinter liegt, sind meine kolportierten 25% durchaus positiv bewertet.

25% aus der Architektur wird eher nicht zu holen sein, wobei ich dazusagen muss, dass ich hier von Rohleistung spreche. Da hat Nvidia den großen Schritt (FP32 theoretische Leistung) in der vergangenen Gen gemacht.

Meine Aussagen haben bzgl. der Straßenleistung keinerlei Aussagekraft, denke dies ist auch nicht der richtige Ansatz in einer noch so frühen Phase zu vergleichen. Man sieht mit jeder Treibergeneration, wie sich so etwas verschieben kann.

In Sachen Rohleistung vermute ich bei Nvidia eine Verdoppelung, bzw. minimal darüber, wenn ich mir AMD anschaue gehe ich davon aus, dass man hier deutlicher zulegen kann, aufgrund des MCM Designs wird AMD sein Monster deutlich effizienter betreiben können. Man verdoppelte nur mal eine 6900XT und takte 10% runter, dann verliert man rund 10% Leistung, gewinnt aber fast 30% Verbrauch (am Chip). Wenn ich aber an Spieleleistung denke, dann sehe ich bei AMD echte Probleme, durch den neuartigen Ansatz und der leider bekannten Schwäche zu Beginn schnelle Treiber zu bringen, befürchte ich, dass man auf dem Papier deutlich vorne liegen müsste, in der Realität aber deutlich zurück fallen wird.
 
Wenn ich aber an Spieleleistung denke, dann sehe ich bei AMD echte Probleme, durch den neuartigen Ansatz und der leider bekannten Schwäche zu Beginn schnelle Treiber zu bringen, befürchte ich, dass man auf dem Papier deutlich vorne liegen müsste, in der Realität aber deutlich zurück fallen wird.
Den Satz musst du mir bitte erklären - meine Erfahrung sagt mir, dass AMD über die Entwicklung der Treiber langfristig etwas mehr Leistung rausholt. Aktuell ist die Speicherbandbreite ein Hemmnis, hindert die Karten aber nicht, extrem gut - und vor allem effizient - zu performen.
 
Den Satz musst du mir bitte erklären - meine Erfahrung sagt mir, dass AMD über die Entwicklung der Treiber langfristig etwas mehr Leistung rausholt. Aktuell ist die Speicherbandbreite ein Hemmnis, hindert die Karten aber nicht, extrem gut - und vor allem effizient - zu performen.
Langfristig ist dies oft so gewesen, meist lag dies aber daran, dass die Releasetreiber ehr schlecht waren. Wenn ich jetzt noch bedenke, dass mit MCM ein grundlegend anderer Ansatz gewählt wird, schwant mir böses.

AMD/ATI hat oftmals das Problem gehabt, dass die Releasetreiber von 95% der Seiten oder Printmagazine hergenommen wurden um die Benchmarklisten zu erstellen, da Schnitt man oftmals sehr schlecht ab.
 
Den Satz musst du mir bitte erklären - meine Erfahrung sagt mir, dass AMD über die Entwicklung der Treiber langfristig etwas mehr Leistung rausholt. Aktuell ist die Speicherbandbreite ein Hemmnis, hindert die Karten aber nicht, extrem gut - und vor allem effizient - zu performen.
Zwei Seiten der gleichen Medaille:
Holt zu Beginn weniger aus dem vorhanden Potential raus.
oder aber
Optimiert später mehr.

Zusätzlich wird MCM sicher nicht ohne seine ganz eigenen Herausforderungen sein.

Edit: Da war CKBVB schneller
 
Den Satz musst du mir bitte erklären - meine Erfahrung sagt mir, dass AMD über die Entwicklung der Treiber langfristig etwas mehr Leistung rausholt. Aktuell ist die Speicherbandbreite ein Hemmnis, hindert die Karten aber nicht, extrem gut - und vor allem effizient - zu performen.
Treibermäßig sehe ich NVIDIA ehrlicherweise ziemlich weit vorn. Das AMD aktuell Boden gut macht, keine Frage. Aber eigentlich hängen sie halt immer ziemlich hinterher. Ich habe ernsthaft mal, um AMD zu Unterstützen meiner Liebsten eine 5500 XT zum Geburtstag geschenkt. Ich hab keinen Kauf mehr gereut als diesen. Was der Rechner, der Hauptsächlich ein Arbeitsgerät war, danach für Zicken gemacht, spottet jeder Beschreibung.

Vielleicht ein Einzelfall. Vielleicht eine unglückliche Kombi. Aber ähnliches hab ich mit NVIDIA nie erlebt. Ich werde bei entsprechendem Preis-Leistungsverhältnis sicher wieder zu AMD greifen. Ich hatte ja auch den Kauf einer 6900er geplant. Aber viele meiner Bekannten würde nie zu AMD greifen aufgrund gemachter Erfahrungen.
 
In Sachen Rohleistung vermute ich bei Nvidia eine Verdoppelung, bzw. minimal darüber, wenn ich mir AMD anschaue gehe ich davon aus, dass man hier deutlicher zulegen kann, aufgrund des MCM Designs wird AMD sein Monster deutlich effizienter betreiben können. Man verdoppelte nur mal eine 6900XT und takte 10% runter, dann verliert man rund 10% Leistung, gewinnt aber fast 30% Verbrauch (am Chip).
Vorher hast du bei NVidia argumentiert, dass man alleine für die 75% mehr Shader auch entsprechend mehr Verbrauch hat, jetzt argumentierst du, dass AMD mit der Shader Verdoppelung Strom sparen soll. Warum sollte AMD nicht auch auf die Tube drücken und Leistung raus pushen? Und AMD kommt ja schon von der theoretisch besseren Fertigung. Ich denke, wir wissen aktuell einfach noch zu wenig, um da bei beiden Herstellern so unterschiedliche Ansätze zu sehen.
Aber du hast schon Recht, die Rechenleistung alleine ist auch nicht unbedingt entscheidend. Die Architektur muss es auch auf die Straße bringen. Ich bin gespannt, ob AMD Matrix Recheneinheiten bringt. In CDNA(2) haben sie die ja auch drin. Vielleicht auch, um die RT Einheiten zu füttern (bei AMD müssen ja aktuell die Shader mehr machen, vielleicht kann man das ja auslagern). Oder ob sie da keinen Nutzen drin sehen.
 
jetzt argumentierst du, dass AMD mit der Shader Verdoppelung Strom sparen soll.
Mein Kenntnisstand spricht bei AMD von einer Verdreifachung der Shaderanzahl! Das bedeutet in meinen Augen zwangsläufig, dass man bei gleichem Takt die dreifache Stromaufnahme hätte, abzgl. 15% Effizienzsteigerung durch 5nm wäre man immer noch weit oberhalb der kolportierten Leistungsaufnahme, insbesondere da noch ein Interposer dazukommt.

Demnach muss der Takt gesenkt werden, man wird dem Sweet Spot näher kommen und in meinem Augen die Effizienz deutlich steigern können. Das man aber den Chip aufpumpt und letztlich immer noch oberhalb des echten Sweet Spot arbeitet ist für mich auch klar, denn beide Hersteller werden echte Mikrowellen auf den Markt werfen.

Der echte Vorteil des MCM Designs ist es eben, dass man zwei kleinere Chips hat, die Yieldrate demnach besser ist als bei einem großen Chip und man daher für das gleiche Geld mehr Chipfläche konstruieren kann, weshalb mehr Schadet möglich sein werden als in einem monolithischen Design.
 
Ich werde dann tatsächlich nachgucken müssen was mein 750W Netzteil noch an neuer GPU packt, tauschen werde ich es jedenfalls nicht.
Denke die 4080 wird dann wohl die Grenze sein, hoffe ich jedenfalls.
Dürfte ja hoffentlich mit mindestens 16GB kommen…
 
Hat eigentlich ein Reviewer mal die Ti mit 50 Watt weniger befeuert, so dass der Stromverbrauch vergleichbar mit der Non-Ti wird?
Würd mich interessieren, wieviel der zusätzliche Schuß an Saft wirklich bringt oder ob die Ti bei gleicher Stromzufuhr vielleicht sogar langsamer wäre.
 
Hat eigentlich ein Reviewer mal die Ti mit 50 Watt weniger befeuert, so dass der Stromverbrauch vergleichbar mit der Non-Ti wird?
Würd mich interessieren, wieviel der zusätzliche Schuß an Saft wirklich bringt oder ob die Ti bei gleicher Stromzufuhr vielleicht sogar langsamer wäre.
Bei Hardwareluxx gab es eine kleine Analyse dazu, man hat sich da Control in UHD angeschaut und verschiedene TDP Limits gesetzt. Die 3090 TI kam auf 76FPS, auf 350W kam sie noch auf 68,6FPS, die Asus TUF 3090 OC kam auf 64,4FPS. Ist halt ein relativ limitierter Test, aber man hat wohl geringe Vorteile bei gleichem Verbrauch, vermutlich alleine durch den sparsameren RAM.
 
Bei Hardwareluxx gab es eine kleine Analyse dazu, man hat sich da Control in UHD angeschaut und verschiedene TDP Limits gesetzt. Die 3090 TI kam auf 76FPS, auf 350W kam sie noch auf 68,6FPS, die Asus TUF 3090 OC kam auf 64,4FPS. Ist halt ein relativ limitierter Test, aber man hat wohl geringe Vorteile bei gleichem Verbrauch, vermutlich alleine durch den sparsameren RAM.
Ah, danke!… hab‘s gefunden.
Und bei 78% brachte sie in Control noch 90% der Leistung.
Wobei sie behaupten, dass das Limit auch 1:1 dem Stromverbrauch entsprächen.

Da bleibt doch etwas Hoffnung, dass man die 4000er Serie auf Vernunft hintweaken kann und trotzdem noch satte Mehrleistung bekommt. Nur mit einem völlig überdimensionierten (und Slots-blockierenden) Klotz von Kühler muss man dann leben, wenn man keine WaKü will.
 
Da bleibt doch etwas Hoffnung, dass man die 4000er Serie auf Vernunft hintweaken kann und trotzdem noch satte Mehrleistung bekommt. Nur mit einem völlig überdimensionierten (und Slots-blockierenden) Klotz von Kühler muss man dann leben, wenn man keine WaKü will.
Die 4000er Serie wird wohl auch nicht auf die 4090 / 4080 beschränkt bleiben.
 
Die 4000er Serie wird wohl auch nicht auf die 4090 / 4080 beschränkt bleiben.
Wobei beide Hersteller wohl das Topmodell mit einem exklusiven Chip ausstatten, weshalb anzunehmen ist, dass die unteren Karten ehr auch abseits des Sweetspots liegen werden, da deutlich weniger Shader verfügbar sein werden und die Minderleistung daher eher auf dieser Basis anzunehmen ist.

Nvidia wird durch den größeren Shrink vermutlich in Sachen Effizienz einen größeren Sprung machen, liegen allerdings auch derzeit zurück. Auf Grund des nur im Maximalausbau anwesenden MCM Design, bin ich derzeit vorsichtig optimistisch, dass AMD bei dem Chip einen größeren Sprung in Sachen Effizienz machen wird, in den kleineren Generationen wird man aber ziemlich sicher auf Augenhöhe liegen, da sowohl Nvidia als auch AMD hier über den Takt und nicht die Schäfer gehen wird.

Aber wie gesagt, gerade das MCM Design ist in meinen Augen in Sachen Straßenleistung derzeit eine komplette Unbekannte und nicht wirklich zu schätzen.
 
Vielleicht ein Einzelfall. Vielleicht eine unglückliche Kombi. Aber ähnliches hab ich mit NVIDIA nie erlebt. Ich werde bei entsprechendem Preis-Leistungsverhältnis sicher wieder zu AMD greifen. Ich hatte ja auch den Kauf einer 6900er geplant. Aber viele meiner Bekannten würde nie zu AMD greifen aufgrund gemachter Erfahrungen.
Geht mir genauso. Nvidia war bisher immer Plug'n'Play. Mit AMD hatte ich ebenfalls mehrfach Probleme. Mein Fazit: Nur WHQL-Treiber nutzen und vor Hersteller-Wechsel System neu aufsetzen. Die 6900 Toxic dankt es mit ordentlicher Performance - und bzgl. Treiber: Ja, das ist bei Nvidia stabil (obwohl ich aktuell 0 Probleme habe), aber die Umsetzung - also das Interface sowie die Einstellungsmöglichkeiten - gefallen mir bei AMD um Welten besser.
 
Die 5500XT war ziemlicher Schrott, genau wie die 5600XT, hatte die beide im Rechner und nach jeweils 2-3 Stunden wieder ausgebaut und zurückgeschickt. Das war überhaupt erst der Grund, weshalb ich zur 5700XT gegriffen habe. War fast schon soweit, mir mal Nvidias anzuschauen, aber bei den Mondpreisen, die die damals für die 2000er hatten, hab ich das gleich wieder gelassen. Soviel wie für die AMD hatte ich bis zu dem Zeitpunkt noch nie für eine Grafikkarte ausgegeben. Die war ja mehr als doppelt so teuer wie die RX590, die ersetzt werden sollte.

Ich kann es immer noch nicht glauben, dass ich 1,5 Jahre später 850 dafür bekommen habe. Ich war froh, dass ich sie los hatte, zukunftsträchtig war sie spätestens nicht mehr beim Versuch, CB2077 damit zu spielen. Wohlgemerkt in FullHD. Wusste bis zu dem Zeitpunkt nicht, dass eine Graka so laut werden kann......
 
Die 5500XT war ziemlicher Schrott, genau wie die 5600XT, hatte die beide im Rechner und nach jeweils 2-3 Stunden wieder ausgebaut und zurückgeschickt. Das war überhaupt erst der Grund, weshalb ich zur 5700XT gegriffen habe. War fast schon soweit, mir mal Nvidias anzuschauen, aber bei den Mondpreisen, die die damals für die 2000er hatten, hab ich das gleich wieder gelassen. Soviel wie für die AMD hatte ich bis zu dem Zeitpunkt noch nie für eine Grafikkarte ausgegeben. Die war ja mehr als doppelt so teuer wie die RX590, die ersetzt werden sollte.

Ich kann es immer noch nicht glauben, dass ich 1,5 Jahre später 850 dafür bekommen habe. Ich war froh, dass ich sie los hatte, zukunftsträchtig war sie spätestens nicht mehr beim Versuch, CB2077 damit zu spielen. Wohlgemerkt in FullHD. Wusste bis zu dem Zeitpunkt nicht, dass eine Graka so laut werden kann......
Ich hatte auch relativ kurz das Vergnügen mit ner 5700XT, die aber defekt war, weshalb ich zur 2080S gegriffen habe. Die hat in Metro Exodus in WQHD allerdings ne ganz gute Figur gemacht, FreeSync sei Dank. Die war aber trotzdem schon am Limit und hätte kein Jahr mehr gehalten in der Auflösung. War damals leider das Dickste, was die Roten hatten.
 
@gimm
Ich habe ja im 2ten Rechner eine 2060 drin, daher ist mein Vergleich da auch ziemlich aktuell. Bei AMD, was ich überwiegend immer hatte, war es die Jahre vor der 69er immer so, dass ich auf die Software verzichtet habe und nur den Treiber drauf gemacht habe. Das hat sich jetzt mit der großen geändert, da mir diese Einstellungen ausreichen. Und ein bisschen optimieren sollte man wohl jede 69.....zumindest, wenn man die Leistung nicht unbedingt braucht.
Bei der Nvidia hab ich nach 2 Tagen Geforce-Gedöns alles runtergeschmissen und nur den Treiber drauf gemacht.

Dann doch lieber AMD, ganz ehrlich!
 
Zuletzt bearbeitet von einem Moderator :
Die 5500XT war ziemlicher Schrott
Wen wundert es, dass eine schwächere Karte nicht stärker ist? Nur dass der Preis in den letzten 2 Jahren höher ist, macht die Karten nicht leistungsstärker. Auch der Unterschied zur 5600 XT ist zu klein. Man sagt, dass eine neue Grafikkarte mindestens 50 % mehr Leistung haben sollte, damit man den Unterschied spürt. Dann landet man ungefähr bei der 5700 XT.

Effizienter sind natürlich alle neuen die du getestet hast.
 
Dann wird die 69er sicher die letzte Highend-Karte, die ich mir geleistet habe.
Meine erste und letzte Highend fürs erste. Die aktuelle Performance reicht mir und mit den kommenden Generationen wird es auch weiterhin Effizienzsteigerungen geben, die mich gepaart mit einem leichten Leistungsplus zum Kauf verführen werden.

Ich bin auf jeden Fall mal wieder verblüfft, was da an Verlusten und Verbräuche abseits der GPU und Speichersteinchen zusammen kommt. Das hatte ich nie auf dem Schirm. Mich interessiert das aber sehr und freue mich wirklich über die .. ja, Aufklärung und den Detailgrad. Vielen Dank @Igor Wallossek :)
 
Oben Unten