NVIDIA GeForce RTX 4090 – Wo der Irrtum mit den 600 Watt wirklich herkommt und warum die Karten so riesig sind

Sandwich, die 12GB wird drunter liegen, die 16 GB wohl drüber. Bilderrahmenprinzip.
Dass AMD die Preise dumpt, ist eine Urban Legend. Wir werden sehen :)

Die Folien sind auch sicher nicht mit den finalen Versionen gemacht worden :D

So If a Navi31 is in between 4080 12GB and 4080 16GB this meant that the 7900xt/7950xt will be only +15-25% performance than a 6950xt ? That is a little bit disapointing
 
Gestern durften wir zwar die ersten eigenen Bilder von NVIDIAs kommender Grafikkarten-Generation veröffentlichen, müssen jedoch bis zum festgelegten Launchtag noch über weitere Details bis hin zur Performance schweigen. Dabei wäre etwas Aufklärung (sicher auch im Sinne NVIDIAs) dringend nötig. Denn der Aufschrei über die riesigen, schweren Kühllösungen nach den ersten Unboxing-Artikeln und -Videos war wirklich (read full article...)
...AMDs nächste Generation ein wenig ins Schleudern bringen, denn diese setzt nicht auf TSMCs neuesten Node, sondern auf eine Mischung aus älteren Prozessen für GCD und Chiplets.

Die bekannten Leaks und AMD's eigene Aussagen geben für mind. den GCD den 5N-Prozess von TSMC an.
Der von Nvidia verwendete Prozess ist ein angepasster N5, daher auch die Schreibweise 4N.
TSMC selbst setzt für gewöhnlich den Buchstaben vor die Zahl.

Wo bitte setzt Nvidia auf einen neuen Node und AMD auschließlich auf alte Prozesse? So wie Du es schreibst, nutzt Nvidia nur den neuesten Node und AMD bleibt weiterhin beim alten....das passt nicht so ganz zusammen.

Ich bleibe weiterhin gespannt, was die Karten von Nvidia können und was AMD in der Lage ist zu liefern. Begeistert bin ich bisher von der neuen Generation überhaupt nicht. Besonders nicht von den Preislagen, auch wenn ich weiß, warum sie es tun.
 
So If a Navi31 is in between 4080 12GB and 4080 16GB this meant that the 7900xt/7950xt will be only +15-25% performance than a 6950xt ? That is a little bit disapointing
probably THIS is only a missunderstanding or Igor has had some beers too much
may be not a good idea to write some speculations in the afternoon
or
he wants some "extra clicks" with this bullshit
 
Ich bin gespannt aufs overclocking Potential der 4090. Hier und da las man ja schon von 3 GHz.
 
probably THIS is only a missunderstanding or Igor has had some beers too much
may be not a good idea to write some speculations in the afternoon
or
he wants some "extra clicks" with this bullshit
Yes, for comparaison a 6700xt have ~30% more performance than a 5700xt, same nodes + same CUs counts

With the recent leak a 4080 16GB hit 13 977 in TSE, this is 30% more than the average 6950xt score

So a 7900xt with the node advantage (7nm -> 5nm) + chiplet design + architecture improvement we will only get less than 30% more performance than a 6950xt ? :(
 
Yes, for comparaison a 6700xt have ~30% more performance than a 5700xt, same nodes + same CUs counts

With the recent leak a 4080 16GB hit 13 977 in TSE, this is 30% more than the average 6950xt score

So a 7900xt with the node advantage (7nm -> 5nm) + chiplet design + architecture improvement we will only get less than 30% more performance than a 6950xt ? :(
This could fit for the 7800xt.
 
...oder er kennt einfach mal wieder mehr unveröffentlichte Details als unsereins!
haha
vermutlich wie bei der 6800nonXT, wo er sich damals Fantasiezahlen zusammengereimt hat bezgl. 290 Watt
(nur mal knapp 40W mehr als dann tatsächlich als TBP festgelegt)

just for fun
z.Vgl. der derzeitige Verbrauch in DE@1440p =220W
 

Anhänge

Zuletzt bearbeitet :
Wenn nVidia tatsächlich wüsste, dass Navi31 zwischen 4080-12 und 4080-16 landet, dann hätte man die 4080-12 wohl doch eher 4070 genannt. Dann würde Navi31 nämlich unterhalb der 4080-Leistung bleiben. Inhaltlich kein Unterschied, aber wichtig fürs Marketing.
 
nur das ne 4070 net 1100€ kosten kann = wichtig für die Marge
aber
Jeder der das Afternoon-Geschwätz von Igor glaubt kauft übereilt im Oktober.

The more you buy the more you save!
 

Mach es besser!
Es waren dann doch nur 235 Watt im Torture max und um die 220 im Gaming.
Die Lastspitzen dieser Karte gehen trotzdem bis 377 Watt.....

In den relevanten 5 bis 10 ms sind es denn auch schon 350 Watt.....
 

Anhänge

  • 5700xt-Nitro.JPG
    5700xt-Nitro.JPG
    71,5 KB · Aufrufe : 37
Sandwich, die 12GB wird drunter liegen, die 16 GB wohl drüber. Bilderrahmenprinzip.
Dass AMD die Preise dumpt, ist eine Urban Legend. Wir werden sehen :)

Die Folien sind auch sicher nicht mit den finalen Versionen gemacht worden :D
Ich weiss ja das einige die Wahrheit persönlich nehmen, aber das einzige was AMD im Bereich Grafikkarten in den letzten Jahren abgeliefert hat, waren Variationen der Enttäuschung.

Am Ende kämpft eine 4900XT mit einer 2080ti sobald man RT und DLSS zuschaltet. So schaut es doch aus. Das jetzt alle plötzlich alle angeblich 720p mit Low Details zocken ist einer Art Massenselbsthypnose geschuldet.

Beides wird sich wohl nicht ändern. Ich seh schon die AMD Anhänger vermeintlich in Schwarz Weiss Hercules zocken, wenn es 3 Frames schneller ist.

Wobei das niemand mehr bedauert als ich. Konkurrenz täte dem Hochmut der Lederjacke mal ganz gut.

Aber wie heist es schön.

Sind sie zu stark, bist du zu schwach.

Vielleicht wird es ja was mit der 8000er Serie. Man soll die Hoffnung ja nie aufgeben.
 
"Zu diesen durchgestochenen Informationen aus der Zubehörindustrie und den AIC passt auch, dass man wohl die Leistungsaufnahme der kommenden GeForce RTX 4080 16 GB von den anfänglichen 420 Watt auf 340 und später sogar noch auf 320 Watt abgesenkt haben soll und die Karte trotzdem schneller als erwartet sein könnte."

Deutet sich für mich jetzt nicht wirklich an, wobei "schneller als erwartet" logischerweise von den ganz persönlichen Erwartungen abhängt. Die veröffentlichten technischen Daten zeigen in jedem Fall einen riesigen Abstand zwischen 4090 und 16-GB-4080, und 50 bis 60 Prozent Mehrleistung gegenüber einer 3080 wären wohl im Großen und Ganzen in Ordnung, aber kaum schneller als die große Masse der Erwartungen, oder? Insbesondere dann nicht, wenn das Ganze mit einem Preisschild versehen ist, das bei Ampere noch an einer 3090 hing.
 
Zuletzt bearbeitet :
Ich weiss ja das einige die Wahrheit persönlich nehmen, aber das einzige was AMD im Bereich Grafikkarten in den letzten Jahren abgeliefert hat, waren Variationen der Enttäuschung.
What?

Frag mal die high-Fps -gamer.
 

Anhänge

Kleiner Hinweis an Igor:

Ich würde empfehlen einmal pro Artikel zu erklären was die VF-Kurve ist.
Durch die YouTube Videos kommen immer wieder neue Leute auf deine Seite.
Wenn die dann hier nur Bahnhof verstehen sind die womöglich abgeschreckt.
Und nicht jeder hat halt die Spannungs-Frequenzkurve schon von Hand angepasst.


Ansonsten:
Ich finde die 4090 leider geil.
Ich habe so dermaßen Lust diese Karte zu undervolten.
Da ich aufgrund von 2 360er Radiatoren kaum Airflow im Gehäuse habe werde ich nicht drum herum kommen die Karte mit Wasser zu kühlen, aber das scheint ja kein Problem zu werden.
Also gucke ich einfach nach der günstigsten 4090 und dann kommt der nächste Alphacool Kühler drauf.
Das ganze noch mit guten Wärmeleitpads (Gibt's einen konkreten Tipp, Igor?) und dann gucken wie weit runter es es geht.

Dann noch ein Fractal Torrent Gehäuse und fertig ist das "Neuer PC-Gefühl".
 
Im Umkehrschluss heißt das ja eigentlich, dass später erscheinende Karten/Custom Modelle viel kleinere Kühler haben werden?

Das ist ja schon irgendwie erheiternd 😂
Kleiner, billiger und weniger Leistungsstark!
Für mich bleibt immer noch die spannendste Frage ob zb mein süßes Seasonic TX-700W Fanless Netzteil die 4090 packt?
Die 3090 hat hier seit 1,5 Jahren gar keine Probleme, bin gespannt.
Das würde ich gar nicht erst versuchen. Bin aber gespannt auf deine Erfahrungen.
 
@Phoenixxl Kann ich gut verstehen ;) Nimm doch die Inno3D Karte, da haste das Reference PCB und den Alphacool Block gleich mit drauf.
 
Ich weiss ja das einige die Wahrheit persönlich nehmen, aber das einzige was AMD im Bereich Grafikkarten in den letzten Jahren abgeliefert hat, waren Variationen der Enttäuschung.

:ROFLMAO: Jetzt muss ich aber doch lachen. :ROFLMAO:
 
Der Hype wird immer größer! Wobei ich eigentlich diese Gen aussetzen wollte :/ Was NVIDIA hier abliefert ist echt beeindruckend und man sieht wieder in diesem Artikel das NVIDIA mehr Shitstorm abbekommt als überhaupt angebracht ist. Da muss ich direkt wieder an INTEL/AMD denken. Alle sind der Meinung das Ryzen Intel zerstören würde und sie keine Chance hätten da Intel so teuer ist und ineffizient. Was ist jetzt? AMD ist doch mittlerweile teurer und wirklich schneller sind sie nur in Multicore Anwendungen. Darüber redet komischerweise keiner... Ich glaube einfach ich muss anfangen keine Kommentare mehr zu lesen und sämtliche Umfragen zu ignorieren sonst reg ich mir nur auf.

Danke Igor für den Artikel!

*Hust* 5800X3D *Hust*

Abgesehen davon wird der Anteil an Single Core Anwendung jährlich kleiner.
Dazu kommt, zumindest mit der AMD Brille auf, dass die CPU für Single Core Anwendung einfach groß genug ist.
Da wo richtig CPU Leistung gebraucht wird (Multiscore) ist AMD dann unglaublich weit vorne, da einfach so viel effizienter.

Aus meiner Sicht gibt es aktuell kaum einen Grund eine Intel CPU zu empfehlen, es sei denn man hat ein sehr enges Usecase und stellt fest, dass Intel da besser ist.
(zum Beispiel reines Gaming, da Intel da auch effizient ist).

Am Ende sollten wir uns freuen, dass beide Firmen aktuell ziemlich gute Produkte am Markt hat.

Fehlt nur noch übriges Geld XD
 
Oben Unten