NVIDIA GeForce RTX 4090 – Wo der Irrtum mit den 600 Watt wirklich herkommt und warum die Karten so riesig sind

Wo denn? Ich persönlich kann mich an keine Veröffentlichung und auch keinen sonstigen "Leak" erinnern, der die große 4080 auf nicht mehr als 3090(Ti)-Niveau verortet.
Imho geht es um die Zahlen von hier:

mit weiterführender Interpretation hier:

Die Interpretation von Janis, k.A. wie der auf was kommt. Mit 4080 16GB > 3090Ti solltest Du richtig liegen. Da war ich zu schnell bzw. hatte zu oberflächlich gelesen. Sorry. 😊

edit: wobei ich persönlich ca. 50% Gain jetzt auch nicht so pralle finde, dass mich die dafür die aufgerufenen Preise zum Ausgeben anflehen.
 
Zuletzt bearbeitet :
Wer soll überhaupt ne 4080-12GB für 1100€ kaufen wenns ne 20GB-Cut-Navi31 für 899€ geben wird?

Ich persönlich kaufe mittlerweile neben Performance auch nach Feature Umfang. Nur weil die mehr Speicher hat soll ich zu AMD greifen? Ich habe die 10GB meiner 3080 noch nicht füllen können (3440x1440)... bis 20GB nötig werden ist auch Navi 31 schon zu langsam und zu alt. Vielleicht gibts bis dahin auch schon Direct Storage dann brauchst du die 20GB in naher Zukunft überhaupt nicht... Zumal die Chips aus demselben Werk kommen: Ich würde mich nicht darauf verlassen dass da unter 1000€ was kommt wenn sie wirklich nah an einer 4080(12) sind... Das auch AMD kein Wohlfahrtsverein ist hat uns der CPU Launch erst kürzlich gezeigt.

Which makes absolutely no sense. AMD claims 50% perf/Watt increase on RDNA3. This should be the performance increase we should expect from Navi31.
There is no way that the massive increase in shader count could only result in +15-25% performance increase.

On AMD Cards Raytracing is realised with it's Shaders. But Shaders only can do Raytracing or Rasterizing not both at the same time. Wich means the massive increase is needed to lift the RT Performance to at least 3xxx level. A Perf/Watt increase can also be achieved by lowering the Power needs and lifting the Performance in combination with a node shrink. A 4090 needs officaly 450W wich is the same usage of a 3090ti. A 4080(16) officially wants 320W. The same amount what a 3080 wanted. The Perf/Watt increase (if the numbers are real) is insane. And we know now that Nvidia didn't expected to be this efficient in the first place.

Das ist mit 140% mehr Shadern und 50% mehr Effizienz quasi unmöglich, derart schlecht zu sein. AMD hat gelernt, wie man Shader einigermaßen gut auslastet.

AMD realisiert Raytracing über die Shader und nicht über eigens dafür bereitgestellte Kerne. Shader können aber nur Raster oder RT Berechnungen und nicht beides gleichzeitig ausführen. Die 140% mehr Shader werden nötig sein um überhaupt die Raytracing Performance auf Nvidia Niveau anzuheben. Und selbst da rechne ich nicht damit dass sie 4xxx Niveau erreichen werden. Da ist der Generations Rückstand nicht abzustreiten. Aussderdem läuft auch FSR über Shader was wiederum Shader für Raster oder Raytracing blockiert. Und mehr Effizienz hab ich oben schon ausgeführt. Wenn die Karte vielleicht etwas weniger Strom verbraucht und durch den Node Shrink trotzdem schneller ist, ist das der Increase. Nur weil man 50% mehr Performance per Watt hat heißt das nicht dass die Karte 50% schneller ist.

AMD ist ein Unternehmen das FÜR die Kunden entwickelt und nicht umgekehrt.

Auch wenn dus nicht wahrhaben willst AMD ist ein börsennotiertes wachstumsorientiertes Unternehmen und in erster Linie den Investoren verpflichtet, und erst weit unten kommen dann die Kunden ;)
 
Ich persönlich kaufe mittlerweile neben Performance auch nach Feature Umfang. Nur weil die mehr Speicher hat soll ich zu AMD greifen? Ich habe die 10GB meiner 3080 noch nicht füllen können (3440x1440)... bis 20GB nötig werden ist auch Navi 31 schon zu langsam und zu alt. Vielleicht gibts bis dahin auch schon Direct Storage dann brauchst du die 20GB in naher Zukunft überhaupt nicht... Zumal die Chips aus demselben Werk kommen: Ich würde mich nicht darauf verlassen dass da unter 1000€ was kommt wenn sie wirklich nah an einer 4080(12) sind... Das auch AMD kein Wohlfahrtsverein ist hat uns der CPU Launch erst kürzlich gezeigt.



On AMD Cards Raytracing is realised with it's Shaders. But Shaders only can do Raytracing or Rasterizing not both at the same time. Wich means the massive increase is needed to lift the RT Performance to at least 3xxx level. A Perf/Watt increase can also be achieved by lowering the Power needs and lifting the Performance in combination with a node shrink. A 4090 needs officaly 450W wich is the same usage of a 3090ti. A 4080(16) officially wants 320W. The same amount what a 3080 wanted. The Perf/Watt increase (if the numbers are real) is insane. And we know now that Nvidia didn't expected to be this efficient in the first place.



AMD realisiert Raytracing über die Shader und nicht über eigens dafür bereitgestellte Kerne. Shader können aber nur Raster oder RT Berechnungen und nicht beides gleichzeitig ausführen. Die 140% mehr Shader werden nötig sein um überhaupt die Raytracing Performance auf Nvidia Niveau anzuheben. Und selbst da rechne ich nicht damit dass sie 4xxx Niveau erreichen werden. Da ist der Generations Rückstand nicht abzustreiten. Aussderdem läuft auch FSR über Shader was wiederum Shader für Raster oder Raytracing blockiert. Und mehr Effizienz hab ich oben schon ausgeführt. Wenn die Karte vielleicht etwas weniger Strom verbraucht und durch den Node Shrink trotzdem schneller ist, ist das der Increase. Nur weil man 50% mehr Performance per Watt hat heißt das nicht dass die Karte 50% schneller ist.



Auch wenn dus nicht wahrhaben willst AMD ist ein börsennotiertes wachstumsorientiertes Unternehmen und in erster Linie den Investoren verpflichtet, und erst weit unten kommen dann die Kunden ;)
Wirklich gut auf den Punkt gebracht!
 
Wenn AMD die Karte für 879 bis 949 Dollar Bringt und schneller als RTX 4080 16 GB hat NV den Vogel komplett abgeschossen und versinkt in dessen/ Ihrem Mitgefühl.
 
Zuletzt bearbeitet :
Wenn AMD die Karte für 849 Dollar Bringt und schneller als RTX 4080 16 GB hat NV den Vogel komplett abgeschossen und versinkt in dessen/ Ihrem Mitgefühl.
Ja ist denn schon wieder Weihnachten.:ROFLMAO:

Wenn die kolportierten Leistungsmerkmale der 4080/16 stimmen hat doch NVDIA allen den Stinkefinger gezeigt. Leistung und Effizienz sind doch absolut top.

Deutlich schneller als eine 3090Ti, sparsamer und billiger. Ab da hat es sich doch ausgeflamt. Und je mehr Leistungswerte ich mir anschaue, desto mehr zementiert sich die Sandwichtheorie.

Und wenn dann AMD noch mehr verbrauchen sollte, dann gute Nacht Hermann.

Allerdings hoffe ich aufrichtig für uns alle, das es nicht so kommt.
 
Zuletzt bearbeitet :
Ich verstehe diese Preisdiskussion wirklich nicht. Am günstigsten ist auf Dauer immer die teuerste Karte. Man bekommt die die höchstmögliche Leistung und den absolut besten Wiederverkaufswert.
Da musste aber wirklich gleich beim Launch kaufen, ... sonst haste den Wertverfall wie bei der 3090Ti.
oder
Man hat ganz großes Pech und NV bringt nen Refresh bzw. Supercut, dann relativieren sich alle Wiederverkaufswerte extrem.
(wie bei Turing mit 2080 vs 2070s)
 
Da musste aber wirklich gleich beim Launch kaufen, ... sonst haste den Wertverfall wie bei der 3090Ti.
oder
Man hat ganz großes Pech und NV bringt nen Refresh bzw. Supercut, dann relativieren sich alle Wiederverkaufswerte extrem.
(wie bei Turing mit 2080 vs 2070s)
Ich spekuliere diesmal ehrlicherweise darauf, das ich die 4090 mehr als eine Generation behalte. Ich bin ja schon ziemlich crazy, aber mehr als fast 4K sehe ich auch bei einem 34 Zoll nicht.

Am aktuellen 70 Zoll TV komme ich wahrscheinlich aufgrund meines Alters mit 60 Frames gut zurecht. Selbst wenn ich den ersetze gegen einen 120 Hertz sollte eine 4090, das ebenfalls gut packen.

Vielleicht wäre dann ja wirklich mal für länger Ruhe.

Klar muss ich gleich kaufen. Sonst gibt es nix mehr für meine beiden 3000er
 
Bin auf Igors Messungen vom Stromverbrauch gespannt. Die Spielebenchmarks schau ich mir lieber wo anders an.
 
Ja ist denn schon wieder Weihnachten.:ROFLMAO:

Wenn die kolportierten Leistungsmerkmale der 4080/16 stimmen hat doch NVDIA allen den Stinkefinger gezeigt. Leistung und Effizienz sind doch absolut top.

Deutlich schneller als eine 3090Ti, sparsamer und billiger. Ab da hat es sich doch ausgeflamt. Und je mehr Leistungswerte ich mir anschaue, desto mehr zementiert sich die Sandwichtheorie.

Und wenn dann AMD noch mehr verbrauchen sollte, dann gute Nacht Hermann.

Allerdings hoffe ich aufrichtig für uns alle, das es nicht so kommt.
Was träumen hier einige?
Eine 7900XT wird RZ mit an Sicherheit grenzender Wahrscheinlichkeit klar über einer 4080 16 GB, gaaanz weit über einer umgelabelten 4060Ti rauskommen und dank intelligentem modernen Chipletdesign spürbar günstiger zu produzieren sein als so ein Monolith-Dino. Zumal wenn man bei der Kühlerplanung nicht so in`s Klo greift wie nV.
Die gezeigte Leistung von Ada liegt nach den OV2-Benches RZ bei +40 bis 50% (oder -30 Power bei +19% FPS bei Deinem 3090Tivs4080 16GB-Vergleich). AMD sagt bislang >50% Perf./Watt und hat solche Angaben bislang immer richtig und konservativ gemacht. Das können dann auch leicht mal eben z.B. bis zu 60% sein. Da kannste mal rechnen.

Miss auch lieber schon mal Dein Case aus. Sonst sieht es schnell so hier aus (nein, das ist kein Radiator):
🤣 🤣 🤣
 
Zuletzt bearbeitet :
Was träumen hier einige?
Eine 7900XT wird RT mit an Sicherheit grenzender Wahrscheinlichkeit klar über einer 4080 16 GB und gaaanz weit über einer umgelabelten 4060Ti rauskommen und dank intteligentem Chipletdesign spürbar günstiger zu produzieren sein. Zumal wenn man bei der Kühlerplanung nicht so in`s Klo greift wie nV.
Die gezeigte Leistung von Ada liegt nach den OV2-Benches RT bei +40 bis 50% (oder -30 Power bei +19% FPS bei Deinem 3090Tivs4080 16GB-Vergleich). AMD sagt bislang RT >50% Perf./Watt und hat solche Angaben bislang immer richtig und konservativ gemacht.

Miss auch lieber mal Dein Case schin aus. Sonst sieht es schnell so hier aus: :devilish:
Ist das mit RT so sicher?

Für mich war RT bisher völlig uninteressant.
 
Eine 7900XT wird RZ mit an Sicherheit grenzender Wahrscheinlichkeit klar über einer 4080 16 GB, gaaanz weit über einer umgelabelten 4060Ti rauskommen
das dachte ich auch, aber da bin ich mir mittlerweile und auch nach den Andeutungen von Igor und auch den Preis den Nvidia für die 4080 aufruft nicht mehr ganz so sicher - leider.

und wenn sie die 4080 16GB Leistungsmässig wirklich klar hinter sich lässt, dann wird der Preise leider zumindest auch auf Augehöhe sein - sprich min 1400 für ne Amd eigene und 1600+ für ne gute Custom

Ich hoffe halt immer noch das ich zumindest leistungsmässig von den RX7XXX Karten positiv und nicht negativ überrascht werde...

leider war halt bei Amd Graka Releases im Bezug auf die Leistung viel öfter die negative Überraschung der Fall als die positive (mit am schlimmsten war Vega). dafür gibts halt bei Nvidia sehr oft eine negative Überraschung im Bezug auf den Preis bei den Releases...
 
Unterhaltsam ist das ja. Aber wie bei jedem Generationenwechsel werden die mit den dicken Karten erstmal gar keinen Unterschied merken, außer, dass die Kiste vielleicht leiser läuft. Ganz ehrlich: Ob 250 oder 500 FPS - wollt ihr mich vera*schen??? Es ist doch komplett wurscht.
 
Was träumen hier einige?
Eine 7900XT wird RZ mit an Sicherheit grenzender Wahrscheinlichkeit klar über einer 4080 16 GB, gaaanz weit über einer umgelabelten 4060Ti rauskommen und dank intelligentem modernen Chipletdesign spürbar günstiger zu produzieren sein als so ein Monolith-Dino. Zumal wenn man bei der Kühlerplanung nicht so in`s Klo greift wie nV.
Ich möchte dir jetzt wirklich nicht zu Nahe treten, aber woher nimmst du dein profundes Wissen. Aber keine Sorge, der Tag naht wo Wunsch auf Wirklichkeit trifft. Wobei ich das mit der umgelabelten 4060 auch erwarte. Aber der Rest ist Wunsch, Hoffnung Glaube und andere Formen des Zusammenbruchs.

Wir werden ja sehen was dein intelligentes modernes Chipletdesign gegen den Monolith-Dino auszurichten vermag.
Ich wäre da ein wenig zurückhaltend. Auch und gerade den letztens Info`s geschuldet.

Nachher singst du wieder:


Und nur für den Fall das du es nicht mitbekommen hast oder dich mit der Faktumsetzung schwer tust.
Der Griff ins Klo bedeutet für NV Kunden einen höherwertigen Kühler respektive kühlere Karten. So einen Griff ins Klo würde ich mir von AMD auch mal wünschen.

Die gezeigte Leistung von Ada liegt nach den OV2-Benches RZ bei +40 bis 50% (oder -30 Power bei +19% FPS bei Deinem 3090Tivs4080 16GB-Vergleich). AMD sagt bislang >50% Perf./Watt und hat solche Angaben bislang immer richtig und konservativ gemacht. Das können dann auch leicht mal eben z.B. bis zu 60% sein. Da kannste mal rechnen.
Keine Sorgen, wir brauchen nicht Rechnen. Wir müssen nur Benchmarks miteinander Vergleichen. Die prozentuellen Unterschiede rechne ich dir dann bei Bedarf aus.

Miss auch lieber schon mal Dein Case aus. Sonst sieht es schnell so hier aus (nein, das ist kein Radiator):
🤣 🤣 🤣
Ich verwende nur Define 7XL. Da hab ich mit sowas keine Not. Ehrlicherweise bin etwas enttäuscht von dem geringen Verbrauch, da hab ich mein Corsair 1600i ganz umsonst gekauft. Aber im Zweifelsfall kann ich ja von 450 Watt auf 600 Watt gehen. Der "Griff ins Klo Kühler" ist ja dafür ausgelegt.
 
Unterhaltsam ist das ja. Aber wie bei jedem Generationenwechsel werden die mit den dicken Karten erstmal gar keinen Unterschied merken, außer, dass die Kiste vielleicht leiser läuft. Ganz ehrlich: Ob 250 oder 500 FPS - wollt ihr mich vera*schen??? Es ist doch komplett wurscht.
Es könnte den Vorteil haben, das man endlich die 4090 net mehr in FHD+WQHD benchen muss, weil eeh noch im CPU-Limit.
(dafür dann 8k incoming, was eigentlich schon ab 32" echt zu sehen sein müsste, selbst wenn mans nur als downsampling nutzt)
 
Unterhaltsam ist das ja. Aber wie bei jedem Generationenwechsel werden die mit den dicken Karten erstmal gar keinen Unterschied merken, außer, dass die Kiste vielleicht leiser läuft. Ganz ehrlich: Ob 250 oder 500 FPS - wollt ihr mich vera*schen??? Es ist doch komplett wurscht.
Jetzt aber bitte nicht so :cool:

Es waren doch ausschließlich die AMD Gamer, die die letzten 2 Jahre rumbrantzt haben ,Bildqualität ist nicht, Frames sind alles.

Da war doch plötzlich 720p die Auflösung der Wahl weil Omas Dampfmaschine bei Low Details 3 Frames schneller war.

Also keine Rolle Rückwärts. Jetzt heist es Tapfer sein.

Wobei in 4 K Ultra mit vollem RT sind es wahrscheinlich eh nur 250 :ROFLMAO:

Du siehst, es relativiert sich sicher.
 
Zuletzt bearbeitet :
Es könnte den Vorteil haben, das man endlich die 4090 net mehr in FHD+WQHD benchen muss, weil eeh noch im CPU-Limit.
(dafür dann 8k incoming, was eigentlich schon ab 32" echt zu sehen sein müsste, selbst wenn mans nur als downsampling nutzt)
Für die Benchmarks, geschenkt. Und für 8K wirds nicht reichen. Da brauchste dann ne 5090 Ti. Vielleicht in höherer Auflösung auf der VR-Brille interessant, das Investment ist aber beträchtlich und für meinen Bedarf recht sinnlos. Hab gestern notgedrungen rumexperimentiert: In WQHD kriege ich meine 6900XT in Horizon Zero Dawn auf max. 43% Auslastung (behauptet das Adrenaline Overlay). In 4K sind es immerhin konstant >70%. Und jetzt?

Fazit: 4090 überdimensioniert und am Massen-Markt vorbei. 4080 12/16GB auf Höhe der ollen Gen, die sich aber noch im Lager stapelt. Lass ma Hype erzeugen, damit das trotzdem verkauft...
 
Für die Benchmarks, geschenkt. Und für 8K wirds nicht reichen. Da brauchste dann ne 5090 Ti. Vielleicht in höherer Auflösung auf der VR-Brille interessant, das Investment ist aber beträchtlich und für meinen Bedarf recht sinnlos. Hab gestern notgedrungen rumexperimentiert: In WQHD kriege ich meine 6900XT in Horizon Zero Dawn auf max. 43% Auslastung (behauptet das Adrenaline Overlay). In 4K sind es immerhin konstant >70%. Und jetzt?
Fazit: 4090 überdimensioniert und am Massen-Markt vorbei.
Oha, jetzt sind so gut, da sie keiner braucht. Ich schrei mich gleich hier weg!

Müßig darüber nachzudenken, was du hier schreiben würdest, hätte AMD so abgeliefert.

4080 12/16GB auf Höhe der ollen Gen, die sich aber noch im Lager stapelt.
Wer hat dir den Schmarrn denn erzählt?

Die Werte der 16 GB liegen bis zu 30 Prozent über dem bisherigen Spitzenreiter GeForce RTX 3090 Ti.


Die Bilder sind zwischenzeitlich verschwunden.


Lass ma Hype erzeugen, damit das trotzdem verkauft...

Aja, nur die Einfältigen, die auf jeden Hype reinfallen, kaufen sowas.

Einfach Herrlich.

Ich habs schon immer gewußt. Der wirklich schlaue kauft AMD.

Wie hies das Lied von Pippi Langstrumpf.

"Ich mache mir die Welt, wie sie mir gefällt.

Mit der Leistung bei 8 K würde ich erstmal die Ergebnisse abwarten.

Wobei der Nutzen in der Tat fraglich ist.
 
Zuletzt bearbeitet :
Kommt ein Wasserkühler drauf und kommt ins A4H2O an dem ein Mora hängt ;)
Weist du, ob der Kühler von Alphacool ist. Oder weiss das wer anderes?

Oder ob er zumindest aus Kupfer ist.

 
Oben Unten