NVIDIA GeForce RTX 4090 – Wo der Irrtum mit den 600 Watt wirklich herkommt und warum die Karten so riesig sind

Wer den NDA unterschrieben hat, darf auch nichts zu den Terminen sagen, wann dieser in welchen Stufen fällt.

Es gibt aber das Gerücht, dass die Tests am 11. 10. veröffentlicht werden dürfen.



AMD ist alles andere als mies.

Was mich nur stört ist das man NVidia permanent dafür angreift, dass diese versuchen sich über Innovation von der Konkurrenz abzusetzen. Und dass sie die Frechheit besitzen, auch noch zu versuchen, ihre Investitionen so zu gestalten, dass sie sich finanziell rentieren.

Ob man die Technik für eine Innovation einkauft oder selbst entwickelt spielt am Ende keine Rolle. Auch AMD hat jede Menge Technologie dazugekauft... unter anderem eine kleine Schmiede namens ATi... :)


Für mich ist die Innovationsbereitschaft DAS große Plus von NVidia - und der Grund warum ich momentan deren Produkte denen der Konkurrenz vorziehe.

Bisher hatte AMD ein deutlich kleineres R&D Budget. Durch den Erfolg bei den CPUs kann sich das ändern, und ich würde mir wünschen, dass sie auch mal die eine oder andere neue Innovation auf den Markt kriegen. Tessellation und Mantle sind schon ne ganze Weile her...
Naja, die ersten Computer die Raytracing mit speziellen HardwareAcceleratoren konten, waren u.a Rechner von SGI in 2004. Nvidia hat es geschaft, das in die RTX2000er Serie für die breite Masse erschwinglich zu machen.
Was mich an Deinem Post einfach störte ist, dass Du es so hinstellst, dass einzig Nvidia Innovationen bringt. Und das stimmt so einfach nicht.
Und das Nvidia seine Marktposition auch ausnutzt, bestimmt Features die ihnen helfen besser auszusehen als sie wirklich sind (z.B. damals unsinnige Tesselationswerte), pushed und andere, die ihnen nicht liegen, wie lange Zeit DX12 bremst, mag zwar aus deren Sicht verständlich sein, sympatisch macht das aus meiner Sicht nicht und Kritik daran ist mMn auch berechtigt.
Die Hardware wäre auch ohne die ganzen Tricks gut und hätte sowas eigentlich nicht nötig.

Ach ja, angeblich war AMD damals kurz davor Nvidia statt Ati zu kaufen :cool:.

Cunhell
 
Das einzige, was ich hier mitnehme ist, dass ein kompletter Industriezweig Ressourcen verballert, die es garnicht gebraucht hätte. Anstatt nochmal ins Redesign zu gehen, produzieren jetzt alle Ziegelsteine mit Großwindanlage!? Und das bei der aktuellen Wirtschaftslage? Entweder die haben Betriebswirtschaft nicht verstanden oder das ist ganz schlimmer Hype. Die Entscheidung des CEOs von EVGA erscheint vor dem Hintergrund nicht ganz so unverfroren.
@Igor Wallossek Es mutet schon ein bisschen komisch an, wenn die Erklärung für die klobigen Dinger lautet, dass sie quasi aus Versehen zu gut geworden sind. Weiß echt (noch) nicht, was ich davon halten soll und hoffe, deine Quellen befeuern hier keine Marketing-Fantasie 🤔
 
Das einzige, was ich hier mitnehme ist, dass ein kompletter Industriezweig Ressourcen verballert, die es garnicht gebraucht hätte. Anstatt nochmal ins Redesign zu gehen, produzieren jetzt alle Ziegelsteine mit Großwindanlage!? Und das bei der aktuellen Wirtschaftslage? Entweder die haben Betriebswirtschaft nicht verstanden oder das ist ganz schlimmer Hype. Die Entscheidung des CEOs von EVGA erscheint vor dem Hintergrund nicht ganz so unverfroren.
@Igor Wallossek Es mutet schon ein bisschen komisch an, wenn die Erklärung für die klobigen Dinger lautet, dass sie quasi aus Versehen zu gut geworden sind. Weiß echt (noch) nicht, was ich davon halten soll und hoffe, deine Quellen befeuern hier keine Marketing-Fantasie 🤔
Scheint eher so, also sei der gute Igor entweder vom Hypetrain überfahren worden oder hätte sich aus welchen Gründen auch immer selber druntergeworfen. Inhaltlich ergibt das jedenfalls alles kaum Sinn. Und welche Klientel das anzieht und sich hier jetzt austobt … na ja. Er wird schon wissen, wozu das gut sein soll. Find´s einfach a bissl schade.
 
Nein, ich würde das jetzt nicht Hypetrain nennen. Da ich das ja nun seit Februar mitverfolge, bin auch ich vom Ist-Stand etwas stärker überrascht worden. Wenn ich allein an die Requests an die PCI SIG denke und die abenteuerlichen Spikes-Geschichten... Kleiner als 10 Mikrosekunden kann ich ja die Ströme nicht auflösen, aber das reicht, um diese ganzen Normen ad absurdum zu führen.

Das alles weckt Fragen und die habe ich mir, so gut es ging, beantworten lassen. Und dann kann man ja auch die Aussagen von Team 1 und 2 gegenüberstellen. Falls beide zumindest nahe der Wahrheit sind, ergibt sich exakt dieses Bild wie im Artikel. :)
 
Ich zahle jetzt für Gas und Strom fast 4.5 K mehr im Jahr, DAS ist dann wirklich teuer :(
Das ist nicht nur teuer, das ist völlig absurd und wird für viele ein echtes Bangen um die Existenz, wenn es die Politik nicht hinbekommt da einzuschreiten. Auf dauer können sich die Meisten in diesem Land derartige Preise bei Energie nicht leisten.

Natürlich hast du Recht, dass die GraKa Preise dagegen ein Luxusproblem sind.
 
Unabhängig davon, ob Ada nun schneller/besser als die neuen AMD GPUs sind oder auch nicht, macht der Hintergrund - NVIDIA wechselte ziemlich schnell von Samsung auf TSMC - einen Haufen Sinn. Beispiele für die recht großen Unterschiede selbst zwischen laut Samsung gleichen Nodes zu TSMC gibt's gerade im Smartphone SoC Bereich: der ansonsten identische große Qualcomm SoC ist beim Wechsel vom "Samsung 4 nm" zu TSMC 4 nm um ~ 30% sparsamer geworden, und das bei einem spürbaren Anstieg der Taktrate (deutlich schneller). Allgemein scheint es so zu sein, daß der angeblich gleichgute Node von Samsung ungefähr auf der Ebene der größeren Struktur von TSMC landet. Da macht es doch Sinn, das Ada nun deutlich sparsamer läuft, als zunächst angenommen. Und so wird das Wettrennen zwischen AMD und NVIDIA wieder spannend - gut, schlagt euch! Jetzt muss nur noch Intel seine Treiber in den Griff kriegen, und der Preiskampf in der unteren Mittelklasse kann beginnen. Schon wär's.
 
Ich sags ganz fies mal so: Ampere in 4 nm wäre allein schon eine sehr interssante Erfahrung gewesen :D
 
Was mich an Deinem Post einfach störte ist, dass Du es so hinstellst, dass einzig Nvidia Innovationen bringt. Und das stimmt so einfach nicht.
Das habe ich auch nicht geschrieben. Aber das letzte Mal, dass von AMD wirklich etwas neues kam und nicht nur nachgebaut wurde, war Mantle. Und das war zwar ne tolle Idee und technisch sicher auch bemerkenswert, aber auch ein perfektes Beispiel für den Versuch, seine eigene Investition zu schützen und zu Geld zu machen.

Und das Nvidia seine Marktposition auch ausnutzt, bestimmt Features die ihnen helfen besser auszusehen als sie wirklich sind (z.B. damals unsinnige Tesselationswerte), pushed und andere, die ihnen nicht liegen, wie lange Zeit DX12 bremst, mag zwar aus deren Sicht verständlich sein, sympatisch macht das aus meiner Sicht nicht und Kritik daran ist mMn auch berechtigt.
Das Problem dabei ist doch, dass vieles davon in den Foren erst heraufbeschworen wurde.

Die unsinnigen Tesselationswerte z.B. oder GameWorks. Beides macht AMD ganz genauso, auch bei AMD gibt es Spiele, die deren GPU massiv bevorzugen und eindeutig auf sie optimiert wurden. Gears 5 oder Dirt 5, z.B., oder dieses Spiel bei dem RT so viel besser bei AMD funktioniert (Name fällt mir eben nicht ein).

Bei NVidia wird daraus immer ein Riesendrama in den Foren gemacht, wie seinerzeit bei Witcher 3 mit der Tessellation. Heute lacht man darüber nur.

Am Ende ist das alles doch ein Sturm im Wasserglas. Dass NVidia die Spiele-Firmen mit viel mehr Geld und Aufwand unterstützt als AMD das tut, ist in meinen Augen jedenfalls *kein* Nachteil als NVidia Kunde. Denk mal darüber nach!


Ach ja, angeblich war AMD damals kurz davor Nvidia statt Ati zu kaufen :cool:.
Hör ich zum ersten Mal, und an NVidia hätte sich AMD auch damals absolut überhoben. Sie haben den Kauf von ATi ja finanziell nur als Kraftakt überstanden. AMD war damals bei weitem nicht so gut aufgestellt wie heute.

Und ehrlich gesagt bin ich heilfroh, dass NVidia unabhängig geblieben ist.
 
Ich dachte die 4090 könnte auch 600 Watt ziehen wenn man den richtigen Stecker (bild aus dem nvidia post*) anschließt, ist dem nicht so? Habe mich damit nicht wirklich beschäftigt da diese Option niemals für mich in Frage käme. Die Größe der Karte bzw. des Kühlers finde ich ehrlich gesagt ziemlich gut. Die ersten Leaks sprachen ja davon das die Karte bei etwa 50-60° läuft unter Last. Das wären doch ziemlich gute Werte wie ich finde.

Bei den Stromverbrauch der 4090 und dem dazugehörigen Problem des Adapters (bzw. von 12VHPWR), frage ich mich, ob es nicht ohnehin besser wäre auf ein neues Netzteil zu setzen, direkt mit ATX 3.0 bzw. PCIe 5. Ich hoffe auf eine Analyse von IgorsLab zu diesem Thema da diese dann doch deutlich umfangreicher sind als: "Ja läuft, schaut, wird nicht Warm am Kabel, hab ich mit meiner Wärmebild App gecheckt."

Ich habe vorhin übrigens den Langzeit Test des ASUS ROG Swift PG279QM gelesen. Da habe ich bemerkt das dieser Monitor Gsync über HDMI unterstützt? Wie das? Soweit mir bekannt ist läuft Gsync (leider) nur über DisplayPort bzw. das Gsync Modul. Wenn sich das aber geändert hat, kann ich davon ausgehen das ich die 4090 auch über ein HDMI Kabel verbinden könnte und dennoch Gsync hätte? Die DP Kabel sind immer so kurz irgendwie. Leider scheinen alle 4090er aber nur 1x HDMI zu haben, bräuchte derer aber zwei. Also bleibt es wohl sowieso bei DisplayPort.

*Der oben genannte Nvidia Post (der Vollständigkeit halber)
 
Theoretisch ist selbst die Nennung des NDAs unter NDA :D
Aber man könnte Quervgl. anstellen in OW2.

die Benchszene+Settings bei NV hatten ca. 20Fps mehr auf der 3080 als bei GameGPU@EPIC
... würde mal schätzen das ne OCte 3080Ti oder 6900XTXH an die 4080-12 rankommt, trotz 8/7nm
(da hat NV in 4N-5nm keine Bäume ausgerissen)

Die 1100€ für ne 4080-12 sehe ich momentan wirklich net als tolles Angebot!
 

Anhänge

Zuletzt bearbeitet :
Guckst Du:

1665125710106.png

1665125844374.png
 
Über HDMI nutzt NVidia schlicht den HDMI AdaptiveSync Standard, den das AMD Marketing als Freesync verkauft und nennt das dann im eigenen Marketingsprech GSync. Wenn NVidia den Monitor geprüft und dessen AdaptiveSync Implementierung als ausreichend für ihre Qualitätsansprüche akzeptiert hat, wird er im Treiber als GSync Kompatibel hinterlegt. Ansonsten muss man den Treiber manuell dazu zwingen, GSync zu aktivieren.
 
Aber man könnte Quervgl. anstellen in OW2.

die Benchszene+Settings bei NV hatten ca. 20Fps mehr auf der 3080 als bei GameGPU@EPIC
... würde mal schätzen das ne OCte 3080Ti oder 6900XTXH an die 4080-12 rankommt, trotz 8/7nm
(da hat NV in 4N keine Bäume ausgerissen)
OV2 ist eigentlich ein beschissenes Beispiel, weil selbst in QHD noch die CPU limitiert. Ich habe 15 Spiele gecheckt, gewichtet und 10 davon fürs Review ausgesucht. Lassen wir uns mal überraschen :)
 
@Igor Wallossek

Nimmst Du Spider-Man auf? Das ist deswegen hochinteressant, weil es selbst in UHD bei höchster RT Stufe noch immer CPU limitiert ist - sogar auf einem 12900K. Mich interessiert brennend wie sich DLSS 3 da schlägt.

Auch bei allen CPU Tests sollte dieses Spiel unbedingt mit rein. Bei einem 12900K z.B. wirkt sich sowohl ein aktiviertes SMT als auch die E-Cores deutlich negativ auf die Performance aus. Was schon ziemlich krass ist.
 
Nun, AMD wird sicherlich abliefern und nicht zu knapp
Die 4800 12 GB und 16 GB schlägt man sicherlich,- ob es bis zur 4090 reicht, rechne nicht ganz.
Dennoch sollten Leaks nun kommen, spätestens am 12-ten Oktober kurz vor Fall des NDA von Nvidia.

Laut Neuesten Benchmark ist die 4080 16 GB um die 30 bis 35% Schneller als eine RTX 3090TI (3D Benchmark)
Steht gerade auf Videocardz
 
Zuletzt bearbeitet :
OV2 ist eigentlich ein beschissenes Beispiel, weil selbst in QHD noch die CPU limitiert.
Was hatte denn dann Jensen für ne MonsterCPU für die 4090 drin, damit 500fps rauskamen?
(oder ist Das dann mit DLSS3 und künstlich eingefügten Frames?)
 

Anhänge

  • OW2-Latency.jpg
    OW2-Latency.jpg
    327,4 KB · Aufrufe : 5
Hör ich zum ersten Mal, und an NVidia hätte sich AMD auch damals absolut überhoben. Sie haben den Kauf von ATi ja finanziell nur als Kraftakt überstanden. AMD war damals bei weitem nicht so gut aufgestellt wie heute.

Und ehrlich gesagt bin ich heilfroh, dass NVidia unabhängig geblieben ist.
Ist wohl gescheitert, weil Jen-Hsun Huang CEO des ganzen Ladens werden wollte und nicht am Geld. Fand AMD-Boss Hector Ruiz ned so toll ;-)

Cunhell
 
Was hatte denn dann Jensen für ne MonsterCPU für die 4090 drin, damit 500fps rauskamen?
(oder ist Das dann mit DLSS3 und künstlich eingefügten Frames?)

Anhand dieses Benchmarks könnte man auf folgende Schlussfolgerung kommen:

So ich schmeiß mal meine Glaskugel an und starte meine Milch Mädchen Rechnung:

Anhand aller Infos und geleakten Benchmarks sage ich folgendes Vorraus🧙‍♂️

Ausgehende Auflösung 3840x2160 ohne DLSS etc.

4090 450W im Vergleich zu 3090ti 450W im Schnitt 35 % schneller in 4K bei gleichem Verbrauch.

4080 16 GB 320W gleiche Leistung 3090ti 450W, dafür ca 40% effizienter

4080 12 GB 285W gleiche Leistung wie 3080 Ti 350W, dafür 22% effizienter

Also ist ADA im Schnitt 30 % effizienter wie Ampere out of the Box.

Ich denke ADA wird zum wahren Effizienzwunder wenn man Hand anlegt in Sachen UV. Und da liegt das größte Potenzial. Laut IgorsLAB wird nicht viel Luft für OC mit der WATT Brechstange geben.

Die 4080 12 GB wird FPS/W die neue Messlatte

Ansonsten heißt es warten bis zum 11.10🙏😅
 
Zuletzt bearbeitet :
Oben Unten