NVIDIA GeForce RTX 4090 – Wo der Irrtum mit den 600 Watt wirklich herkommt und warum die Karten so riesig sind

Eher wäre dann die 4080-16 effizient.
aber auch viiiel zu teuer

Die Leute, die sagen das nur die 4090 nen realen Preis hat, haben wohl Recht.(zumindestens die Ex. für 1950€)
Daher dürfte ne 4080-12 nur die Hälfte der 4090 kosten.
 
Anhand dieses Benchmarks könnte man auf folgende Schlussfolgerung kommen:

So ich schmeiß mal meine Glaskugel an und starte meine Milch Mädchen Rechnung:

Anhand aller Infos und geleakten Benchmarks sage ich folgendes Vorraus🧙‍♂️

Ausgehende Auflösung 3840x2160 ohne DLLS etc.

4090 450W im Vergleich zu 3090ti 450W im Schnitt 35 % schneller in 4K bei gleichem Verbrauch.

4080 16 GB 320W gleiche Leistung 3090ti 450W, dafür ca 40% effizienter

4080 12 GB 285W gleiche Leistung wie 3080 Ti 350W, dafür 22% effizienter

Also ist ADA im Schnitt 30 % effizienter wie Ampere out of the Box.

Ich denke ADA wird zum wahren Effizienzwunder wenn man Hand anlegt in Sachen UV. Und da liegt das größte Potenzial. Laut IgorsLAB wird nicht viel Luft für OC mit der WATT Brechstange geben.

Die 4080 12 GB wird FPS/W die neue Messlatte

Ansonsten heißt es warten bis zum 11.10🙏😅
Das ist kein Benchmark. Das sind leere Versprechen. Ohne Rahmenbedingungen zu kennen: glaube nur den Folien, die du selbst gefälscht hast ;)
 
Die 4080 12 GB ist sinnlos. Die sieht aus, wie eine 4070Ti im falschen Anzug. Dazu hatte ich ja eine Glosse :D
 
Vor dem 12. Oktober halte ich mich an den Preißler Alfred: "Grau is' im Leben alle Theorie – aber entscheidend is' auf'm Platz."
 
Eher wäre dann die 4080-16 effizient.
aber auch viiiel zu teuer

Die Leute, die sagen das nur die 4090 nen realen Preis hat, haben wohl Recht.(zumindestens die Ex. für 1950€)
Daher dürfte ne 4080-12 nur die Hälfte der 4090 kosten.
:LOL: soweit sind wir imho doch noch nicht, dass 2,2k und mehr Straßenpreis für den (vorläufigen) TopDog als „real“ akzeptiert sind. Da steckt immer noch viel zu viel Mining-Marge drin. Die 60%+x müssen runter, daran muss sich Lederjacke gewöhnen. Ansonsten sehe ich recht schwarz für PC-Gaming. Jedenfalls im aktuellen Umfeld.
 
Das ist kein Benchmark. Das sind leere Versprechen. Ohne Rahmenbedingungen zu kennen: glaube nur den Folien, die du selbst gefälscht hast ;)
Völlig korrekt, aber ein Anhaltspunkt um das ganze grob einzusortieren. Und wenn das schon geschönt ist, kann die Leistungssteigerung zu Ampere kaum geringer sein. Wenn dann wird es mehr.
 
@Igor Wallossek

Andere Seiten haben schon Benchmarks (3D Mark Werte) der 4080 16GB
Denke das NDA hält nicht mehr allzulange!
Das Unboxing ist einfach ein Unding, und dies stresst die Insider und NDA Unterschreiber.
 
Völlig korrekt, aber ein Anhaltspunkt um das ganze grob einzusortieren. Und wenn das schon geschönt ist, kann die Leistungssteigerung zu Ampere kaum geringer sein. Wenn dann wird es mehr.
Der Argumentationskette kann ich nicht folgen: weil es "geschönt ist" liegt die Leistung am Ende noch weiter drüber?
 
Der Argumentationskette kann ich nicht folgen: weil es "geschönt ist" liegt die Leistung am Ende noch weiter drüber?
Weil ein noch geringerer Leistungsprung von Ampere auf ADA einfach nicht in die Evolution passt. Dann wäre z. B. Eine 3080 16 GB gerade mal so schnell wie eine 3090 bei 30 Watt geringeren Verbrauch. Das kann den Preisaufschlag für die 4080 nicht rechtfertigen.

Da Igor sagt, dass in OW2 benchmark selbst in QHD die CPU bremst, denke ich das selbst die 4090 in 4k eher bis zu 60 % schneller gegenüber der 3090ti sein wird. Die Lücke zwischen 4080 16GB zu 4090 wird auch nicht klein...
 
Bei Wünsch dir was, hätte ich gern ne RTX 4050 low-prof, single slot mit max 75W. Bei dem Effizienz zuwachs wäre das ein tolles Upgrade für die GTX1650 im usff Pc.
Man wird ja noch mal träumen dürfen.
 
btw.
3090Ti-24GB@1099€ statt ner 4080-12GB, ... Das wird echt ne Glaubensfrage, solange man net auf jedes W schaut.
(bzw. kommts ja eigentlich nur auf die minFps so richtig an, ... ne 3090Ti wird mit Fps-Limit sicher runder laufen, oder man macht sich die Mühe
ala Igor und kreiert ein 300W-Setting)

@Igor Wallossek
Wäre es eigentlich möglich beim 4080-12 Review dann die 3090Ti@300W mit in den Vgl. aufzunehmen?
(quasi als intelligenter Generationenvgl., bei fast identischer Rohleistung)
 

Anhänge

  • 3090Ti@1099€.JPG
    3090Ti@1099€.JPG
    31,1 KB · Aufrufe : 5
  • 3090Ti@300W VF-Curve.jpg
    3090Ti@300W VF-Curve.jpg
    120,9 KB · Aufrufe : 3
  • 3090Ti vs 4080-12.png
    3090Ti vs 4080-12.png
    14,6 KB · Aufrufe : 3
Zuletzt bearbeitet :
Die 4080/12 wird ihren Preis nicht halten können - es sei denn, die Knappheit wird auch durch AMD nicht bedient. Die 3090Ti wird irgendwann aus dem Handel verschwinden. Und dann ist da noch DLSS3.

Ob man das Kind nun 4080/12 oder 4070Ti nennt, ist eigentlich egal. Wirklich ärgerlich ist nur, zwei so unterschiedliche Karten bis auf den Speicherausbau gleich zu bezeichnen. Da hat sich ein Marketingfuzzi gegen alle Vernunft durchgesetzt. Das wird NVidia umterm Strich nicht zum Vorteil gereichen.
 
4090 450W im Vergleich zu 3090ti 450W im Schnitt 35 % schneller in 4K bei gleichem Verbrauch.

4080 16 GB 320W gleiche Leistung 3090ti 450W, dafür ca 40% effizienter

4080 12 GB 285W gleiche Leistung wie 3080 Ti 350W, dafür 22% effizienter
Glaube ich kaum; das wären allesamt schon sehr überschaubare Leistungszuwächse. Wie weit war eine 3080 von einer 3090Ti entfernt? Eine große 4080, die gerade mal diese Lücke schließt, dabei aber 70 bis 100 Prozent teurer ist, halte ich für komplett ausgeschlossen. Irgendeine Art von spür- und messbarem Effekt wird der Fertigungswechsel schon haben. Nur weil's am Ende keine durchgängigen 100 Prozent sein werden, muss man jetzt nicht gleich in die andere Richtung über- bzw. untertreiben ...
 
Die 4080/12 wird ihren Preis nicht halten können - es sei denn, die Knappheit wird auch durch AMD nicht bedient. Die 3090Ti wird irgendwann aus dem Handel verschwinden. Und dann ist da noch DLSS3.

Ob man das Kind nun 4080/12 oder 4070Ti nennt, ist eigentlich egal. Wirklich ärgerlich ist nur, zwei so unterschiedliche Karten bis auf den Speicherausbau gleich zu bezeichnen. Da hat sich ein Marketingfuzzi gegen alle Vernunft durchgesetzt. Das wird NVidia umterm Strich nicht zum Vorteil gereichen.
Wieso, gab es doch z.B. bei der 1060 auch. Einmal mit 3GB/Shading Units 1152 und einmal mit 6GB/Shading Units 1280.
Klingt gleich und sind doch zwei verschiedene Karten.

Cunhell
 
Glaube ich kaum; das wären allesamt schon sehr überschaubare Leistungszuwächse. Wie weit war eine 3080 von einer 3090Ti entfernt? Eine große 4080, die gerade mal diese Lücke schließt, dabei aber 70 bis 100 Prozent teurer ist, halte ich für komplett ausgeschlossen. Irgendeine Art von spür- und messbarem Effekt wird der Fertigungswechsel schon haben. Nur weil's am Ende keine durchgängigen 100 Prozent sein werden, muss man jetzt nicht gleich in die andere Richtung über- bzw. untertreiben ...
Ist aber von nV selbst so publiziert worden. Und von da kommt selten bis nie (freiwillig) etwas, was die eigenen Produkte nicht bestens aussehen lässt. Selbst wenn jetzt gutwillig angenommen wird, da spielt noch ein CPU-Limit ne Rolle - viel besser waren die RZ-Benches aus der Event-Präse auch nicht. Und seit wann interessiert sich nV denn für das P/L-Verhältnis? Scheint, als sollen hauptsächlich RT und AI-Frames King sein.
 
Sandwich, die 12GB wird drunter liegen, die 16 GB wohl drüber. Bilderrahmenprinzip.
Dass AMD die Preise dumpt, ist eine Urban Legend. Wir werden sehen :)

Die Folien sind auch sicher nicht mit den finalen Versionen gemacht worden :D
Du gehst auf seinen Kritikpunkt gar nicht ein.
Dein Spekulatius beruhtr darauf, dass der NV TMSC Prozess so viel besser sei... Nur da liegst du vermutlich nicht richtig. Denn den GDC lässt AMD doch auch bei TMSC in 5nm machen... der 4N soll eine weiterer Schritt seitens TMSC gewesen sein [verbesserter 5nm Prozess]... Wobei da dann auch die Frage noch hinzukommt - eventuell nutzt den AMD auch - nichts genaues wissen wir...
 
Die 4080 12 GB ist sinnlos. Die sieht aus, wie eine 4070Ti im falschen Anzug. Dazu hatte ich ja eine Glosse :D
immerhin hat sie nicht mehr die niedlichen 8GB VRAM wie die 3070TI - die konnte ja nur mehr Strom saufen war aber von der Leistung her kaum besser. Macht die Namenswahl aber nicht besser.
 
Ich gehe darauf bewusst nicht ein, sonst müsste ich ja das perf/watt leaken. So dumm bin ich aber nicht.
 
Ich verstehe diese Preisdiskussion wirklich nicht. Am günstigsten ist auf Dauer immer die teuerste Karte. Man bekommt die die höchstmögliche Leistung und den absolut besten Wiederverkaufswert. Das sollte man nicht ausblenden. Ich denke ,das eine 4090 nach Abzug des Wiederkaufs meiner 3090/3080ti irgendwas um 1.100 -1300 Euro liegen wird.

Und wer auf Top Niveau zocken wollte, musste doch schon immer richtig Geld über die Theke werfen. Eine 7990 hat 2013 schon 1400 Euro gekostet.

Das einzige was sich für mich geändert hat, sind die Listenpreise. Aber sorry, fuck off Listenpreise. Die hat doch in Summe so gut wie niemand gezahlt. Ich hab für die 3090 (und da war sie richtig günstig) 11/20 1.900 Euro gezahlt. Dann kam der Mist mit dem Ramtemperaturen und den Kühlpads, da waren die nächsten 300 Ocken für einen Wasserkühler und bessere Pads fällig.

In meiner Welt ist eine Inno3D 4090 Frostbyte für 2.300 ein wahrer Preis-Leistungskracher, wo ich nichtmal das Risiko hab, die Karte zu himmeln.

Sollte die Luftkühlerkühlleistung tatsächlich so gut wie vermutet, komme ich unter Umständen sogar günstiger weg.

Das die Preise für die 4080 12/16 GB abenteuerlich sind, keine Frage. Aber was hatte man den erwartet.

Alleinstellungsmerkmal, Krieg, Krise, Inflation, Dollarschwäche. Da muste doch jedem klar sein, wo die Reise hingeht.

Wenn es tatsächlich so sein sollte, das die neue AMD Karte wie ein Sandwich zwischen die beiden 4080er passt, hat NVDIA sowohl mit der Namensgebung als auch mit den hohen Preisen AMD womöglich den größtmöglichen gefallen getan.

Man stelle sich die 4080 16 Gb als gelabelte 4070 und die 12 GB als 4060 vor, mit den ensprechenden Preisen. Wäre zwar für den Kunden toll und fair, aber AMD würde ganz alt ausschauen. Es wäre im Grunde doch die größtmögliche Demütigung die AMD je hinnehmen musste.


 
Oben Unten