NVIDIA GeForce RTX 4090 – Wo der Irrtum mit den 600 Watt wirklich herkommt und warum die Karten so riesig sind

Junge Junge… über 130 Kommentare zu einer kleinen News… was geht ab??

Ist vielleicht Vollmond
RTX feeling scheint seinen Höhepunkt zu erreichen! Ich finde es aber echt amüsant, wie alle versuchen Igor aus dem NDA zu locken.
😂
Probieren muss man es ja.

Man kann davon ausgehen, dass die RTX 4090 die Messlatte für AMD ziemlich hoch legen wird. Nicht nur bzgl der Leistung, sonder auch in Sachen Stromverbrauch. Im Sinne von weniger als erwartet… das wäre irgendwie überraschend… Das die Karten jetzt wahrscheinlich alle einen Overkill-Kühler haben, dass ist zwar cool, aber das muss der Kunden dann auch mittragen: Kosten steigen im Grunde unnötig
Sehe ich auch so.

Wenn Igor von CPUs spricht, die mit Grafikkarte A, B oder C plötzlich die Leistungsaufnahme in die Höhe schnellen lässt, dann ahne ich Böses…

Es wird passieren, was eigentlich bisweil nicht denkbar war. Interessant…
Nein ich schreib jetzt nix. Ich wiederstehe der Versuchung. Auch nix von Variationen der Enttäuschung. Ganz bestimmt nicht. Ich werde immer Missverstanden.
 
AMD steht für Understatement. Das kommt dann mit voller Wucht. Was meinst du warum Nvidia so früh dran ist? Die wissen genau dass nichts mehr zu holen ist wenn AMDs Karten da sind. War schon bei der letzten Gen so. Da konnten sie sich nur wegen AMDs Lieferschwierigkeiten über Wasser halten.
Stimmt, jetzt wo du das so sagst fällt es mir wieder ein. Tausende NVIDIA Besitzer haben sich erschossen oder erhängt, der Rest hat seine Karten öffentlich verbrannt und hat dann bei AMD gekauft. Wird dieses Mal ganz genau so laufen. 100 Prozent.
 
  • Like
Bewertungen: ***
*hust*

Rechenleistung, Rasterleistung und Gedöns. Was zählt, ist auf dem Platz. Ich habe (auch privat) so viele Generationen FirePro und Radeon Pro durch... Auf dem Papier die harten Brecher, in der Praxis noch richtig gute Number Cruncher und bei der Hauptaufgabe: zahme Stubenkatzen.

Wenn Lisa meint, mit "bis zu 50%" gewinnen zu können, dann muss sie mit der Leistungsaufnahme aber noch ordentlich rauf. Oder mein Taschenrechner hat einen weg. ;)
@Igor: Eine persönliche bitte von mir, laß Dich nicht auch noch auf diese Posts ein, auch wenn es in den Fingern juckt. Das bringt zum einen nichts und zum Zweiten führt es am Ende nur dazu, dass das Forum austauschbar zu den ganzen anderen wird, in denen sich die Teilnehmer gegenseitig in irgenwelchen Flamewars seitenweise bekriegen. Wäre wirklich schade drum.

Cunhell
 
AMD ist ein Unternehmen das FÜR die Kunden entwickelt und nicht umgekehrt.
Genau, NViDIA schaut was der Kunde nicht will, und genau das bauen sie in Ihre Grafikkarten ein. Darum haben die auch RT mit den Tensorkernen und DLSS entwickelt. Weil das keiner wollte und brauchte. sie es sich aber teuer bezahlen lassen haben. So machen sie auch mit Ihren komischen Softwarepaketen.

Aber weil das keiner blickt hat AMD die nur 17% Marktanteil. Ich finde, hier tut Aufklärung not.
 
Zuletzt bearbeitet :
  • Like
Bewertungen: ***
Ach kommt Jungs… die AMD Karten werden schon was abliefern. FSR 2.0 is brauchbar jetzt wird es doch auch endlich mit DXR was werden…

Wird schon schief gehen… wünschen wir dem Radeon Team HDMI und PCIe Beinbruch
 
Traditionell versägt es bei AMD das Treiberteam. Hat das nicht Ati vorgemacht?
 
Genau, NViDIA schaut was der Kunde nicht will, und genau das bauen sie in Ihre Grafikkarten ein. Darum haben die auch RT mit den Tensorkernen und DLSS entwickelt. Weil das keiner wollte und brauchte. sie es sich aber teuer bezahlen lassen haben. So machen sie auch mit Ihren komischen Softwarepaketen.
Nvidia hat gemerkt, dass die ewige Steigerung der reinen rasterization-Leistung nicht sinnvoll ist. Bei den üblichen Displaygrößen merkt man irgendwann höhere Pixeldichten nicht mehr. Also setzt man in der Zukunft auf realistischere Darstellung von z.B. Schatten und Reflektionen durch Raytracing. - Bei der Bildqualität ist mehr Luft nach oben als bei der Pixelquantität.
 
Es ist absolut nicht gut, wenn NVidia zu weit davon zieht. Die hohen Preise von Ada lassen aber vermuten, dass NVidia es sich leisten kann, Hochmut zu zelebrieren.

Bekanntlich kommt der aber vor dem Fall.

Ich bin mir sicher, dass die 4090 eine echt geile Karte wird und AMD nichts entgegenzusetzen hat. Aber man muss schon echt das Kleingeld haben dafür, das ist nur was für verrückte wie mich. Nur wenn AMD aufschließt, werden sich die Preise wieder den eigentlichen Kosten von Entwicklung und Produktion nähern.

Allerdings dürften auch die inzwischen so hoch sein, dass man sich von der Vorstellung verabschieden sollte, für unter 1000€ eine Bleeding Edge Karte kaufen zu können.
 
In Zeiten, wo man locker 300% für die tägliche Butter löhnen muss, sind 100% Aufschlag bei der Pixelhardware, die dann mal wieder länger nutzbar ist, geradezu human. Immer umgerechnet auf die Laufzeit. Ich zahle jetzt für Gas und Strom fast 4.5 K mehr im Jahr, DAS ist dann wirklich teuer :(
 
Werden am 12.10 die Tests vor dem offiziellen Verkaufsstart um 15:00h(?) online gehen?
Ich freu mich schon wie ein Schnitzel ;o)
@Igor Wallossek Kannst du uns schon verraten ob man bei den Adaptern einen Sense Pin benötigt um die vollen 600W zu bekommen oder benötigt die 4090 beide Sense Pins? Wenn du dazu noch nichts sagen darfst, warte ich natürlich bis zum 12.10 :)
 
Genau, NVDIA schaut was der Kunde nicht will, und genau das bauen sie in Ihre Grafikkarten ein. Darum haben die auch RT mit den Tensorkernen und DLSS entwickelt. Weil das keiner wollte und brauchte. sie es sich aber teuer bezahlen lassen haben. So machen sie auch mit Ihren komischen Softwarepaketen.

Aber weil das keiner blickt hat AMD die nur 17% Marktanteil. Ich finde, hier tut Aufklärung not.
Ohne dem von Gamer gesagten zuzustimmen, was ich nicht mache, ist es ja nicht so, dass AMD keine Innovationen gebracht bzw. vorangebracht hätte.
Schon im August 2001 brachte ATI (jetzt AMD) Truform. In DX 11 wurde das dann wieder als Tesselation als verpflichtend aufgegriffen. Leider war die Unterstützung der Gamehersteller nicht umfassend genug und es hat sich damals nicht durchgesetzt.
AMD war der einzige Laden, der 2008 dem Wunsch von DICE eine Low-Level-Api zu entwicklen, nachgekommen ist. DX12 und Vulcan, welches von der Mantle-Entwicklung profitierte, kamen als Low-Level-Api erst danach.
AMD hat auch als erster DX12 wirklich gepuscht dafür aber DX11 nicht mehr massiv verbessert. Nvidia hatte sich lange auf DX11 verlegt, da das den Karten bzw. deren Treiber deutlich besser lag. Manche DX12 Features wurden für ältere Nvidiakarten zwar versprochen, aber nie wirklich ausgerollt, da die Karten es einfach nicht richtig konnten. DX12 wurde für Nvidia erst richtig interessant als RT in DX12 als DXR implementiert wurde und DX12 quasi als Standard verplichtend wurde.
Freesync basiernd auf dem VESA-Standart wurde auch von AMD salonfähig gemacht ohne zusätzliche Lizenzkosten und spezielle Hardware zu erfordern. Da es andere incl. jetzt Nvidia auch unterstützen ist nur von Vorteil für die Kunden.

So mies ist ATI/AMD also auch wieder nicht. Und außerdem hat Nvidia einige Sachen einfach eingekauft (z.B. PhysX, 3DFX) und properitär gemacht.


Cunhell
 
Wer den NDA unterschrieben hat, darf auch nichts zu den Terminen sagen, wann dieser in welchen Stufen fällt.

Es gibt aber das Gerücht, dass die Tests am 11. 10. veröffentlicht werden dürfen.

So mies ist ATI/AMD also auch wieder nicht. Und außerdem hat Nvidia einige Sachen einfach eingekauft (z.B. PhysX, 3DFX) und properitär gemacht.

AMD ist alles andere als mies.

Was mich nur stört ist das man NVidia permanent dafür angreift, dass diese versuchen sich über Innovation von der Konkurrenz abzusetzen. Und dass sie die Frechheit besitzen, auch noch zu versuchen, ihre Investitionen so zu gestalten, dass sie sich finanziell rentieren.

Ob man die Technik für eine Innovation einkauft oder selbst entwickelt spielt am Ende keine Rolle. Auch AMD hat jede Menge Technologie dazugekauft... unter anderem eine kleine Schmiede namens ATi... :)


Für mich ist die Innovationsbereitschaft DAS große Plus von NVidia - und der Grund warum ich momentan deren Produkte denen der Konkurrenz vorziehe.

Bisher hatte AMD ein deutlich kleineres R&D Budget. Durch den Erfolg bei den CPUs kann sich das ändern, und ich würde mir wünschen, dass sie auch mal die eine oder andere neue Innovation auf den Markt kriegen. Tessellation und Mantle sind schon ne ganze Weile her...
 
Zuletzt bearbeitet :
Es ist absolut nicht gut, wenn NVidia zu weit davon zieht. Die hohen Preise von Ada lassen aber vermuten, dass NVidia es sich leisten kann, Hochmut zu zelebrieren.
Sehe ich genauso. Ich hoffe ja ernsthaft, wie schon geschrieben, das AMD vielleicht diesmal nur Lehrgeld für ein neues und möglicherweise innovativeres Konzept zahlt und beim nächsten vielleicht wirklich gleichauf zieht.

Bekanntlich kommt der aber vor dem Fall.
Stimmt. Lederjacke dreht gerade eh mächtig auf.

Ich bin mir sicher, dass die 4090 eine echt geile Karte wird und AMD nichts entgegenzusetzen hat. Aber man muss schon echt das Kleingeld haben dafür, das ist nur was für verrückte wie mich. Nur wenn AMD aufschließt, werden sich die Preise wieder den eigentlichen Kosten von Entwicklung und Produktion nähern.
Ohne wirkliche Konkurrenz sieht der Endkunde relativ flott ziemlich alt aus. Das einzig tröstliche ist der Wiederverkaufswert der Altkarten.

Allerdings dürften auch die inzwischen so hoch sein, dass man sich von der Vorstellung verabschieden sollte, für unter 1000€ eine Bleeding Edge Karte kaufen zu können.

Da denke ich, das man eigentlich aktuell mit einer 3090 noch gut zurecht käme, wenn man es denn wollte. Selbst die alte 2000er Serie wurde ja durch DLSS und FSR ja nochmal aufgewertet. Mit einer 4090 sollte man leicht 4 Jahre überstehen können, wenn man sich auf 4K "beschränkt".
 
Zuletzt bearbeitet :
Bisher hatte AMD ein deutlich kleineres R&D Budget.
Das ist wohl das größte Problem. Geld schießt Tore. Hoffentlich bekommen die Freunde von Intel was auf die Kette. 78 Marktanteil von NVDIA ist auf Dauer für keinen gut.
 
Zuletzt bearbeitet :
  • Like
Bewertungen: ***
So sieht mein Chef aus:

12k-SourceCode.png
 
So mies ist ATI/AMD also auch wieder nicht. Und außerdem hat Nvidia einige Sachen einfach eingekauft (z.B. PhysX, 3DFX) und properitär gemacht.
Ich hab nix gegen AMD. Alle meine Rechner arbeiten mit AMD CPU`S. Ich war mit der erste, der sich für viel Geld einen Threadripper gekauft hat, als AMD endlich mit den Dingern wieder Konkurrenzfähig war.

Mir geht es da ein wenig wie Gaymer. Ich bin wahrlich kein NViDIA Fan und es gibt unglaublich viel, was man an NViDIA zurecht kritisieren kann. Aber dieser Hass und diese Häme bei gleichzeitiger Verklärung von AMD nerven mich zuweilen gewaltig.

Für mich hat AMD seit Jahren keine technich gleichwertige Karte produziert. Und Softwaretechnich laufen sie aus meiner Sicht ebenfalls hinter.

Sie sind nvidia stellenweise auf den Pelz gerückt, aber ganz da sind, respektive waren sie noch nicht. Es wäre wirklich schlimm, wenn sie, wie angedeutet zurückfallen würden. Und falls sie so stark zurückfallen, wie vermutet, wäre es eine Katastrophe für jeden Gamer und nicht nur für AMD.

Wir haben doch bei Intel gesehen wozu so ein großer Vorsprung geführt hat. Hohe Preise, häufige Sockelwechsel bei gleichzeitiger stagnation der Leistung. Es war quasi Innotion by slow motion.

Das kann sich doch keiner ernsthaft wünschen!
 
Zuletzt bearbeitet :
  • Like
Bewertungen: ***
Oben Unten