NVIDIA GeForce RTX 4090 – Wo der Irrtum mit den 600 Watt wirklich herkommt und warum die Karten so riesig sind

Im Sinne von „es ist bereits alles gesagt worden, aber noch nicht von allen“ will ich zur Diskussion der Preise auch noch meinen Senf dazugeben:
  • Die Preise für die RTX 4000er-Serie sind unverhältnismäßig hoch. Nvidia hat schon beim Übergang von 2080 auf 3080 ordentlich hingelangt und bei den aktuellen Preisen schöpft man das Maximum aus (oder vom Kunden ab), weil man darauf setzt, dass sich die Kunden angesichts der im Jahr 2021 exorbitant angestiegenen Preise wegen Verknappung des Angebots (aufgrund Unterbrechung der Lieferketten, unzureichender Produktionskapazitäten etc.) an ein höheres Preisniveau gewöhnt haben.
  • Die Preise richten sich zunehmend nicht mehr nach den Produktionskosten, sondern nach der gebotenen Leistung. War es vor Jahren noch der Normalfall, dass man ca. alle 2 Jahre ein deutliches Plus an Leistung zum annähernd gleichen Preis (plus Inflationszuschlag) erhielt, hat es den Anschein, dass jetzt zunehmend die Leistung bepreist wird, d.h. 1,5-fache Leistung führt annähernd zu 1,5-fachem Preis.
  • Der Schuss kann angesichts der weltweit galoppierenden Inflationsraten und dem Kaufkraftverlust der privaten Verbraucher nach hinten losgehen. Es würde mich gar nicht wundern, wenn die Nachfrage nach Einsteiger- und Mittelklassekarten im nächsten Jahr (wenn die 3000er-Serie abverkauft ist) stark einbrechen und die Anbieter zu Preissenkungen zwingen würde. Bei Oberklasse-Karten wie der 4090 würde ich mir da keine Hoffnung machen, wie Beispiele aus anderen Branchen zeigen (Rekord-Geschäftsjahr bei einem deutschen Hersteller hochpreisiger Sportwagen – dessen Klientel schaut nicht auf den Preis solange der „haben will“-Faktor gegeben ist).
 
Sie müssen auch nichts verschenken. Es reicht das mit Abstand beste Paket zu liefern. Und das tun sie seit Jahrzehnten.
Was hilft das beste Paket, wenn Hermes liefert? Vom viel zu oft arg mauen Inhalt ganz zu schweigen.
Seit Jahrzehnten ist aber wirklich witzig.
 
  • Die Preise für die RTX 4000er-Serie sind unverhältnismäßig hoch. Nvidia hat schon beim Übergang von 2080 auf 3080 ordentlich hingelangt und bei den aktuellen Preisen schöpft man das Maximum aus (oder vom Kunden ab), weil man darauf setzt, dass sich die Kunden angesichts der im Jahr 2021 exorbitant angestiegenen Preise wegen Verknappung des Angebots (aufgrund Unterbrechung der Lieferketten, unzureichender Produktionskapazitäten etc.) an ein höheres Preisniveau gewöhnt haben.
es sind ja nicht nur die Aics, die sich ein Stück vom Kuchen holen, sonder Nvidia selbst und dann alle ab dem Hersteller bis zum Händler wo wir Endkunden dann kaufen - alles wie es Igor nennt Schnappmaten die uns ein bisschen was aus der Geldbörse schnappen wollen.

Um das zu durchbrechen hilft nur eines nun wo zumindest mal die Miner weggefallen sind, einfach nicht kaufen, aber das ist halt das schwierige wo wir alle in unserer Konsumgesellschaft darauf hingetrimmt werden, immer nach Möglichkeit das neuste, beste und das alles nach Möglichkeit noch gestern zu haben.

Ich nehme mich da selbst leider gar nicht aus, obwohl ich versuche vor allem auch meine Luxusartikel (lebensnotwendig ist die neuste beste Graka ja gott sei dank noch nicht) nicht aus dem Bauch heraus zu kaufen, gelingt mir das nicht immer. Aber bei den aktuellen Preis wie ich merke doch mittlerweile leichter. Ich denke da an AM5 und die Boardpreise dafür oder eben die neuen Grakas.

Vor 2-3 Jahre hab ich mir mal geschworen bei maximal 700-800 für ne Graka ist Schluss, dann hab ich trotzdem 1200 Flocken für ne 6900XT gelatzt um endlich von der 1080ti wegzukommen und war sogar froh eine um den Preis zu bekommen o_O und nun ertappe ich mich ernsthaft dabei zu überlegen ob ich eventuell doch sogar bis 1500-1700 für ne 7900XT oder ne 4080(TI) mitgehe.

Einzig die 2000er SChallgrenze bin ich vorerst mal nicht bereit zu durchbrechen für eine 4090.

Naja schau mer mal was uns am 11.10 erwartet...
 
Wo nimmst du die +30% im Durchschnitt zur 3090Ti her? Geraten?
Wir probieren das jetzt mal gemeinsam. Vielleicht klappt das dann mit dem Lesen besser.

Also, da steht nicht

"+30% im Durchschnitt zur 3090Ti ?"

Da steht

"Die Werte der 16 GB liegen bis zu 30 Prozent über dem bisherigen Spitzenreiter GeForce RTX 3090 Ti."

Und nein, es ist auch nicht geraten.

Das steht so bei Notebookcheck, com.

Einfach den Link anklicken. Darum steht der Extra darunter.

Jetzt kannst du natürlich gerne das Geschreibsel von NB in Frage stellen, aber wir werden es ja bald ganz genau wissen.
An den restlichen Spekulationen, wann wieso und überhaupt beteilige ich mich nicht. Bis Dienstag ist ja nicht mehr so lange.

Ansonsten ist mir eh alles Recht. Je langsamer die 4080er, desto teurer kann ich meine beiden 3090/3080ti verkaufen, und je schneller AMD desto besser. Von einem so dermaßenden davoneilen von NVDIA, hab ich ausser hohen Preisen genau gar nichts.
 
@grimm
Ich persönlich besitze selber eine 3090 und finde das Produkt auch richtig gut, auch wenn ich Nvidias "Machenschaften" (isolierte Entwicklung und damit künstliche Ausbremsung derselben (PhysX, G-Sync, RTX)) nichts abgewinnen kann. Man merkt, es geht nicht um den Kunden oder die Weiterentwicklung im Spielebereich, sondern um Money. Weiterentwicklung gibt es nur in einer Gemeinschaft, und dabei muss es nicht zwingend gleich Open Source sein, aber was Nvidia da immer wieder abzieht, ist einfach nur schädlich für die Spiele. Sie bremsen mehr und agieren selbst gegen die eigenen Kunden.
Aber bei der aktuellen Produktvorstellung von "The Next Generation", sind noch nie zuvor so viele Fragen >>>nicht<<< beantwortet worden, oder besser noch, noch mehr Fragen aufgepoppt (wieso nur DLSS 3, warum nur Performancemodus, warum keine Angaben der Verlustleistung, warum teilweise nur in 1440p, warum so kryptische Angaben beim Lag und warum sind es gerade Spiele die die Lagreduzierung positiv dastehen lassen, die eh kein Problem damit haben (wer zur Hölle braucht mehr als 500 FPS um kompetitiv Games spielen zu können?)).
Und warum wird das alles so vollkommen nicht hinterfragend aufgenommen und weitergegeben?
Diese Fragen sollte sich bei dieser Produktvorstellung seitens Nvidia jeder stellen, vollkommen egal, ob er einen Hersteller präferiert oder nicht.
Ich kann es ja noch verstehen, wenn man spekuliert, dass die Kühler deswegen so groß geworden sind, weil man mit einer viel höheren Verlustleistung gerechnet hat, aber warum fährt man dann, wenn der Konkurrent angeblich nicht mal in die Nähe der Leistung des eigenen Produktes kommen wird, die Verlustleistung, ohne Not, trotzdem so stark nach oben, dass:

1. man Angst haben muss das die PCIE Ports der MB ausbrechen werden?
2. selbst die "kleinen" 4080ziger Karten kaum in ein Midi-Gehäuse passen werden?
3. die Customkarten selbst in Bigtowergehäusen ihren Platz suchen werden müssen?
und
4. man Angst haben muss, dass man seine IT-Komponenten im Gehäuse bei 600Watt schmelzen wird und alles wie wild am Throttlen ist?

Es gibt hier so viele Fragezeichen, die Nvidia in den vorherigen Vorstellungen alle beantwortet hatte, weit bevor die Karten zu kaufen waren. Warum wird jetzt so ein Geheimnis gemacht, wenn doch alles so super läuft?
Wenn AMD so abgeschlagen ist, die Karten angeblich so kühl bleiben und auch sonst keine Probleme zu erwarten sind, warum wartet man so extrem lange, um sein Produkt noch stärker anpreisen zu können?
Das aktuelle Verhalten seitens Nvidia widerspricht sämtlich mir bekannter Logik.
Es widerspricht sogar jeder hier getätigten Spekulation.
Ich bin wirklich auf die Tests gespannt, vermute aber, dass es so ähnlich sein wird, wie bei Ampere. So wie es derzeit aussieht, ist die RZ Einheit weiterhin "nur" Ampere in kleiner und mit höheren Frequenzen.
 
Wir probieren das jetzt mal gemeinsam. Vielleicht klappt das dann mit dem Lesen besser.

Also, da steht nicht

"+30% im Durchschnitt zur 3090Ti ?"

Da steht

"Die Werte der 16 GB liegen bis zu 30 Prozent über dem bisherigen Spitzenreiter GeForce RTX 3090 Ti."

Und nein, es ist auch nicht geraten.

Das steht so bei Notebookcheck, com.

Einfach den Link anklicken. Darum steht der Extra darunter.

Jetzt kannst du natürlich gerne das Geschreibsel von NB in Frage stellen, aber wir werden es ja bald ganz genau wissen.
An den restlichen Spekulationen, wann wieso und überhaupt beteilige ich mich nicht. Bis Dienstag ist ja nicht mehr so lange.

Ansonsten ist mir eh alles Recht. Je langsamer die 4080er, desto teurer kann ich meine beiden 3090/3080ti verkaufen, und je schneller AMD desto besser. Von einem so dermaßenden davoneilen von NVDIA, hab ich ausser hohen Preisen genau gar nichts.
Wenn man einen Elefanten zum Spielen mit nach Hause bringt, sollte man darauf achten, dass das Zuhause kein Glashaus ist. ;)
 
Wenn man einen Elefanten zum Spielen mit nach Hause bringt, sollte man darauf achten, dass das Zuhause kein Glashaus ist. ;)
ich weiss jetzt ehrlicherweise nicht, auf welchen Beitrag du dich beziehst. Ich beziehe mich auf meinen Beitrag Heute um 14:49 .

Da hab ich im übrigen den Satz rauskopiert. Aber vielleicht meinst du ja einen anderen?

Aber unabhängig von irgendwelchen Rechthabereien. Warten wir es doch einfach entspannt ab.

Das Ende der Ungewissheit ist Nah, und mir ist alles Recht. ;)

Ich hab ein unerschütterliches Vertrauen in Igor.(y)
 
Zuletzt bearbeitet :
Das machst du gerade hier in Perfektion :ROFLMAO:
Wirklich? Warst du es nicht, der sich erst vehement über den Preis der 4090 beschwert hat (ich meine, dass das in dem von dir erstellten Gerüchteuswthread zur 4xxxer Generation war, kann aber auch woanders gewesen sein)? Natürlich warst du das. Um etwas später irgendwo was von (sinngemäß) 'nicht dass ich doch schwach werde' zu schreiben? Selbstmurmelnd ein Beitrag von dir. Und du warst es, der Infos zu Wasserblöcken hatte und zuletzt las ich von dir bezüglich der Situation bei Proshop, wie viele 4900er von Xy die zu haben vorgeben. Warum nur? Du wirst dir doch nicht eine kaufen wollen? Klar wirste. Mach doch einfach, aber dazu bedarf es nicht dieses ganzen unnötigen Firlefanzes. Just buy one. Ohne dieses unnötige und ermüdende Vorspiel.
 
Warst du es nicht, der sich erst vehement über den Preis der 4090 beschwert hat
Nein, war ich nicht. Kostproben?
...die 4090 hatte ich in der Preisregion erwartet.
Ich bin bereit, viel Geld für Hardware auszugeben, dafür muss aber der Gegenwert stimmen und der stimmt bei Ada imho nur bei der 4090.
...dagegen ist die 4090 ja geradezu der Preisleistungskracher.
Die 4090 für knapp 2kEUR finde ich in Ordnung, das ist eben alleroberstes Regal und da muss man dann halt auch ordentlich löhnen, zumindest am Anfang.


Du wirst dir doch nicht eine kaufen wollen? Klar wirste.
Weiß ich noch nicht. Dass ich mich informiere und das Angebot beobachte bedeutet nicht automatisch, dass ich so eine Karte auch direkt kaufe.

Und selbst wenn: was geht es dich an? Genau: nix.
 
Ach, was freue ich mich auf den Fall des NDA zum Launch nächste Woche und die fundierten Testergebnisse zur RTX 4090 von Igor. Dann können wir diesen Thread endlich schließen und in einem neuen weiterstreiten – bis zum Launch der neuen AMD-Grafikkarten. Und täglich grüßt das Murmeltier.
 
Ach, was freue ich mich auf den Fall des NDA zum Launch nächste Woche und die fundierten Testergebnisse zur RTX 4090 von Igor.
Joo, damit bist du nicht allein.

Dann können wir diesen Thread endlich schließen und in einem neuen weiterstreiten – bis zum Launch der neuen AMD-Grafikkarten. Und täglich grüßt das Murmeltier.
Steht zu befürchten. Die üblichen Verdächtigen können es ja nicht lassen.:ROFLMAO:
 
Nein, war ich nicht. Kostproben?
...die 4090 hatte ich in der Preisregion erwartet.
Ich bin bereit, viel Geld für Hardware auszugeben, dafür muss aber der Gegenwert stimmen und der stimmt bei Ada imho nur bei der 4090.
...dagegen ist die 4090 ja geradezu der Preisleistungskracher.
Die 4090 für knapp 2kEUR finde ich in Ordnung, das ist eben alleroberstes Regal und da muss man dann halt auch ordentlich löhnen, zumindest am Anfang.



Weiß ich noch nicht. Dass ich mich informiere und das Angebot beobachte bedeutet nicht automatisch, dass ich so eine Karte auch direkt kaufe.

Und selbst wenn: was geht es dich an? Genau: nix.
Tut mir leid, falsch erinnert, es waren dann die 4080er.
Natürlich geht es mich nichts an, hab ich auch nirgends behauptet. Im Gegenteil. Kauf eine, kauf keine, warte AMDs neue Karten ab oder auf die 5xxxer, mir isses wurscht. Rest siehe oben.
Hab ich zB gemacht und las dann deine nacheditierte (rhetorische?) Frage, ob ich jemals was zum Thema beitragen werde.
Was schwebt dir denn so vor?
 
Super jetzt die Tests abwarten und mal sehen
 
Und ich warte dann eben ab bis die Arc 770 mit 16 GB unter € 180 sinkt, und Kauf mir dann was Blaues 😁 . Die sind zwar viel, viel langsamer, aber dafür krieg ich uU 10 von denen für eine Top Karte von Team Grün oder Rot. Und eine von den 10 wird vielleicht sogar funktionieren 😃. Siehst Du, so spart man.
 
Dann können wir diesen Thread endlich schließen und in einem neuen weiterstreiten
Gerade das ist doch die Würze, die so eine Wartezeit mit sich bringt: Das Herumstreiten und Spekulieren um die tatsächlichen Leistungswerte, Preis, Kaufen-Nicht Kaufen-"Doch lieber neue Reifen und Felgen fürs Auto davon kaufen", kackt AMD ab, sind sie leicht drunter, gleich auf oder bringen sie die neue Wunderkarte?

Ich persönlich glaube, es wird ähnlich wie jedes der letzten Male, die 7900 XT wird unterhalb der 4090, aber in Reichweite, liegen und Nvidia wird später noch eine 4090 Ti nachlegen, um die Performance-Krone sicher zu behalten. Viel interessanter wird für mich, wie immer, sein, wie die Preis-Leistung der Brot-und-Butter-Modelle aussehen wird: 4060 (Ti) - 4070 (Ti) und 7600 (XT) - 7700 (XT). Über günstige und effiziente Low-Budget-Versionen würde ich mich auch freuen, nachdem die 3050 ja nur für über 300 € zu haben ist.
 
Der Hype wird immer größer! Wobei ich eigentlich diese Gen aussetzen wollte :/ Was NVIDIA hier abliefert ist echt beeindruckend und man sieht wieder in diesem Artikel das NVIDIA mehr Shitstorm abbekommt als überhaupt angebracht ist. Da muss ich direkt wieder an INTEL/AMD denken. Alle sind der Meinung das Ryzen Intel zerstören würde und sie keine Chance hätten da Intel so teuer ist und ineffizient. Was ist jetzt? AMD ist doch mittlerweile teurer und wirklich schneller sind sie nur in Multicore Anwendungen. Darüber redet komischerweise keiner... Ich glaube einfach ich muss anfangen keine Kommentare mehr zu lesen und sämtliche Umfragen zu ignorieren sonst reg ich mir nur auf.

Danke Igor für den Artikel!

Das mit Intel zerstören haben irgendwelche Kleingeisteer auch bei Athlon schon erzählt. Zu dem Schluß kann man nur kommen, wenn man geistig verwirrt ist. Intel hat etliche Einnahmequellen und wesentlich mehr produktionskapazität.

Ähnlich Nvidia

Damit AMD da überhaupt gleichziehen kann müssen sie über JAHRZEHNTE Konkurenzfähig bis führend bleiben. Dies ist aber schwer wenn man weniger Kapital hat. Was es bräuchte wäre einige Supercomputerverträge für AMD und Nintendo müsste rüberswitchen (pun not intended). DANN wird das vllt mal irgendwann was mit richtiger Konkurenz. Von "zerstören" wird nie eine Rede sein das wäre auch nicht zielführend.
 
Gerade das ist doch die Würze, die so eine Wartezeit mit sich bringt: Das Herumstreiten und Spekulieren um die tatsächlichen Leistungswerte, Preis, Kaufen-Nicht Kaufen-"Doch lieber neue Reifen und Felgen fürs Auto davon kaufen", kackt AMD ab, sind sie leicht drunter, gleich auf oder bringen sie die neue Wunderkarte?
Da ist was dran.
Über günstige und effiziente Low-Budget-Versionen würde ich mich auch freuen, nachdem die 3050 ja nur für über 300 € zu haben ist.
Freuen würde ich mich auch, allein mit fehlt der Glaube. Ich befürchte, auf allem wirklich brauchbaren unter 500 Euro steht "Gebraucht".

Aber man soll ja die Hoffnung nie aufgeben. Vielleicht will AMD ja dieses Segment Flächendeckend abgreifen. Bei NVIDIA hab ich da wenig Hoffnung.
 
'Brauchbar' definiert jeder für sich. Da es in dem Thread ja um die Leistungsaufnahme geht bin ich nicht am völlig falschen Platz, alsdann mal meine Definition von 'brauchbar': ne Karte, die nur vom Slot mit Strom versorgt wird. Also eher keine "Evil Hearted Ada", aber ich lasse mich da gern überraschen.
 
Oben Unten