NVIDIA GeForce RTX 4090 – Wo der Irrtum mit den 600 Watt wirklich herkommt und warum die Karten so riesig sind

Weiss j

Ja, auch 700 EUR ist noch echt viel Geld. Bis 500 EUR wären die RX 6700 und die 3060 ti eine Alternative?
Ich schiele ein wenig auf die 3070, wenn die noch etwas runter kommen würde. Die Günstigste 3060 Ti liegt auch momentan noch bei 469€, was auch noch über UVP. Die RX 6700 XT liegt preislich und Leitungsmäßig zwischen den Karten, solange man Raytracing außen vor lässt. RX 6700 hab ich spontan keinen Test gefunden...
 
Warum ist eigentlich tsmc in Massenproduktion jedem anderen inzwischen so weit vorraus? Haben die anderen einfach aufgegeben oder war nicht genügend Geld da um mitzugehen?
TSMC, Intel und Samsung sind halt die drei größten Hersteller. Bei den mittlerweile sehr hohen Investitionskosten für eine Halbleiterfab, die die modernen Prozesse beherrscht, können es sich einfach nicht mehr besonders viele Unternehmen leisten oder riskieren, das aufzuziehen. Alleine ein Belichtungsgerät der neuesten Generation kostet weit über 100 Mio. $.
 
Zuletzt bearbeitet :
Sorry, nix für ungut, aber selten so einen provokanten Dünnpfiff gelesen. Als gäbe es nicht schon genug Foren, die durch diese dämlichen Fanboiflamewars für Erwachsene unzumutbar sind :poop:
Da bin ich ja richtig froh das einer von uns erwachsen ist. Mag sein ,das du des englischen nur bedingt mächtig bist, aber da hilft der Google Translator. (Mir im übrigen auch.) Aber ich hab nicht geschrieben das Igor ein paar Bier zuviel getrunken hat oder mit seinem Bullshit zusätzliche Klicks generieren will.

Aber ich schreibe provokanten Dünnpfiff und veranstalte Fanboiflamewars?

Zu Wars gehören immer 2. Aber es gibt ein Problem mit der Toleranz. ich würde nie jemand angehen, für den AMD die beste Firma auf dem Planeten ist. Da hab ich überhaupt kein Problem. Andersrum wird das schon offenkundig schwieriger.

Aber was hab ich den blasphemisches geschrieben?

Das AMD Technologisch sowohl im Software- als auch im Hardwarebereich hinterhinkt. Oder das sie genau wie alle anderen die Preise bis zur Schmerzgrenze anziehen, wenn sie glauben, es zu können.

Sorry, das ist Imho einfach so. Da kannst du dich auf den Boden werfen und mit den ärmchen strampeln Ich kann ja auch nix dafür.

Und aller vorraussicht nach wird es wohl so bleiben.

Woher glaubst du eigentlich kommen die 78% Marktanteil von NVDIA. Und das auch noch bei deren Preise.

Alles Idioten die keine ahnung haben?

Ich hab übrigens wenig Zweifel am Igors Aussagen. Allein die Aussagen, die hier diesbezüglich seiner Aussagen hier aus dem Forum kommen, zeigt doch wo das Fanboiflamewars ist. Zumindest muss ich ja auch bei dir einen wunden Punkten getroffen haben, das du dich zu einer solchen Wortwahl hinreissen läst. ( Das nur zum Thema zumutbarkeit;))

Aber nochmal.

Sorry, nix für ungut.
 
Zuletzt bearbeitet :
  • Like
Bewertungen: ***
Da kannst du dich auf den Boden werfen und mit den ärmchen strampeln Ich kann ja auch nix dafür.
Das machst du gerade hier in Perfektion, keine Ahnung, was du hier immer mit Bier willst :) So, genug gespielt, jetzt kommst du endgültig auf ignore, user wie du sind imho der Tod jeder sachlichen Diskussion.
 
Ob 450 W oder 600 W ist doch egal. Die Radeon 7900 wird mehr Leistung haben und dabei weniger verbrauchen (unter 350W). Wen interessiert da noch eine überteuerte 4090???
Ich werde auch sehr glücklich sein... wenn das der Fall ist. Leider ist ein solches "Schweigen" von AMD kein gutes Zeichen.
Außerdem ist Igor immer noch mit offensichtlichen Hinweisen
 
also wenn die 50% + bei Performance pro Watt, die Lisa bzw. Amd in den Raum gestellt haben wirklich stimmen und man dann mit Navi 31 in etwa nur zwischen 4080 12GB und 4080 16GB rauskommt...

dann heisst das für mich entweder Nvidia ist nochmal leisstungsstärker als erwartet, oder aber Amd hat sich mit dem dem Mehr Chip Desgin verzettelt und bringt die massive Rohleistung die dadurch ja eigentlich vorhanden sein sollte (selbst wenn der Fertigungsprozess etwas schlechter als der von Nvidia ist) mal wieder nicht in FPS auf den Monitor. (wäre ja leider nicht das erste Mal)

das wäre dann schon wieder eine ziemlich derbe Enttäuschung nachdem man ja mit RDNA2 ja bis auf RT endlich mal wieder ganz vorne dabei war in allen Leistungsklassen.

oder man hat mit den 50% schon gelogen, und es käme dann mit RDNA3 gleich wieder ein Tiefschlag, das wäre natürlich sehr schade, ich hoffe einfach immer noch das Igor sich hier irrt (kann ja den besten mal passieren :D) und RDNA3 doch besser performt als befürchtet...

Aber selbst wenn, ich finde es trotzdem super das Amd nicht aufgibt, und mit den im Vergleich doch sehr begrenzten finanziellen Mitteln doch sowohl im Graka als auch im Cpu Bereich immer wieder mal sehr gut mit ihren im jeweiligen Feld finanziell übermächtigen Konkurrenten mithalten kann...
 
Zuletzt bearbeitet :
Also alles ganz anders als angenommen.
 
also wenn die 50% + bei Performance pro Watt, die Lisa bzw. Amd in den Raum gestellt haben wirklich stimmen und man dann mit Navi 31 in etwa nur zwischen 4080 12GB und 4080 16GB rauskommt...

dann heisst das für mich entweder Nvidia ist nochmal leisstungsstärker als erwartet, oder aber Amd hat sich mit dem dem Mehr Chip Desgin verzettelt und bringt die massive Rohleistung die dadurch ja eigentlich vorhanden sein sollte (selbst wenn der Fertigungsprozess etwas schlechter als der von Nvidia ist) mal wieder nicht in FPS auf den Monitor. (wäre ja leider nicht das erste Mal)

das wäre dann schon wieder eine ziemlich derbe Enttäuschung nachdem man ja mit RDNA2 ja bis auf RT endlich mal wieder ganz vorne dabei war in allen Leistungsklassen.

oder man hat mit den 50% schon gelogen, und es käme dann mit RDNA3 gleich wieder ein Tiefschlag, das wäre natürlich sehr schade, ich hoffe einfach immer noch das Igor sich hier irrt (kann ja den besten mal passieren :D) und RDNA3 doch besser performt als befürchtet...

Aber selbst wenn, ich finde es trotzdem super das Amd nicht aufgibt, und mit den im Vergleich doch sehr begrenzten finanziellen Mitteln doch in sowohl im Graka als auch im Cpu Bereich immer wieder mal sehr gut mit ihren im jeweiligen Feld finanziell übermächtigen Konkurrenten mitkommt...
Mit dem Multichiplet Design der neuen RDNA setzt AMD halt auf ein neues Konzept. Kann durchaus sein, dass deshalb die Leistung hinter den Erwartungen liegt. So neue Ansätze laufen ja meist nicht ganz so rund in der ersten Generation. Aber auch das ist nur reine Spekulation. Wir werden schlauer sein, wenn AMD die Karten offiziel vorstellt und dann nochmal schlauer, wenn es dann wirklich unabhängige Tests gibt.
 
Sorry wenn ich jetzt mal eine dumme frage stelle zur VF Curve und den besagten 450watt

Normal hat man doch in Afterburner seinen Maximal Takt ermittelt und dann mittels Curve die minimalste Spannung versucht zu ermitteln wird das jetzt nicht mehr gehen oder habe ich das komplett falsch verstanden?
 
also wenn die 50% + bei Performance pro Watt, die Lisa bzw. Amd in den Raum gestellt haben wirklich stimmen und man dann mit Navi 31 in etwa nur zwischen 4080 12GB und 4080 16GB rauskommt...

dann heisst das für mich entweder Nvidia ist nochmal leisstungsstärker als erwartet, oder aber Amd hat sich mit dem dem Mehr Chip Desgin verzettelt und bringt die massive Rohleistung die dadurch ja eigentlich vorhanden sein sollte (selbst wenn der Fertigungsprozess etwas schlechter als der von Nvidia ist) mal wieder nicht in FPS auf den Monitor. (wäre ja leider nicht das erste Mal)

das wäre dann schon wieder eine ziemlich derbe Enttäuschung nachdem man ja mit RDNA2 ja bis auf RT endlich mal wieder ganz vorne dabei war in allen Leistungsklassen.

oder man hat mit den 50% schon gelogen, und es käme dann mit RDNA3 gleich wieder ein Tiefschlag, das wäre natürlich sehr schade, ich hoffe einfach immer noch das Igor sich hier irrt (kann ja den besten mal passieren :D) und RDNA3 doch besser performt als befürchtet...

Aber selbst wenn, ich finde es trotzdem super das Amd nicht aufgibt, und mit den im Vergleich doch sehr begrenzten finanziellen Mitteln doch in sowohl im Graka als auch im Cpu Bereich immer wieder mal sehr gut mit ihren im jeweiligen Feld finanziell übermächtigen Konkurrenten mitkommt...
Vielleicht ist das Mehr Chip Desgin das Design der Zukunft und man zahlt hier als Pionier Lehrgeld?
Vielleicht macht sich aber genau das bei der nächsten Generation mehr als bezahlt?
Fakt ist das NVDIA ohne Konkurrenz völlig abheben würde.

Andererseits steht doch die Frage im Raum, wieviel Leistung braucht man wirklich?

Spiele ich in FHD oder in WQHD reicht eigentlich alles ab 6800. Hab ich eine Faible für RT bin ich auch noch mittelfristig mit einer 3080 sehr gut bedient.

Händeringend auf neue Karte warten doch eigentlich nur Leute die in 4K in Ultra und maximaler RT Perfomance spielen oder Nutzer von mehreren Monitoren sowie Fans von VR - Brillen mit hohen Auflösungen.

Meine 3090 ist am TV mit 60 Hertz die nächsten Jahre noch OK.

Ich hoffe, das man einfach mit der 4090 als 4K User durchaus mal eine Generationen überspringen kann. Dann relativiert sich auch der Preis.
 
Zuletzt bearbeitet :
MCM ist kein Neuland, man hat ja schon seit geraumer Zeit die Mi-Karten.

Bei AMD hießen 50% mehr perf/W ungefähr 1.5 x 6800XT bei 300 Watt, wenn man die 2x 8-Pin ernst nimmt. Würde NV dann 2x 3090 bei 450 Watt schaffen (so wie im Event angeteasert), ist das Verhätnis schon arg schräg. Und dann kommt die 4080 16GB mit nur noch 320 Watt... ;)
 
Ich hatte Igors Forum bis vor kurzem wirklich sehr geschätzt, da es sich wohltuend von den anderen Foren abgehoben hat.
Es wurde einfach sehr sachlich diskutiert ohne gleich als Fanboy oder ähnliches bezeichnet zu werden, wenn man mal was kritisches zu einem Hersteller angemerkt oder etwas positiv zu ihm dargestellt hat
Jetzt geht der ganze Mist hier auch los. Es ist einfach nur noch ätzend, dass es offensichtlich nicht mehr möglich, ist ohne gleich persönlich zuwerden über technische Sachen zu diskutieren oder abfällig über andere Hersteller zu äußern.

Offensichtlich muss wohl jedes Forum mit so einem Müll versaut werden. Es ist echt nur noch zum 🤮

Cunhell
 
Ich habe aktuell leider keine Zeit zu moderieren. Sonst komme ich nicht zum Arbeiten. :(
 
Wen wundert es, Männer wollen nie erwachsen werden, also Bedarf es Kindergärtner#innen... :ROFLMAO:
Einige haben zu viel Zeit, ich würde die paar Tage abwarten, danach kann man die Po...-Balken begutachten
und bewundern wer den längeren Pe...s hat. 🤪
 
Wen wundert es, Männer wollen nie erwachsen werden, also Bedarf es Kindergärtner#innen... :ROFLMAO:
Einige haben zu viel Zeit, ich würde die paar Tage abwarten, danach kann man die Po...-Balken begutachten
und bewundern wer den längeren Pe...s hat. 🤪
Das geht doch bei der nächsten Hardwarevorstellung weiter.
Es langweilt einfach nur noch.

@ Igor: Ist kein Vorwurf an Dich. Lieber ist das Forum Müll als Deine Tests. Also konzentriere Dich weiterhin auf die Hardware. und deren Ananlyse.
Die kann ich ja lesen, was ich sehr gerne mache. Und das andere kann ich ja ignorieren.
 
Same procedure as every time, James.
Das gilt umso mehr für die Blitzbirnen, die erst lauthals hier über Nvidias Preise, woanders über die Prozzipreise von AMD jammern, aber x Beiträge - gerne in einem anderen Thread - später dann auf einmal schon drüber nachdenken, ob sie nicht doch schwach werden, wie etwa der Glückssucher.
 
MCM ist kein Neuland, man hat ja schon seit geraumer Zeit die Mi-Karten.

Bei AMD hießen 50% mehr perf/W ungefähr 1.5 x 6800XT bei 300 Watt, wenn man die 2x 8-Pin ernst nimmt. Würde NV dann 2x 3090 bei 450 Watt schaffen (so wie im Event angeteasert), ist das Verhätnis schon arg schräg. Und dann kommt die 4080 16GB mit nur noch 320 Watt... ;)
Wird jetzt leider immer weniger nachvollziehbar. Wo hat nV etwas von 2x3090 angeteasert? RZ war laut Event wohlwollend +6X%, RT-Apfel mit Birnen-truemotion-Vergleich x3 bis x4 “in future Games“, vulgo: nV-Demos. Und woher kommt die Leistungseinschätzung zu N31 nochmal? RZ wären das dann wieviel Gain? +20 bis 30%? Really? Oder teaserst Du hier tatsächlich RT-Vergleiche? Falls N31 RT ohne Fakeframes zwischen 4070 und 4080 auf DLSS3 landet, könnte Lisa wohl recht zufrieden sein. :devilish:

Diese Speku scheint jetzt wirklich keine Sternstunde…
 
Oben Unten