NVIDIA GeForce RTX 4090 – Wo der Irrtum mit den 600 Watt wirklich herkommt und warum die Karten so riesig sind

gibt nen Computerbase Artikel dazu - https://www.computerbase.de/2016-09/grafikkarten-garantie-vergleich/

ist leider nicht wirklich aktuell, aber von Msi weiss ich es aus eigener Erfahrung, war bei einer 2080Ti geduldet, habe extra Anfang vorigen Jahres nachgefragt...

und bei Gigabyte war es bis vor 1-2 Jahre glaube ich sogar explizit in Ihren Garantiebestimmungen erlaubt.
Ich werd die nochmal Fragen. Vielleicht hatte ich ja nur den Falschen am Telefon oder er hatte einen schlechten Tag. Wobei zu bedenken gilt, das man ja auch dabei immer was kaputtmachen kann. Das ist, glaube ich, eher sogar das größere Problem.
 
Ne 3080 mit 10 / 12 GB war mir mit Blick auf die 6900XT zu teuer.
und dann schalte Raytracing dazu und in manchen Horrorszenarien ist selbst eine 2080 schneller... Klar Raytracing ist nicht jedermanns Sache und nicht jeder braucht das oder wird es jemals antesten, aber wenn ich aktuelle modernere Features die in mittlerweile fast jedem neuen AAA Spiel vorhanden sind und/oder schon angekündigt wurden, auf einer 1000€ Karte nicht mal "optional" zum mal kurz antesten nutzen kann weil die Performance dann doch nicht reicht, würde ich die 6900XT als vieeel zu teuer betiteln...

Wenn ich eine gewisse Summe für einen Pixelschubser ausgebe ist meine unterste Anforderung noch vor der tatsächlichen benötigten oder gewünschten Leistung dass ich alle zurzeit erhältlichen mittlerweile allgemeinen Features oder deren Ersatz Lösungen dem Preissegment entsprechend uneingeschränkt nutzen kann. Ob ich es brauche oder nicht sei mal dahingestellt.
 
und dann schalte Raytracing dazu und in manchen Horrorszenarien ist selbst eine 2080 schneller...
Genau das ist der Punkt, wieso ich der Meinung bin, und die ist ernsthaft weit von jedem Bashing entfernt, das die Aktuelle AMD Generation bestenfalls auf dem Niveau der alten 2000er Serie ist. Rasterleistung hin oder her. Erst FSR hat die Situation hier ein wenig verbessert.

Mich jedenfalls hat Igors spekulative Andeutung ernsthaft erschreckt. Jeder der seine 5 Sinne beisammen hat, muss sich wünschen das AMD zumindest zu NViDIA aufschließt.
 
Zuletzt bearbeitet :
Genau das ist der Punkt, wieso ich der Meinung bin, und die ist ernsthaft weit von jedem Bashing entfernt, das die Aktuelle AMD Generation bestenfalls auf dem Niveau der alten 2000er Serie ist. Rasterleistung hin oder her. Erst FSR hat die Situation hier ein wenig verbessert.
Stand Juli 2022, also knapp 4 Jahre nach Einführung von Nvidias Raytracing gab es 85 Spiele, die das unterstützt haben. Darunter viele alte Spiele, die nachgerüstet worden waren.
Ich gönne Dir Deine Meinung, aber gönn anderen ihre Meinung, dass Raytracing derzeit nicht mehr als eine nette Spielerei ist.
 
Stand Juli 2022, also knapp 4 Jahre nach Einführung von Nvidias Raytracing gab es 85 Spiele, die das unterstützt haben. Darunter viele alte Spiele, die nachgerüstet worden waren.
Ich gönne Dir Deine Meinung, aber gönn anderen ihre Meinung, dass Raytracing derzeit nicht mehr als eine nette Spielerei ist.
Keine Frage. Aus jeder meiner Antworten kannst du herauslesen, das für jemanden, dem RT Wumpe ist, eine AMD Karte unter Umständen die bessere Wahl darstellt. Wobei nun DLSS 3 wirklich der Hammer zu sein scheint.

Wir haben doch hier keine Meinungsdiktatur. Und am Ende kann mit seinem Geld sowieso jeder machen was er will.
 
Zuletzt bearbeitet :
Zu der Diskussion um die wohlbekannte „Silcion Lottery“ würde mich bezüglich der Nvidia-GPUs mal interessieren, ob es unterschiedliche Qualitätsstufen gibt, die den Boardpartnern angeboten werden oder ob die selbst testen müssen. Gibt es da eigentlich so eine Art automatische „Teststraße“? Ich kann mir irgendwie nicht vorstellen, dass ein Boardpartner ein paar hunderttausend Chips (manuell) testet um sein hochgetaktetes Spitzenmodell mit den besten Chips bestücken zu können.
 
Dazu hatte ich schon längere Aufsätze. Gigabyte, Zotac... :D

Bei Modellen mit gleichem PCB enscheided es sich beim Funktionstest, welches BIOS und Aufkleber es gibt (Zotac, Gigabyte, MSI). Ansonsten kann man anhand der elektrischen Parameter und Straps rausbekommen, welche Güte das Silzium haben könnte (Innenwiderstand zwischen bestimmten Pins, Gigabytes Gauntlet Verfahren z.B.)
 
und dann schalte Raytracing dazu und in manchen Horrorszenarien ist selbst eine 2080 schneller... Klar Raytracing ist nicht jedermanns Sache und nicht jeder braucht das oder wird es jemals antesten, aber wenn ich aktuelle modernere Features die in mittlerweile fast jedem neuen AAA Spiel vorhanden sind und/oder schon angekündigt wurden, auf einer 1000€ Karte nicht mal "optional" zum mal kurz antesten nutzen kann weil die Performance dann doch nicht reicht, würde ich die 6900XT als vieeel zu teuer betiteln...

Wenn ich eine gewisse Summe für einen Pixelschubser ausgebe ist meine unterste Anforderung noch vor der tatsächlichen benötigten oder gewünschten Leistung dass ich alle zurzeit erhältlichen mittlerweile allgemeinen Features oder deren Ersatz Lösungen dem Preissegment entsprechend uneingeschränkt nutzen kann. Ob ich es brauche oder nicht sei mal dahingestellt.
„uneingeschränkt“ - da fängts halt schon an.
Mir war RT nicht wichtig, weil ich den Vorteil nicht gesehen habe. Und ich sehe ihn immer noch nicht, das hängt aber weniger mit der Technologie als mit meinem Anwendungsprofil zusammen.
 
Die ganze Streiterei um die Notwendigkeit der Leistung einer 4090 verstehe ich ehrlich gesagt nicht. Es hängt doch vom persönlichen Anwendungsprofil ab. Die 4090 ist IMHO für Leute, die in UHD spielen wollen und Spiele mit Raytracing lieben. Ich bin bekennender Fan von Cyberpunk 2077 und freue mich riesig, dass CD Projekt RED für die nächsten Jahre weitere Cyberpunk-Spiele angekündigt hat. Dafür kann die GraKa gar nicht genug Leistung haben und selbst eine 4090 wird da wahrscheinlich in UHD nur mit DLSS fps deutlich jenseits der 60 (DLSS Quality) liefern - 90 fps wären ein (wahrscheinlich unerfüllbarer) Traum. Und für weniger anspruchsvolle Spiele greift halt der Framelimiter bei 142 fps und dann rennt auch der Stromzähler nicht mehr um sein Leben.
 
Die ganze Streiterei um die Notwendigkeit der Leistung einer 4090 verstehe ich ehrlich gesagt nicht. Es hängt doch vom persönlichen Anwendungsprofil ab. Die 4090 ist IMHO für Leute, die in UHD spielen wollen und Spiele mit Raytracing lieben. Ich bin bekennender Fan von Cyberpunk 2077 und freue mich riesig, dass CD Projekt RED für die nächsten Jahre weitere Cyberpunk-Spiele angekündigt hat. Dafür kann die GraKa gar nicht genug Leistung haben und selbst eine 4090 wird da wahrscheinlich in UHD nur mit DLSS fps deutlich jenseits der 60 (DLSS Quality) liefern - 90 fps wären ein (wahrscheinlich unerfüllbarer) Traum. Und für weniger anspruchsvolle Spiele greift halt der Framelimiter bei 142 fps und dann rennt auch der Stromzähler nicht mehr um sein Leben.
Für mich macht es immer irgendwie den Eindruck, das man die Begründung für das, was man sich nicht leisten will, immer wieder bestätigen will.

Und aus Gründen der persönlichen Psychohygiene es allgemein madig machen muss.

Gründe für eine 4090 gibt es genug.

1. Weil sie Spaß macht.
2. Weil es einfach schön ist, sowas zu haben.
3. Spiele in 4K mit mit hohen Framezahlen mit und ohne RT
4. Hochauflösende VR Brillen
5 Multi-Monitor-Setup
6. DLSS 3.0
7. Damit der verdammte Stromzähler endlich mal wieder um sein Leben rennt! :giggle:
 
Zuletzt bearbeitet :
Yield ist top, man bekommt sehr viele top Chips > für mich bedeutet das jedoch, dass man für "günstigere" Chips mehr vom Kunden verlangt und den ohnehin schon riesigen "rein" Gewinn anhebt. Naja, wäre Utopisch zu glauben, dass diese Firmen die "Ersparnisse" und Gewinne durch diese Entwicklung den Kunden weitergeben. Die Aktionäre würden Ammok laufen.

Allein schon solche Aussagen (der Hersteller):
Zitat: "Allerdings sollen wohl einige Boardpartner intern jammern, dass man sich die kolportieren Mehrkosten von stellenweise deutlich mehr als 10 USD pro Kühler gern gespart hätte. Rechnet man das nämlich auf die zu produzierenden Einheiten hoch, kommen da ganz schnell wirklich riesige Summen zustande."

sagt doch schon Alles... Diese "10€" hätte man den Kunden sowieso nicht weitergegeben und glaubt echt jemand, dass sie sich die aktuellen Kühler und sonstige Überdimensionierung nicht bezahlen lassen PLUS mehr weil die Karten ja jetzt "top" sind??? Dashat sich der Kunde ja schon immer gewünscht. Gute Kühllösungen. Das ist Management und Marketing. Nicht verwerflich aber unschön weil die Kuh, ich mein Kunde, immer der Dumme...
 
Zuletzt bearbeitet :
Die Hersteller jammern, weil die hätten die Karten auch mit kleineren Kühler zu dem Preis verkauft,
also ist es doch irgendwie ein Verlust-Geschäft....
 
Nur mal am Rande: von den hier in DE aufgerufenen Preisen bleibt dem Hersteller gerade mal ein reichliches Drittel. Und davon bezahlt er dann alles, einschließlich der Chips.

Die ganzen Schnappmaten sitzen alle zwischen Euch und den AIC. Die Boardpartner werden zudem auch dazu angehalten, MSRP-Karten zu verkaufen. Also MSRP - Schnappmaten-Zuschlag = fast Nullsummenspiel.
 
Genau, NViDIA schaut was der Kunde nicht will, und genau das bauen sie in Ihre Grafikkarten ein. Darum haben die auch RT mit den Tensorkernen und DLSS entwickelt. Weil das keiner wollte und brauchte. sie es sich aber teuer bezahlen lassen haben. So machen sie auch mit Ihren komischen Softwarepaketen.

Aber weil das keiner blickt hat AMD die nur 17% Marktanteil. Ich finde, hier tut Aufklärung not.
DLSS will tatsächlich keiner RT auch nicht. Wie hoch ist die Anzahl der Spiele damit? 0,1%? Hört sich nicht so an als wäre es beliebt. Es ist doch eher so dass Nvidia die Entwickler dafür bezahlen muss es einzubauen. Und selbst da scheinen die meisten abzulehnen.
 
Oha, jetzt sind so gut, da sie keiner braucht. Ich schrei mich gleich hier weg!

Müßig darüber nachzudenken, was du hier schreiben würdest, hätte AMD so abgeliefert.


Wer hat dir den Schmarrn denn erzählt?

Die Werte der 16 GB liegen bis zu 30 Prozent über dem bisherigen Spitzenreiter GeForce RTX 3090 Ti.


Die Bilder sind zwischenzeitlich verschwunden.




Aja, nur die Einfältigen, die auf jeden Hype reinfallen, kaufen sowas.

Einfach Herrlich.

Ich habs schon immer gewußt. Der wirklich schlaue kauft AMD.

Wie hies das Lied von Pippi Langstrumpf.

"Ich mache mir die Welt, wie sie mir gefällt.

Mit der Leistung bei 8 K würde ich erstmal die Ergebnisse abwarten.

Wobei der Nutzen in der Tat fraglich ist.
Wo nimmst du die +30% im Durchschnitt zur 3090Ti her? Geraten?
Im 3DMark Firestrike Extreme, ist die getestete 4080 16GB 30% schneller als meine 3090 >>>nicht<<< Ti
Im 3DMark Time Spy Extreme, ist die 4080 16GB nur noch 10% schneller und gerade der Time Spy Extreme Benchmark kommt den heutigen Anforderungen für RZ-Spiele am nächsten.
Im 3DMark Port Royal (RT), ist die 4080 16GB wieder 30% schneller als meine 3090 >>>nicht<<< Ti.
Wie kommst du auf ein Leistungsplus von 30% zu einer 3090Ti?
Wenn ich diese Werte der 4080 16GB also als Vergleich nehme, dann liegt die RZ Leistung der 4080 16GB derzeit auf 3090 Ti Niveau, eventuell leicht darüber.
Die 4080 12GB wird sehr wahrscheinlich 20% unterhalb der 4080 16GB liegen und damit eventuell unterhalb einer 3090 >>>nicht<<< Ti herauskommen, wenn es um reine RZ-Leistung gehen wird.
Das + liegt aber bei der Effizienz, und ich vermute, dass es das ist, was Igor durch die Blume "spekuliert".

Allerdings ist es eben so, dass Lisa angegeben hat, dass es !!mindestens!! 50% (< = größer als, bzw. mehr als) mehr an Leistung pro Watt geben wird.
Bleibt sich AMD bei der Richtigkeit dieser Angaben wie bisher treu, kann man davon ausgehen, dass der N31 Chipsatz sogar deutlich mehr schaffen wird.
Das würde bei einem Leistungsplus von 55% per Watt bei 300 Watt (identisch zur 6900XT) schon eine Faktorsteigerung von 1.55 bedeuten. Damit würde sich eine mögliche 7900XT schon oberhalb einer 4080 16GB platzieren.
Hebt AMD die Leistung auf 375 Watt (das derzeitige Maximum bei der 2x8 Pin Steckervariante) an, dann haben wir ein mögliches Leistungsplus von Faktor 1,9.
Customkarten, können, ähnlich der 6950, sogar die 400 Watt Marke knacken, womit dann Faktor 2.07 unter RZ erreicht wird, wenn wir mit einer Mehrleistung von 55% pro Watt ausgehen.

Sollte Irgor wirklich Recht behalten und AMD seine eigene Aussage verfehlen (mindestens 50% Mehrleistung pro Watt), dann ist es natürlich gut möglich, dass eine 7900XT zwischen einer 4080 12GB und 4080 16GB liegen wird. Was mir allerdings dabei so wirklich nicht in den Kopf will. Wenn Nvidias "Spione" wirklich so viel wissen, warum wird die 4090 vollkommen ohne Grund mit BIOSen versehen, die 450 Watt oder sogar 600 Watt Verlustleistung zulassen?
Der Preis kann es nicht sein, denn die 4090 würde selbst bei 350 Watt, mit einer solch spekulierten Leistung einer 7900XT, den Boden mit einer 7900XT wischen und sollte eine doch leicht stärkere Variante von AMD kommen, dann schaltet man die Reserven des Ada 102 Chips frei und mit 400 Watt entschwindet eine 4090Ti vollkommen aus dem Leistungsbereich AMDs.
Ich kann nicht sagen, welche Grundlage für so eine Spekulation vorhanden ist, aber wenn ich rein logisch und als Geschäftsmann denke, dann würde ich mich selber feuern, wenn ich in Zeiten der Energie- u. Finanzknappheit mein eigenes Produkt, vollkommen ohne Grund, schlechter dastehen lasse als ich es müsste!
Das ergibt so alles gar keinen Sinn, weder von der Preisgestaltung, noch von der offensichtlich unnötigen hohen Verlustleistung, zumindest bei der 4090.
 
Oh, ich glaube die ganzen Aktienbesitzer von AMD sehen das ein wenig anders. AMD ist an der Börse und somit kein Wohlfahrtsverein. AMD hat auch nix zu verschenken. Ja, sie mögen Preislich unter Intel und Nvidia liegen, auch mal wenn sie ähnliche Leistung haben. Aber AMD hat nix zu verschenken. Die Teuerungen betreffen auch AMD und das heißt, wenn sie ihre Aktionäre bei Laune halten wollen, was die liebe CEO mit Sicherheit will, da man auch ganz schnell nicht mehr CEO sein kann, wird AMD ihre Karten auch teurer machen, auch, wenn sie mit Sicherhei,t etwas unter Nvidia bleiben werden. Das sie günstiger sein werden, dafür braucht man keine Glaskugel für, genauso dafür das sie sie nicht verschenken werden und somit die Preise auch bei AMD deutlich anziehen werden.
Sie müssen auch nichts verschenken. Es reicht das mit Abstand beste Paket zu liefern. Und das tun sie seit Jahrzehnten.
 
Danke @Nedum! Da muss man auch keinem Lager angehören, einfach mal die Folien von NV ignorieren, die kolportierte Sensation („mehr Leistung als erwartet“) ebenso und abwarten, was am Ende rauskommt.
Die 4090 markiert die Leistungsspitze, die 4080er sind unnötiger Quatsch bzw. laut @Igor Wallossek der aktuellen Gen entsprechend einsortiert (siehe Bepreisung). Ist ne neue Gen, gibt Leistung obendrauf.
Dimension und Stromhunger finde ich komplett daneben. Vor allem, weil der Prozess ja ach so viel Mehrleistung bringt. Ich hab da einfach zu viele Fragezeichen und sehe Ungereimtheiten.
 
Oben Unten