GeForce RTX 4090 und 2x RTX 4080 - Ada Lovelace startet ab Oktober

Bin ich bei Dir, Du gibst 2000€+ für eine Karte aus, brauchst dann im schlimmsten Fall noch eine neue PSU (Jetzt eigentlich nach neuer Spezifikation, oder funktionieren die "alten" noch?), einen satten Mehrverbrauch und wenn Du den ganzen Kram nicht unter Wasser setzt, auch noch ordentlich Geräuschkulisse. 400W/ 500W bekommt man nicht mal eben so flüsterleise mit Luft von der Karte geräumt. ... und wenn unter Wasser, nochmal schlanke 200€ inkl. Backplate und Co. 🤡
es gibt wohl Karten die werden noch 3x8Pin besitzen Igor hat dazu kürzlich ein Video gemacht. Es wird wohl beides geben.
 
Eines dürfte auch klar sein, so eine Keule rauszuholen, um eine Performanceverdopplung hinzuwürgen geht nicht dauerhaft. An der nächsten Generation wird NVidia zu kauen haben.
Nochmal so eine TDP Erhöhung, sehr unwahrscheinlich.
Nochmal so einen Taktraten Sprung, auch unwahrscheinlich.
Vielleicht kommen dann die Preise auch mal wieder auf den Boden.

Und wieso muss das immer teurer werden? Kleinere Chips, gleiche TDP, Sweetspot statt Keule, wäre ja drinnen, wird aber nicht gemacht...
 
BTW woher kommt diese Information? AMD wird kaum die neue 7900XT für 999 USD anbieten. Kann ich mir beim besten willen nicht vorstellen. Ich lasse mich gerne überraschen!!
Richtig woher kommt die Information das ist nur son Wunschdenken von ihm auch das gerede mit 300W völliger B....

Wenn er wenigstens Fakten auf Tisch legen würde aber man hört nur Mutmaßung und Wunschdenken. Was Offizielles hat keiner Igor könnte Infos haben die er aber sicherlich nicht rauslässt NDA usw.
 
Brachiale Leistung zum saftigen Preis. Schön mit UV bei unter 250Watt :D. Bleibt nun noch der Mitbewerber abzuwarten.
 
. .. ist die 4080 12 GB, die wie ich finde eigentlich ja eher ne 4070 ist
Denke das ist ein Statement, weil Nvidia mit AMD in Tests bisher so verglichen wurde :

RTX 3060/TI VS. RX 67XX
RTX 3070/TI VS. RX 6800
RTX 3080/TI VS. RX 6900
RTX 3090/TI VS. RX 6950.

Nvidia sagt nun, unsere vermeintliche 4070 ist eine 4080, gut genug um eine 80 zu sein, und gut genug um gegen eine RX 7800 anzutreten.

Ich hoffe, AMD kontert über den Preis!
und somit eben eigentlich die Mittelklasse darstellt um 1100 Euro!!!

Mittelklasse ist bei vierstellig angekommen, Einsteiger vier fünf hundert Kröten aufwärts. Die Enthusiasten oder Profis dürfen 2000+ hinblättern 🙈 bald kommt GPU Leasing wie bei den Karren.
 
DLSS 3.0 RTX 40 exklusiv. Das ist zumindest mein letzter Stand.

Wo ist denn die Tabelle her...?

Mein persönlicher Verdacht ist ja übrigens, dass ein Arschlochkonzern wie Nvidia da m. E. einfach so vorgeht:

if (gpu.architecure < "lovelace")
{
Render.Postprocess(image, dlss3);
}
else
{
// Ha ha, der Depp dachte wirklich, wir schalten das für Bestandskunden einfach so frei, ohne dass die erstmal wieder richtig Geld ausgeben...
Console.WriteLine("Gibt´s hier nicht.");
}
 
Eines dürfte auch klar sein, so eine Keule rauszuholen, um eine Performanceverdopplung hinzuwürgen geht nicht dauerhaft. An der nächsten Generation wird NVidia zu kauen haben.
Nochmal so eine TDP Erhöhung, sehr unwahrscheinlich.
Nochmal so einen Taktraten Sprung, auch unwahrscheinlich.
Vielleicht kommen dann die Preise auch mal wieder auf den Boden.

Und wieso muss das immer teurer werden? Kleinere Chips, gleiche TDP, Sweetspot statt Keule, wäre ja drinnen, wird aber nicht gemacht...
Zumal - zumindest uns - auch noch nicht klar ist, ob deren Zahlen DLSS 3.0 bedingen, oder?
 
@Gamer
Unabhängige (IgorWallossekische) Tests abwarten. Auf Basis meiner aktuellen Wissenslage kann ich weder die kommenden Nvidia Grafikkarten, noch die kommenden AMD Grafikkarten einschätzen.

Aktuell befürchte (ich weiß es aber nicht) ich aber, dass die kommenden AMD Radeon 7xxxx Grafikkarten, wenn überhaupt, nicht viel effizienter als die Nvidia RTX4xxx Grafikkarten sein werden.
 
Früher gab es Karten die liefen im gesunden Pref/Watt Bereich und hatten ein einfacheres Layout.
Da konnte man sich aussuchen ob man damit leben konnte, oder ob man eine OC Version von einem AIB nehmen will.
Jetzt bringen NVIDIA und AMD die Karten schon in der Founders in den Bereich der weit weg davon liegt.
Die ganzen OC Karten sind über einstellige % Werte für 25% mehr Verbrauch.

Schöne neue Welt.
 
Aktuell befürchte ich aber, dass die kommendne AMD Radeon 7xxxx Grafikkarten, wenn überhaupt, nicht viel effizienter als die Nvidia RTX4xxx Grafikkarten sein werden.
genau so ist es alles andere ist Wunschdenken. Die 6950xt hat auch geschluckt wie verrückt und war nicht weit entfernt von der Nvidia.
Und mit Sicherheit wird es keine 200W ausmachen
 
Früher gab es Karten die liefen im gesunden Pref/Watt Bereich und hatten ein einfacheres Layout.

Aber früher hatten die Dinger auch nur einen Bruchteil der Leistung anzubieten.

Sowohl die technischen Möglichkeiten als auch die technischen Anforderungen steigen halt nach und nach, das ist einfach normaler Fortschritt. Ob das "gesund" ist, ist m. E. gar nicht die Frage. Es geht eher darum, ob da die technischen Möglichkeiten irgendwann noch mit den Umgebungsparametern zusammenpassen, in denen sie stattfinden.

Also: kann man bald überhaupt noch einen leistungsfähigen Gaming-PC aufbauen, der in einem halbwegs normalen Gehäuse in einer normalen Wohnung betrieben werden kann. Denn wenn es mit der allgemeinen Entwicklung (CPUs eingeschlossen) so weitergeht, muss man sich in ein paar Jahren entscheiden, ob man kocht oder spielt, weil der PC den Starkstromanschluss in der Küche belegt.

Die logische Entwicklung - und das würde ich persönlich sehr begrüßen - wäre: Streaming.

Nur noch eine Box/Software zu Hause, das eigentliche Spiel läuft im Rechenzentrum, und das - je nach Abo - in jeweiliger Qualität. Wenn man mal die Kosten und die Lebensdauer für einen ordentlichen Gaming-PC betrachtet, kann ein Gamer da monatlich recht üppige Beträge stemmen, ohne in Summe mehr bezahlen zu müssen.
 
die 4090 find ich nun eigentlich dabei preislich gar nicht das extremste, klar es sind 2000 Euro aber es ist und bleibt ne Enthusiastenkarte und die hatten halt immer schon extreme Preise.

Was mich aber eigentlich mit dem Mund offen zurück lässt, ist die 4080 12 GB, die wie ich finde eigentlich ja eher ne 4070 ist und somit eben eigentlich die Mittelklasse darstellt um 1100 Euro!!! da fehlen mir einfach die Worte ne 1070 gabs mal für 499 Euro UVP und die Customs sogar noch ein wenig günstiger(klar da war der Euro wesentlich stärker aber trotzdem das ist einfach nur brutal)
Nicht nur du, laut der Galax Seite wird bei der 4080 12GB ein komplett anderer Chip verwendet als bei der 4080 16GB.
Schön zu sehen was so alles möglich ist, man ändert eine 7 in eine 8 um und schon wird es in der Öffentlichkeit nicht mehr mit der $499 MSRP 3070 verglichen.
 
Also die 4090 mit 1599$ wäre 100$ mehr als die 3090 und fände ich ok, wenns wirklich 2x Leistung ist, gegenüber der 3090!!!
Wäre da nur nicht der schwache €uro der nochmal 20% draufhaut...
Die 4080 sind viel zu teuer und damit nicht interessant.

Ich sehe GPUs gestaffelt in 3 allgemeine Kategorien: 1080p, 1440p und 4k.
Für 1080p würde ich aktuell zu der 3060Ti raten, für 1440p zu der 3080 oder eine gebrauchte 3090 und für 4k muss man halt viel Geld für eine 3090 in 60fps oder 4090 für 120fps hinblättern. Für AAA-Spiele...Und für RT scheint erst jetzt mit DLSS3 akzeptable FPS zu geben...
Und ich spiele in 4k 120hz...jaaaa...

Ich bin immernoch ein wenig zwiegespalten...auf der einen Seite sieht die 4090 gut auf dem Papier aus...auf der anderen Seite ist das ein Mordspreis...bisher habe ich nicht mehr als 1000€ für eine GPU (Verkauf der alten GPU obendrauf) gezahlt.
Und bald habe ich ja Geburtstag...da muss man sich was gönnen...
Wenn ich eine 4090FE am Releasetag kriegen kann (was ich trotz allen negativen Kommentaren nicht glaube), lasse ich die noch zu und warte auf Tests ab...dann kann ich sie verschlossen zurückschicken oder aufmachen.
 
Aber früher hatten die Dinger auch nur einen Bruchteil der Leistung anzubieten.
(..)
Ich denke Du vergisst, dass auf dem PC "zocken" für viele nicht nur das zocken ist. Es geht um das Gesamterlebnis "individuell zusammengestellter Selfmade-(Gaming)-PC", also auch das basteln und ganze "drumherum". Wer nur zocken will, kauft sich eine XBox oder PS - so jedenfalls mein Eindruck der letzten paar Jahrzehnte. :D
 
es gibt wohl Karten die werden noch 3x8Pin besitzen Igor hat dazu kürzlich ein Video gemacht. Es wird wohl beides geben.

Diese Adaptierung ist nicht unproblematisch. Schon die RTX 3090 Ti zieht je nach Design und standardmäßigem TGP von 480 Watt je nach Belastung in kurzen Spitzen 500 Watt. PCGH hat das in ihrem Review zur RTX 3090 Ti kurz thematisiert (ab 19:50), lässt aber offen ob die 500 Watt dann über die 3x 8Pin gezogen werden oder ob der PCIe die Lastspitze abfedert. Das eine oder andere Netzteil, so weiß Herr Vötter zu berichten, wählt aber in seiner Verzweiflung den Weg der Notabschaltung.

ATX 3.0 adressiert jedenfalls genau diese Peaks in der Leistungsaufnahme.

Insgesamt klingt das für mich nicht so, als ob man ein solches System mit einem ATX 2.XX Netzteil betreiben sollte. Kann funktionieren, ist aber eben nicht spezifiziert.
 
Zuletzt bearbeitet :
Oben Unten