GeForce RTX 4090 und 2x RTX 4080 - Ada Lovelace startet ab Oktober

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.479
Punkte
1
Standort
Redaktion
Nun ist Katze, sprich Ada Lovelace, aus dem Sack. Im gestrigen Live-Event (war auf der Startseite verlinkt) wurde die lang erwartete neue Generation endlich vorgestellt. Nvidias CEO Jensen Huang hat in der aufgezeichneten Keynote der GTC in diesem Zusammenhang auch recht beeindruckende Zahlen genannt. Die große GPU AD102, die jetzt TSMCs neuen N4 Prozess nutzt, (read full article...)
 
Wenn ich dann aber lese, dass die 4080 12GB, bei reiner Rasterisierung schlechter ist als eine 3090ti und nur bei RT und/oder DLSS3 so richtig Punkten kann, dabei der Verbrauch noch immer über 300W liegt, finde ich das irgendwie Ernüchternd.

Da ich schon DLSS (alle Versionen) probieren möchte und RT nicht ganz auschliessen möchte, hoffte ich auch etwas in Richtung 10-20% mehr Leistung als meine aktuelle 6800XT bei maximal 250W Verbrauch. Dies sollte eigentlich rein über die 4nm Fertigung möglich sein. Leider wurde ich in dem Sinn enttäuscht. Ich glaube auch kaum, dass hier eine mögliche 4070 etwas rausreissen kann.

Mal sehen ob mein Optimismus am 3.11 wieder gestärkt wird. Im Moment habe ich aber das Gefühl, dass die ganze Generation an mir vorbei gehen wird. Mit der 5000 Serie müsste dass aber echt was kommen. Und bis dahin bin ich bei meiner Backlog an Spielen auch dort angekommen wo RT wichtiger wird.
 
DLSS 3 kann nicht ohne Inputlag gehen.

Ich kann mir im besten Falle vorstellen, dass Beispielsweise ein 60fps Spiel mit DLSS 3 auf 120 fps kommt. Der Inputlag bleibt dann aber weiterhin bei dem selben Lag, den es auch bei 60 fps hat, d.h. DLSS fügt im besten Fall vielleicht keinen eigenen Lag hinzu, aber es wird ganz sicher nicht den Input Lag verringern, wie es eigentlich für eine Verdopplung auf 120fps zu erwarten wäre.

Denn: Im besten Falle wird ja zwischen zwei herkömmlich berechneten Bildern ein interpoliertes eingefügt. Die beiden berechneten Bilder sind die einzigen, die aus dem Programmcode gesteuert werden und damit vom User-Input abhängen.

Das interpolierte Bild ist immer nur ein Zwischenbild. Ganz ähnlich wie die Anti-Ruckel Einrichtungen bei Fernsehern, nur vielleicht im Detail besser, aber sicher nicht mit mehr Informationen.


Zum Thema Performance-Gewinn:

Der Faktor 2 wird sich auf einige, eher theoretische Benchmarks beziehen. Da viele Spiele ja nicht nur an einer Stelle limitieren, u.a. auch Dinge, die gar nicht von der GPU abhängen (CPU, RAM, PCIE usw.) auch wenn sie nicht voll am CPU-Limit hängen, ist es nur natürlich, dass bei einem Spielemix ein deutlich niedriges Plus steht. Da sind also die 50% für mich nicht überraschend, noch nicht mal enttäuschend, sondern absolut im erwartbaren Rahmen.

Die Leute, die da unken und auch höhnisch reagieren sind entweder zu jung um die letzten Kartengenerationen mitbekommen zu haben, haben schon wieder alles vergessen oder sie wollen absichtlich trollen.


Ja, die Karten sind sehr teuer. Aber auch die Entwicklung ist sehr teuer, die Karten sind sehr aufwendig. Die Wahrheit ist aber auch, dass der Gewinnanteil von NVidia extrem hoch ist.

Der Konkurrenzdruck, der auch für bessere Preise sorgen würde, ist leider nicht ausreichend bei GPUs. AMD hängt leider doch immer eine Generation zurück, reine Rasterizing Performance reißt das nicht raus.

Als Gamer sollte man aber auch nicht meinen, man braucht unbedingt eine Lovelace. Eine 3060 oder 3070 tut es schließlich auch für alle modernen Spiele, inkl. RT. Vielleicht nicht in 4k und vollen Details, aber dieser Anspruch ist - wenn man nicht das Kleingeld hat - auch nicht unbedingt nachvollziehbar.


Jetzt eine Konsole als Vergleich heranzuziehen, die weit von der Performance einer 3070 weg ist, kann ich ehrlich nicht ganz nachvollziehen. Auch wenn man dort sicher gut spielen kann, aber eben auch mit Abstrichen.
 
Ich trolle sicher nicht und Isoliert betrachtet finde ich die 4090/80 super.

Von meiner Ausgangssituation und meinen Bedürfnissen Betrachtet, bietet mir weder die 3000 nocht die vorgestellen 4000 eine Verbesserung. Und eben an Hand der 4080 12GB, werden auch kleiner Modelle der 4000er keine Besserung bringen.

Ich habe aber meine Backlog an Spielen, welche ich entdlich mal durchzocken möchte (im Moment auf dem PC AC:Origins und auf dem Deck Bloodstained:RotN) und Spiele, wo ich mit RT die Emersion verbessern könnte, sind noch in weiter Ferne. Es gibt dann aber kleiner Knackpunkte wie z.b. AC:Unity wo ich mit AMD kein TXAA habe und ich mag TXAA. Ich bin kein Fan von Überschärfe und bevorzuge ein weiches dafür aber stabiles Bild. Ich bin sogar am überlegen eine billige ex-Mining RTX3080 zu suchen
 
Naja, hab mir das Video nicht angeschaut, da ich lieber eine Zusammenfassung lese. Außerdem kann ich den Jensen nicht so lange ertragen, kann mit dem Typen einfach nichts anfangen.
Aber der GDDR-Sparzwang, dem sich Nvidia da weiterhin verschrieben zu haben scheint, kann ich nun wirklich nicht nachvollziehen. Und dann aber auch gleich wieder UVP´s, die eine Karte aus dieser Serie für mich genauso disqualifizieren. Da brauche ich dann schon gar nicht mehr drüber nachdenken. Hat auch was Gutes.

Aber wer Nvidia eher mag, wird auch da wieder zuschlagen. Selbst, wenn ich vermute, dass die tatsächlichen Händler-Preise deutlich höher liegen werden.
 
Zu Groß, zu viel Verbrauch und zu teuer. Ich weiß nicht, ob es an meinem fortgeschrittenen Alter liegt, aber
die Karten holen mich nicht ab. Das was mir an Ampere schon nicht gefallen hat wird jetzt weiter geführt.
 
2x 4080 mit unterschiedlicher leistung nur ausmachbar über die RAM ausstattung?
Wers nicht weiss wird hier ganz schön an der Nase herumgeführt würde ich sagen.
Eigentlich wäre die mit 16GB eine TI.
 
Endlich kommt dann auch der AV1 Hardware Encoder:
Powered by the 8th generation NVIDIA Encoder (NVENC), GeForce RTX 40 Series ushers in a new era of high-quality broadcasting with next-generation AV1 encoding support, ...
Quelle: https://www.nvidia.com/en-us/geforce/graphics-cards/40-series/
(Top tools for the creative trade -> NVIDIA Encoder)

Ergänzung:
NVIDIA’s newest GPU architecture, Ada, features up to 3x NVENC. Video Codec SDK 12.0 will support evenly distributing loads across multiple encoders, enabling real-time 8k60 encoding for AV1 and HEVC formats.
Quelle: https://developer.nvidia.com/nvidia-video-codec-sdk
 
Zuletzt bearbeitet :
die Preise wie befürchtet jenseits von gut und böse ne 4080(eigentlich ja 4070) 12 GB um 1100 Startpreis :ROFLMAO: ja klar nvidia - aber war ja eigentlich in der aktuellen Situation, sprich schwacher Euro und Nvidia (die noch auf einem Berg 30xx Karten sitzen) nicht anders zu erwarten.

ja mit den 30xx Karten hat man gesehen wie weit die Leute (leider auch die Gamer) bereit sind preislich zu gehen und das nutzt man halt nun wieder mal aus, aber ich bin gespannt ob das in der aktuellen Situation zumindest bei uns ein Europa, wo sich doch viele eher um andere Dinge Sorgen machen (müßen) als um ne neue Grafikkarte und dem Wegfall der Miner nochmal aufgeht...

Ich persönlich kann es mir nicht vorstellen das die Masse nochmal bereit ist über 1000 euro für (obere) Mittelklasse im Graka Segment auszugeben.

Na mal schauen was Amd so bringt und zu welchem Preis.
 
Es wäre mal eine Analyse z.B. deutschlandweit interessant, in welchem Preisbereich aktuell diskrete GPUs eingesetzt werden und wieviel man bereit wäre, für eine neue auszugeben. Meiner Einschätzung nach, wäre es für die Leser dann sicherlich interessant, eher solche Karten getestet zu bekommen. Die RTX 4090 ist doch eher eine Machbarkeitsstudie, aber in der Verteilung werden doch sicherlich nur 5% diese Karte erwerben.
 
die 4090 find ich nun eigentlich dabei preislich gar nicht das extremste, klar es sind 2000 Euro aber es ist und bleibt ne Enthusiastenkarte und die hatten halt immer schon extreme Preise.

Was mich aber eigentlich mit dem Mund offen zurück lässt, ist die 4080 12 GB, die wie ich finde eigentlich ja eher ne 4070 ist und somit eben eigentlich die Mittelklasse darstellt um 1100 Euro!!! da fehlen mir einfach die Worte ne 1070 gabs mal für 499 Euro UVP und die Customs sogar noch ein wenig günstiger(klar da war der Euro wesentlich stärker aber trotzdem das ist einfach nur brutal)
 
Zuletzt bearbeitet :
The more you buy, the more you save! That's common sense!

Mir ist schon klar wie Marktwirtschaft funktioniert und dass Jensen von seinen Stakeholdern mehr oder weniger gezwungen ist so zu handeln, aber bei den Preisen und dem Move, eine 4080 12GB zu bringen, um bei einer 70er-Klasse Karte ein Preisschild von 1100€ zu rechtfertigen, da bin ich einfach raus.

Es läuft ein Krieg, Energiepreise explodieren, die Grundversorgung wird in allen Belangen teurer. Wer hat denn da bitte noch so viel Geld für PC Gaming übrig? Ich hab jedenfalls keine 12,7 Milliarden auf dem Konto und bin deshalb vielleicht auch noch so halbwegs mit der Realität verbunden.

Ich gönne jedem Gamer von Herzen eine fette Grafikkarte, aber ich hoffe trotzdem, dass nicht zu viele bei seinem Spiel mitspielen und er wieder mit allen Hirngespinsten durch kommt.

Grüße!
 
2x 4080 mit unterschiedlicher leistung nur ausmachbar über die RAM ausstattung?
Wers nicht weiss wird hier ganz schön an der Nase herumgeführt würde ich sagen.
Eigentlich wäre die mit 16GB eine TI.

Imho wäre die kleinere Variante eine 4070. Bei den Preisen und diesen halbseidenen Methoden lande ich beim nächsten Kauf wohl bei AMD.
 
Wenn ich manche Reaktionen sehe, hätten die
4090: 2999 EUR
4080: 1999 EUR
verlangen können.

Wer bisher jeden Nvidia Bonus mitgetragen hat, der geht auch weiter mit.
 
Ich sags ja ungern mehrmals: Die alten Karten sehen plötzlich weniger runzelig aus. :D

Mit den Preisen erreicht man zwei Dinge:
(1) kann man diejenigen abfassen, die unbedingt was Neues wollen und nicht auf den Preis schielen und
(2) die älteren Karten in einen begehrlicheren Licht erscheinen lassen.

Man schiebt die kleineren Kärtchen zeitlich nach 2023 und schaut zu, wie sich die 3xxxer noch abverkaufen. Das ist schon irgendwie nachvollziehbar, wenn auch unschön.
 
Auf dem Papier sieht das wieder super aus, ob ich es zu Hause merke, wenn ich von 6900XT auf 4080 16GB umsteige - ich bezweifle es. Da spielen die Synch-Funktionen am Monitor die größere Rolle, als eine Erhöhung von 80 auf 120 FPS. Und wie gesagt: 4K läuft flüssig mit max. Details. Bis Spiele da sind, die mehr Rechenpower nötig machen, ist die 50XX oder auch die 60XXer Serie am Start (vgl. RT-Features ab 20XX).
 
Ich sags ja ungern mehrmals: Die alten Karten sehen plötzlich weniger runzelig aus. :D

Mit den Preisen erreicht man zwei Dinge:
(1) kann man diejenigen abfassen, die unbedingt was Neues wollen und nicht auf den Preis schielen und
(2) die älteren Karten in einen begehrlicheren Licht erscheinen lassen.

Man schiebt die kleineren Kärtchen zeitlich nach 2023 und schaut zu, wie sich die 3xxxer noch abverkaufen. Das ist schon irgendwie nachvollziehbar, wenn auch unschön.
Das ist ein sehr guter Hinweis - hätte ich nicht das Doppelte bezahlt, würde ich jetzt für die Hälfte kaufen - 4K max Details in stabil >60FPS für um die 800,- Euro. Das ist richtig gut.
 
ja wie geschrieben, waren in der Situation (viele 30xx in den Lagern) die Preise leider genauso zu erwarten - trotzdem ist es einfach nur brutal und ich hoffe immer noch das der Move diesmal nicht aufgeht weil, die meisten von uns eben wichtigere Probleme als das "Hobby" PC Gaming haben...

Aus Nvidias Sicht wie Igor ja auch schreibt ein plausibler aber doch sehr unschöner Schritt...
 
Zuletzt bearbeitet :
Ja ich kann das alles Nachvollziehen, aber gut ist das nicht. Und zum Glück kann ich als mündiger Mensch selbst endscheiden und sowohl die alte als auch neue Generation erstmal liegen lassen. :)
Ich kaufe eh nu in der 200W Klasse und bis die kommt wird noch einiges an Zeit vergehen und bis dahin langt mir meine 2070s noch. Bin mal gespannt was Lisa im November vorstellt.
 
ich hoffe das Amd doch zumindest immer noch ein bisschen auf mehr Marktanteile schielt und deshalb selbst bei ähnlich guter Leistung doch mit den Preisen zumindest etwas moderater bleibt. Sprich Navi 33 so um die 600-700 Euro, Navi 32 so von 800-900 Euro und Navi 31 so von 1100-1200 Euro. Amd sollte mit N6 ja auch den Vorteil der etwas günstigeren Fertigung bei TSMC haben.

Aber wahrscheinlich wir es wohl bei Amd auch eher Navi 33 mit so 800 Euro, Navi 32 mit so 1100 Euro und Navi 33 mit so 1500 Euro. Na mal schauen - mit der 6900XT könnte man ja eigentlich entspannt zurücklehnen und warten aber für 4K (hätte ich nur niemals diesen Monitor gekauft :D ) kann es halt eigentlich nie genug Leistung sein...
 
Oben Unten