GPUs Graphics Latest news

GeForce RTX 4090 and 2x RTX 4080 – Ada Lovelace starts in October at 1100 euro and Ampere looks less wrinkled

Now the cat, or Ada Lovelace, is out of the bag. In yesterday’s live event (was linked on the home page), the long-awaited new generation was finally unveiled. Nvidia’s CEO Jensen Huang also mentioned quite impressive numbers in this context in the recorded keynote of the GTC. The large AD102 GPU, which now uses TSMC’s new N4 process, offers 76 billion transistors, more than twice as many as its direct predecessor.

Of course, a lot of information and technical specifications are still missing for a first verdict, but if you look at the full configuration, the enormous number of 18,000 FP32 ALUs represents an increase of about 70 percent compared to the GA102. In addition, the higher clock rate and it remains to be seen what the end customers can still put on it themselves if. But even so, the performance boost should be quite brutal. According to Huang, Rasterizer games should run up to twice as fast with the new cards as on the (still) current GeForce generation, and for games with real ray tracing, they promise up to four times as much performance, although that should probably be an “up to” in the end.

The feed conversion, i.e. the energy efficiency, is also twice as high. If you take the announced TDP as a basis here, then that also comes close. Since a boost of more than 3 GHz is said to have been achieved in the labs, the rumored up to 600 watts also make sense and it remains to be seen which board partner will add something here. 

But how do you actually achieve the performance increase? With the help of SER (Shader Execution Reordering), the ALUs are supposed to be faster than Ampere’s even with the same theoretical computing power, since pending work orders are first reordered in real time and only then passed on to the execution units in optimized order. Ray tracing is also supposed to work two to three times faster as a result. The bottom line is that this feature alone is expected to generate a net increase of up to 25%. In addition, there are more features up to DLSS 3.0, but I will write about them separately.

The table below shows the initial data comparing the three newly introduced cards. Since the SM have not been officially named and also some other features can only be extrapolated, the listing is not yet complete, but that can be supplemented with provable information later:

  RTX 4090 RTX 4080 16 GB RTX 4080 12 GB
Architecture Ada Ada Ada
Node TSMC N4 TSMC N4 TSMC N4
GPU AD102 AD103 AD104
CUDA Cores 16.384 9.728 7.680
Base Clock 2.230 MHz 2.210 MHz 2.310 MHz
Max. boost 2.520 MHz 2.510 MHz 2.610 MHz
FP32 Compute 82.6 TFLOPS 48.8 TFLOPS 40.1 TFLOPS
Memory expansion 24 GB GDDR6X 16 GB GDDR6X 12 GB GDDR6X
Interface 384 bit 256 bit 192 bit
TDP 450 watt 320 watt 285 watt
Price 1.949 Euro 1.469 euros 1.099 Euro

NVIDIA only presented the new graphics cards today, the rest will probably only be released next year. And the prices? Well… The upcoming top model Force RTX 4090 will be sold including VAT. will probably be available from 1,949 euros, market launch is 12.10.2022. The GeForce RTX 4080 is sold in two different variants, one with a memory expansion of 16 GB and one with only 12 GB. It is not yet known exactly where further differences lurk, but the price differences are enormous. The 16 GB card should be available from 1,469 Euros, the 12 GB card from 1,099 Euros.

Of course, this will also tempt some buyers to buy one of the (still) current models of the RTX 3000 series, whose prices are currently dropping. Even an RTX 3080 with only 10 GB of memory could become interesting again when the price is right. NVIDIA is probably also following this calculation when it comes to the so-called “overstock”, i.e. the cards of the (still) current generation that have not been sold yet. I don’t like to write it in the context of a launch, but: The old cards suddenly look less wrinkled.

With the prices, I think you achieve two things at the same time:
(1) You can pick up and siphon off those who really want something new and are not looking at the price, and
(2) You can make the older cards appear in a more desirable light and sell them.

You simply push the smaller cards to 2023 and watch how the 3xxxs still sell off properly. This is somehow understandable, even if it is a bit unattractive. But that is called market and is not reprehensible. If you want to watch the event again, here is the corresponding video:

Translated with www.DeepL.com/Translator (free version)

 

441 Antworten

Kommentar

Lade neue Kommentare

arcDaniel

Urgestein

1,020 Kommentare 436 Likes
*
***

Veteran

456 Kommentare 295 Likes

DLSS 3 kann nicht ohne Inputlag gehen.

Ich kann mir im besten Falle vorstellen, dass Beispielsweise ein 60fps Spiel mit DLSS 3 auf 120 fps kommt. Der Inputlag bleibt dann aber weiterhin bei dem selben Lag, den es auch bei 60 fps hat, d.h. DLSS fügt im besten Fall vielleicht keinen eigenen Lag hinzu, aber es wird ganz sicher nicht den Input Lag verringern, wie es eigentlich für eine Verdopplung auf 120fps zu erwarten wäre.

Denn: Im besten Falle wird ja zwischen zwei herkömmlich berechneten Bildern ein interpoliertes eingefügt. Die beiden berechneten Bilder sind die einzigen, die aus dem Programmcode gesteuert werden und damit vom User-Input abhängen.

Das interpolierte Bild ist immer nur ein Zwischenbild. Ganz ähnlich wie die Anti-Ruckel Einrichtungen bei Fernsehern, nur vielleicht im Detail besser, aber sicher nicht mit mehr Informationen.

Zum Thema Performance-Gewinn:

Der Faktor 2 wird sich auf einige, eher theoretische Benchmarks beziehen. Da viele Spiele ja nicht nur an einer Stelle limitieren, u.a. auch Dinge, die gar nicht von der GPU abhängen (CPU, RAM, PCIE usw.) auch wenn sie nicht voll am CPU-Limit hängen, ist es nur natürlich, dass bei einem Spielemix ein deutlich niedriges Plus steht. Da sind also die 50% für mich nicht überraschend, noch nicht mal enttäuschend, sondern absolut im erwartbaren Rahmen.

Die Leute, die da unken und auch höhnisch reagieren sind entweder zu jung um die letzten Kartengenerationen mitbekommen zu haben, haben schon wieder alles vergessen oder sie wollen absichtlich trollen.

Ja, die Karten sind sehr teuer. Aber auch die Entwicklung ist sehr teuer, die Karten sind sehr aufwendig. Die Wahrheit ist aber auch, dass der Gewinnanteil von NVidia extrem hoch ist.

Der Konkurrenzdruck, der auch für bessere Preise sorgen würde, ist leider nicht ausreichend bei GPUs. AMD hängt leider doch immer eine Generation zurück, reine Rasterizing Performance reißt das nicht raus.

Als Gamer sollte man aber auch nicht meinen, man braucht unbedingt eine Lovelace. Eine 3060 oder 3070 tut es schließlich auch für alle modernen Spiele, inkl. RT. Vielleicht nicht in 4k und vollen Details, aber dieser Anspruch ist - wenn man nicht das Kleingeld hat - auch nicht unbedingt nachvollziehbar.

Jetzt eine Konsole als Vergleich heranzuziehen, die weit von der Performance einer 3070 weg ist, kann ich ehrlich nicht ganz nachvollziehen. Auch wenn man dort sicher gut spielen kann, aber eben auch mit Abstrichen.

Antwort 2 Likes

Klicke zum Ausklappem
arcDaniel

Urgestein

1,020 Kommentare 436 Likes

Ich trolle sicher nicht und Isoliert betrachtet finde ich die 4090/80 super.

Von meiner Ausgangssituation und meinen Bedürfnissen Betrachtet, bietet mir weder die 3000 nocht die vorgestellen 4000 eine Verbesserung. Und eben an Hand der 4080 12GB, werden auch kleiner Modelle der 4000er keine Besserung bringen.

Ich habe aber meine Backlog an Spielen, welche ich entdlich mal durchzocken möchte (im Moment auf dem PC AC:Origins und auf dem Deck Bloodstained:RotN) und Spiele, wo ich mit RT die Emersion verbessern könnte, sind noch in weiter Ferne. Es gibt dann aber kleiner Knackpunkte wie z.b. AC:Unity wo ich mit AMD kein TXAA habe und ich mag TXAA. Ich bin kein Fan von Überschärfe und bevorzuge ein weiches dafür aber stabiles Bild. Ich bin sogar am überlegen eine billige ex-Mining RTX3080 zu suchen

Antwort Gefällt mir

G
Guest

Naja, hab mir das Video nicht angeschaut, da ich lieber eine Zusammenfassung lese. Außerdem kann ich den Jensen nicht so lange ertragen, kann mit dem Typen einfach nichts anfangen.
Aber der GDDR-Sparzwang, dem sich Nvidia da weiterhin verschrieben zu haben scheint, kann ich nun wirklich nicht nachvollziehen. Und dann aber auch gleich wieder UVP´s, die eine Karte aus dieser Serie für mich genauso disqualifizieren. Da brauche ich dann schon gar nicht mehr drüber nachdenken. Hat auch was Gutes.

Aber wer Nvidia eher mag, wird auch da wieder zuschlagen. Selbst, wenn ich vermute, dass die tatsächlichen Händler-Preise deutlich höher liegen werden.

Antwort Gefällt mir

H
HotteX

Veteran

109 Kommentare 77 Likes

Zu Groß, zu viel Verbrauch und zu teuer. Ich weiß nicht, ob es an meinem fortgeschrittenen Alter liegt, aber
die Karten holen mich nicht ab. Das was mir an Ampere schon nicht gefallen hat wird jetzt weiter geführt.

Antwort 9 Likes

Smartengine

Veteran

131 Kommentare 120 Likes

2x 4080 mit unterschiedlicher leistung nur ausmachbar über die RAM ausstattung?
Wers nicht weiss wird hier ganz schön an der Nase herumgeführt würde ich sagen.
Eigentlich wäre die mit 16GB eine TI.

Antwort Gefällt mir

M
MrX1980

Mitglied

13 Kommentare 7 Likes

Endlich kommt dann auch der AV1 Hardware Encoder:
Quelle: https://www.nvidia.com/en-us/geforce/graphics-cards/40-series/
(Top tools for the creative trade -> NVIDIA Encoder)

Ergänzung:
Quelle: https://developer.nvidia.com/nvidia-video-codec-sdk

Antwort 1 Like

n
netterman

Veteran

140 Kommentare 59 Likes

die Preise wie befürchtet jenseits von gut und böse ne 4080(eigentlich ja 4070) 12 GB um 1100 Startpreis :ROFLMAO: ja klar nvidia - aber war ja eigentlich in der aktuellen Situation, sprich schwacher Euro und Nvidia (die noch auf einem Berg 30xx Karten sitzen) nicht anders zu erwarten.

ja mit den 30xx Karten hat man gesehen wie weit die Leute (leider auch die Gamer) bereit sind preislich zu gehen und das nutzt man halt nun wieder mal aus, aber ich bin gespannt ob das in der aktuellen Situation zumindest bei uns ein Europa, wo sich doch viele eher um andere Dinge Sorgen machen (müßen) als um ne neue Grafikkarte und dem Wegfall der Miner nochmal aufgeht...

Ich persönlich kann es mir nicht vorstellen das die Masse nochmal bereit ist über 1000 euro für (obere) Mittelklasse im Graka Segment auszugeben.

Na mal schauen was Amd so bringt und zu welchem Preis.

Antwort Gefällt mir

Y
YoWoo

Mitglied

20 Kommentare 10 Likes

Es wäre mal eine Analyse z.B. deutschlandweit interessant, in welchem Preisbereich aktuell diskrete GPUs eingesetzt werden und wieviel man bereit wäre, für eine neue auszugeben. Meiner Einschätzung nach, wäre es für die Leser dann sicherlich interessant, eher solche Karten getestet zu bekommen. Die RTX 4090 ist doch eher eine Machbarkeitsstudie, aber in der Verteilung werden doch sicherlich nur 5% diese Karte erwerben.

Antwort Gefällt mir

n
netterman

Veteran

140 Kommentare 59 Likes

die 4090 find ich nun eigentlich dabei preislich gar nicht das extremste, klar es sind 2000 Euro aber es ist und bleibt ne Enthusiastenkarte und die hatten halt immer schon extreme Preise.

Was mich aber eigentlich mit dem Mund offen zurück lässt, ist die 4080 12 GB, die wie ich finde eigentlich ja eher ne 4070 ist und somit eben eigentlich die Mittelklasse darstellt um 1100 Euro!!! da fehlen mir einfach die Worte ne 1070 gabs mal für 499 Euro UVP und die Customs sogar noch ein wenig günstiger(klar da war der Euro wesentlich stärker aber trotzdem das ist einfach nur brutal)

Antwort 3 Likes

wuchzael

Moderator

709 Kommentare 426 Likes

The more you buy, the more you save! That's common sense!

Mir ist schon klar wie Marktwirtschaft funktioniert und dass Jensen von seinen Stakeholdern mehr oder weniger gezwungen ist so zu handeln, aber bei den Preisen und dem Move, eine 4080 12GB zu bringen, um bei einer 70er-Klasse Karte ein Preisschild von 1100€ zu rechtfertigen, da bin ich einfach raus.

Es läuft ein Krieg, Energiepreise explodieren, die Grundversorgung wird in allen Belangen teurer. Wer hat denn da bitte noch so viel Geld für PC Gaming übrig? Ich hab jedenfalls keine 12,7 Milliarden auf dem Konto und bin deshalb vielleicht auch noch so halbwegs mit der Realität verbunden.

Ich gönne jedem Gamer von Herzen eine fette Grafikkarte, aber ich hoffe trotzdem, dass nicht zu viele bei seinem Spiel mitspielen und er wieder mit allen Hirngespinsten durch kommt.

Grüße!

Antwort 11 Likes

T
Thakor

Mitglied

46 Kommentare 30 Likes

Imho wäre die kleinere Variante eine 4070. Bei den Preisen und diesen halbseidenen Methoden lande ich beim nächsten Kauf wohl bei AMD.

Antwort Gefällt mir

LencoX2

Neuling

8 Kommentare 6 Likes

Wenn ich manche Reaktionen sehe, hätten die
4090: 2999 EUR
4080: 1999 EUR
verlangen können.

Wer bisher jeden Nvidia Bonus mitgetragen hat, der geht auch weiter mit.

Antwort 2 Likes

Igor Wallossek

Format©

7,898 Kommentare 13,619 Likes

Ich sags ja ungern mehrmals: Die alten Karten sehen plötzlich weniger runzelig aus. :D

Mit den Preisen erreicht man zwei Dinge:
(1) kann man diejenigen abfassen, die unbedingt was Neues wollen und nicht auf den Preis schielen und
(2) die älteren Karten in einen begehrlicheren Licht erscheinen lassen.

Man schiebt die kleineren Kärtchen zeitlich nach 2023 und schaut zu, wie sich die 3xxxer noch abverkaufen. Das ist schon irgendwie nachvollziehbar, wenn auch unschön.

Antwort 9 Likes

grimm

Urgestein

2,402 Kommentare 1,497 Likes

Auf dem Papier sieht das wieder super aus, ob ich es zu Hause merke, wenn ich von 6900XT auf 4080 16GB umsteige - ich bezweifle es. Da spielen die Synch-Funktionen am Monitor die größere Rolle, als eine Erhöhung von 80 auf 120 FPS. Und wie gesagt: 4K läuft flüssig mit max. Details. Bis Spiele da sind, die mehr Rechenpower nötig machen, ist die 50XX oder auch die 60XXer Serie am Start (vgl. RT-Features ab 20XX).

Antwort 2 Likes

grimm

Urgestein

2,402 Kommentare 1,497 Likes

Das ist ein sehr guter Hinweis - hätte ich nicht das Doppelte bezahlt, würde ich jetzt für die Hälfte kaufen - 4K max Details in stabil >60FPS für um die 800,- Euro. Das ist richtig gut.

Antwort 2 Likes

n
netterman

Veteran

140 Kommentare 59 Likes

ja wie geschrieben, waren in der Situation (viele 30xx in den Lagern) die Preise leider genauso zu erwarten - trotzdem ist es einfach nur brutal und ich hoffe immer noch das der Move diesmal nicht aufgeht weil, die meisten von uns eben wichtigere Probleme als das "Hobby" PC Gaming haben...

Aus Nvidias Sicht wie Igor ja auch schreibt ein plausibler aber doch sehr unschöner Schritt...

Antwort Gefällt mir

H
HotteX

Veteran

109 Kommentare 77 Likes

Ja ich kann das alles Nachvollziehen, aber gut ist das nicht. Und zum Glück kann ich als mündiger Mensch selbst endscheiden und sowohl die alte als auch neue Generation erstmal liegen lassen. :-)
Ich kaufe eh nu in der 200W Klasse und bis die kommt wird noch einiges an Zeit vergehen und bis dahin langt mir meine 2070s noch. Bin mal gespannt was Lisa im November vorstellt.

Antwort Gefällt mir

n
netterman

Veteran

140 Kommentare 59 Likes

ich hoffe das Amd doch zumindest immer noch ein bisschen auf mehr Marktanteile schielt und deshalb selbst bei ähnlich guter Leistung doch mit den Preisen zumindest etwas moderater bleibt. Sprich Navi 33 so um die 600-700 Euro, Navi 32 so von 800-900 Euro und Navi 31 so von 1100-1200 Euro. Amd sollte mit N6 ja auch den Vorteil der etwas günstigeren Fertigung bei TSMC haben.

Aber wahrscheinlich wir es wohl bei Amd auch eher Navi 33 mit so 800 Euro, Navi 32 mit so 1100 Euro und Navi 33 mit so 1500 Euro. Na mal schauen - mit der 6900XT könnte man ja eigentlich entspannt zurücklehnen und warten aber für 4K (hätte ich nur niemals diesen Monitor gekauft :D ) kann es halt eigentlich nie genug Leistung sein...

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

video display

video display