Grafikkarten News VGA

GeForce RTX 4090 und 2x RTX 4080 – Ada Lovelace startet im Oktober ab 1100 Euro und Ampere schaut wieder begehrlicher aus

Nun ist Katze, sprich Ada Lovelace, aus dem Sack. Im gestrigen Live-Event (war auf der Startseite verlinkt) wurde die lang erwartete neue Generation endlich vorgestellt. Nvidias CEO Jensen Huang hat in der aufgezeichneten Keynote der GTC in diesem Zusammenhang auch recht beeindruckende Zahlen genannt. Die große GPU AD102, die jetzt TSMCs neuen N4 Prozess nutzt, bietet 76 Milliarden Transistoren, also mehr als doppelt so viele, wie noch die direkte Vorgängerin.

Für ein erstes Urteil fehlen natürlich noch viele Informationen und technische Spezifikationen, doch wenn man sich den Vollausbau betrachtet, dann stellt die enorme Zahl von 18.000 FP32-ALUs im Gegensatz zum GA102 eine Steigerung von ca. 70 Prozent da. Dazu kommt der höhere Takt und es bleibt abzuwarten, was die Endkunden noch selbst draufpacken können, falls. Doch auch so dürfte der Leistungsschub schon recht brachial ausfallen. Rasterizer-Spiele sollen laut Huang mit den neuen Karten bis zu doppelt so schnell wie auf der (noch) aktuellen GeForce Generation laufen und für Spiele mit echter Raytracing-Nutzung verspricht man bis zu vier Mal so viel Leistung, wobei das wohl am Ende ein „Bis zu“ sein dürfte.

Auch die Futterverwertung, also die Energieeffizienz, so doppelt so hoch ausfallen. Nimmt man hier die angekündigte TDP als Grundlage, dann kommt das in etwas auch hin. Da in den Laboren auch über 3 GHz Boost erreicht worden sein sollen, machen auch die kolportierten bis zu 600 Watt einen Sinn und es bleibt abzuwarten, welcher Boardpartner hier noch etwas drauflegt. 

Doch wie erreicht man die Leistungssteigerung eigentlich? Mit Hilfe von SER (Shader Execution Reordering) sollen die ALUs auch bei gleicher theoretischer Rechenleistung schneller als die von Ampere sein, da anliegende Arbeitsaufträge in Echtzeit zunächst neu sortiert und erst danach in optimierter Reihenfolge an die Ausführungseinheiten weitergeben werden. Auch das Raytracing soll dadurch maximal zwei bis drei Mal schneller funktionieren. Unterm Strich rechnet man mit einem Nettozuwachs von bis zu 25% allein durch dieses Feature. Dazu kommen noch weitere Features bis hin zu DLSS 3.0, über die ich aber separat noch etwas schreiben werde.

Die nachfolgende Tabelle zeigt die ersten Daten im Vergleich der drei neu vorgestellten Karten. Da die SM nicht offiziell benannt wurden und auch einige anderer Features nur hochgerechnet werden können, ist die Auflistung noch nicht vollständig, aber das lässt sich später noch mit belegbaren Informationen ergänzen:

  RTX 4090 RTX 4080 16 GB RTX 4080 12 GB
Architektur Ada Ada Ada
Node TSMC N4 TSMC N4 TSMC N4
GPU AD102 AD103 AD104
CUDA Cores 16.384 9.728 7.680
Base Clock 2.230 MHz 2.210 MHz 2.310 MHz
Max. Boost 2.520 MHz 2.510 MHz 2.610 MHz
FP32 Compute 82,6 TFLOPS 48,8 TFLOPS 40,1 TFLOPS
Speicherausbau 24 GB GDDR6X 16 GB GDDR6X 12 GB GDDR6X
Interface 384 Bit 256 Bit 192 Bit
TDP 450 Watt 320 Watt 285 Watt
Preis 1.949 Euro 1.469 Euro 1.099 Euro

NVIDIA hat heute erst einmal nur die neue Grafikkarten vorgestellt, der Rest wird wohl erst im nächsten Jahr erscheinen. Und die Preise? Nun ja… Das kommende Spitzenmodell Force RTX 4090 wird inklusive MwSt. wohl ab 1.949 Euro erhältlich sein, Marktstart ist der 12.10.2022. Die GeForce RTX 4080 verkauft man in zwei verschiedenen Varianten, eine mit immerhin noch 16 GB Speicherausbau und eine mit nur 12 GB. Wo jetzt weitere Unterschiede lauern, das weiß man bisher nicht genau, aber die Preisunterschiede sind enorm. Die Karte mit 16 GB-Karte soll ab 1.469 Euro erhältlich sein, die mit 12 GB ab 1.099 Euro.

Das wird so manchen Käufer natürlich auch dazu verleiten, sich doch erst einmal eines der (noch) aktuellen Modelle der RTX-3000-Reihe zu kaufen, deren Preise gerade im Sinkflug sind. Sogar eine RTX 3080 mit nur 10 GB Speicherausbau könnte so wieder interessant werden, wenn der Preis wieder stimmt. Genau dieses Kalkül dürfte wohl auch NVIDIA verfolgen, wenn es um den sogenannten „Overstock“ geht, also die noch nicht abverkaufen Karten der (noch) aktuellen Generation. Ich schreibe es im Rahmen eines Launches ja ungern, aber: Die alten Karten sehen plötzlich weniger runzelig aus. :D

Mit den Preisen erreicht man meines Erachtens zwei Dinge gleichzeitig:
(1) Man kann diejenigen abholen und abschöpfen, die unbedingt etwas Neues wollen und nicht auf den Preis schielen und
(2) Man kann die älteren Karten in einen begehrlicheren Licht erscheinen lassen und abverkaufen.

Man schiebt die kleineren Kärtchen dann einfach zeitlich nach 2023 und schaut zu, wie sich die 3xxxer noch ordentlich abverkaufen. Das ist schon irgendwie nachvollziehbar, wenn auch etwas unschön. Aber das nennt sich Markt und ist nicht verwerflich. Wer sich das Event noch einmal ansehen möchte, hier ist das entsprechende Video dazu:

 

441 Antworten

Kommentar

Lade neue Kommentare

arcDaniel

Urgestein

1,598 Kommentare 859 Likes
*
***

Veteran

496 Kommentare 312 Likes

DLSS 3 kann nicht ohne Inputlag gehen.

Ich kann mir im besten Falle vorstellen, dass Beispielsweise ein 60fps Spiel mit DLSS 3 auf 120 fps kommt. Der Inputlag bleibt dann aber weiterhin bei dem selben Lag, den es auch bei 60 fps hat, d.h. DLSS fügt im besten Fall vielleicht keinen eigenen Lag hinzu, aber es wird ganz sicher nicht den Input Lag verringern, wie es eigentlich für eine Verdopplung auf 120fps zu erwarten wäre.

Denn: Im besten Falle wird ja zwischen zwei herkömmlich berechneten Bildern ein interpoliertes eingefügt. Die beiden berechneten Bilder sind die einzigen, die aus dem Programmcode gesteuert werden und damit vom User-Input abhängen.

Das interpolierte Bild ist immer nur ein Zwischenbild. Ganz ähnlich wie die Anti-Ruckel Einrichtungen bei Fernsehern, nur vielleicht im Detail besser, aber sicher nicht mit mehr Informationen.

Zum Thema Performance-Gewinn:

Der Faktor 2 wird sich auf einige, eher theoretische Benchmarks beziehen. Da viele Spiele ja nicht nur an einer Stelle limitieren, u.a. auch Dinge, die gar nicht von der GPU abhängen (CPU, RAM, PCIE usw.) auch wenn sie nicht voll am CPU-Limit hängen, ist es nur natürlich, dass bei einem Spielemix ein deutlich niedriges Plus steht. Da sind also die 50% für mich nicht überraschend, noch nicht mal enttäuschend, sondern absolut im erwartbaren Rahmen.

Die Leute, die da unken und auch höhnisch reagieren sind entweder zu jung um die letzten Kartengenerationen mitbekommen zu haben, haben schon wieder alles vergessen oder sie wollen absichtlich trollen.

Ja, die Karten sind sehr teuer. Aber auch die Entwicklung ist sehr teuer, die Karten sind sehr aufwendig. Die Wahrheit ist aber auch, dass der Gewinnanteil von NVidia extrem hoch ist.

Der Konkurrenzdruck, der auch für bessere Preise sorgen würde, ist leider nicht ausreichend bei GPUs. AMD hängt leider doch immer eine Generation zurück, reine Rasterizing Performance reißt das nicht raus.

Als Gamer sollte man aber auch nicht meinen, man braucht unbedingt eine Lovelace. Eine 3060 oder 3070 tut es schließlich auch für alle modernen Spiele, inkl. RT. Vielleicht nicht in 4k und vollen Details, aber dieser Anspruch ist - wenn man nicht das Kleingeld hat - auch nicht unbedingt nachvollziehbar.

Jetzt eine Konsole als Vergleich heranzuziehen, die weit von der Performance einer 3070 weg ist, kann ich ehrlich nicht ganz nachvollziehen. Auch wenn man dort sicher gut spielen kann, aber eben auch mit Abstrichen.

Antwort 2 Likes

Klicke zum Ausklappem
arcDaniel

Urgestein

1,598 Kommentare 859 Likes

Ich trolle sicher nicht und Isoliert betrachtet finde ich die 4090/80 super.

Von meiner Ausgangssituation und meinen Bedürfnissen Betrachtet, bietet mir weder die 3000 nocht die vorgestellen 4000 eine Verbesserung. Und eben an Hand der 4080 12GB, werden auch kleiner Modelle der 4000er keine Besserung bringen.

Ich habe aber meine Backlog an Spielen, welche ich entdlich mal durchzocken möchte (im Moment auf dem PC AC:Origins und auf dem Deck Bloodstained:RotN) und Spiele, wo ich mit RT die Emersion verbessern könnte, sind noch in weiter Ferne. Es gibt dann aber kleiner Knackpunkte wie z.b. AC:Unity wo ich mit AMD kein TXAA habe und ich mag TXAA. Ich bin kein Fan von Überschärfe und bevorzuge ein weiches dafür aber stabiles Bild. Ich bin sogar am überlegen eine billige ex-Mining RTX3080 zu suchen

Antwort Gefällt mir

G
Guest

Naja, hab mir das Video nicht angeschaut, da ich lieber eine Zusammenfassung lese. Außerdem kann ich den Jensen nicht so lange ertragen, kann mit dem Typen einfach nichts anfangen.
Aber der GDDR-Sparzwang, dem sich Nvidia da weiterhin verschrieben zu haben scheint, kann ich nun wirklich nicht nachvollziehen. Und dann aber auch gleich wieder UVP´s, die eine Karte aus dieser Serie für mich genauso disqualifizieren. Da brauche ich dann schon gar nicht mehr drüber nachdenken. Hat auch was Gutes.

Aber wer Nvidia eher mag, wird auch da wieder zuschlagen. Selbst, wenn ich vermute, dass die tatsächlichen Händler-Preise deutlich höher liegen werden.

Antwort Gefällt mir

H
HotteX

Veteran

110 Kommentare 79 Likes

Zu Groß, zu viel Verbrauch und zu teuer. Ich weiß nicht, ob es an meinem fortgeschrittenen Alter liegt, aber
die Karten holen mich nicht ab. Das was mir an Ampere schon nicht gefallen hat wird jetzt weiter geführt.

Antwort 9 Likes

Smartengine

Veteran

146 Kommentare 134 Likes

2x 4080 mit unterschiedlicher leistung nur ausmachbar über die RAM ausstattung?
Wers nicht weiss wird hier ganz schön an der Nase herumgeführt würde ich sagen.
Eigentlich wäre die mit 16GB eine TI.

Antwort Gefällt mir

M
MrX1980

Mitglied

16 Kommentare 7 Likes

Endlich kommt dann auch der AV1 Hardware Encoder:
Quelle: https://www.nvidia.com/en-us/geforce/graphics-cards/40-series/
(Top tools for the creative trade -> NVIDIA Encoder)

Ergänzung:
Quelle: https://developer.nvidia.com/nvidia-video-codec-sdk

Antwort 1 Like

n
netterman

Veteran

159 Kommentare 62 Likes

die Preise wie befürchtet jenseits von gut und böse ne 4080(eigentlich ja 4070) 12 GB um 1100 Startpreis :ROFLMAO: ja klar nvidia - aber war ja eigentlich in der aktuellen Situation, sprich schwacher Euro und Nvidia (die noch auf einem Berg 30xx Karten sitzen) nicht anders zu erwarten.

ja mit den 30xx Karten hat man gesehen wie weit die Leute (leider auch die Gamer) bereit sind preislich zu gehen und das nutzt man halt nun wieder mal aus, aber ich bin gespannt ob das in der aktuellen Situation zumindest bei uns ein Europa, wo sich doch viele eher um andere Dinge Sorgen machen (müßen) als um ne neue Grafikkarte und dem Wegfall der Miner nochmal aufgeht...

Ich persönlich kann es mir nicht vorstellen das die Masse nochmal bereit ist über 1000 euro für (obere) Mittelklasse im Graka Segment auszugeben.

Na mal schauen was Amd so bringt und zu welchem Preis.

Antwort Gefällt mir

Y
YoWoo

Mitglied

41 Kommentare 21 Likes

Es wäre mal eine Analyse z.B. deutschlandweit interessant, in welchem Preisbereich aktuell diskrete GPUs eingesetzt werden und wieviel man bereit wäre, für eine neue auszugeben. Meiner Einschätzung nach, wäre es für die Leser dann sicherlich interessant, eher solche Karten getestet zu bekommen. Die RTX 4090 ist doch eher eine Machbarkeitsstudie, aber in der Verteilung werden doch sicherlich nur 5% diese Karte erwerben.

Antwort Gefällt mir

n
netterman

Veteran

159 Kommentare 62 Likes

die 4090 find ich nun eigentlich dabei preislich gar nicht das extremste, klar es sind 2000 Euro aber es ist und bleibt ne Enthusiastenkarte und die hatten halt immer schon extreme Preise.

Was mich aber eigentlich mit dem Mund offen zurück lässt, ist die 4080 12 GB, die wie ich finde eigentlich ja eher ne 4070 ist und somit eben eigentlich die Mittelklasse darstellt um 1100 Euro!!! da fehlen mir einfach die Worte ne 1070 gabs mal für 499 Euro UVP und die Customs sogar noch ein wenig günstiger(klar da war der Euro wesentlich stärker aber trotzdem das ist einfach nur brutal)

Antwort 3 Likes

Alexander Brose

Moderator

819 Kommentare 573 Likes

The more you buy, the more you save! That's common sense!

Mir ist schon klar wie Marktwirtschaft funktioniert und dass Jensen von seinen Stakeholdern mehr oder weniger gezwungen ist so zu handeln, aber bei den Preisen und dem Move, eine 4080 12GB zu bringen, um bei einer 70er-Klasse Karte ein Preisschild von 1100€ zu rechtfertigen, da bin ich einfach raus.

Es läuft ein Krieg, Energiepreise explodieren, die Grundversorgung wird in allen Belangen teurer. Wer hat denn da bitte noch so viel Geld für PC Gaming übrig? Ich hab jedenfalls keine 12,7 Milliarden auf dem Konto und bin deshalb vielleicht auch noch so halbwegs mit der Realität verbunden.

Ich gönne jedem Gamer von Herzen eine fette Grafikkarte, aber ich hoffe trotzdem, dass nicht zu viele bei seinem Spiel mitspielen und er wieder mit allen Hirngespinsten durch kommt.

Grüße!

Antwort 11 Likes

T
Thakor

Mitglied

52 Kommentare 35 Likes

Imho wäre die kleinere Variante eine 4070. Bei den Preisen und diesen halbseidenen Methoden lande ich beim nächsten Kauf wohl bei AMD.

Antwort Gefällt mir

LencoX2

Neuling

8 Kommentare 6 Likes

Wenn ich manche Reaktionen sehe, hätten die
4090: 2999 EUR
4080: 1999 EUR
verlangen können.

Wer bisher jeden Nvidia Bonus mitgetragen hat, der geht auch weiter mit.

Antwort 2 Likes

Igor Wallossek

1

10,195 Kommentare 18,809 Likes

Ich sags ja ungern mehrmals: Die alten Karten sehen plötzlich weniger runzelig aus. :D

Mit den Preisen erreicht man zwei Dinge:
(1) kann man diejenigen abfassen, die unbedingt was Neues wollen und nicht auf den Preis schielen und
(2) die älteren Karten in einen begehrlicheren Licht erscheinen lassen.

Man schiebt die kleineren Kärtchen zeitlich nach 2023 und schaut zu, wie sich die 3xxxer noch abverkaufen. Das ist schon irgendwie nachvollziehbar, wenn auch unschön.

Antwort 9 Likes

grimm

Urgestein

3,083 Kommentare 2,035 Likes

Auf dem Papier sieht das wieder super aus, ob ich es zu Hause merke, wenn ich von 6900XT auf 4080 16GB umsteige - ich bezweifle es. Da spielen die Synch-Funktionen am Monitor die größere Rolle, als eine Erhöhung von 80 auf 120 FPS. Und wie gesagt: 4K läuft flüssig mit max. Details. Bis Spiele da sind, die mehr Rechenpower nötig machen, ist die 50XX oder auch die 60XXer Serie am Start (vgl. RT-Features ab 20XX).

Antwort 2 Likes

grimm

Urgestein

3,083 Kommentare 2,035 Likes

Das ist ein sehr guter Hinweis - hätte ich nicht das Doppelte bezahlt, würde ich jetzt für die Hälfte kaufen - 4K max Details in stabil >60FPS für um die 800,- Euro. Das ist richtig gut.

Antwort 2 Likes

n
netterman

Veteran

159 Kommentare 62 Likes

ja wie geschrieben, waren in der Situation (viele 30xx in den Lagern) die Preise leider genauso zu erwarten - trotzdem ist es einfach nur brutal und ich hoffe immer noch das der Move diesmal nicht aufgeht weil, die meisten von uns eben wichtigere Probleme als das "Hobby" PC Gaming haben...

Aus Nvidias Sicht wie Igor ja auch schreibt ein plausibler aber doch sehr unschöner Schritt...

Antwort Gefällt mir

H
HotteX

Veteran

110 Kommentare 79 Likes

Ja ich kann das alles Nachvollziehen, aber gut ist das nicht. Und zum Glück kann ich als mündiger Mensch selbst endscheiden und sowohl die alte als auch neue Generation erstmal liegen lassen. :-)
Ich kaufe eh nu in der 200W Klasse und bis die kommt wird noch einiges an Zeit vergehen und bis dahin langt mir meine 2070s noch. Bin mal gespannt was Lisa im November vorstellt.

Antwort Gefällt mir

n
netterman

Veteran

159 Kommentare 62 Likes

ich hoffe das Amd doch zumindest immer noch ein bisschen auf mehr Marktanteile schielt und deshalb selbst bei ähnlich guter Leistung doch mit den Preisen zumindest etwas moderater bleibt. Sprich Navi 33 so um die 600-700 Euro, Navi 32 so von 800-900 Euro und Navi 31 so von 1100-1200 Euro. Amd sollte mit N6 ja auch den Vorteil der etwas günstigeren Fertigung bei TSMC haben.

Aber wahrscheinlich wir es wohl bei Amd auch eher Navi 33 mit so 800 Euro, Navi 32 mit so 1100 Euro und Navi 33 mit so 1500 Euro. Na mal schauen - mit der 6900XT könnte man ja eigentlich entspannt zurücklehnen und warten aber für 4K (hätte ich nur niemals diesen Monitor gekauft :D ) kann es halt eigentlich nie genug Leistung sein...

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung