GPUs Graphics Practice Reviews

Palit GeForce RTX 4070 Dual 12 GB in ultrawide and latency comparison – Why memory shortage could also become an issue

It’s that time again, NVIDIA has launched the GeForce RTX 4070. Igor already presented you a detailed test in the usual depth on Wednesday. Today we’ll take a look at the new GeForce RTX 4070 from a slightly different angle. Because always only the standard resolutions in 16:9 format, that’s also kind of boring. And this is where expected and unexpected abysses open up, which we also need to talk about.

What interested me? The resolution 3840 x 1600p in 24:10 format and thus 6,144,000 pixels to put on the panel. The GeForce RTX 3070 Ti and AMD Radeon RX 6700XT also had to go through the program to be able to better classify the card in terms of performance. Yes, I am well aware that the resolution is a real chunk for the two cards from the last generation, but that’s what DLSS and FSR are for, isn’t it? And what about the memory? Haha…

Foreword

Since NVIDIA decided to launch the GeForce RTX 4070 right after Easter, my testing time – with the version from Palit borrowed from Igor – was really short this time. I was not at home at all over Easter. Therefore, there are only three games in the mentioned resolution today, and we look at the pure performance of all cards on the highest settings with RT on (ray tracing). In addition, there is the gain in additional performance due to DLSS/FSR, the latencies and of course DLSS 3 Frame Generation. Since there were some unexpected side effects, I’ll go into those as well.

Test system

CPU Intel Core i9-12900K
Mainboard MSI MPG Z690 Carbon WiFi
RAM 2x 16 GB Corsair Dominator 6000 MHz CL 30-36-36-76
SSD 1 Samsung 980 Pro 500 GB (System)
SSD 2 MSI M480 2 TB (games)
SSD 3 HP EX950 2 TB (Games)
SSD 4 HP SDD S750 1 TB S-ATA (Backup)
CPU Cooler Alphacool Eisbaer Aurora 360
Power supply unit Seasonic Prime Platinum 1300 Watt
GPUs

Palit GeForce RTX 4070 Dual 12 GB / driver 531.42
MSI GeForce RTX 3070 Ti SuprimX 8 GB/ driver 531.42
MSI Radeon RX 6700 XT Gaming X 12 GB/ driver 23.4.1

Sound OnBoard
Keyboard Sharkoon Purewriter RGB (Red Button) via USB @1000 Hz polling rate
Mouse Sharkoon Light² 200 @1000 Hz Polling Rate
Monitor
MSI MEG381CQR Plus @ 3840 x 1600p 175 Hz
Test Tools / Software
NVIDIA FrameView 1.4.8

We’ll start with some light fare, and the “new” CoD MW2 is just the thing. Then one page further…

 

Kommentar

Lade neue Kommentare

ipat66

Urgestein

1,349 Kommentare 1,348 Likes

Danke Fritz für dieses Review.
An sich eine gute Karte...
Ich verstehe allerdings diesen Speichergeiz seitens Nvidea nicht.

Zusammen mit der mickrigen Anbindung hat das dazu geführt,das ich gestern
für einen Freund einen PC auf AMD Basis aufgebaut und bestellt habe (5800 x3d und 7900XT).

Wenn die 4070 (TI) wenigstens 16 GB gehabt hätte,wäre meine Entscheidung anders ausgefallen.

Na ja, Nvidea wird es verkraften und mein Freund kann mit 20GB relativ gelassen in die Zukunft daddeln.

Antwort 4 Likes

FritzHunter01

Moderator

1,139 Kommentare 1,543 Likes

Aus dem Grund hat mein Bruder damals im neuen PC „Office“ - Artikel gibts auf der HomePage - eine RX 6800 bekommen.

Der Nvidia Speichergeiz muss absicht sein…

Antwort 1 Like

e
eastcoast_pete

Urgestein

1,450 Kommentare 814 Likes

Danke für den Test!
Leider (ja, leider) hat NVIDIA v.a. im Nicht Gaming Bereich, also bei den berühmten " Anwendungen" eben doch die Nase sehr entschieden vorne. Und, da ich mir eben nur eine Karte ins System stelle, läuft es in den nächsten 12 Monaten wahrscheinlich wieder auf was Grünes raus. Und ja, der Geiz mit zu wenig VRAM hat eben System.
@Fritz, könntest Du oder Igor Mal eine 770 Arc mit 16 GB nochmal durch einen abgekürzten Testparcours schicken? Intel soll ja doch fleißig an den Treibern gebastelt haben, wär interessant, was da heutzutage geht. Zumindest hat die 770 ja 16 GB VRAM.

Antwort 2 Likes

FritzHunter01

Moderator

1,139 Kommentare 1,543 Likes

Leider habe ich keine Intel Arc… mich würde die Karte auch interessieren… vor allem wie XeSS auf Arc läuft

Antwort 4 Likes

Megaone

Urgestein

1,739 Kommentare 1,637 Likes

Ich finde es gerade schwierig. Weil meine 2080S im Zweitrechner mich genervt hat, habe ich überlegt übergangsweise, bis zum Release der 4090 eine 3080TI oder eine Zweite 3090 zu kaufen. Mit viel Bauchschmerzen habe ich mich dann für die 3080TI entschieden. Es war seinerzeit überall und allerorts, selbst hier im Forum zu hören, das 12Gb langfristig für 4K definitiv genug seien.

Als dann die 4090 kam, war ich hin und her gerissen, was ich verkaufen sollte. Da die 3080ti deutlich neuer und noch richtig lange Garantie hatte im Vergleich zur 3090. Trotzdem hab ich mich dann Gottseidank entschieden, die 3080 Ti zu verkaufen.

Nun sind also 16 GB das neue 12 GB.

Schauen wir mal, wie lange 16 GB halten. Wenn mittlerweile unter Umständen 12 GB für 1440p schon knapp sein können.

Ich jedenfalls war, was die 12 GB betrifft, schon immer sehr skeptisch. Immerhin ist eine 2080ti mit 11GB schon gut 4.5 Jahre alt.

Antwort Gefällt mir

N
Nemesis

Mitglied

22 Kommentare 4 Likes

Jo. Nvidia ADA pro Karten sind beim momentanen Ki Boom Standartware. AMD hätte vermutlich auch abschöpfen können aber das ROCm läift eben nur unter Linux. Man kann das hinbasteln, die Anwender mögen aber eben Windows. MS Server ist auch irgendwie standart... schade das hat AMD einfach verschlafen.

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Standard ist auch Standard.

Antwort Gefällt mir

Ghoster52

Urgestein

1,398 Kommentare 1,058 Likes

Blickt man auf die History, kann das nicht gut gehen, weil man normal immer verdoppelt (siehe RAM)
670 = 2 GB VRAM, 970 = 4 GB, 1080= 8 GB... 2080 = 8 GB, da hab ich lieber zur 3090 gegriffen (auch wegen Preis und so)
Ich habe 2020 schon vermutet, dass der VRAM in neue AAA Spiele zum Flaschenhals wird.

Antwort 1 Like

E
Eribaeri

Veteran

124 Kommentare 48 Likes

Liebe Redaktion,
danke für die ausführlichen Tests.
Was mich als Amateur-Esportler noch interessieren würde, wären Latenz-Tests in E-Sport Titeln. Das müssen nicht alle sein, aber 1-2 wären sehr nett (z.b. Overwatch, Valorant).
Der Grund, weswegen ich danach frage ist folgender: Viele dieser E-Sports-Spiele haben eine Art NVIDIA-Reflex bereits integriert. Damit fallen die üblichen Latenz-Nachteile bei AMD ganz anders aus.
Viele Grüße aus dem verregneten München

Antwort Gefällt mir

Igor Wallossek

1

10,155 Kommentare 18,727 Likes

Latenz-Tests hatten wir doch schon seeeeehr ausführlich. Und heute, was für ein Zufall, auch wieder. Ob wir das dann immer mit Overwatch & Co tun sei mal dahingestellt. Aber eine Anregung ist es ja. :)

Antwort Gefällt mir

FritzHunter01

Moderator

1,139 Kommentare 1,543 Likes

Das mach ich, sobald ich die Zeit habe… pauschal kannst du das nicht so sagen, das AMD hier benachteiligt ist. Wie ich den Reflex/Antilag Artikel bereits geschrieben habe:

Die Technologien bringen dir nur im GPU Limit was. Quasi > 95% GPU Auslastung!

Alles weitere entscheidet sich über die FPS bzw. die Frametimes.

Antwort 2 Likes

ro///M3o

Veteran

339 Kommentare 239 Likes

Klasse Test, herzlichen Dank. Als 21:9 User gefällt mir das besonders gut und zeigt schön die Unterschiede zu 16:9 Tests auf. Es ist halt doch "anders" als die 1440p Tests die ich für gewöhnlich stellvertretend für meinen 21:9 her nehme.

Die Speicherthematik ist für mich bei nVidia ebenfalls, wie auch im Test steht, volle Absicht. 16GB wären für die Rohleistung angemessen gewesen aber die Karte darf auf keinen Fall 4-5 Jahre halten (mit dem thermischen "Bestückungsunsinn" und Plastik Backplates sowieso eine geplante Obsoleszenz). Besonders in Zeiten wo Speicher so günstig ist wie noch nie und die Karten für eine MITTELKLASSE absolut überteuert sind ist das unverständlich. Mindestens um 200€ zu teuer. Die Boardpartner sind leider auch an nVidias Preispolitik gebunden und wie Igor bereits ausgeführt hat in der "friss oder stirb" Falle gefangen wenn sie nVidia Karten verkaufen wollen. Bei der 30er Gen war das ja eine Vollkatastrophe. Bei der 20er zumindest hatte man mit den gesuperten Modellen etwas -nachvollziehbar- nachgebessert und am Preis aber kaum was gemacht.

Ich für meinen Teil kaufe bereits seit Jahren nur noch gute Gebrauchte. Tut der Umwelt gut und mit etwas Geduld kommt man so auch an super Angebote, losgelöst von der verückten Markt und Preispolitik Situation. Vor paar Monaten eine neuwertige 6900XT red Devil Ultimate mit XTXH Chip um 550€ und erst vor ein paar Tagen eine 2060super um 100€ für den PC vom Bruder. Mit beiden Karten immer noch unter dem Preis einer 4070 und zwei glückliche Menschen :cool:

Antwort 4 Likes

Klicke zum Ausklappem
8j0ern

Urgestein

2,473 Kommentare 775 Likes

Sehr nice, was kostet das nVidia Tool um die System Latenzen zu messen ?
Wird die Maus auch gekoppelt um das Feedback zu ermitteln?

Ich nutze zur Zeit FreeSync P.P. mit Enhanced Sync on:

Das Enhanced Sync wurde 2019 mal erklärt, mich würden aber auch mal Nackte Zahlen interessieren.

Antwort 1 Like

Igor Wallossek

1

10,155 Kommentare 18,727 Likes

Dazu gibt es sogar einen Grundlagenartikel und ja, die Maus ist integriert.

Antwort 2 Likes

E
Eribaeri

Veteran

124 Kommentare 48 Likes

Haben wir einen Latenz-Test bei E-Sports Games mit RTX4000 und RX7000? Wenn ja, dann ist mir da was entgangen😮

Antwort 1 Like

FritzHunter01

Moderator

1,139 Kommentare 1,543 Likes

In den jetzigen Test wird die Systemlatenz ohne Maus gemessen.

LDAT kann man leider nicht kaufen

Antwort Gefällt mir

FritzHunter01

Moderator

1,139 Kommentare 1,543 Likes

Nein, gibt es nicht… noch nicht! Mir fehlt die 7000er Karte… AMD hat für mich keine übrig daher keine Tests

Antwort Gefällt mir

8j0ern

Urgestein

2,473 Kommentare 775 Likes

Ok, das wäre bei mir eh die höchste Latenz: Funk Maus. ;)

Verstehe, na gut dann muss ich mich auf euch verlassen.

Von den Board Partner auch keiner eine übrig ?

Antwort Gefällt mir

Igor Wallossek

1

10,155 Kommentare 18,727 Likes

Ich kann ja mal in die Lücke springen - aber nur leihweise. ich habe auch nur zwei Karten (inkl. Fallback)

Die Boardparter haben einfach kein Interesse, diese Karten noch unter die Medien zu bringen. das sind alles Mehrkosten, die durch nichts getragen wrden. Firmen wie Sapphire krebsen echt am Rand des Wahnsinns, da auch AMD die Mutter T. bereits zu Grabe getragen hat. :(

Antwort 5 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung