GPUs Graphics Practice Reviews

Palit GeForce RTX 4070 Dual 12 GB in ultrawide and latency comparison – Why memory shortage could also become an issue

Summary

My article today should actually focus on the topic – performance increase through upscaling and latencies – especially in relation to the new NVIDIA GeForce RTX 4070. But then came the RTX 3070 Ti memory issue. The new card also delivers decently here and now, considering that NVIDIA advertises the RTX 4070 as a 1440p card. The resolution I chose – was a special challenge and should be of interest in the focus for the Ultrawide players. In the end, it was a roller coaster of emotions.

NVIDIA’s new mid-range card can hold its own quite well. It at least sets itself apart from the RTX 3070 Ti and RX 6700 XT, though not always as clearly as I suspected. Okay, with Frame Generation it becomes very clear. Whether the 12 GB memory will still be sufficient to enjoy future AAA titles in 1440p in two years’ time – I’ll leave it at ? . At this point, NVIDIA could also be accused of wanting the memory. Who else is going to buy the new cards every 2 to 3 years?

On the other hand, the developers of such games have to test themselves whether the game still runs somehow in 1080p with all settings on an 8 GB graphics card. How can you design games in 1080p in such a way that you simply take UHD textures and basically fill up the memory of a card until it runs over the slot? If you don’t think so, take a look at your work:

The render resolution doesn’t even correspond to 1080p and a nearly 3-year-old graphics card with 8 GB of memory is virtually worthless. This needs to be optimized and NVIDIA should rethink its memory ambition!

Conclusion

The GeForce RTX 4070 is especially worthwhile for those who still have a 1000 or 2000 GPU. This also applies to owners of Vega or RDNA 1. You’ll really notice the jump in performance. But as always, everyone has to work that out for themselves. From my point of view, the price is temptingly attractive at the moment, but basically too high for an NVIDIA 70 series card. What a pity!

The performance of the RTX 4070 is on par with the RTX 3080. The RTX 4070 offers another 2 GB more memory – fortunately – and can shine with Frame Generation. What really has to be praised, however, is the power consumption. Igor was already able to show you that, and it didn’t look any different for me. I really like that, and that there are finally cards that only occupy 2 slots. The Mini-ITX lovers will appreciate that!

Of course, I’ll take a closer look at the drama surrounding the RTX 3070 Ti, and the RX 6700 XT will also have to deal with it. I’m curious what AMD has to say about anti-lag, because that’s really funny. If this is how you approach the topic of FSR 3.0, then I see dark clouds gathering on the topic of latencies. In this sense, see you soon in the forum…

 

Kommentar

Lade neue Kommentare

ipat66

Urgestein

1,359 Kommentare 1,357 Likes

Danke Fritz für dieses Review.
An sich eine gute Karte...
Ich verstehe allerdings diesen Speichergeiz seitens Nvidea nicht.

Zusammen mit der mickrigen Anbindung hat das dazu geführt,das ich gestern
für einen Freund einen PC auf AMD Basis aufgebaut und bestellt habe (5800 x3d und 7900XT).

Wenn die 4070 (TI) wenigstens 16 GB gehabt hätte,wäre meine Entscheidung anders ausgefallen.

Na ja, Nvidea wird es verkraften und mein Freund kann mit 20GB relativ gelassen in die Zukunft daddeln.

Antwort 4 Likes

FritzHunter01

Moderator

1,156 Kommentare 1,574 Likes

Aus dem Grund hat mein Bruder damals im neuen PC „Office“ - Artikel gibts auf der HomePage - eine RX 6800 bekommen.

Der Nvidia Speichergeiz muss absicht sein…

Antwort 1 Like

e
eastcoast_pete

Urgestein

1,489 Kommentare 841 Likes

Danke für den Test!
Leider (ja, leider) hat NVIDIA v.a. im Nicht Gaming Bereich, also bei den berühmten " Anwendungen" eben doch die Nase sehr entschieden vorne. Und, da ich mir eben nur eine Karte ins System stelle, läuft es in den nächsten 12 Monaten wahrscheinlich wieder auf was Grünes raus. Und ja, der Geiz mit zu wenig VRAM hat eben System.
@Fritz, könntest Du oder Igor Mal eine 770 Arc mit 16 GB nochmal durch einen abgekürzten Testparcours schicken? Intel soll ja doch fleißig an den Treibern gebastelt haben, wär interessant, was da heutzutage geht. Zumindest hat die 770 ja 16 GB VRAM.

Antwort 2 Likes

FritzHunter01

Moderator

1,156 Kommentare 1,574 Likes

Leider habe ich keine Intel Arc… mich würde die Karte auch interessieren… vor allem wie XeSS auf Arc läuft

Antwort 4 Likes

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Ich finde es gerade schwierig. Weil meine 2080S im Zweitrechner mich genervt hat, habe ich überlegt übergangsweise, bis zum Release der 4090 eine 3080TI oder eine Zweite 3090 zu kaufen. Mit viel Bauchschmerzen habe ich mich dann für die 3080TI entschieden. Es war seinerzeit überall und allerorts, selbst hier im Forum zu hören, das 12Gb langfristig für 4K definitiv genug seien.

Als dann die 4090 kam, war ich hin und her gerissen, was ich verkaufen sollte. Da die 3080ti deutlich neuer und noch richtig lange Garantie hatte im Vergleich zur 3090. Trotzdem hab ich mich dann Gottseidank entschieden, die 3080 Ti zu verkaufen.

Nun sind also 16 GB das neue 12 GB.

Schauen wir mal, wie lange 16 GB halten. Wenn mittlerweile unter Umständen 12 GB für 1440p schon knapp sein können.

Ich jedenfalls war, was die 12 GB betrifft, schon immer sehr skeptisch. Immerhin ist eine 2080ti mit 11GB schon gut 4.5 Jahre alt.

Antwort Gefällt mir

N
Nemesis

Mitglied

22 Kommentare 4 Likes

Jo. Nvidia ADA pro Karten sind beim momentanen Ki Boom Standartware. AMD hätte vermutlich auch abschöpfen können aber das ROCm läift eben nur unter Linux. Man kann das hinbasteln, die Anwender mögen aber eben Windows. MS Server ist auch irgendwie standart... schade das hat AMD einfach verschlafen.

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Standard ist auch Standard.

Antwort Gefällt mir

Ghoster52

Urgestein

1,412 Kommentare 1,068 Likes

Blickt man auf die History, kann das nicht gut gehen, weil man normal immer verdoppelt (siehe RAM)
670 = 2 GB VRAM, 970 = 4 GB, 1080= 8 GB... 2080 = 8 GB, da hab ich lieber zur 3090 gegriffen (auch wegen Preis und so)
Ich habe 2020 schon vermutet, dass der VRAM in neue AAA Spiele zum Flaschenhals wird.

Antwort 1 Like

E
Eribaeri

Veteran

124 Kommentare 48 Likes

Liebe Redaktion,
danke für die ausführlichen Tests.
Was mich als Amateur-Esportler noch interessieren würde, wären Latenz-Tests in E-Sport Titeln. Das müssen nicht alle sein, aber 1-2 wären sehr nett (z.b. Overwatch, Valorant).
Der Grund, weswegen ich danach frage ist folgender: Viele dieser E-Sports-Spiele haben eine Art NVIDIA-Reflex bereits integriert. Damit fallen die üblichen Latenz-Nachteile bei AMD ganz anders aus.
Viele Grüße aus dem verregneten München

Antwort Gefällt mir

Igor Wallossek

1

10,208 Kommentare 18,884 Likes

Latenz-Tests hatten wir doch schon seeeeehr ausführlich. Und heute, was für ein Zufall, auch wieder. Ob wir das dann immer mit Overwatch & Co tun sei mal dahingestellt. Aber eine Anregung ist es ja. :)

Antwort Gefällt mir

FritzHunter01

Moderator

1,156 Kommentare 1,574 Likes

Das mach ich, sobald ich die Zeit habe… pauschal kannst du das nicht so sagen, das AMD hier benachteiligt ist. Wie ich den Reflex/Antilag Artikel bereits geschrieben habe:

Die Technologien bringen dir nur im GPU Limit was. Quasi > 95% GPU Auslastung!

Alles weitere entscheidet sich über die FPS bzw. die Frametimes.

Antwort 2 Likes

ro///M3o

Veteran

346 Kommentare 239 Likes

Klasse Test, herzlichen Dank. Als 21:9 User gefällt mir das besonders gut und zeigt schön die Unterschiede zu 16:9 Tests auf. Es ist halt doch "anders" als die 1440p Tests die ich für gewöhnlich stellvertretend für meinen 21:9 her nehme.

Die Speicherthematik ist für mich bei nVidia ebenfalls, wie auch im Test steht, volle Absicht. 16GB wären für die Rohleistung angemessen gewesen aber die Karte darf auf keinen Fall 4-5 Jahre halten (mit dem thermischen "Bestückungsunsinn" und Plastik Backplates sowieso eine geplante Obsoleszenz). Besonders in Zeiten wo Speicher so günstig ist wie noch nie und die Karten für eine MITTELKLASSE absolut überteuert sind ist das unverständlich. Mindestens um 200€ zu teuer. Die Boardpartner sind leider auch an nVidias Preispolitik gebunden und wie Igor bereits ausgeführt hat in der "friss oder stirb" Falle gefangen wenn sie nVidia Karten verkaufen wollen. Bei der 30er Gen war das ja eine Vollkatastrophe. Bei der 20er zumindest hatte man mit den gesuperten Modellen etwas -nachvollziehbar- nachgebessert und am Preis aber kaum was gemacht.

Ich für meinen Teil kaufe bereits seit Jahren nur noch gute Gebrauchte. Tut der Umwelt gut und mit etwas Geduld kommt man so auch an super Angebote, losgelöst von der verückten Markt und Preispolitik Situation. Vor paar Monaten eine neuwertige 6900XT red Devil Ultimate mit XTXH Chip um 550€ und erst vor ein paar Tagen eine 2060super um 100€ für den PC vom Bruder. Mit beiden Karten immer noch unter dem Preis einer 4070 und zwei glückliche Menschen :cool:

Antwort 4 Likes

Klicke zum Ausklappem
8j0ern

Urgestein

2,515 Kommentare 790 Likes

Sehr nice, was kostet das nVidia Tool um die System Latenzen zu messen ?
Wird die Maus auch gekoppelt um das Feedback zu ermitteln?

Ich nutze zur Zeit FreeSync P.P. mit Enhanced Sync on:

Das Enhanced Sync wurde 2019 mal erklärt, mich würden aber auch mal Nackte Zahlen interessieren.

Antwort 1 Like

Igor Wallossek

1

10,208 Kommentare 18,884 Likes

Dazu gibt es sogar einen Grundlagenartikel und ja, die Maus ist integriert.

Antwort 2 Likes

E
Eribaeri

Veteran

124 Kommentare 48 Likes

Haben wir einen Latenz-Test bei E-Sports Games mit RTX4000 und RX7000? Wenn ja, dann ist mir da was entgangen😮

Antwort 1 Like

FritzHunter01

Moderator

1,156 Kommentare 1,574 Likes

In den jetzigen Test wird die Systemlatenz ohne Maus gemessen.

LDAT kann man leider nicht kaufen

Antwort Gefällt mir

FritzHunter01

Moderator

1,156 Kommentare 1,574 Likes

Nein, gibt es nicht… noch nicht! Mir fehlt die 7000er Karte… AMD hat für mich keine übrig daher keine Tests

Antwort Gefällt mir

8j0ern

Urgestein

2,515 Kommentare 790 Likes

Ok, das wäre bei mir eh die höchste Latenz: Funk Maus. ;)

Verstehe, na gut dann muss ich mich auf euch verlassen.

Von den Board Partner auch keiner eine übrig ?

Antwort Gefällt mir

Igor Wallossek

1

10,208 Kommentare 18,884 Likes

Ich kann ja mal in die Lücke springen - aber nur leihweise. ich habe auch nur zwei Karten (inkl. Fallback)

Die Boardparter haben einfach kein Interesse, diese Karten noch unter die Medien zu bringen. das sind alles Mehrkosten, die durch nichts getragen wrden. Firmen wie Sapphire krebsen echt am Rand des Wahnsinns, da auch AMD die Mutter T. bereits zu Grabe getragen hat. :(

Antwort 5 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Fritz Hunter

Werbung

Werbung