Palit GeForce RTX 4070 Dual 12 GB im Ultrawide- und Latenz-Vergleich – Warum auch Speichemangel ein Thema werden könnte

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.828
Bewertungspunkte
8.870
Punkte
1
Standort
Redaktion
Es ist mal wieder so weit, NVIDIA hat die GeForce RTX 4070 auf den Markt gebracht. Einen ausführlichen Test hat euch Igor schon am Mittwoch in gewohnter Detailtiefe präsentiert. Heute schauen wir uns die neue GeForce RTX 4070 aus einem etwas anderen Blickwinkel an. Denn immer nur die Standardauflösungen im 16:9 Format, das ist doch (den ganzen Artikel lesen...)
 
Danke Fritz für dieses Review.
An sich eine gute Karte...
Ich verstehe allerdings diesen Speichergeiz seitens Nvidea nicht.

Zusammen mit der mickrigen Anbindung hat das dazu geführt,das ich gestern
für einen Freund einen PC auf AMD Basis aufgebaut und bestellt habe (5800 x3d und 7900XT).

Wenn die 4070 (TI) wenigstens 16 GB gehabt hätte,wäre meine Entscheidung anders ausgefallen.

Na ja, Nvidea wird es verkraften und mein Freund kann mit 20GB relativ gelassen in die Zukunft daddeln.
 
Danke Fritz für dieses Review.
An sich eine gute Karte...
Ich verstehe allerdings diesen Speichergeiz seitens Nvidea nicht.
Zusammen mit der mickrigen Anbindung hat das dazu geführt,das ich gestern
für einen Freund einen PC auf AMD Basis aufgebaut und bestellt habe (5800 x3d und 7900XT).
Wenn die 4070 (TI) wenigstens 16 GB gehabt hätte,wäre meine Entscheidung anders ausgefallen.
Na ja, Nvidea wird es verkraften und mein Freund kann mit 20GB relativ gelassen in die Zukunft daddeln.
Aus dem Grund hat mein Bruder damals im neuen PC „Office“ - Artikel gibts auf der HomePage - eine RX 6800 bekommen.

Der Nvidia Speichergeiz muss absicht sein…
 
Danke für den Test!
Leider (ja, leider) hat NVIDIA v.a. im Nicht Gaming Bereich, also bei den berühmten " Anwendungen" eben doch die Nase sehr entschieden vorne. Und, da ich mir eben nur eine Karte ins System stelle, läuft es in den nächsten 12 Monaten wahrscheinlich wieder auf was Grünes raus. Und ja, der Geiz mit zu wenig VRAM hat eben System.
@Fritz, könntest Du oder Igor Mal eine 770 Arc mit 16 GB nochmal durch einen abgekürzten Testparcours schicken? Intel soll ja doch fleißig an den Treibern gebastelt haben, wär interessant, was da heutzutage geht. Zumindest hat die 770 ja 16 GB VRAM.
 
Aus dem Grund hat mein Bruder damals im neuen PC „Office“ - Artikel gibts auf der HomePage - eine RX 6800 bekommen.

Der Nvidia Speichergeiz muss absicht sein…
Ich finde es gerade schwierig. Weil meine 2080S im Zweitrechner mich genervt hat, habe ich überlegt übergangsweise, bis zum Release der 4090 eine 3080TI oder eine Zweite 3090 zu kaufen. Mit viel Bauchschmerzen habe ich mich dann für die 3080TI entschieden. Es war seinerzeit überall und allerorts, selbst hier im Forum zu hören, das 12Gb langfristig für 4K definitiv genug seien.

Als dann die 4090 kam, war ich hin und her gerissen, was ich verkaufen sollte. Da die 3080ti deutlich neuer und noch richtig lange Garantie hatte im Vergleich zur 3090. Trotzdem hab ich mich dann Gottseidank entschieden, die 3080 Ti zu verkaufen.

Nun sind also 16 GB das neue 12 GB.

Schauen wir mal, wie lange 16 GB halten. Wenn mittlerweile unter Umständen 12 GB für 1440p schon knapp sein können.

Ich jedenfalls war, was die 12 GB betrifft, schon immer sehr skeptisch. Immerhin ist eine 2080ti mit 11GB schon gut 4.5 Jahre alt.
 
Zuletzt bearbeitet :
Jo. Nvidia ADA pro Karten sind beim momentanen Ki Boom Standartware. AMD hätte vermutlich auch abschöpfen können aber das ROCm läift eben nur unter Linux. Man kann das hinbasteln, die Anwender mögen aber eben Windows. MS Server ist auch irgendwie standart... schade das hat AMD einfach verschlafen.
 
Zuletzt bearbeitet :
Standard ist auch Standard.
 
Blickt man auf die History, kann das nicht gut gehen, weil man normal immer verdoppelt (siehe RAM)
670 = 2 GB VRAM, 970 = 4 GB, 1080= 8 GB... 2080 = 8 GB, da hab ich lieber zur 3090 gegriffen (auch wegen Preis und so)
Ich habe 2020 schon vermutet, dass der VRAM in neue AAA Spiele zum Flaschenhals wird.
 
Liebe Redaktion,
danke für die ausführlichen Tests.
Was mich als Amateur-Esportler noch interessieren würde, wären Latenz-Tests in E-Sport Titeln. Das müssen nicht alle sein, aber 1-2 wären sehr nett (z.b. Overwatch, Valorant).
Der Grund, weswegen ich danach frage ist folgender: Viele dieser E-Sports-Spiele haben eine Art NVIDIA-Reflex bereits integriert. Damit fallen die üblichen Latenz-Nachteile bei AMD ganz anders aus.
Viele Grüße aus dem verregneten München
 
Latenz-Tests hatten wir doch schon seeeeehr ausführlich. Und heute, was für ein Zufall, auch wieder. Ob wir das dann immer mit Overwatch & Co tun sei mal dahingestellt. Aber eine Anregung ist es ja. :)
 
Liebe Redaktion,
danke für die ausführlichen Tests.
Was mich als Amateur-Esportler noch interessieren würde, wären Latenz-Tests in E-Sport Titeln. Das müssen nicht alle sein, aber 1-2 wären sehr nett (z.b. Overwatch, Valorant).
Der Grund, weswegen ich danach frage ist folgender: Viele dieser E-Sports-Spiele haben eine Art NVIDIA-Reflex bereits integriert. Damit fallen die üblichen Latenz-Nachteile bei AMD ganz anders aus.
Viele Grüße aus dem verregneten München
Das mach ich, sobald ich die Zeit habe… pauschal kannst du das nicht so sagen, das AMD hier benachteiligt ist. Wie ich den Reflex/Antilag Artikel bereits geschrieben habe:

Die Technologien bringen dir nur im GPU Limit was. Quasi > 95% GPU Auslastung!

Alles weitere entscheidet sich über die FPS bzw. die Frametimes.
 
Klasse Test, herzlichen Dank. Als 21:9 User gefällt mir das besonders gut und zeigt schön die Unterschiede zu 16:9 Tests auf. Es ist halt doch "anders" als die 1440p Tests die ich für gewöhnlich stellvertretend für meinen 21:9 her nehme.

Die Speicherthematik ist für mich bei nVidia ebenfalls, wie auch im Test steht, volle Absicht. 16GB wären für die Rohleistung angemessen gewesen aber die Karte darf auf keinen Fall 4-5 Jahre halten (mit dem thermischen "Bestückungsunsinn" und Plastik Backplates sowieso eine geplante Obsoleszenz). Besonders in Zeiten wo Speicher so günstig ist wie noch nie und die Karten für eine MITTELKLASSE absolut überteuert sind ist das unverständlich. Mindestens um 200€ zu teuer. Die Boardpartner sind leider auch an nVidias Preispolitik gebunden und wie Igor bereits ausgeführt hat in der "friss oder stirb" Falle gefangen wenn sie nVidia Karten verkaufen wollen. Bei der 30er Gen war das ja eine Vollkatastrophe. Bei der 20er zumindest hatte man mit den gesuperten Modellen etwas -nachvollziehbar- nachgebessert und am Preis aber kaum was gemacht.

Ich für meinen Teil kaufe bereits seit Jahren nur noch gute Gebrauchte. Tut der Umwelt gut und mit etwas Geduld kommt man so auch an super Angebote, losgelöst von der verückten Markt und Preispolitik Situation. Vor paar Monaten eine neuwertige 6900XT red Devil Ultimate mit XTXH Chip um 550€ und erst vor ein paar Tagen eine 2060super um 100€ für den PC vom Bruder. Mit beiden Karten immer noch unter dem Preis einer 4070 und zwei glückliche Menschen :cool:
 
Latenz-Tests hatten wir doch schon seeeeehr ausführlich. Und heute, was für ein Zufall, auch wieder. Ob wir das dann immer mit Overwatch & Co tun sei mal dahingestellt. Aber eine Anregung ist es ja. :)
Sehr nice, was kostet das nVidia Tool um die System Latenzen zu messen ?
Wird die Maus auch gekoppelt um das Feedback zu ermitteln?

Ich nutze zur Zeit FreeSync P.P. mit Enhanced Sync on:

Das Enhanced Sync wurde 2019 mal erklärt, mich würden aber auch mal Nackte Zahlen interessieren.

 
Dazu gibt es sogar einen Grundlagenartikel und ja, die Maus ist integriert.
 
Latenz-Tests hatten wir doch schon seeeeehr ausführlich. Und heute, was für ein Zufall, auch wieder. Ob wir das dann immer mit Overwatch & Co tun sei mal dahingestellt. Aber eine Anregung ist es ja. :)
Haben wir einen Latenz-Test bei E-Sports Games mit RTX4000 und RX7000? Wenn ja, dann ist mir da was entgangen😮
 
Sehr nice, was kostet das nVidia Tool um die System Latenzen zu messen ?
Wird die Maus auch gekoppelt um das Feedback zu ermitteln?

Ich nutze zur Zeit FreeSync P.P. mit Enhanced Sync on:

Das Enhanced Sync wurde 2019 mal erklärt, mich würden aber auch mal Nackte Zahlen interessieren.

In den jetzigen Test wird die Systemlatenz ohne Maus gemessen.

LDAT kann man leider nicht kaufen
 
Ich kann ja mal in die Lücke springen - aber nur leihweise. ich habe auch nur zwei Karten (inkl. Fallback)

Die Boardparter haben einfach kein Interesse, diese Karten noch unter die Medien zu bringen. das sind alles Mehrkosten, die durch nichts getragen wrden. Firmen wie Sapphire krebsen echt am Rand des Wahnsinns, da auch AMD die Mutter T. bereits zu Grabe getragen hat. :(
 
Oben Unten