Grafikkarten Praxis Testberichte VGA

Palit GeForce RTX 4070 Dual 12 GB im Ultrawide- und Latenz-Vergleich – Warum auch Speichermangel ein ernstes Thema werden könnte

NVIDIA GeForce RTX 3070 Ti

Ich zeige euch erstmal die Werte, dann sage ich was dazu. Lasst euch nicht blenden!

Da geht der Karte die Leistung aus und nicht nur das. Das viel Schlimmere ist, dass die 8 GB volllaufen, und dann geht das Geruckel los. Das wird durch meinen Test leider nicht sichtbar. Dazu muss man „tiefer“ im Spiel sein und dann wird es kriminell. Jeder der jetzt meint: Das liegt an der hohen Auflösung, der FritzHunter hat mal gar keinen Plan, der irrt gewaltig. Das Problem kann schon in 1080p auftreten. Und, wer jetzt der Meinung ist, dass ist nur in diesem Spiel so – auch der irrt. Ein Spiel kommt ja noch, abwarten.

NVIDIA Reflex gibt alles. Der Abstand der RTX 4070 liegt ohne Frame Generation bei max. 10 FPS, wenn man DLSS-Performance vergleicht. Wenn da das Speicherproblem der RTX 3070 Ti nicht wäre, dann müsste man für diese Spiel klar festhalten: So groß fällt der Leistungssprung der RTX 4070 dann doch nicht aus. Die Radeon RX 6700 XT sollte jetzt – dank ihrer 12 GB – alle Trümpfe in der Hand haben. Jetzt wird es spannend…

 

 

Kommentar

Lade neue Kommentare

ipat66

Urgestein

1,359 Kommentare 1,357 Likes

Danke Fritz für dieses Review.
An sich eine gute Karte...
Ich verstehe allerdings diesen Speichergeiz seitens Nvidea nicht.

Zusammen mit der mickrigen Anbindung hat das dazu geführt,das ich gestern
für einen Freund einen PC auf AMD Basis aufgebaut und bestellt habe (5800 x3d und 7900XT).

Wenn die 4070 (TI) wenigstens 16 GB gehabt hätte,wäre meine Entscheidung anders ausgefallen.

Na ja, Nvidea wird es verkraften und mein Freund kann mit 20GB relativ gelassen in die Zukunft daddeln.

Antwort 4 Likes

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Aus dem Grund hat mein Bruder damals im neuen PC „Office“ - Artikel gibts auf der HomePage - eine RX 6800 bekommen.

Der Nvidia Speichergeiz muss absicht sein…

Antwort 1 Like

e
eastcoast_pete

Urgestein

1,485 Kommentare 841 Likes

Danke für den Test!
Leider (ja, leider) hat NVIDIA v.a. im Nicht Gaming Bereich, also bei den berühmten " Anwendungen" eben doch die Nase sehr entschieden vorne. Und, da ich mir eben nur eine Karte ins System stelle, läuft es in den nächsten 12 Monaten wahrscheinlich wieder auf was Grünes raus. Und ja, der Geiz mit zu wenig VRAM hat eben System.
@Fritz, könntest Du oder Igor Mal eine 770 Arc mit 16 GB nochmal durch einen abgekürzten Testparcours schicken? Intel soll ja doch fleißig an den Treibern gebastelt haben, wär interessant, was da heutzutage geht. Zumindest hat die 770 ja 16 GB VRAM.

Antwort 2 Likes

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Leider habe ich keine Intel Arc… mich würde die Karte auch interessieren… vor allem wie XeSS auf Arc läuft

Antwort 4 Likes

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Ich finde es gerade schwierig. Weil meine 2080S im Zweitrechner mich genervt hat, habe ich überlegt übergangsweise, bis zum Release der 4090 eine 3080TI oder eine Zweite 3090 zu kaufen. Mit viel Bauchschmerzen habe ich mich dann für die 3080TI entschieden. Es war seinerzeit überall und allerorts, selbst hier im Forum zu hören, das 12Gb langfristig für 4K definitiv genug seien.

Als dann die 4090 kam, war ich hin und her gerissen, was ich verkaufen sollte. Da die 3080ti deutlich neuer und noch richtig lange Garantie hatte im Vergleich zur 3090. Trotzdem hab ich mich dann Gottseidank entschieden, die 3080 Ti zu verkaufen.

Nun sind also 16 GB das neue 12 GB.

Schauen wir mal, wie lange 16 GB halten. Wenn mittlerweile unter Umständen 12 GB für 1440p schon knapp sein können.

Ich jedenfalls war, was die 12 GB betrifft, schon immer sehr skeptisch. Immerhin ist eine 2080ti mit 11GB schon gut 4.5 Jahre alt.

Antwort Gefällt mir

N
Nemesis

Mitglied

22 Kommentare 4 Likes

Jo. Nvidia ADA pro Karten sind beim momentanen Ki Boom Standartware. AMD hätte vermutlich auch abschöpfen können aber das ROCm läift eben nur unter Linux. Man kann das hinbasteln, die Anwender mögen aber eben Windows. MS Server ist auch irgendwie standart... schade das hat AMD einfach verschlafen.

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Standard ist auch Standard.

Antwort Gefällt mir

Ghoster52

Urgestein

1,412 Kommentare 1,068 Likes

Blickt man auf die History, kann das nicht gut gehen, weil man normal immer verdoppelt (siehe RAM)
670 = 2 GB VRAM, 970 = 4 GB, 1080= 8 GB... 2080 = 8 GB, da hab ich lieber zur 3090 gegriffen (auch wegen Preis und so)
Ich habe 2020 schon vermutet, dass der VRAM in neue AAA Spiele zum Flaschenhals wird.

Antwort 1 Like

E
Eribaeri

Veteran

124 Kommentare 48 Likes

Liebe Redaktion,
danke für die ausführlichen Tests.
Was mich als Amateur-Esportler noch interessieren würde, wären Latenz-Tests in E-Sport Titeln. Das müssen nicht alle sein, aber 1-2 wären sehr nett (z.b. Overwatch, Valorant).
Der Grund, weswegen ich danach frage ist folgender: Viele dieser E-Sports-Spiele haben eine Art NVIDIA-Reflex bereits integriert. Damit fallen die üblichen Latenz-Nachteile bei AMD ganz anders aus.
Viele Grüße aus dem verregneten München

Antwort Gefällt mir

Igor Wallossek

1

10,208 Kommentare 18,870 Likes

Latenz-Tests hatten wir doch schon seeeeehr ausführlich. Und heute, was für ein Zufall, auch wieder. Ob wir das dann immer mit Overwatch & Co tun sei mal dahingestellt. Aber eine Anregung ist es ja. :)

Antwort Gefällt mir

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Das mach ich, sobald ich die Zeit habe… pauschal kannst du das nicht so sagen, das AMD hier benachteiligt ist. Wie ich den Reflex/Antilag Artikel bereits geschrieben habe:

Die Technologien bringen dir nur im GPU Limit was. Quasi > 95% GPU Auslastung!

Alles weitere entscheidet sich über die FPS bzw. die Frametimes.

Antwort 2 Likes

ro///M3o

Veteran

346 Kommentare 239 Likes

Klasse Test, herzlichen Dank. Als 21:9 User gefällt mir das besonders gut und zeigt schön die Unterschiede zu 16:9 Tests auf. Es ist halt doch "anders" als die 1440p Tests die ich für gewöhnlich stellvertretend für meinen 21:9 her nehme.

Die Speicherthematik ist für mich bei nVidia ebenfalls, wie auch im Test steht, volle Absicht. 16GB wären für die Rohleistung angemessen gewesen aber die Karte darf auf keinen Fall 4-5 Jahre halten (mit dem thermischen "Bestückungsunsinn" und Plastik Backplates sowieso eine geplante Obsoleszenz). Besonders in Zeiten wo Speicher so günstig ist wie noch nie und die Karten für eine MITTELKLASSE absolut überteuert sind ist das unverständlich. Mindestens um 200€ zu teuer. Die Boardpartner sind leider auch an nVidias Preispolitik gebunden und wie Igor bereits ausgeführt hat in der "friss oder stirb" Falle gefangen wenn sie nVidia Karten verkaufen wollen. Bei der 30er Gen war das ja eine Vollkatastrophe. Bei der 20er zumindest hatte man mit den gesuperten Modellen etwas -nachvollziehbar- nachgebessert und am Preis aber kaum was gemacht.

Ich für meinen Teil kaufe bereits seit Jahren nur noch gute Gebrauchte. Tut der Umwelt gut und mit etwas Geduld kommt man so auch an super Angebote, losgelöst von der verückten Markt und Preispolitik Situation. Vor paar Monaten eine neuwertige 6900XT red Devil Ultimate mit XTXH Chip um 550€ und erst vor ein paar Tagen eine 2060super um 100€ für den PC vom Bruder. Mit beiden Karten immer noch unter dem Preis einer 4070 und zwei glückliche Menschen :cool:

Antwort 4 Likes

Klicke zum Ausklappem
8j0ern

Urgestein

2,510 Kommentare 789 Likes

Sehr nice, was kostet das nVidia Tool um die System Latenzen zu messen ?
Wird die Maus auch gekoppelt um das Feedback zu ermitteln?

Ich nutze zur Zeit FreeSync P.P. mit Enhanced Sync on:

Das Enhanced Sync wurde 2019 mal erklärt, mich würden aber auch mal Nackte Zahlen interessieren.

Antwort 1 Like

Igor Wallossek

1

10,208 Kommentare 18,870 Likes

Dazu gibt es sogar einen Grundlagenartikel und ja, die Maus ist integriert.

Antwort 2 Likes

E
Eribaeri

Veteran

124 Kommentare 48 Likes

Haben wir einen Latenz-Test bei E-Sports Games mit RTX4000 und RX7000? Wenn ja, dann ist mir da was entgangen😮

Antwort 1 Like

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

In den jetzigen Test wird die Systemlatenz ohne Maus gemessen.

LDAT kann man leider nicht kaufen

Antwort Gefällt mir

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Nein, gibt es nicht… noch nicht! Mir fehlt die 7000er Karte… AMD hat für mich keine übrig daher keine Tests

Antwort Gefällt mir

8j0ern

Urgestein

2,510 Kommentare 789 Likes

Ok, das wäre bei mir eh die höchste Latenz: Funk Maus. ;)

Verstehe, na gut dann muss ich mich auf euch verlassen.

Von den Board Partner auch keiner eine übrig ?

Antwort Gefällt mir

Igor Wallossek

1

10,208 Kommentare 18,870 Likes

Ich kann ja mal in die Lücke springen - aber nur leihweise. ich habe auch nur zwei Karten (inkl. Fallback)

Die Boardparter haben einfach kein Interesse, diese Karten noch unter die Medien zu bringen. das sind alles Mehrkosten, die durch nichts getragen wrden. Firmen wie Sapphire krebsen echt am Rand des Wahnsinns, da auch AMD die Mutter T. bereits zu Grabe getragen hat. :(

Antwort 5 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung