Wird Ada massentauglich? GeForce RTX 4070 Founders Edition 12 GB im Test mit 200 und 220 Watt Power Limit plus OC

Auch die ehrlichen Worte zum Preis und zu den Erwartungen der Preise von der Konkurrenz, waren sehr erfrischend. Natürlich möchte man schlechte Nachrichten nicht gerne hören und Schuld ist immer der Überbringer.

Das ist es eben.

Wenn man mal auf CB und Co die Kommentare verfolgt, wird oft auf dem "Abzockpreis" rumgeritten und gesagt, dass die Karte höchstens 499 oder 549€ wert sei.

Das passiert so häufig, dass man meinen könnte, es gebe zig verschiedene Konkurrenzprodukte mit vergleichbarer Leistung und ähnlichem Featureset für 25% weniger und Nvidia würden die Kunden in Scharen zur Konkurrenz weglaufen.

Stattdessen ist die Karte selbst gegen RDNA2 zu Abverkaufspreisen durchaus attraktiv. Ist die preisliche Entwicklung schön? Sicher nicht. Aber man sollte schon bei der Wahrheit bleiben.
 
Das mit den 200W bei einer 4090 wäre auch durchaus interessant.
Aber mir kommt da noch ein ganz anderer Gedanke.

Was wäre wenn man bspw eine 2090 auf Diät setzen würde?
Hätte man dann eventuell eine zumindestens ungefähr vergleichbare Leistung, wie eine 4070 nur zu einem deutlich geringeren Preis?
Oder auch 2080. Also für Full-HD wäre sie auf jeden Fall mehr als ausreichend. Vlt auch noch für eine Stufe höher also WQHD.
RT ist zwar dann eher nicht so dolle.. wenn auch evtl teils möglich, aber ich denke im Einstiegsbereich ist das auch gar nicht so wichtig.
 
Was wäre wenn man bspw eine 2090 auf Diät setzen würde?
Hätte man dann eventuell eine zumindestens ungefähr vergleichbare Leistung, wie eine 4070 nur zu einem deutlich geringeren Preis?
Oder auch 2080.

Es gibt keine 2090, das hieß damals noch 2080 Ti.

Da die 4070 ca. 30% schneller als eine 2080 Ti ist, die Stock bereits 265-280W verbraucht, ist das aussichtslos.

Dafür kostet eine gebrauchte 2080 Ti natürlich auch nur 350-400€, wobei die dann 4,5 Jahre alt ist und keine modernen Features wie Frame Generation oder AV1 mitbringt. In vielen Produktivanwendungen ist die 4070 auch in einer ganz anderen Liga.
 
Es gibt keine 2090, das hieß damals noch 2080 Ti.

Da die 4070 ca. 30% schneller als eine 2080 Ti ist, die Stock bereits 265-280W verbraucht, ist das aussichtslos.

Dafür kostet eine gebrauchte 2080 Ti natürlich auch nur 350-400€, wobei die dann 4,5 Jahre alt ist und keine modernen Features wie Frame Generation oder AV1 mitbringt. In vielen Produktivanwendungen ist die 4070 auch in einer ganz anderen Liga.

Naja klar das die von Werk aus mehr verbraucht. Aber so eine 2080TI oder Super war ja dann damals auch die Highendklasse unter den Grakas. und die Super ist zwar jetzt auch schon rund 3,5 Jahre alt. Aber wie gesagt.. Highend zu jetzt Einsteigerkarte.
Und vergleichbarer Speicherausbau zur 4070.
Das ihr da einige Features fehlen..das ist auch klar.

Aber es gab ja schon damals das Thema des Undervoltens. Und welche Framerraten man am Ende rausbekommt.
Du willst ja mit einer Einsteigerkarte keine 4k-Auflösung in den Ultrasettings auf den Monitor zaubern.

Und wie du schon sagtest.. man bekommt für eine 4070 Graka 2 von den 2080TI oder Super Karten.
 
In Watt pro FPS schneidet die 4070 auch schlecht ab,die hat nicht viel Potenzial,der hohe Preis,nur 12GB,als 4060/TI für 350EU wäre es ne bessere Karte geworden.
 
In Watt pro FPS schneidet die 4070 auch schlecht ab,die hat nicht viel Potenzial,der hohe Preis,nur 12GB,als 4060/TI für 350EU wäre es ne bessere Karte geworden.
Hast Du ein anderes Review gelesen?

05 FHD Efficiency.png

Und nur mal so:
Die Marge der Hersteller liegt gerade mal bei 15%. Dass AMD-Karten als Dumping durchgehen, wird wohl eher daran liegen, dass man Stückzahlen schinden will. Gewinne machen Sapphire & Co. damit leider nicht. Die Chips + RAM Bundles sind genauso teuer wie bei NVIDIA. 16 GB langsamer GDDR6 sind jetzt auch nicht so prall (Durchsatz) und an der Texturkompression arbeitet man immer noch.
 
Schöne Karte, guter Test, teuer ist sie (als "Mittelklassen Karte").

Zur Begrenzung auf 12 GB wegen der 6 x 2 GB GDDRX6 Chips: Ist das nicht auch deswegen, weil NVIDIA Micron bestimmte Abnahme Zahlen von eigens für sie entwickelten und gefertigten GDDRX6 Chips garantiert hat? Denn zumindest bei der 4070 hätte GDDR6 RAM mit etwas breiterem Bus doch auch gereicht, hätte aber mehr VRAM auch ohne VRAM Chips huckepack unten ermöglicht. Oder sehe ich das falsch?
 
Erstmal Danke für den wirklich erstklassigen Test.

Wenn ich den lese wird mir wiedermal klar.

Wieso ich eine 3090 gekauft habe.

Wieso ich eine 4090 gekauft habe.

Wieso ich mich von der 3090 im Zweitrechner noch nicht trenne.

Ich spiele in 4K und bin mittlerweile ein großer Fan von RT und DLSS.

Und wenn man mit einer 1.800 - 2000 Euro Karte locker 4 Jahre in der Oberliga mitspielen kann, ist das zwar immer noch teuer, aber im Prinzip für mich OK.

Mittlerweile bin ich wirklich auf die ersten Infos 5090 gespannt.
 
Schöne Karte, guter Test, teuer ist sie (als "Mittelklassen Karte").

Zur Begrenzung auf 12 GB wegen der 6 x 2 GB GDDRX6 Chips: Ist das nicht auch deswegen, weil NVIDIA Micron bestimmte Abnahme Zahlen von eigens für sie entwickelten und gefertigten GDDRX6 Chips garantiert hat? Denn zumindest bei der 4070 hätte GDDR6 RAM mit etwas breiterem Bus doch auch gereicht, hätte aber mehr VRAM auch ohne VRAM Chips huckepack unten ermöglicht. Oder sehe ich das falsch?
Clamshell ist zu teuer.
 
Massentauglich ist und bleibt nur AMD. War schon immer so.
 
Unschwer an den Massenverkäufen zu erkennen. Im Konsolenbereich.
 
Hast Du ein anderes Review gelesen?

Anhang anzeigen 24958

Und nur mal so:
Die Marge der Hersteller liegt gerade mal bei 15%. Dass AMD-Karten als Dumping durchgehen, wird wohl eher daran liegen, dass man Stückzahlen schinden will. Gewinne machen Sapphire & Co. damit leider nicht. Die Chips + RAM Bundles sind genauso teuer wie bei NVIDIA. 16 GB langsamer GDDR6 sind jetzt auch nicht so prall (Durchsatz) und an der Texturkompression arbeitet man immer noch.
Welcher Depp kauf sich für über 600EU ne Grafikkarte und Spielt damit in 1080p und vermutlich noch mit DLSS..... 🤦‍♂️
Schaut man sich dann noch die FPS dazu an in den unterschiedlichen Auflösungen,dann bist oft schon am CPU Limit,1440p sollten es schon sein bei der Karte,für 1080p reicht die 3060Ti locker aus.
Und wie du sehen kannst ist hier die 4080 Deutlich Efficenter.
Die 4070 wirst nicht mit 150Watt betreiben ohne Leistungseinbruch,die 4080 solltest aber auch ohne Leistungseinbruch auf 250Watt bekommen und dann ist die deutlich schneller als die 4070 bei 200/220Watt.
Ich behaupte auch mal das die 4080 auf 150Watt richtig Optimiert immer noch schneller ist als die 4070 auf 200Watt Optimiert.

Klar hast Unterschiede zwischen GDDR6 und X und klar läuft der Ram voll,bricht er nicht so schnell ein,aber für die Zukunft?!
A-Total-War-Saga-TROY-AvWattFPS_DE-1440p-DX11-Max-Settings.png
 
Also, ich müsste mit Grafikkarten schon eine Menge Marge verdienen wollen, damit ich mir so Diktate alla "200 Watt zur UVP muss sein" bieten lassen würde, während Nvidia seine FE entspannt 20 Watt mehr gönnt und gegen eben jene aufdiktierte kastrierte Kostenoptimierungen antreten lässt.

So muss sich wohl ein Fußabtreter fühlen...

Achso, gleichberechtigte Geschäftspartner sind das. Wait.
 
Unschwer an den Massenverkäufen zu erkennen. Im Konsolenbereich.

Naja angesichts der aktuellen Grakapreise kann ich es immer mehr verstehen wieso immer mehr Leute lieber auf der Konsole zocken als auf dem PC.
Wiviel kostet eine aktuelle PS5? 500 Euro?
Das sind rund 200 weniger als für eine eine Einstiegskarte von Nvidia.

Außerdem sind immer mehr Multiplattformspiele einfach nur Konsolenports.

Nur den Verbrauch einer Konsole darf man nicht vergessen. Die Hardware soll da recht stromhungrig sein.
 
Welcher Depp kauf sich für über 600EU ne Grafikkarte und Spielt damit in 1080p und vermutlich noch mit DLSS..... 🤦‍♂️
Troy (spielt das eigentlich wer?) ist ein handverlesenes Negativbeispiel und dazu noch eine hornalte Engine. Aber auch sowas wollte ich im Test haben. Wenn man Kirschen pflückt, dann gern auch mal Cyberpunk als Gegenbeispiel. :D

1681319198884.png

Die 4070 wirst nicht mit 150Watt betreiben ohne Leistungseinbruch
In FHD ist sie manchmal sogar noch deutlich darunter :D

1681319439239.png
 
@TheSmart: würdest du bitte so nett sein und mich nicht als jemanden outen, der Gamer indirekt ein klein wenig zustimmt? Danke.
 
Troy (spielt das eigentlich wer?) ist ein handverlesenes Negativbeispiel und dazu noch eine hornalte Engine. Aber auch sowas wollte ich im Test haben. Wenn man Kirschen pflückt, dann gern auch mal Cyberpunk als Gegenbeispiel. :D

Anhang anzeigen 24959


In FHD ist sie manchmal sogar noch deutlich darunter :D

Anhang anzeigen 24960
In Full HD sehe ich die 4070 nicht,deswegen......
In 1440p liegt die 4070 1X auf Platz 1 die restlichen Spiele teilen sich die 4080 und 4090.
Die 4070 ist einfach zu hoch geprügelt und deswegen recht ineffizient.

In FullHD drosselt ja auch die CPU,sonst würden die Karten nicht so dicht beisammen sein,die 4080 verbraucht kaum mehr und selbst die 4090 verbraucht im Verhältnis nicht viel mehr.;)
Far-Cry-6-FPS-1080p-DX12-Ultra.png
 
Zuletzt bearbeitet :
Interessanter Test! Hätte nicht gedacht, dass die RTX4070 noch relativ gut mithält bei 1440p. Zukunftssicherer aber sollte eine RTX 4080 oder RX 7900XT sein.
 
Oben Unten