GPUs Graphics Reviews

Will Ada be suitable for the masses? GeForce RTX 4070 Founders Edition 12 GB Review with 200 and 220 watt power limit plus OC

Summary

The GeForce RTX 4070 is a highly interesting mid-range graphics card as long as you ignore the price. Therefore, NVIDIA has put some pressure on the board partners to also offer at least one model with a price that corresponds to the RRP. Of course, the shortcomings in the technical implementation, including the limitation of the power limit to 200 watts, can be argued about. Of course, you can easily do without RGB, light metal and other optical extras if the price is right.

But it is left to further tests when it comes to assessing the technical implementation. Mandatory cost saving is always a bad companion and it is to be feared that due to the restrictive power limit, such things as cooling and PCB design could then fall by the wayside. But I have planned to do that separately. For now, it’s all about pure performance. And that’s where my overclocking test with NVIDIA’s Founders Edition today shows two very important things.

To play reasonably performant games, the 200 watts are also easily enough, because you can reach or even beat a GeForce RTX 3080 10GB, of course depending on the game and resolution. That’s the good side. However, the up to 20 watts more of an overclockable card are quite well invested money, because the 10% more energy can be converted into up to 10% more performance in some situations, such as DLSS, when the tensor cores are also fully utilized. However, the advantage in terms of screening performance is much smaller. However, the effects of the higher power consumption are also more noticeable in the Min FPS than in the pure average and that’s where it gets interesting again.

After all, efficiency considerations also show us that efficiency does not drop at the higher power limit, on the contrary.

The GeForce RTX 4070 is an excellent card in Full HD when it comes to highest frame rates and is also well suited for WQHD. However, smart upscaling will have to be considered in Ultra HD at the latest, and that’s where DLSS comes into play. Meanwhile, games like “The Last of Us Part 1” (TLOU) even subjectively look better in Ultra HD with DLSS than native Ultra HD. NVIDIA can definitely use its advantages here, which DLSS 2.x also offers purely optically. However, if a game supports DLSS 3.0 and you would be stuck in the unplayable FPS range without Super Sampling, then this can even be the lifeline to playability. You can’t improve latencies with it, but not every genre is as latency-bound as various shooters. For TLOU, I would have liked to see DLSS 3.0, but you can’t have everything.

You get all the advantages of the Ada architecture starting at 659 Euros (MSRP cards) and could be quite satisfied with that in the context of the current price spiral, if it weren’t for the memory expansion and the narrow memory interface, which I had already noted in the GeForce RTX 4070 Ti. Yes, that might be enough for WQHD at the moment, but games like TLOU unfortunately show us that resources are being used more and more wastefully and the memory could be full faster than you can say pug. We can already see: So there is always something. Thus, you can currently still get along very well with it under WQHD, only in Ultra HD there are games that already consider the given 12 GB too puny due to various HD texture packs. This can be seen either way, but it could have been avoided if the AD104 had been designed differently. Two memory controllers are simply missing here, but who am I telling.

I see a certain need for improvement in the drivers. There is still a lot of untapped potential here, especially in the professional sector. I had already noted that as well.

 

The NVIDIA GeForce RTX 4070 FE 12GB

The cooler is very good in the context of the TBP, but the board as such is rather average, because especially the cheap voltage converters are disappointing. Especially since two more phases could easily have been implemented directly and without changing the layout. But somewhere had to be saved, even if it was only two DrMOS, two coils and up to 4 cup capacitors. The possible 5 USD per card is always a pleasure to take. There’s no need to write anything about the 12VHPWR connection, we’ve already gone through that enough.

The fact that NVIDIA adapted my pad mod without comment is quite remarkable. The relocation of the primary shunt to the back of the board including cooling also has charm, if you read through my tests in this regard again. On the other hand, the fact that this is implemented in a rather low-performance card is rather amusing. But as a practice project, the card is good. Visually and haptically, the Founders Edition is, as always, a cream and collector’s item. Especially since I will definitely question the origin of my chip. But even so, the FE would certainly have made my shortlist if it was to be such a WQHD card.

200-Watt Board Partner Cards at MSRP

I have cards here from MSI, PNY (since last night) and Palit (currently at Fritz for the latency tests). We have already tested the cards in a first hands-on and I do not want to anticipate the individual tests or a final roundup. Apart from the limited power target of 200 watts, the look, feel, operating noise and temperatures are unfortunately far from NVIDIA’s Founders Edition. Yes, you can do all that and also accept it somehow, but sometimes it might make more sense to add a few more euros. But I won’t (be able to) clarify that today and here, because you have to do objective justice to each individual product.

Conclusion

The GeForce RTX 4070 with the AD104-250 is a highly interesting mid-range card that does not yet have to fear any direct rivals from AMD in this generation. In terms of efficiency, NVIDIA once again sets standards that AMD still has to measure up to. If and when the RX 7800 series will come then and if we will see 16 GB memory expansion again, that is still up in the stars. But gamers live in the here and now, and there are simply no alternatives at the moment if you want the full feature set, including high-quality super sampling and AI.

Apart from the outdated Display Port port and the 12 GB memory expansion, which is meager for Ultra HD, I do not see any drawbacks that would speak against the GeForce RTX 4070. Except for the price, but that has unfortunately become a running joke and affects all areas of daily life. Even chips and Coke for playing games have risen in price adequately. That doesn’t make things any nicer, but at least a little more plausible. The manufacturers will hardly make big profits at least with the MSRP cards, that much I can reveal at least. I’m not allowed to do more than that because the calculations are all under NDA. Unfortunately, this also diminishes the hope that the upcoming AMD cards will be significantly cheaper. It should already be clear that NVIDIA will be undercut again, but it should not and cannot be much. The current manufacturing costs (not production costs) also speak against this.

The graphics cards were provided by NVIDIA, MSI, Palit and PNY for this test. The only condition was compliance with the blocking period; there was no influence or remuneration.

 

258 Antworten

Kommentar

Lade neue Kommentare

Tim Kutzner

Moderator

818 Kommentare 662 Likes

Nvidia kann eine effiziente RTX 3080 bauen, juhu! :D

Antwort 4 Likes

Igor Wallossek

1

10,199 Kommentare 18,818 Likes

Mit 200 bis 215 Watt, ja!!!

Antwort Gefällt mir

Gregor Kacknoob

Urgestein

524 Kommentare 442 Likes

Hm, also wenn ich das mal mit meiner 6900XT vergleiche. Die 4070:
- Bringt bei UHD ungefähr die selben FPS (ohne FSR, DLSS)
- Verbraucht gut 100W weniger, das Gehäuse braucht weniger Frischluft und könnte die Lautstärke verringern
- Kostet gut 100€ weniger als die aktuell günstigste 6900XT
- Bietet dafür DLSS3, was mir bzgl. Cyperpunk sehr gelegen käme
- 4GB weniger Speicher (hab kein Hinweis gefunden, dass das jetzt für mich relevant wäre).
(Alle Punkte nur auf mich, meinem PC, meine Spiele, blabla gemünzt)

Es bringt mir natürlich nichts, jetzt die 6900XT zu verkaufen und durch eine 4070 zu ersetzen. Aber wenn ich keine 6900XT hätte und kurz davor stand eine 6900XT zu kaufen, dann wäre die 4070 jetzt offenbar die bessere Wahl.

Für mich ist und bleibt das aber jenseits von einem echten Einstiegspreis. Hoffentlich normalisiert sich das irgendwann mal wieder :S

Antwort 5 Likes

T
TwoFaceXX

Neuling

7 Kommentare 1 Likes

Würde ich dann von der Leistung eher mit einer 6800XT vergleichen.
100€ sparen und AMD mit mehr Speicher nehmen
oder
100€ mehr in Nvidia Investieren, dafür wesentlich weniger Strom verbrauchen, welche nicht in Wärme umgesetzt wird und zukünftig mit Frame Generation etc. gerüstet zu sein.

Antwort 1 Like

c
cunhell

Urgestein

550 Kommentare 503 Likes

Coilwhine, das explizit erwähnt wird, also deutlich warnehmbar ist, wäre für mich ein Grund, der gegen die Karte spricht.
Was hilft der leiseste Kühler, wenn die Dinger den Marsch aus "The Bridge on the River Kwai" pfeifen.

Als ob die Dinger nicht teuer genug wären, um das Problem so weit wie möglich einzudämmen. Die paar Euro Aufpreis mache da auch den Kohl nicht mehr fett. Kostet das Ding halt nicht 599$ sondern 609$.
Das nervt sowohl bei AMD als auch Nvidia.

Cunhell

Antwort 2 Likes

c
curiosity

Neuling

9 Kommentare 0 Likes

Mit 2-Slot Design und 200 Watt TDP eine echt brauchbare Mittelklasse! :D
Der Preis ist mir wie erwartet trotzdem etwas zu hoch...

Mein innerer Monk muss trotzdem noch loswerden, dass auf Seite 3 des Artikels die Spulen für NVVDD natürlich 220 nH und nicht 220 mH haben. 😅

Edit: Wäre auch interessant welches Potential die Karte bei Undervolting hat. Meine RTX 3070 schafft immerhin volle Performance bei ca. 165 Watt.

Antwort Gefällt mir

Igor Wallossek

1

10,199 Kommentare 18,818 Likes

Ja, also einen Trafo brauchts da nicht. Mal wieder in der Eile daneben getippt. Besser als BH :D

Antwort 1 Like

e
exi78

Veteran

161 Kommentare 89 Likes

Und so warten wir auf die nächste Generation, diese kann man getrost links liegen lassen.

Auf AMD wird man noch ne Weile warten müssen und wird vermutlich auch nicht rosiger erscheinen.

Antwort Gefällt mir

c
curiosity

Neuling

9 Kommentare 0 Likes

220 BH muss man auch mal in so einer kleinen Spule unterbringen. 😆

Antwort Gefällt mir

c
cunhell

Urgestein

550 Kommentare 503 Likes

Um Charles Bronson aus "Spiel mir das Lied vom Tod" zu zitieren: Einer wartet immer ;-)

Cunhell

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Rein aus Neugier: was schafft ne 4090 mit dieser Leistungsaufnahme? Oder ne 4080?

Antwort 3 Likes

T
TheSmart

Veteran

418 Kommentare 209 Likes

Hmm eine interessante Grafikkarte fürs nächste Jahr eventuell.
Wenn die neue Generation an Grakas rauskommt und die Lager geleert werden müssen.

Die Leistung stimmt ja soweit und der Verbrauch ist auch vollkommen okay.
Aber der Preis.. für eine "Einsteiger"-Graka... naja aktuell sind sie ja eh alle völlig bekloppt in dieser Hinsicht.
Und wie gesagt.. nächstes Jahr ist auch noch ein Jahr und dann kriegt man die auch noch ein paar Euro preiswerter.

Antwort Gefällt mir

SchmoWu

Mitglied

92 Kommentare 23 Likes

Danke für den ausfürlichen Test.
Wie erwartet 3080 Leitung, das einizg positive ist der doch geringe Verbraucht.
Der Preis ist aber mehr als traurig, bei 25-30% Raster-Leistung(RT ist mir Wurst) als die RX6700XT, schlappe 100€ zu teuer.

Antwort 1 Like

Ginmarr

Mitglied

68 Kommentare 25 Likes

Brutal das ne x70 non ti Karte über 600 Euro Kostet 😒 Da ist nix Massentauglich, kann es verstehen wenn die Leute da lieber zu einer PS5 greifen um mit dem restlichen Geld kannst 1 oder gar 2 mal gut bis sehr gut Essen gehen.

Antwort Gefällt mir

T
TheSmart

Veteran

418 Kommentare 209 Likes

Ja wie ich es oben schon gesagt habe.. diese..aber eigtl alle aktuellen Grakas sind nicht dazu da jetzt gekauft zu werden, sondern frühestens nächstes Jahr.
In der Hoffnung das der Preis einigermaßen signfikant sinkt. Man hatte ja die Hoffnung das die Preise sich normalisieren würden nach dem zusammenbrechen der Kryptobranche.. aber stattdessen werden die Grakas direkt mit so einer völlig überzogenen UVP verkauft.

Antwort 1 Like

Gregor Kacknoob

Urgestein

524 Kommentare 442 Likes

Hier ist ein Test mit 300W. Bei 200W sollte die 4090 sicherlich mehr FPS liefern als eine 4070. Würde mich aber auch interessieren ^^

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Den kenn ich, @Gregor Kacknoob. Mir geht es mehr um diese vor vielen Jahren mal getätigte Aussage:
'Ein paar Worte an die Hersteller möchten wir gern mit anbringen: weniger ist mehr! Warum kann man sich nicht auch auf eine Leistungsobergrenze beschränken, so wie sich einige Automobilhersteller bereits freiwillig auf eine Höchstgeschwindigkeit der Autos eingelassen haben? 200 bis 250 Watt reichen, mehr braucht kein Mensch – eher weniger. Intensivieren statt extensivieren, das wäre sicher ein richtiger Schritt in die Zukunft. Wir wollen hier nicht den heilbringenden Öko-Engel geben, dazu sind wir zu sehr Spieler und Leistungsfanatiker. Aber wir möchten zumindest einen Punkt, den man als Grenze zwischen Brauchbarkeit und Leistungswahn setzen kann. Das ist nicht viel, wäre aber sicher schon mal ein Anfang.'
Quelle: https://www.igorslab.de/grafikkarten-alternative-lustige-benchmarks-remastered/7/

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,338 Likes

Mehr bis deutlich mehr da mehr Recheneinheiten deutlich Effizienter laufen und der Chip nicht hoch geprügelt werden muss.

Antwort Gefällt mir

[
[wege]mini

Mitglied

32 Kommentare 13 Likes

Danke für den Test.

Auch die ehrlichen Worte zum Preis und zu den Erwartungen der Preise von der Konkurrenz, waren sehr erfrischend. Natürlich möchte man schlechte Nachrichten nicht gerne hören und Schuld ist immer der Überbringer.

Aber wie sagte schon die Oma? Irgend was ist immer.

Gut empfinde ich die aktuellen Taktraten. Wer will, kann mehr bekommen und wer es richtig nötig hat, wird die Teile auch locker jenseits der 3 Ghz prügeln können. Aktuell gehe ich von 3.2+ Ghz aus, was man mit Software schaffen kann @ 250 Watt.

Dann ergibt es auch Sinn, mehr Spulen und Gedöns zu verbauen, um die Hardware nicht noch innerhalb der Garantiezeit zu zerstören. Die Boardpartner sind dann auch zu frieden.

So eine K1ngp1n oder DHS Edition, gerne auch eine GS, klingt doch nett. Man braucht Luft nach oben, um nachlegen zu können.

mfg

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung