Grafikkarten Testberichte VGA

Wird Ada massentauglich? GeForce RTX 4070 Founders Edition 12 GB Test mit 200 und 220 Watt Leistungsgrenze plus OC

Zusammenfassung

Die GeForce RTX 4070 ist eine hochinteressante Mittelklasse-Grafikkarte, solange man über den Preis hinwegsieht. Daher hat NVIDIA die Boardpartner unter Druck gesetzt, auch mindestens ein Modell mit einem Preis anzubieten, der der UVP entspricht. Über die Unzulänglichkeiten in der technischen Umsetzung, darunter die Begrenzung der Leistung auf 200 Watt, lässt sich natürlich streiten. Auf RGB, Leichtmetall und andere optische Extras kann man natürlich getrost verzichten, wenn der Preis stimmt.

Aber das bleibt weiteren Tests überlassen, wenn es darum geht, die technische Umsetzung zu beurteilen. Sparzwang ist immer ein schlechter Begleiter und es ist zu befürchten, dass aufgrund der restriktiven Leistungsbegrenzung dann solche Dinge wie Kühlung und Platinengestaltung auf der Strecke bleiben könnten. Aber das habe ich separat geplant. Im Moment geht es nur um die reine Leistung. Und da zeigt mein heutiger Übertaktungstest mit NVIDIAs Founders Edition zwei sehr wichtige Dinge.

Um einigermaßen performante Spiele zu spielen, reichen die 200 Watt auch locker aus, denn man kann eine GeForce RTX 3080 10GB erreichen oder sogar übertreffen, natürlich je nach Spiel und Auflösung. Das ist die gute Seite. Allerdings sind die bis zu 20 Watt mehr einer übertaktbaren Karte durchaus gut investiertes Geld, denn die 10% mehr Energie können in manchen Situationen, wie z.B. DLSS, in bis zu 10% mehr Leistung umgewandelt werden, wenn auch die Tensor-Kerne voll ausgelastet sind. Der Vorteil in Bezug auf die Screening-Leistung ist jedoch wesentlich geringer. Allerdings machen sich die Auswirkungen des höheren Stromverbrauchs auch bei den Min FPS stärker bemerkbar als beim reinen Durchschnitt und da wird es wieder interessant.

Schließlich zeigen auch Effizienzbetrachtungen, dass der Wirkungsgrad an der oberen Leistungsgrenze nicht abnimmt, im Gegenteil.

Die GeForce RTX 4070 ist in Full HD eine hervorragende Karte, wenn es um höchste Frameraten geht und auch für WQHD gut geeignet. Spätestens in Ultra HD muss jedoch über ein intelligentes Upscaling nachgedacht werden, und hier kommt DLSS ins Spiel. Mittlerweile sehen Spiele wie „The Last of Us Part 1“ (TLOU) in Ultra HD mit DLSS sogar subjektiv besser aus als natives Ultra HD. Hier kann NVIDIA durchaus seine Vorteile ausspielen, die DLSS 2.x auch rein optisch bietet. Wenn ein Spiel jedoch DLSS 3.0 unterstützt und man ohne Super Sampling im unspielbaren FPS-Bereich feststecken würde, dann kann dies sogar der Rettungsanker zur Spielbarkeit sein. Die Latenzen kann man damit nicht verbessern, aber nicht jedes Genre ist so latenzabhängig wie diverse Shooter. Für TLOU hätte ich gerne DLSS 3.0 gesehen, aber man kann nicht alles haben.

Ab 659 Euro (MSRP-Karten) bekommt man alle Vorteile der Ada-Architektur und könnte damit im Rahmen der aktuellen Preisspirale durchaus zufrieden sein, wäre da nicht der Speicherausbau und das schmale Speicherinterface, das ich schon bei der GeForce RTX 4070 Ti angemerkt hatte. Ja, das mag im Moment für WQHD reichen, aber Spiele wie TLOU zeigen uns leider, dass die Ressourcen immer verschwenderischer eingesetzt werden und der Speicher schneller voll sein könnte, als man Mops sagen kann. Wir können es schon sehen: Es gibt also immer etwas. So kann man derzeit unter WQHD noch sehr gut damit auskommen, nur in Ultra HD gibt es Spiele, denen die vorgegebenen 12 GB aufgrund diverser HD-Texturpakete schon zu mickrig sind. Das kann man so oder so sehen, hätte aber vermieden werden können, wenn der AD104 anders konzipiert worden wäre. Es fehlen hier einfach zwei Speichercontroller, aber wem sage ich das.

Einen gewissen Verbesserungsbedarf sehe ich bei den Treibern. Hier gibt es noch viel ungenutztes Potenzial, vor allem im professionellen Bereich. Das hatte ich auch schon festgestellt.

 

Die NVIDIA GeForce RTX 4070 FE 12GB

Der Kühler ist im Rahmen des TBP sehr gut, aber das Board als solches ist eher durchschnittlich, denn vor allem die billigen Spannungswandler sind enttäuschend. Zumal zwei weitere Phasen direkt und ohne Änderung des Layouts leicht hätten implementiert werden können. Aber irgendwo musste gespart werden, auch wenn es nur zwei DrMOS, zwei Spulen und bis zu 4 Becherkondensatoren waren. Die möglichen 5 USD pro Karte nimmt man gerne in Kauf. Über den 12VHPWR-Anschluss brauchen wir nichts mehr zu schreiben, das haben wir schon zur Genüge getan.

Die Tatsache, dass NVIDIA meinen Pad-Mod kommentarlos übernommen hat, ist schon bemerkenswert. Auch die Verlegung des primären Shunts auf die Rückseite des Boards inklusive Kühlung hat Charme, wenn man sich meine diesbezüglichen Tests noch einmal durchliest. Dass dies in einer eher leistungsschwachen Karte umgesetzt wird, ist dagegen eher amüsant. Aber als Praxisprojekt ist die Karte gut. Optisch und haptisch ist die Founders Edition wie immer ein Sahnestück und Sammlerstück. Zumal ich die Herkunft meines Chips sicherlich in Frage stellen werde. Aber auch so wäre die FE sicherlich in die engere Wahl gekommen, wenn es denn eine solche WQHD-Karte sein sollte.

200-Watt-Karten von Board-Partnern zum MSRP

Ich habe hier Karten von MSI, PNY (seit gestern Abend) und Palit (derzeit bei Fritz für die Latenztests). Wir haben die Karten bereits in einem ersten Hands-On getestet und ich möchte weder den einzelnen Tests noch einem finalen Roundup vorgreifen. Abgesehen vom begrenzten Leistungsziel von 200 Watt sind Optik, Haptik, Betriebsgeräusch und Temperaturen leider weit von NVIDIAs Founders Edition entfernt. Ja, man kann das alles machen und auch irgendwie akzeptieren, aber manchmal ist es vielleicht sinnvoller, ein paar Euro mehr auszugeben. Aber das werde ich heute und hier nicht klären (können), denn man muss jedem einzelnen Produkt objektiv gerecht werden.

Fazit

Die GeForce RTX 4070 mit der AD104-250 ist eine hochinteressante Mittelklassekarte, die in dieser Generation noch keine direkten Konkurrenten von AMD fürchten muss. In Sachen Effizienz setzt NVIDIA einmal mehr Maßstäbe, an denen sich AMD noch messen lassen muss. Ob und wann die RX 7800 Serie dann kommt und ob wir wieder 16 GB Speichererweiterung sehen werden, das steht noch in den Sternen. Aber Gamer leben im Hier und Jetzt, und es gibt im Moment einfach keine Alternativen, wenn man den vollen Funktionsumfang inklusive hochwertigem Super-Sampling und KI haben möchte.

Abgesehen von dem veralteten Display-Port-Anschluss und der für Ultra HD mageren Speichererweiterung von 12 GB sehe ich keine Nachteile, die gegen die GeForce RTX 4070 sprechen würden. Außer dem Preis, aber der ist leider ein Running Gag geworden und betrifft alle Bereiche des täglichen Lebens. Selbst Chips und Cola zum Spielen haben sich entsprechend verteuert. Das macht die Sache zwar nicht schöner, aber zumindest ein wenig plausibler. Große Gewinne werden die Hersteller zumindest mit den MSRP-Karten kaum machen, so viel kann ich zumindest verraten. Mehr darf ich nicht sagen, weil die Berechnungen alle unter NDA stehen. Leider schwindet damit auch die Hoffnung, dass die kommenden AMD-Karten deutlich billiger sein werden. Es sollte schon klar sein, dass NVIDIA wieder unterboten werden wird, aber es sollte und kann nicht viel sein. Dagegen sprechen auch die aktuellen Herstellungskosten (nicht Produktionskosten).

Die Grafikkarten wurden von NVIDIA, MSI, Palit und PNY für diesen Test zur Verfügung gestellt. Einzige Bedingung war die Einhaltung der Sperrfrist, eine Beeinflussung oder Vergütung gab es nicht.

 

258 Antworten

Kommentar

Lade neue Kommentare

Tim Kutzner

Moderator

823 Kommentare 666 Likes

Nvidia kann eine effiziente RTX 3080 bauen, juhu! :D

Antwort 4 Likes

Igor Wallossek

1

10,213 Kommentare 18,901 Likes

Mit 200 bis 215 Watt, ja!!!

Antwort Gefällt mir

Gregor Kacknoob

Urgestein

524 Kommentare 442 Likes

Hm, also wenn ich das mal mit meiner 6900XT vergleiche. Die 4070:
- Bringt bei UHD ungefähr die selben FPS (ohne FSR, DLSS)
- Verbraucht gut 100W weniger, das Gehäuse braucht weniger Frischluft und könnte die Lautstärke verringern
- Kostet gut 100€ weniger als die aktuell günstigste 6900XT
- Bietet dafür DLSS3, was mir bzgl. Cyperpunk sehr gelegen käme
- 4GB weniger Speicher (hab kein Hinweis gefunden, dass das jetzt für mich relevant wäre).
(Alle Punkte nur auf mich, meinem PC, meine Spiele, blabla gemünzt)

Es bringt mir natürlich nichts, jetzt die 6900XT zu verkaufen und durch eine 4070 zu ersetzen. Aber wenn ich keine 6900XT hätte und kurz davor stand eine 6900XT zu kaufen, dann wäre die 4070 jetzt offenbar die bessere Wahl.

Für mich ist und bleibt das aber jenseits von einem echten Einstiegspreis. Hoffentlich normalisiert sich das irgendwann mal wieder :S

Antwort 5 Likes

T
TwoFaceXX

Neuling

7 Kommentare 1 Likes

Würde ich dann von der Leistung eher mit einer 6800XT vergleichen.
100€ sparen und AMD mit mehr Speicher nehmen
oder
100€ mehr in Nvidia Investieren, dafür wesentlich weniger Strom verbrauchen, welche nicht in Wärme umgesetzt wird und zukünftig mit Frame Generation etc. gerüstet zu sein.

Antwort 1 Like

c
cunhell

Urgestein

551 Kommentare 507 Likes

Coilwhine, das explizit erwähnt wird, also deutlich warnehmbar ist, wäre für mich ein Grund, der gegen die Karte spricht.
Was hilft der leiseste Kühler, wenn die Dinger den Marsch aus "The Bridge on the River Kwai" pfeifen.

Als ob die Dinger nicht teuer genug wären, um das Problem so weit wie möglich einzudämmen. Die paar Euro Aufpreis mache da auch den Kohl nicht mehr fett. Kostet das Ding halt nicht 599$ sondern 609$.
Das nervt sowohl bei AMD als auch Nvidia.

Cunhell

Antwort 2 Likes

c
curiosity

Neuling

9 Kommentare 0 Likes

Mit 2-Slot Design und 200 Watt TDP eine echt brauchbare Mittelklasse! :D
Der Preis ist mir wie erwartet trotzdem etwas zu hoch...

Mein innerer Monk muss trotzdem noch loswerden, dass auf Seite 3 des Artikels die Spulen für NVVDD natürlich 220 nH und nicht 220 mH haben. 😅

Edit: Wäre auch interessant welches Potential die Karte bei Undervolting hat. Meine RTX 3070 schafft immerhin volle Performance bei ca. 165 Watt.

Antwort Gefällt mir

Igor Wallossek

1

10,213 Kommentare 18,901 Likes

Ja, also einen Trafo brauchts da nicht. Mal wieder in der Eile daneben getippt. Besser als BH :D

Antwort 1 Like

e
exi78

Veteran

161 Kommentare 89 Likes

Und so warten wir auf die nächste Generation, diese kann man getrost links liegen lassen.

Auf AMD wird man noch ne Weile warten müssen und wird vermutlich auch nicht rosiger erscheinen.

Antwort Gefällt mir

c
curiosity

Neuling

9 Kommentare 0 Likes

220 BH muss man auch mal in so einer kleinen Spule unterbringen. 😆

Antwort Gefällt mir

c
cunhell

Urgestein

551 Kommentare 507 Likes

Um Charles Bronson aus "Spiel mir das Lied vom Tod" zu zitieren: Einer wartet immer ;-)

Cunhell

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Rein aus Neugier: was schafft ne 4090 mit dieser Leistungsaufnahme? Oder ne 4080?

Antwort 3 Likes

T
TheSmart

Veteran

418 Kommentare 209 Likes

Hmm eine interessante Grafikkarte fürs nächste Jahr eventuell.
Wenn die neue Generation an Grakas rauskommt und die Lager geleert werden müssen.

Die Leistung stimmt ja soweit und der Verbrauch ist auch vollkommen okay.
Aber der Preis.. für eine "Einsteiger"-Graka... naja aktuell sind sie ja eh alle völlig bekloppt in dieser Hinsicht.
Und wie gesagt.. nächstes Jahr ist auch noch ein Jahr und dann kriegt man die auch noch ein paar Euro preiswerter.

Antwort Gefällt mir

SchmoWu

Mitglied

92 Kommentare 23 Likes

Danke für den ausfürlichen Test.
Wie erwartet 3080 Leitung, das einizg positive ist der doch geringe Verbraucht.
Der Preis ist aber mehr als traurig, bei 25-30% Raster-Leistung(RT ist mir Wurst) als die RX6700XT, schlappe 100€ zu teuer.

Antwort 1 Like

Ginmarr

Mitglied

68 Kommentare 25 Likes

Brutal das ne x70 non ti Karte über 600 Euro Kostet 😒 Da ist nix Massentauglich, kann es verstehen wenn die Leute da lieber zu einer PS5 greifen um mit dem restlichen Geld kannst 1 oder gar 2 mal gut bis sehr gut Essen gehen.

Antwort Gefällt mir

T
TheSmart

Veteran

418 Kommentare 209 Likes

Ja wie ich es oben schon gesagt habe.. diese..aber eigtl alle aktuellen Grakas sind nicht dazu da jetzt gekauft zu werden, sondern frühestens nächstes Jahr.
In der Hoffnung das der Preis einigermaßen signfikant sinkt. Man hatte ja die Hoffnung das die Preise sich normalisieren würden nach dem zusammenbrechen der Kryptobranche.. aber stattdessen werden die Grakas direkt mit so einer völlig überzogenen UVP verkauft.

Antwort 1 Like

Gregor Kacknoob

Urgestein

524 Kommentare 442 Likes

Hier ist ein Test mit 300W. Bei 200W sollte die 4090 sicherlich mehr FPS liefern als eine 4070. Würde mich aber auch interessieren ^^

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Den kenn ich, @Gregor Kacknoob. Mir geht es mehr um diese vor vielen Jahren mal getätigte Aussage:
'Ein paar Worte an die Hersteller möchten wir gern mit anbringen: weniger ist mehr! Warum kann man sich nicht auch auf eine Leistungsobergrenze beschränken, so wie sich einige Automobilhersteller bereits freiwillig auf eine Höchstgeschwindigkeit der Autos eingelassen haben? 200 bis 250 Watt reichen, mehr braucht kein Mensch – eher weniger. Intensivieren statt extensivieren, das wäre sicher ein richtiger Schritt in die Zukunft. Wir wollen hier nicht den heilbringenden Öko-Engel geben, dazu sind wir zu sehr Spieler und Leistungsfanatiker. Aber wir möchten zumindest einen Punkt, den man als Grenze zwischen Brauchbarkeit und Leistungswahn setzen kann. Das ist nicht viel, wäre aber sicher schon mal ein Anfang.'
Quelle: https://www.igorslab.de/grafikkarten-alternative-lustige-benchmarks-remastered/7/

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,338 Likes

Mehr bis deutlich mehr da mehr Recheneinheiten deutlich Effizienter laufen und der Chip nicht hoch geprügelt werden muss.

Antwort Gefällt mir

[
[wege]mini

Mitglied

32 Kommentare 13 Likes

Danke für den Test.

Auch die ehrlichen Worte zum Preis und zu den Erwartungen der Preise von der Konkurrenz, waren sehr erfrischend. Natürlich möchte man schlechte Nachrichten nicht gerne hören und Schuld ist immer der Überbringer.

Aber wie sagte schon die Oma? Irgend was ist immer.

Gut empfinde ich die aktuellen Taktraten. Wer will, kann mehr bekommen und wer es richtig nötig hat, wird die Teile auch locker jenseits der 3 Ghz prügeln können. Aktuell gehe ich von 3.2+ Ghz aus, was man mit Software schaffen kann @ 250 Watt.

Dann ergibt es auch Sinn, mehr Spulen und Gedöns zu verbauen, um die Hardware nicht noch innerhalb der Garantiezeit zu zerstören. Die Boardpartner sind dann auch zu frieden.

So eine K1ngp1n oder DHS Edition, gerne auch eine GS, klingt doch nett. Man braucht Luft nach oben, um nachlegen zu können.

mfg

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung