Grafikkarten Testberichte VGA

Wird Ada massentauglich? GeForce RTX 4070 Founders Edition 12 GB Test mit 200 und 220 Watt Leistungsgrenze plus OC

Was macht man als Hersteller, um auf ein neues Produkt aufmerksam zu machen? Man splittet einfach den Launch einer solchen GeForce RTX 4070 12 GB und veröffentlicht zuerst die Karten, die auch zum UVP angeboten werden. So schön, so unaufregend, denn am Ende sind alle diese Karten irgendwie gleich. Bis auf eine, denn die ist viel gleicher als die anderen. Und das ist NVIDIAs eigene Founders Edition. Doch während die Leistungsgrenze aller sogenannten “MSRP-Karten” bei 200 Watt gedeckelt ist, erlaubt die Founders Edition 20 Watt mehr und ist damit eigentlich eine getarnte OC-Karte, die nur manuell auf diesen Sockel eingestellt werden muss.

Und was macht der Kunde? Für einen UVP von 659 Euro lässt NVIDIA heute die Einsteigerkarten von der Leine und hofft, in der wichtigen Mittelklasse Boden gut zu machen. Am Ende kann ich schon verraten, dass die Leistung eher der einer GeForce RTX 3080 FE 10 GB entspricht, nur dass hier sogar 2 GB mehr Speicher zur Verfügung stehen. Anhand der technischen Daten hätte die GeForce RTX 3080 10GB wahrscheinlich einen größeren Vorteil, aber Papier ist geduldig und die Realität ist viel differenzierter. Ja, der Preis ist jetzt nicht wirklich das bahnbrechende Sonderangebot, aber es hätte auch schlimmer kommen können. Und solange der direkte Konkurrent in dieser Klasse nichts Neues zu bieten hat, wird NVIDIA die alleinige Autorität in Sachen Preis haben.

Ich habe die NVIDIA GeForce RTX 4070 FE mit der MSI RTX 4070 Ventus und der PNY RTX 4070 12 GB zuvor in Bezug auf die Leistung verglichen, und der Unterschied liegt bei oder sogar unter einem Prozent, was für Messungenauigkeit und Chip-Lotterie spricht, wobei die MSI-Karte den schlechteren Kühler hat als die FE. Die PNY-Karte ist ein bisschen von allem und liegt pflichtbewusst dazwischen. Für die heutige Leistung werde ich also etwas anderes tun, als alle drei Karten auf buchhalterisch korrekte Weise gegenüberzustellen. An gleich langen Balken ist sowieso niemand interessiert. Ich werde die einzelnen Karten dann Schritt für Schritt im Detail vorstellen, denn es gibt durchaus Unterschiede in der technischen Umsetzung, den Kühlern und der Optik. Aber alles zu seiner Zeit. Es wird also noch mehrere Einzelberichte geben, keine Sorge. Nur für heute war das alles einfach zu viel.

Stattdessen teste ich heute die NVIDIA GeForce RTX 4070 FE 12 GB out of the box, wo sie die gesamte 200-Watt-Klasse der sogenannten MSRP-Karten repräsentiert, denn die Leistung ist identisch. Und natürlich gibt es noch die Krönung des Durchlaufs mit den 220 Watt als maximale Leistungsgrenze, bei der ich den Takt um weitere 150 MHz erhöht habe. Es ist nicht meine Schuld, dass diese Karte im Bereich der OC-Karten liegt, die erst morgen auf den Markt kommen werden. Die Karte kann und deshalb zeige ich sie. Und ohne etwas Verbotenes zu spoilern: Ich habe nie mehr als 215 Watt gebraucht, auch nicht an der Taktgrenze. Deshalb kann ich in der Nacht vor der Markteinführung ganz gut schlafen und mir das Doppelte sparen.

Wichtiges Vorwort

Natürlich gibt es wie immer viele Benchmarks, den umfangreichen Teardown, eine sehr aufwendige Board- und Kühleranalyse mit etwas Reverse Engineering, sowie die Analyse des Stromverbrauchs und der Lastspitzen inklusive einer passenden Netzteil-Empfehlung. Da ich weiß, dass viele Kollegen auch alle technischen Details samt Theorie wiederholen werden, die bereits in diversen Leckerbissen vorgestellt wurden, erspare ich mir das heute im großen Stil und verweise nur kurz auf die bereits bekannten Daten. Schließlich wollen Sie heute echte Zahlen sehen und kein PR-Feuerwerk. Natürlich kommen die Daten später auf dieser Seite.

Ich werde aber auf alle Metriken einschließlich DLSS 3 näher eingehen und an den entsprechenden Stellen diverse Teaser bis hin zu den Latenzen, über die ein Kollege (Fritz Hunter) am Freitag ein größeres Special vorbereitet. Da der Aufwand hier höher ist, nimmt dies natürlich etwas mehr Zeit in Anspruch. Damit wäre die 4070er Woche komplett. Und auch bei den Chips gibt es einen kleinen Unterschied. Während die Founders Edition meines Pressesamples einen Chip ohne Typenbezeichnung aus der KW 31 von 2022 inklusive handgemalter Nummer hat, setzen die AIC-Karten auf neuere Chips wie den MSI Ventus mit einem komplett beschrifteten AD104-250 aus der KW 4 im Jahr 2023.

 

Der AD 104 und die neue Ada-Architektur

Der 294,5 mm² große Chip der NVIDIA GeForce RTX 4070 ist ebenfalls im TSMC 4N-Prozess gefertigt und hat 35,8 Milliarden Transistoren. Die AD104-250 verfügt nach wie vor über vier Graphic Processing Cluster (GPC) und 46 neue Streaming Multiprozessoren (SM) mit 5888 CUDA-Kernen, deren Leistung und Energieeffizienz im Vergleich zu Ampere deutlich gesteigert werden konnten. Außerdem gibt es 184 Tensor-Kerne der 4. Generation und Optical Flow, die transformative KI-Technologien wie NVIDIA DLSS und den neuen NVIDIA DLSS 3 Frame Rate Multiplier ermöglichen.

Die 46 RT-Kerne der 3. Generation Die neue Generation bietet bis zu 2-fache Raytracing-Leistung, Shader Execution Reordering (SER) verbessert Raytracing-Operationen um den Faktor 2. Darüber hinaus gibt es insgesamt 23 Texture Processing Cluster (TPC), 184 Texture Units (TU) und 64 ROPs. Der L2-Cache beträgt insgesamt 36864 KB und die Karte nutzt wie die GeForce RTX 4070 Ti die bekannten 12 GB GDDR6X, die mit 10500 MHz auf einem eher schmalen 192-Bit-Interface getaktet sind, was einer Datenrate von 21 Gbps und einer Bandbreite von 504 GB/s entspricht. Der AD104-250 der GeForce RTX 4070 bietet statt vier nur einen NVDEC (Decoder) und einen einzigen NVENC (Encoder). Der AV1-Encoder soll bis zu 40 % effizienter als H.264 sein.

Die Änderungen an allen drei Kerntypen lassen sich recht einfach zusammenfassen:

  • Programmierbarer Shader: Der SM von Ada enthält eine wichtige neue Technologie namens Shader Execution Reordering (SER), die die Arbeit im laufenden Betrieb neu ordnet und so eine zweifache Beschleunigung für Raytracing ermöglicht. SER ist eine ebenso große Innovation wie das Out-of-Order-Design für CPUs zu jener Zeit. 83 Shader-TFLOPS sind eine beeindruckende Leistung
  • Tensor Cores der 4. Generation: Der neue Tensor Core in Ada umfasst die NVIDIA Hopper FP8 Transformer Engine, die über 1,3 petaFLOPS für KI-Inferenz-Workloads in der RTX 4090 liefert. Im Vergleich zu FP16 halbiert FP8 den Datenspeicherbedarf und verdoppelt die KI-Leistung. Damit bietet die GeForce RTX 4090 mehr als doppelt so viel Tensor Core Rechenleistung wie die RTX 3090 Ti.
  • RT Core der 3. Generation: Eine neue Opazitäts-Micromap-Engine beschleunigt das Raytracing von alphakontrollierten Geometrien um den Faktor 2. Hinzu kommt eine neue Micro-Mesh-Engine, die den gesamten geometrischen Reichtum ohne weitere BVH-Erstellung und Speicherkosten verarbeitet. Der Triangulationsdurchsatz beträgt 191 RT-TFLOPS, verglichen mit 78 RTTFLOPS bei Ampere.

Die Karte setzt immer noch auf eine PCIe Gen. 4-Schnittstelle und nur für den externen Stromanschluss mit dem 12VHPWR-Anschluss (12 4-Pin) auf ein Element der PCIe Gen. 5-Spezifikation. Das TGP liegt bei 200 (220) Watt und kann je nach Boardpartner auch auf 240 Watt erhöht werden (was aber eher sinnlos ist, da die Spannung irgendwann ohnehin begrenzt ist).

Die NVIDIA GeForce RTX 4070 FE 12 GB im Detail

Die Karte wiegt nur 1020 Gramm. Die Länge von 24,5 cm ist moderat und die Höhe von 10,5 cm liegt auf dem Normalmaß. Da braucht man keinen Trum von Gehäuse, auch wenn man den tollen 12VHPWR Adapter nutzen muss, sondern kommt mit 2x 6 2-Pin aus. Die Einbautiefe beträgt 3,8 cm plus die 5 mm für die Backplate-Befestigung auf der Rückseite. Das macht sie zu einer echten Dual-Slot-Karte.

Der Leichtmetallrahmen ist bekannt und auch die Designsprache von Lüfter, Abdeckung und Slotblende ist nicht neu. Nur dass alles reichlich geschrumpft aussieht. NVIDIA verwendet ein einziges BIOS und wer übertakten will, muss ein entsprechendes Tool verwenden. Die Haptik ist wie gewohnt hochwertig, die Karten haben durchaus Sammlerwert und wirken angenehm zeitlos.

Aber man kann nicht nur Strom in die Karte stecken, sondern auch Videoanschlüsse. Vier an der Zahl, um genau zu sein, denn es gibt: dreimal DisplayPort 1.4a und einmal HDMI 2.1a. Das ist besonders schade für den DisplayPort, wenn es um die neuen Spezifikationen geht. Eine verpasste Chance, leider. Und bei HDMI muss man ab 4K mit der Kompression tricksen, wenn es über 120 Hz gehen soll.

Der Screenshot von GPU-Z zeigt uns die Standardeinstellungen der RTX 4070, die für alle 200-Watt-Karten identisch sind:

Damit ist die erste Seite fertig und wir bereiten uns langsam auf den Test vor.

 

267 Antworten

Kommentar

Lade neue Kommentare

Tim Kutzner

Moderator

894 Kommentare 734 Likes

Nvidia kann eine effiziente RTX 3080 bauen, juhu! :D

Antwort 4 Likes

Igor Wallossek

1

10,919 Kommentare 20,698 Likes

Mit 200 bis 215 Watt, ja!!!

Antwort Gefällt mir

Gregor Kacknoob

Urgestein

548 Kommentare 456 Likes

Hm, also wenn ich das mal mit meiner 6900XT vergleiche. Die 4070:
- Bringt bei UHD ungefähr die selben FPS (ohne FSR, DLSS)
- Verbraucht gut 100W weniger, das Gehäuse braucht weniger Frischluft und könnte die Lautstärke verringern
- Kostet gut 100€ weniger als die aktuell günstigste 6900XT
- Bietet dafür DLSS3, was mir bzgl. Cyperpunk sehr gelegen käme
- 4GB weniger Speicher (hab kein Hinweis gefunden, dass das jetzt für mich relevant wäre).
(Alle Punkte nur auf mich, meinem PC, meine Spiele, blabla gemünzt)

Es bringt mir natürlich nichts, jetzt die 6900XT zu verkaufen und durch eine 4070 zu ersetzen. Aber wenn ich keine 6900XT hätte und kurz davor stand eine 6900XT zu kaufen, dann wäre die 4070 jetzt offenbar die bessere Wahl.

Für mich ist und bleibt das aber jenseits von einem echten Einstiegspreis. Hoffentlich normalisiert sich das irgendwann mal wieder :S

Antwort 5 Likes

T
TwoFaceXX

Neuling

7 Kommentare 1 Likes

Würde ich dann von der Leistung eher mit einer 6800XT vergleichen.
100€ sparen und AMD mit mehr Speicher nehmen
oder
100€ mehr in Nvidia Investieren, dafür wesentlich weniger Strom verbrauchen, welche nicht in Wärme umgesetzt wird und zukünftig mit Frame Generation etc. gerüstet zu sein.

Antwort 1 Like

c
cunhell

Urgestein

576 Kommentare 553 Likes

Coilwhine, das explizit erwähnt wird, also deutlich warnehmbar ist, wäre für mich ein Grund, der gegen die Karte spricht.
Was hilft der leiseste Kühler, wenn die Dinger den Marsch aus "The Bridge on the River Kwai" pfeifen.

Als ob die Dinger nicht teuer genug wären, um das Problem so weit wie möglich einzudämmen. Die paar Euro Aufpreis mache da auch den Kohl nicht mehr fett. Kostet das Ding halt nicht 599$ sondern 609$.
Das nervt sowohl bei AMD als auch Nvidia.

Cunhell

Antwort 2 Likes

c
curiosity

Neuling

9 Kommentare 0 Likes

Mit 2-Slot Design und 200 Watt TDP eine echt brauchbare Mittelklasse! :D
Der Preis ist mir wie erwartet trotzdem etwas zu hoch...

Mein innerer Monk muss trotzdem noch loswerden, dass auf Seite 3 des Artikels die Spulen für NVVDD natürlich 220 nH und nicht 220 mH haben. 😅

Edit: Wäre auch interessant welches Potential die Karte bei Undervolting hat. Meine RTX 3070 schafft immerhin volle Performance bei ca. 165 Watt.

Antwort Gefällt mir

Igor Wallossek

1

10,919 Kommentare 20,698 Likes

Ja, also einen Trafo brauchts da nicht. Mal wieder in der Eile daneben getippt. Besser als BH :D

Antwort 1 Like

exi78

Veteran

186 Kommentare 100 Likes

Und so warten wir auf die nächste Generation, diese kann man getrost links liegen lassen.

Auf AMD wird man noch ne Weile warten müssen und wird vermutlich auch nicht rosiger erscheinen.

Antwort Gefällt mir

c
curiosity

Neuling

9 Kommentare 0 Likes

220 BH muss man auch mal in so einer kleinen Spule unterbringen. 😆

Antwort Gefällt mir

c
cunhell

Urgestein

576 Kommentare 553 Likes

Um Charles Bronson aus "Spiel mir das Lied vom Tod" zu zitieren: Einer wartet immer ;-)

Cunhell

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,032 Likes

Rein aus Neugier: was schafft ne 4090 mit dieser Leistungsaufnahme? Oder ne 4080?

Antwort 3 Likes

T
TheSmart

Veteran

449 Kommentare 224 Likes

Hmm eine interessante Grafikkarte fürs nächste Jahr eventuell.
Wenn die neue Generation an Grakas rauskommt und die Lager geleert werden müssen.

Die Leistung stimmt ja soweit und der Verbrauch ist auch vollkommen okay.
Aber der Preis.. für eine "Einsteiger"-Graka... naja aktuell sind sie ja eh alle völlig bekloppt in dieser Hinsicht.
Und wie gesagt.. nächstes Jahr ist auch noch ein Jahr und dann kriegt man die auch noch ein paar Euro preiswerter.

Antwort Gefällt mir

SchmoWu

Veteran

102 Kommentare 29 Likes

Danke für den ausfürlichen Test.
Wie erwartet 3080 Leitung, das einizg positive ist der doch geringe Verbraucht.
Der Preis ist aber mehr als traurig, bei 25-30% Raster-Leistung(RT ist mir Wurst) als die RX6700XT, schlappe 100€ zu teuer.

Antwort 1 Like

Ginmarr

Mitglied

68 Kommentare 26 Likes

Brutal das ne x70 non ti Karte über 600 Euro Kostet 😒 Da ist nix Massentauglich, kann es verstehen wenn die Leute da lieber zu einer PS5 greifen um mit dem restlichen Geld kannst 1 oder gar 2 mal gut bis sehr gut Essen gehen.

Antwort 1 Like

T
TheSmart

Veteran

449 Kommentare 224 Likes

Ja wie ich es oben schon gesagt habe.. diese..aber eigtl alle aktuellen Grakas sind nicht dazu da jetzt gekauft zu werden, sondern frühestens nächstes Jahr.
In der Hoffnung das der Preis einigermaßen signfikant sinkt. Man hatte ja die Hoffnung das die Preise sich normalisieren würden nach dem zusammenbrechen der Kryptobranche.. aber stattdessen werden die Grakas direkt mit so einer völlig überzogenen UVP verkauft.

Antwort 1 Like

Gregor Kacknoob

Urgestein

548 Kommentare 456 Likes

Hier ist ein Test mit 300W. Bei 200W sollte die 4090 sicherlich mehr FPS liefern als eine 4070. Würde mich aber auch interessieren ^^

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,032 Likes

Den kenn ich, @Gregor Kacknoob. Mir geht es mehr um diese vor vielen Jahren mal getätigte Aussage:
'Ein paar Worte an die Hersteller möchten wir gern mit anbringen: weniger ist mehr! Warum kann man sich nicht auch auf eine Leistungsobergrenze beschränken, so wie sich einige Automobilhersteller bereits freiwillig auf eine Höchstgeschwindigkeit der Autos eingelassen haben? 200 bis 250 Watt reichen, mehr braucht kein Mensch – eher weniger. Intensivieren statt extensivieren, das wäre sicher ein richtiger Schritt in die Zukunft. Wir wollen hier nicht den heilbringenden Öko-Engel geben, dazu sind wir zu sehr Spieler und Leistungsfanatiker. Aber wir möchten zumindest einen Punkt, den man als Grenze zwischen Brauchbarkeit und Leistungswahn setzen kann. Das ist nicht viel, wäre aber sicher schon mal ein Anfang.'
Quelle: https://www.igorslab.de/grafikkarten-alternative-lustige-benchmarks-remastered/7/

Antwort 1 Like

Casi030

Urgestein

11,923 Kommentare 2,339 Likes

Mehr bis deutlich mehr da mehr Recheneinheiten deutlich Effizienter laufen und der Chip nicht hoch geprügelt werden muss.

Antwort Gefällt mir

[
[wege]mini

Mitglied

32 Kommentare 13 Likes

Danke für den Test.

Auch die ehrlichen Worte zum Preis und zu den Erwartungen der Preise von der Konkurrenz, waren sehr erfrischend. Natürlich möchte man schlechte Nachrichten nicht gerne hören und Schuld ist immer der Überbringer.

Aber wie sagte schon die Oma? Irgend was ist immer.

Gut empfinde ich die aktuellen Taktraten. Wer will, kann mehr bekommen und wer es richtig nötig hat, wird die Teile auch locker jenseits der 3 Ghz prügeln können. Aktuell gehe ich von 3.2+ Ghz aus, was man mit Software schaffen kann @ 250 Watt.

Dann ergibt es auch Sinn, mehr Spulen und Gedöns zu verbauen, um die Hardware nicht noch innerhalb der Garantiezeit zu zerstören. Die Boardpartner sind dann auch zu frieden.

So eine K1ngp1n oder DHS Edition, gerne auch eine GS, klingt doch nett. Man braucht Luft nach oben, um nachlegen zu können.

mfg

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung