Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 3070 Ti FE im Test – Der große Bruder des kleinen Hungers mit hartem Hash-Limiter an der Steckdose

Spiele-Performance

Ohne um den heißen Brei herumzureden: ich war von der Gesamtperformance, vor allem in Anbetracht der doch extrem hohen Leistungsaufnahme, erst einmal enttäuscht. Immer sind es bis zu 65 Watt in WQHD, was so eine GeForce RTX 3070 Ti mehr an Leistung aufnimmt, als eine GeForce RTX 3070 FE. In WQHD erkauft man sich so mit dieser Brechstange einen Vorsprung von nur 6.4 Prozentpunkten, was diese neue Karte im Blick auf die Effizienz soweit zurückwirft, dass selbst manche Turing-Karten nur müde lächeln.

In Ultra-HD schafft man mit deutlich über 70 Watt mehr dann magere 8 Prozentpunkte Vorsprung, was auch nicht wirklich besser ist. Man ist damit so schnell wie eine Radeon RX 6800 ohne XT unterwegs, benötigt aber die gleiche elektrische Energie wie eine Radeon RX 6800XT bzw. RX 6900XT. Gerettet wird die GeForce RTX 3070 Ti nur durch DLSS und in Settings mit DXR, wo die Karte gegenüber den Radeon-Pendants derzeit punkten kann.

Mit aktiviertem Raytracing steigt der Vorsprung auf knapp 11 Prozentpunkte, da lassen die 2 SM mehr nichts anbrennen. Aber wirklich begeistern kann auch das nicht. Der Vollausbau ist mit seinen 48 SM viel zu nah an der GeForce RTX 3070 mit 46 SM, das spürt man auch hier. Die Lücke zur GeForce 3080 FE bleibt auch hier weiterhin schemrzlich bestehen.

Zusammengefasst: Die GeForce RTX 3070 ist nicht in der Lage, die riesige Lücke zwischen der GeForce RTX 3070 und RTX 3080 zu füllen, dazu liegt sie immer noch viel zu nah an der vermeintlich kleineren Karte, die aber unterm Strich das vernünftigere Produkt ist. Der verbaute GDDR6X-Speicher samt seiner höheren Bandbreite wird in keiner einzigen Situation auch nur annähernd benötigt und er ist im Gegenzug mit seinen weit über 20 Watt mehr Leistungsaufnahme ein übler Treiber bei der Leistungsaufnahme.

Der einfache GDDR6 hätte bei den tatsächlich benötigten Bandbreiten locker gereicht und die eher mageren 8 GB Speicherausbau hätte man mit 2-GB-Modulen auch locker vergessen machen können. Dann hätte man ein deutlich runderes Produkt auf den Markt bringen können, dem ein ambitionierter Gamer sicher auch die erhöhte Leistungsaufnahme nachgesehen hätte. Ob es am exklusiven GDDR6X-Deal mit Micron und dem generellen Mangel an „normalem“ GDDR6-Speicher lag, bleibt auch noch offen. Ein abgespeckter GA102 wäre als echter Lückenfüller deutlich sinnvoller gewesen als dieser extrem ausgequetschte Vollausbau.

Die restlichen bis zu 50 Watt mehr gegenüber einer GeForce RTX 3070 sind nicht mit einfacher Logik zu erklären. Es bleibt zu vermuten, dass die Yield an voll funktionsfähigen Chips mittlerweile recht hoch ist und man mit etwas geänderten Spannungs-/Frequenzkurven möglichst viele Chips in den Warenkreislauf überführen wollte. Das wiederum könnte eine Chance für ein sehr erfolgreiches Untervolten eröffnen, wenn man per Zufall einen der besseren Chips erwischt hat. Naja, falls. Stabil konnte ich hier immerhin bis zu 20 Watt einsparen, allerdings ist der Aufwand aus stundenlangem Try & Error kaum einem normalen Kunden aufzuerlegen. Und man muss zudem ja auch Glück haben, denn garantiert wird nichts.

Und selbst mit knapp 280 Watt fällt die Karte dann immer noch aus dem Rahmen. Was sie aus den Augen eines Gamers jedoch etwas rettet, sind die etwas bessere DXR-Performance und am Ende auch DLSS, was einmal mehr zum Matchwinner in Ultra-HD wird. Mit diesen Features kann ein Miner wiederum nichts anfangen, wenn er auf seinem Rig nicht auch noch ab und an selbst spielt.

GeForce RTX 3070 Founders Edition

Die hauseigene Founders Edition ist solide gefertigt, für ein Dual-Slot-Design noch akzeptabel leise bzw. laut und relativ kühl. Optisch und haptisch ist das Teil eine tadellose Offerte, nur der 12-Pin-Adapter sieht immer noch potthässlich aus. Der Kühler macht seinem Namen alle Ehre und es ist beruhigend zu wissen, dass er sogar die 300 Watt noch stemmt. Die Leistungsaufnahme hatte wir ja bereits, wobei die neu gestaltete Platine der hohen TBP sicher Rechnung trägt und durchaus überzeugen kann. Die Original-Platine der RTX 3070 hätte das Mehr an zugeführter Leistung genauso wenig stemmen können, wie der kleinere Kühler die dann nötige Kühlperformance. NVIDIA hat somit genau gewusst, was mit dieser Karte an Leistung wirklich verschleudert wird, warum auch immer.

Fazit und Schlussbemerkung

Generell betrachtet, ist die GeForce RTX 3070 Ti sicher eine Bereicherung des Marktes, auch wenn sie auf den ersten Blick eher überflüssig wirkt. Die Hash-Bremse funktioniert ja nur bei Etherum wirklich und so gesellt sich eine zweite, viel wirksamere und nicht so einfach auszuhebelnde Mining-Bremse hinzu: die mangelnde Effizienz dieser Karte. Das wiederum eröffnet die Chance, dass diese Karten dann vielleicht sogar eher zu kaufen sein werden als eine GeForce RTX 3070. Gamer sind leidensfähig und oft genug begleicht die Energiekosten ja eh die Elternschaft.

Ansonsten lässt mich diese Karte etwas ratlos zurück. Wenn das alles wirklich so geplant und gewollt war, dann frage ich mich wirklich nach den Gründen. Will NVIDIA mit der GeForce RTX 3070 Ti wirklich alles an die Front werfen, was noch als Reserve taugt? Last man standing in Grafikhardware oder geniale Resteverwertung? Die Zeit wird es sicher zeigen.

Kommentar

Lade neue Kommentare

RawMangoJuli

Veteran

253 Kommentare 146 Likes

Hmmm ... die Rückseite des PCB sieht so aus als ob sie für clamshell Speicher ausgelegt ist.

Stimmt das? Dann könnts ja doch noch ne 16GB Variante geben ^^

Antwort Gefällt mir

Lucky Luke

Veteran

405 Kommentare 181 Likes

Danke für den mal wieder sehr aufschlussreichen Test.
Schade, dass die Lücke zwischen der 3070 & der 3080 nicht wirklich geschlossen werden konnte. FPS per Watt ist ja mal wirklich keine Glanzleistung.
Ich bin gespannt, wie sich die ganze Thematik rund um die GPUs weiter entwickeln wird.
Vor Ende 2021 sehe ich keine Preisentwicklung nach unten :/

Antwort 1 Like

P
Phelan

Veteran

191 Kommentare 172 Likes

nur wenn die 8Gbyte Version im Regal liegenbeleibt. Also nein es wird kein 16Gbyte Version geben.
IMO Nichtmal als Refresh Aufguss kurz vor der Vorstellung der 40xx Serie.

PS: wie imemr schöner Test, die Karte ist für mich reine Resourcenverschwendung ... zu wenig scheller, zu laut und mit 290W Werks OC jenseits von gut und böse. Leider ist vielen Leuten der Stromverbrauch immer noch total egal.

Würde ich nur kaufen wenn sie das selbe kostet wie eine 3070 und dann auch sofort auf 220W Lowvolten.

Antwort 2 Likes

s
shaboo

Mitglied

76 Kommentare 75 Likes

Sehr schöner Test mit treffendem Fazit, das auch die erwartet klaren Worte nicht scheut! (y)

Wo die 3080Ti - aufgrund ihres, gemessen an der Mehrleistung, gegenüber der 3080 exorbitanten Aufpreises - noch eine einzige Frechheit war, ist die 3070 immerhin "nur" überflüssig. Minimal mehr Leistung für relativ wenig mehr Geld halt. Man macht damit gegenüber einer 3070 vielleicht keinen Riesenfehler, aber richtig weiter bringt sie einen definitiv nicht.

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Nur eine weitere Karte, die die Welt nicht braucht. Eine würdige Nachfolgerin der 7.

Antwort 3 Likes

S
Schattenläufer

Mitglied

35 Kommentare 26 Likes

Naja, der Platz zwischen der 3070 und der 3080 will ja noch mit einer 3070 Super gefüllt werden, die dann auch mehr Speicher und vielleicht sogar den weiter abgespeckten GA102 bekommt. ;)
Und aufgrund der mangelnden Verfügbarkeit der 3070 wird bis dahin auch die TI ihre Käufer finden, die froh sind, überhaupt eine Karte kaufen zu können und bei besserer Verfügbarkeit die 3070 mit dem deutlich besseren Preis-Leistungsverhältnis bevorzugt hätten.

Antwort Gefällt mir

M
McFly_76

Veteran

396 Kommentare 136 Likes

Founders Edition @290 W TGP und Custom Modelle mit 3x 8-Pin mit noch höherer TGP sollen die Lösung bzw. Alternative sein !? :ROFLMAO:
Da finde ich die RX 6700 XT einfach nur besser.
Gleichzeitig freue ich mich schon auf die Vorstellung von "AMD Fidelity FX Super Resolution" am 22 Juni ;)

Antwort Gefällt mir

Smartengine

Veteran

146 Kommentare 134 Likes

Ich schätze die Karte wird so um 1400-1500 gehandelt werden. Limiter hin oder her.
Da viele Gamer jetzt auf Karten warten, die Scalper sowieso, wird sich an den Preisen nicht viel ändern.
Leider :(

Antwort Gefällt mir

konkretor

Veteran

298 Kommentare 301 Likes

Danke Igor für die Schlussworte.

Das mit dem Speicher ist ein sehr interessanter Punkt von dir. Das ist mir ebenso aufgefallen. Mal sehen ob es irgendwann raus kommt wieso hier der teure Speicher verbaut wird ohne wirklichen Mehrwert.

Das Produkt ist nicht gut. Gekauft wird er trotzdem zwecks Alternativen

Antwort Gefällt mir

M
Mausmaki

Mitglied

15 Kommentare 4 Likes

Vielen Dank Igor für diesen ausführlichen Test! Es bleiben mal wieder keine Fragen offen :D

Außer an Nvidia ... ist ja im Schlusswort erwähnt. Und was der DDR6x Speicher soll.

Da schaue ich doch meine "normale" 3070 an, die ich mir noch zu bezahlbaren zeiten im Winter geschossen habe ...
(danke an diesem Punkt an dich Igor für deinen Artikel / dein Video kurz nach Neujahr, in dem du stark steigende Hardwarepreise vorrausgesagt hast ;-) es ist alles so und schlimmer eingetroffen! Hat viel Geld gespart!)

... und denke mir: JO, alles richtig gemacht, der Mehrwert dein eine 3070 Ti gegenüber einer 3070 bringt, der findet sich wohl auch nur beim Stromanbieter ;-)

Antwort Gefällt mir

G
Guest

Noch.

Wer hätte es gedacht.

Und da hieß es immer, von nichts kommt nicht, geht wohl doch nicht ganz auf wenn man weit drüber ist. Die Konkurrenz ist das eigene Portfolie.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Super Test Igor, sehr gut gefällt mir immer hier die gemittelte Leistungsaufnahme in allen Titeln, da das wirklich ein sehr aussagekräftiger Wert ist.

Die Karte selbst ist eine herbe Enttäuschung muss ich sagen, selten ein so überflüssiges Produkt gesehen.

Antwort 1 Like

e
eastcoast_pete

Urgestein

1,476 Kommentare 833 Likes

Danke Igor! Frage: Wie groß ist denn der Preisunterschied zwischen GDDR6x und GDDR6 Memory Chips? Oder, andersherum, wie viel mehr VRAM hätte NVIDIA fürs selbe Geld kaufen können wenn sie sich hier für GDDR6 entschieden hätten?

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Den EK von NV kann dir niemand seriöse beantworten. Es wird sich schon rechnen für Sie.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,476 Kommentare 833 Likes

Schon klar das NVIDIA solche Interna nicht raus lässt; fragte aber Igor trotzdem, den er hat ja viele gute Connections die hin und wieder Mal etwas Einblick geben können. Wenn ich es richtig weiß, ist GDDR6X zur Zeit immer noch exklusiv von Micron, während GDDR6 von mehreren Herstellern erhältlich ist (wenn es lieferbar ist, muß man ja heute immer dazufügen). Wäre schon interessant, was sich NVIDIA dabei gedacht hat.
Hier meine Spekulation: Vielleicht hat NVIDIA Abnahme Garantien an Micron gegeben, und wenn sie jetzt nicht genug große GPU dies bekommen um GDDR6X zu verbauen, muss das GDDR6X eben auch mit den kleineren GPUs kombiniert werden.

Daß es sich aber in jedem Fall für NVIDIA rechnet, nehme ich auch an; umsonst geben die es niemand.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung