GPUs Graphics Reviews

NVIDIA GeForce RTX 3070 Ti FE Review: Inefficient side-grade with high power consumption as mining brake

For the GeForce RTX 3070 Ti FE (Founders Edition) unveiled today, NVIDIA uses the full GA104.1 In contrast to the GA102, a smaller chip like the GA104 usually promises higher yield and thus better availability, improved efficiency and cheaper production. So much for the theory. Except that this often clashes with practice. Because the question remains in the room, which pull-ups one had to make, in order to get all chips with fully functional units also really broadly effective to run. But more on that later.

For the GeForce RTX 3070 Ti, NVIDIA now uses all 48 SM units (the RTX 3070 used 46), resulting in a total of 6144 CUDA cores (up from 5888). In addition to the CUDA cores, NVIDIA’s GeForce RTX 3070 Ti is of course also equipped with 48 next-generation RT cores (up from 46) and 192 Tensor cores (up from 184). In addition, there is the prestigious GDDR6X memory, which, however, turns out to be quite narrow with 8 GBytes. But there will be more to write about that, too.

However, the gap between the already launched RTX 3070 and the GeForce RTX 3080 is large, so many have been dreaming of a GeForce RTX 3070 Ti with an even more stripped down GA102 until now. But now NVIDIA tries it from below and releases the GA104 completely. However, with only 2 SM more, even on paper it will probably be rather hard to really fill the gap between the two cards in the middle, even if you want to speed it up even more with the help of the faster memory.

The fact that the review mainly refers to the background and details is actually only logical due to the introduction. Because I must, I can already spoil once, possible criticism also well to be able to prove. This also concerns the electrical conversion, the circuit board, the power consumption and of course the cooling. So reading material is already provided. Also, all cards were re-charged last week after the older models were also re-flashed with the latest rBAR BIOS.

The GeForce RTX 3070 Ti Founders Edition

NVIDIA has once again come up with a new case for the GeForce RTX 3070 Ti. It lies between the GeForce RTX 3080 and the RTX 3070 in terms of effort, but as usual it’s also a pretty clever mix of light metal, plastic and hardware, which feels great and valuable and also looks good, but is still a bit simpler than its bigger sisters. The design with the 3.5 cm installation depth plus the 4 mm backplate makes this card a pleasing dual-slot design with all known advantages and disadvantages. It looks really good, has a quality feel to it, and there’s definitely something to like about the visual realization.

With just under 1200 grams, the card is of average weight. The length of about 27 cm is also rather average and the installation height of 10.5 cm from the upper edge of the PCIe slot with the card installed to the top of the cover is as low as usual. The funny 12-pin Micro-Fit 3.0 can’t be missing and sits again diagonally on the board like on the GeForce RTX 3080. Here you have to connect the included 12-pin adapter, to which the two conventional 6+2-pin plugs fit, which have been known for years. On the next page you will see the completely redesigned circuit board (PG143A). There are also further details about the slightly modified cooler design. Nvidia has omitted the NVLINK port.

NVIDIA is once again abandoning USB Type C on the slot panel, probably because the VR hype has cooled down considerably in the meantime. Interestingly, AMD will re-record this feature on Big-Navi, while they seem to have already finished with it here. The new HDMI 2.1 port shouldn’t be missing, nor the three current DisplayPorts 1.4, of course. The very large cooling vents show which way the wind is blowing, and that’s about it for the exterior.

The data of the Founders Edition can be seen in the current GPU-Z screenshot, the rest I already mentioned above. The 1575 MHz base and the 1770 MHz boost clock are already known as well as the 1188 MHz memory clock and the memory expansion with 8 GB GDDR6X on the 256-bit interface with a cumulative bandwidth of 608.3 GB/s.

Again, I have a table for all statisticians among you, before it really gets going from the next page on.

  GeForce RTX 3070
GeForce RTX 3070 Ti
GeForce RTX 3080 GeForce RTX 3080 Ti
GPU GA104-300 GA104-400 GA102-200 GA102-225
Process node Samsung 8 nm
The Size 395.2 mm2 628.4 mm2
Transistors 17.4 billion 28 billion
CUDA Cores 5888 6144 8704  
TMUs/ROPs 184/92 192/96 272 / 96 320/112
Tensor/RT 184 / 46 192/48 272 / 68 320 / 80
Base clock
1545 MHz 1575 1440 MHz 1365 MHz
Boost clock
1740 MHz 1770 1710 MHz 1665 MHz
Memory 8 GDDR6 8 GDDR6X 10 GB GDDR6X 12 GB GDDR6X
Interface 256-bit 320-bit 384-bit
Throughput 16 Gbps 19 Gbps 19 Gbps 19 Gbps
Bandwidth 448 Gbps 608.4 760 Gbps 912.4 Gbps
TGP 220 W 290 W 320 W 350 W
Launch 15.10.2020 09.06.2021 17.09.2020 02.06.2021

Kommentar

Lade neue Kommentare

RawMangoJuli

Veteran

253 Kommentare 146 Likes

Hmmm ... die Rückseite des PCB sieht so aus als ob sie für clamshell Speicher ausgelegt ist.

Stimmt das? Dann könnts ja doch noch ne 16GB Variante geben ^^

Antwort Gefällt mir

Lucky Luke

Veteran

405 Kommentare 181 Likes

Danke für den mal wieder sehr aufschlussreichen Test.
Schade, dass die Lücke zwischen der 3070 & der 3080 nicht wirklich geschlossen werden konnte. FPS per Watt ist ja mal wirklich keine Glanzleistung.
Ich bin gespannt, wie sich die ganze Thematik rund um die GPUs weiter entwickeln wird.
Vor Ende 2021 sehe ich keine Preisentwicklung nach unten :/

Antwort 1 Like

P
Phelan

Veteran

189 Kommentare 171 Likes

nur wenn die 8Gbyte Version im Regal liegenbeleibt. Also nein es wird kein 16Gbyte Version geben.
IMO Nichtmal als Refresh Aufguss kurz vor der Vorstellung der 40xx Serie.

PS: wie imemr schöner Test, die Karte ist für mich reine Resourcenverschwendung ... zu wenig scheller, zu laut und mit 290W Werks OC jenseits von gut und böse. Leider ist vielen Leuten der Stromverbrauch immer noch total egal.

Würde ich nur kaufen wenn sie das selbe kostet wie eine 3070 und dann auch sofort auf 220W Lowvolten.

Antwort 2 Likes

s
shaboo

Mitglied

76 Kommentare 75 Likes

Sehr schöner Test mit treffendem Fazit, das auch die erwartet klaren Worte nicht scheut! (y)

Wo die 3080Ti - aufgrund ihres, gemessen an der Mehrleistung, gegenüber der 3080 exorbitanten Aufpreises - noch eine einzige Frechheit war, ist die 3070 immerhin "nur" überflüssig. Minimal mehr Leistung für relativ wenig mehr Geld halt. Man macht damit gegenüber einer 3070 vielleicht keinen Riesenfehler, aber richtig weiter bringt sie einen definitiv nicht.

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Nur eine weitere Karte, die die Welt nicht braucht. Eine würdige Nachfolgerin der 7.

Antwort 3 Likes

S
Schattenläufer

Mitglied

35 Kommentare 26 Likes

Naja, der Platz zwischen der 3070 und der 3080 will ja noch mit einer 3070 Super gefüllt werden, die dann auch mehr Speicher und vielleicht sogar den weiter abgespeckten GA102 bekommt. ;)
Und aufgrund der mangelnden Verfügbarkeit der 3070 wird bis dahin auch die TI ihre Käufer finden, die froh sind, überhaupt eine Karte kaufen zu können und bei besserer Verfügbarkeit die 3070 mit dem deutlich besseren Preis-Leistungsverhältnis bevorzugt hätten.

Antwort Gefällt mir

M
McFly_76

Veteran

395 Kommentare 136 Likes

Founders Edition @290 W TGP und Custom Modelle mit 3x 8-Pin mit noch höherer TGP sollen die Lösung bzw. Alternative sein !? :ROFLMAO:
Da finde ich die RX 6700 XT einfach nur besser.
Gleichzeitig freue ich mich schon auf die Vorstellung von "AMD Fidelity FX Super Resolution" am 22 Juni ;)

Antwort Gefällt mir

Smartengine

Veteran

143 Kommentare 130 Likes

Ich schätze die Karte wird so um 1400-1500 gehandelt werden. Limiter hin oder her.
Da viele Gamer jetzt auf Karten warten, die Scalper sowieso, wird sich an den Preisen nicht viel ändern.
Leider :(

Antwort Gefällt mir

konkretor

Veteran

293 Kommentare 300 Likes

Danke Igor für die Schlussworte.

Das mit dem Speicher ist ein sehr interessanter Punkt von dir. Das ist mir ebenso aufgefallen. Mal sehen ob es irgendwann raus kommt wieso hier der teure Speicher verbaut wird ohne wirklichen Mehrwert.

Das Produkt ist nicht gut. Gekauft wird er trotzdem zwecks Alternativen

Antwort Gefällt mir

M
Mausmaki

Mitglied

15 Kommentare 4 Likes

Vielen Dank Igor für diesen ausführlichen Test! Es bleiben mal wieder keine Fragen offen :D

Außer an Nvidia ... ist ja im Schlusswort erwähnt. Und was der DDR6x Speicher soll.

Da schaue ich doch meine "normale" 3070 an, die ich mir noch zu bezahlbaren zeiten im Winter geschossen habe ...
(danke an diesem Punkt an dich Igor für deinen Artikel / dein Video kurz nach Neujahr, in dem du stark steigende Hardwarepreise vorrausgesagt hast ;-) es ist alles so und schlimmer eingetroffen! Hat viel Geld gespart!)

... und denke mir: JO, alles richtig gemacht, der Mehrwert dein eine 3070 Ti gegenüber einer 3070 bringt, der findet sich wohl auch nur beim Stromanbieter ;-)

Antwort Gefällt mir

G
Guest

Noch.

Wer hätte es gedacht.

Und da hieß es immer, von nichts kommt nicht, geht wohl doch nicht ganz auf wenn man weit drüber ist. Die Konkurrenz ist das eigene Portfolie.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Super Test Igor, sehr gut gefällt mir immer hier die gemittelte Leistungsaufnahme in allen Titeln, da das wirklich ein sehr aussagekräftiger Wert ist.

Die Karte selbst ist eine herbe Enttäuschung muss ich sagen, selten ein so überflüssiges Produkt gesehen.

Antwort 1 Like

e
eastcoast_pete

Urgestein

1,405 Kommentare 769 Likes

Danke Igor! Frage: Wie groß ist denn der Preisunterschied zwischen GDDR6x und GDDR6 Memory Chips? Oder, andersherum, wie viel mehr VRAM hätte NVIDIA fürs selbe Geld kaufen können wenn sie sich hier für GDDR6 entschieden hätten?

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Den EK von NV kann dir niemand seriöse beantworten. Es wird sich schon rechnen für Sie.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,405 Kommentare 769 Likes

Schon klar das NVIDIA solche Interna nicht raus lässt; fragte aber Igor trotzdem, den er hat ja viele gute Connections die hin und wieder Mal etwas Einblick geben können. Wenn ich es richtig weiß, ist GDDR6X zur Zeit immer noch exklusiv von Micron, während GDDR6 von mehreren Herstellern erhältlich ist (wenn es lieferbar ist, muß man ja heute immer dazufügen). Wäre schon interessant, was sich NVIDIA dabei gedacht hat.
Hier meine Spekulation: Vielleicht hat NVIDIA Abnahme Garantien an Micron gegeben, und wenn sie jetzt nicht genug große GPU dies bekommen um GDDR6X zu verbauen, muss das GDDR6X eben auch mit den kleineren GPUs kombiniert werden.

Daß es sich aber in jedem Fall für NVIDIA rechnet, nehme ich auch an; umsonst geben die es niemand.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung