Gaming GPUs Graphics Reviews

NVIDIA turns necessity into a virtue: MSI GeForce RTX 4070 Ti SUPRIM X 12 GB Review

Today I finally reveal the secret of the GeForce RTX 4080 12GB GeForce RTX 4070 Ti in the form of the board partner card MSI GeForce RTX 4070 Ti SUPRIM X 12GB, which is the smallest Ada card so far. The near-full AD104 is used, while the larger RTX 4080 is based on the much more trimmed AD103 and the RTX 4090 on the somewhat reduced AD102. New chip, new luck? Let’s be surprised, because there is no Founders Edition as a test sample this time, but only Board Partner cards. However, ours follows the standard TBP, so you can definitely equate the two.

Important preface

Of course, there are many benchmarks as usual, the comprehensive teardown, a very elaborate board and cooler analysis with some reverse engineering, as well as the analysis of the power consumption and the load peaks including a suitable power supply recommendation. Since I know that many colleagues will also repeat all the technical details including theory, which have already been presented in various tidbits, I’ll spare myself that today on a large scale and only briefly refer to the already known data. After all, you want to see real figures today and not PR fireworks.

Unpack and get to work – those who buy the card get a few nice extras in the scope of delivery. There would be the fuse of the 12VHPWR adapter with 3x 8-pin for old power supply plugs, a mouse pad and of course the card itself along with graphics card holder. Well, you need them, otherwise you literally have a serious problem. But before I go into more detail about the card itself, here’s a little information insert about the chip and the used architecture.

I had the choice between this card and an MSI RTX 4070 Ti GamingX Trio, which is of course much simpler and thus pushes the price more towards MSRP. This card comes with a 12VHPWR adapter with only 2x 8-pin and a TBP limit of 305 watts maximum. However, since both cards come with 285 watts TBP out of the box and I also tested this clock, the performance differences are close to zero and the GPU lottery decides the rest. They were almost exactly the same speed in my case.  If there is interest, I will of course also test this card individually.

The AD 104 and the new Ada architecture

The 294.5 mm² chip of the NVIDIA GeForce RTX 4070 Ti is also manufactured in the TSMC 4N process and has 35.8 billion transistors. The Ada architecture relies on 5 Graphic Processing Clusters (GPC) and 60 new streaming multiprocessors (SM) with 7600 CUDA cores, whose performance and energy efficiency have increased significantly compared to Ampere. In addition, there are 240 tensor cores of the 4th generation. Generation and Optical Flow, enabling transformative AI technologies including NVIDIA DLSS and the new NVIDIA DLSS 3 frame rate multiplier.

The 60 RT cores of the 3rd generation The new generation offers up to 2x ray tracing performance, Shader Execution Reordering (SER) improves ray tracing operations by a factor of two. In addition, there are a total of 30 Texture Processing Clusters (TPC), 240 Texture Units (TU) and 80 ROPs. The L2 cache is 49152 KB in total, and the card uses 12 GB of GDDR6X clocked at 10500 MHz on a rather narrow 192-bit interface, which corresponds to a data rate of 21 Gbps and a bandwidth of 504 GB/s.

The AD104-400 of the GeForce RTX 4070 Ti has hardly been limited and only offers one NVDEC (decoder) instead of four in total. However, NVIDIA uses a dual AV1 encoder in both chips, with the NVIDIA encoder (NVENC) being the 8th generation. Generation with AV1 is said to work up to 40% more efficiently than H.264. The rest remains identical. Except for the trimmed decoder, the AD104-400 is more or less a full upgrade.

The changes to all three core types can be summarized quite simply:

  • Programmable Shader: Ada’s SM includes an important new technology called Shader Execution Reordering (SER), which reorders work on the fly, providing a 2x speedup for ray tracing. SER is as big an innovation as the out-of-order design for CPUs was at the time. 83 shader TFLOPS are quite a statement
  • Tensor Cores of the 4. Generation: The new Tensor Core in Ada includes the NVIDIA Hopper FP8 Transformer Engine, which delivers over 1.3 petaFLOPS for AI inference workloads in the RTX 4090. Compared to FP16, FP8 halves data storage requirements and doubles AI performance. The GeForce RTX 4090 thus offers more than twice the total Tensor Core processing power of the RTX 3090 Ti.
  • RT Core of the 3. Generation: A new opacity micromap engine accelerates ray tracing of alpha-checked geometries by a factor of 2. Add to this a new micro-mesh engine that handles all the geometric richness without further BVH creation and storage costs. Triangulation throughput is 191 RT-TFLOPS, compared to Ampere’s 78 RTTFLOPS.

The card still relies on a PCIe Gen. 4 interface and only for the external power connection with the 12VHPWR connector (12+4 pin) on an element of the PCIe Gen. 5 specification. The TGP is 285 watts and can also be increased up to 365 watts, depending on the board partner (which is rather pointless because the voltage limits at some point anyway). The extremely oversized cooler will know how to prevent the chip’s maximum permissible 90 °C anyway.

 

The MSI GeForce RTX 4070 Ti SUPRIM X 12 GB in detail

The RTX 4080 SUPRIM X 16GB weighs 2352 grams, the RTX 4070 Ti SUPRIM X “only” 2004 grams The length of 34 cm has grown by another centimeter, but the height of 13.5 cm is slightly lower, but still far above the normal size. You need a trum of cases if you have to use the great adapter. The material looks somehow already spacey as always and it has once again perfectly succeeded in incorporating the familiar SUPRIM design language. Light metal and a bit of plastic, plus a visually successful light metal backplate with luminous accents – the buyer can live with that, even visually.

MSI uses a dual BIOS including silent and gaming mode. The only difference between the two modes is the fan curve, which is a bit less aggressive in Silent mode and also lets the card run a bit “warmer”. But with this giant cooler, even that is more than enough. Power limit and clock rates are identical in both modes. MSI has enabled up to 365 watts for the card, which is rather wasteful in the end, because you will never be able to exploit such values in gaming, not even with OC. Because then, as always, the voltage limits first.

But you can not only put power into the card, but also video connections. There are four of them, to be quite precise, as there are: three times DisplayPort 1.4a and once HDMI 2.1a. That is especially a pity for the DisplayPort when it comes to the new specifications. Chance missed, unfortunately. And with HDMI, you have to trick with the compression from 4K onwards if you want it to go above 120 Hz. That’s a pity, but it’s not MSI’s fault.

The screenshot from GPU-Z shows us the default settings of the gaming mode, which correspond to those of the silent mode except for the higher power limit.

With this, the first page is finished and we are slowly preparing for the test.

 

139 Antworten

Kommentar

Lade neue Kommentare

A
Arcbound

Veteran

138 Kommentare 105 Likes

Eine WQHD-Karte für 900€ bei der gespart werden muss. Genau mein Humor.

Antwort 20 Likes

Kohlkopf

Mitglied

42 Kommentare 10 Likes

899€ UVP + Luxus Aufschlag, also am Ende mit dem tollen Euro und den hiesigen Händlern etc. vermutlich doch wieder knapp über 1000€. Nö, Danke :) Da warte ich mit der aktuellen Einstellung der Hersteller und Händler wohl noch bis zum Sankt-Nimmerleins-Tag.

Antwort 3 Likes

F
Furda

Urgestein

663 Kommentare 370 Likes

Danke für den wie immer ausführlichen Test!

Hm, säuft wie ne 4080, aber deutlich langsamer. Der hohe Preis macht das irgendwie nicht wett. Dann die schlechte Custom Ausführung, Suprim ist bei MSI das höchste, aber so schlechte VRM und deren Kühlung beim Topmodell? Fail! Darum säuft die so.
Dann noch der ewige Speicher-Geiz beim grünen Laden. Menge und Bandbreite sehr dürftig.
All das für 1000 Kröten plus? 🤔

Finde die Grafiken suboptimal auf den ersten Seiten, dass nicht der Testkandidat die 100% Marke ist, sondern die 3090 - ist umständlich.

Antwort 2 Likes

g
gagagu

Neuling

7 Kommentare 2 Likes

Hmm, da wird es wohl doch ne 4080 werden...

Antwort 1 Like

D
Deleportas

Mitglied

27 Kommentare 6 Likes

Der Drang sich ne neue Karten zu holen und die 2070 Super in Rente zu schicken steigt... Aber erstmal abwarten was der Straßenpreis in 2-3 Monaten sagt und das dann auch FullCover-Blöckr verfügbar sind zu normalen Preisen :)

Antwort Gefällt mir

R
Rammwurst

Neuling

2 Kommentare 2 Likes

Die 899€ ist schon der tolle Euro, hä?

Antwort Gefällt mir

S
Staarfury

Veteran

257 Kommentare 206 Likes

Das Ding sieht von der P/L verglichen mit dem Rest der aktuellen Generation noch halbwegs ok aus.

Aber wir haben uns jetzt halt auch endgültig dem Leistungsbereich einer 3080 / 6800 XT soweit angenähert, dass sich der Vergleich mit den alten Karten aufdrängt. Und da sehen wir +15-20% Leistung für +15%-20% UVP.

Antwort Gefällt mir

onyman

Veteran

236 Kommentare 123 Likes

Chipausbeute abrunden und die Käuferschicht erreichen, die "auf keinen Fall über 1.000 €" gehen möchte.

Klingt zumindest für mich nach einem sinnvollen Motiv für diese Karte.

War das geplant, dass die erst deutlich nach Weihnachten kommt oder ist das sowieso keine Saison für Hardware?

Antwort 1 Like

knollo

Mitglied

55 Kommentare 34 Likes

Ich schaue mir gerne die Tests von Igor an. ABER die Karte ist ja gar nicht 3 mal so schnell wie die 3090ti, so wie von nvidia versprochen. Was für Enttäuschung. 😓Den kleinen Spaß musste ich mir machen.

Hoffentlich kommt bald die nächste Generation mit einem vernünftigen Preis/Leistungs Verhältniss. Mit dieser Preisgestaltung macht sich der Hardwaremarkt nur selbst kaputt und wir bewegen uns wieder zurück in die Zeiten wo DIY-Hardware was für Freaks war.

Antwort 5 Likes

Alkbert

Urgestein

931 Kommentare 707 Likes

Und ich sehe ausserdem die Gefahr (und insbesondere, wenn man mit Konsumenten ausserhalb unserer "Hardcore-Hardware" Blase spricht) , dass zunehmend bislang passionierte "PC Spieler" mehr und mehr in den Konsolenbereich abwandern. Die geringere Leistungsfähigkeit der Hardware wird hier häufig durch einen um Längen (!!!) besser optimierten Code mindestens teilsweise ausgeglichen und man bekommt das komplette Paket um 700 Öcken.
Und das Argument, dass am PC die Spiele dafür günstiger sind ist ebenfalls Makulatur, wenn ich mir anschaue, was für Microsoft Flugsimulator, Destiny 2 Lightfall, Diablo 4 usw. abgegriffen wird / werden soll.
Auch per Preisgestaltung kann man aus dem PC Gaming ein Nischenprodukt mit der Gefahr des Aussterbens machen. Liebe Hardware Hersteller, wie war das mit dem Ast, auf dem man sitzt. ?

Antwort 10 Likes

Gregor Kacknoob

Urgestein

524 Kommentare 442 Likes

Wird Zeit, dass TSMC wieder ordentliche Konkurrenz bekommt. Dieses P/L kannste gebrauchen, wie ein Loch im Kopf. Naja, die Super & Co. für ~2% sind bestimmt schon in der Pipe. Die Masse wirds schlucken 🤷‍♂️

Antwort 1 Like

SJGucky

Mitglied

50 Kommentare 20 Likes

Immerhin billiger als ne 3080Ti :poop:

Antwort Gefällt mir

Steffdeff

Urgestein

727 Kommentare 677 Likes

Da stimme ich Dir zu!
Wenn ich im Bekanntenkreis sehe wie zufrieden manche noch mit einer Playstation 4 sind, kommt man schon ins grübeln. 🤔

Danke an @Igor Wallossek für den Test!

Antwort 2 Likes

A
Arcbound

Veteran

138 Kommentare 105 Likes

Genau so.

Ich find's halt schade, weil ich schon merke, dass ich das Hobby (PC-)Gaming so schleichend aufgebe. Hab jetzt über Weihnachten das erste Mal seit Jahren nicht mehr gezockt. Die Preisgestaltung bei GPUs verleidet mir sogar die Lust ältere Spiele zu spielen.
Vor gut 2 Jahren wollte ich auch endlich mal meinen Monitor auf WQHD aufrüsten. Nachdem ich die ersten Monitore wegen Pixelfehlern zurückschicken musste, hab ich das Projekt danach auf Eis gelegt, da ich ohne neue GPU nicht sinnvoll auf WQHD zocken kann.

Antwort Gefällt mir

Ghoster52

Urgestein

1,408 Kommentare 1,062 Likes

Die 4070ti-Karte *** wären interessant, wenn es Sie zur UVP oder 100€ billiger geben würde.
*** mit 16GB VRAM & 256-bit Interface (so abgespeckt wie Sie jetzt ist, ist Sie zu teuer... (n))

Was man anerkennen muss und kann, Sie kostet "nur" eine halbe 3090 und liefert beim zocken die gleiche RT Leistung
mit halben Speicher und gut 100Watt weniger am Stromzähler. (y)

Eddi: Ich hatte zuvor einen Artikel bei "PCGH" gelesen, dort stand im Fazit was von UVP: 799$
mMn wären 600-700€ noch ok. Wenn es weiterhin im 4 stelligen Bereich bleibt, wechsel ich das Hobby...

Antwort 4 Likes

knollo

Mitglied

55 Kommentare 34 Likes

Grundsätzlich ja, aber bei dem mini Chip und den schmalen Speicherinterface helfen auch keine 100Eur. Vollkommen egal wie gut die Rechenleistung dabei ist.

Geplant war eine UVP von 1100Eur als 408012G. Aber offenbar musste nvidia dabei selbst so heftig lachen, das sie jetzt mit den ganzen Aufwand für Bios neu schreiben, umlabeln und neu verpacken einen Kampfpreis von "nur" 900Eur anbieten "können" und offenbar auch genug Gewinn machen.

Über die Lachkrämpfe bei der 4080, 4090 kann man nur spekulieren. 🤪

Wie auch immer. Der Markt wirds richten. Er reagiert zwar langsam bei Monopolstellung aber er reagiert. Ist ja schließlich kein Gas...haha. Sry der musste sein.

Antwort 2 Likes

Gruselflummi

Mitglied

17 Kommentare 5 Likes

Von der Rohleistung wäre die Karte genau mein Fetisch. 2015 habe ich mich noch selbst gegeißelt weil ich mir eine GTX980ti gegönnt habe für 700€. Darf man heute niemanden mehr erzählen. 🙈

Antwort Gefällt mir

P
Pokerclock

Veteran

429 Kommentare 367 Likes

Ich bezweifle doch stark, dass wir alsbald unter 900 € brutto sehen werden, zumindest nicht in den nächsten ein, zwei Wochen. Karten meiner Lieblingsmarke von PCPartner bekomme ich derzeit für 725 € netto im EK. Und dann kommt noch der Endkundenhändler und möchte Marge haben.

Antwort 1 Like

MeinBenutzername

Veteran

209 Kommentare 74 Likes

Alles zu lesen war wie immer lohnenswert!

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung