GPUs Graphics Reviews

KFA2 GeForce RTX 4070 EX Gamer (1-Click-OC) 12 GB Review – Cheap OC card, extra cool & quiet, with a lot of ARGB

Teardown

The KFA2 GeForce RTX 4070 EX Gamer 12 GB isn’t disassembled quite as quickly, because the screwing of the backplate is also done from the front. This makes disassembly a bit more involved, especially since you also have to pull off three connectors instead of two (2x fan and LED). But they came off relatively easily, but without the danger of simply slipping out on their own. The slot bracket is screwed between the PCB and the backplate and locked extra at the cooler. I’ll explain why in a moment.

 

PCB layout and components

Let’s first start, as always, with the PCB of the KFA2 GeForce RTX 4070 EX Gamer 12 GB. NVVDD is still the main voltage and you even use a voltage converter design with a total of 8 true phases (instead of 6 on the FE and many MSRP cards) and the resulting 8 control loops for NVVDD alone. So, you save quite a bit compared to the RTX 4070 Ti, but this is still acceptable considering the significantly lower TDP.

Nevertheless, the card has an interesting peculiarity, because the voltage converter, which is positioned individually above the unpopulated RAM slots in all other cards (including the FE), is completely omitted. It is replaced by an additional DrMOS placement at the bottom left of the NVVDD voltage converter row. This has an advantage and a disadvantage. Advantage: The cooler becomes simpler (heatsink can be shorter) and thus cheaper. Disadvantage: This phase is connected to the motherboard slot, which significantly increases the current flow there.

In the end, however, it all looks just as meager as the FE, which may be ok considering the price. One also uses separate PWM controllers for NVVDD (GPU core) and FBVDDQ (memory), because the top models among the PWM controllers are unfortunately much too expensive. Therefore, the good and well-known uP9512R from UPI Semi has to do the job again, which can easily generate the 6 phases and is significantly cheaper than the models from Monolith, which, however, is completely sufficient. A second PWM controller in the form of the small uP9529Q controls the two phases for the memory. Both controllers are located on the backside of the board. Directly in between there is a uPI uS5650Q for monitoring the four 12V rails (3x Aux and 1x PEG).

All used DrMOS, also those for the memory, are rather cheap products from Alpha & Omega, which we already know from the Founders Edition. The AOZ5311NQI-03 with 55 A peak current used in all control circuits for NVVDD and FBVDDQ (memory) integrates a MOSFET driver, a high-side MOSFET and low-side MOSFET in a single package. This chip is specifically designed for high-current applications such as DC-DC buck power conversion applications. This integrated solution reduces board space requirements compared to a discrete component solution. The coils used for NVVDD and the memory have an inductance of 220 nH, and the capacitors are in cup form, which is less expensive.

And I want to (and must) say a word about the popular lists, which are often used on the Internet to evaluate the graphics card components and which only refer to the DrMOS used in each case. These lists are worthless and even misleading as long as you don’t know the used switching frequency of the voltage converter, the actual temperatures and flowing currents and evaluate them in context. The maximum values in the specifications are far away from what occurs on a card in practical operation. This can, despite the same DrMOS, even turn out extremely different in the evaluation from card to card and one must already consult the measurement curves and not theoretical final values.

The 12V rails on the 8-pin connector are combined into a single rail directly after the socket, another one is connected to the PEG and is only slightly used for NVVDD. The BIOS is in the usual place and the generation of the rest of the extra-low voltages is as usual. The GDDR6X memory chips are manufactured by Micron and bear the model number D8BZC, which is decoded to MT61K512M32KPA-21:U. They are specified for a clock frequency of 1313 MHz (21 Gbps GDDR6 effective). There are no more special features.

 

 

Teardown: The cooler

KFA2 relies on the usual cheap RGB fans, in this case even three. Two fans, each with a 9 cm rotor diameter (opening 9.2 cm), flank a centrally located 10 cm fan (opening 10.2 cm). All fans have 11 rotor blades each without a circumferential ring, which emits a rather wide airflow towards the radiator and also leads to more turbulence and losses at the air intake and below the radiator cover (tear-off noise). The engine is a wee bit growly, but I’ll get to that later.

A total of three nickel-plated heatpipes (2x 6 mm, 1x 8 mm) made of copper composite material lead from the heatsink to the end of the cooler, part of which also protrudes over the very short PCB. Here it comes then to a gladly seen “draught”, since no circuit board can brake out the air flow. All heatpipes also lead towards the slot bracket. This is also where the VRM heat sink is located, which is much more stable compared to the MSI RTX 4070 Ventus and does its job very well. The two voltage converters for the memory are also actively and validly cooled by cooling surfaces on the large GPU heatsink.

The used pads are okay, but not from the top shelf. Thus, you’ll find a bit of cost-down here as well. The light metal backplate is screwed to the cooler cover and the PCB. This stabilizes the board almost perfectly and prevents it from bending in the horizontal setup. I already wrote something about the airflow and we can see the appropriate cutout for it here (left in the picture).

And now we come back to the slot bracket, as promised. Since the slot bracket is firmly connected to the PCB and the backplate, KFA2 even stabilizes this bracket with four screws additionally with the cooler cover. This guarantees a consistently good contact pressure on the areas to be cooled (VRM).

 

Kommentar

Lade neue Kommentare

T
TheSmart

Veteran

418 Kommentare 209 Likes

Joa abgesehen vom "Running Gag" wofür der Hersteller ja nichts kann.
Ist das eine richtig gute Karte.
Mir gefällt hier vor allem das Kühlsystem bestehend aus direkt 3 Lüftern. Sowas sorgt bei so einer Karte direkt für ein deutlich angenehmeres Betriebsgeräusch.
Die RGB-Farbenpracht dagegen brauche ich nicht..aber ist mir auch völlig schnuppe, weil der Hersteller dafür keinen Aufpreis verlangt. Und ich sowieso nur geschlossene Gehäuse benutze.

Die Karte bestätigt mir wieder: Man sollte möglichst nie zu den "Erstkäufern" gehören.
Denn die mussten sich dann erstmal mit den fast schon nur mit Panzertape zusammengehaltenen Billigkarten zufrieden geben.
Und jetzt kommen durchaus ansehnliche Karten heraus, wo man das ganze mit ein bisschen Grips angegangen ist.

Antwort 1 Like

echolot

Urgestein

937 Kommentare 725 Likes

Ich finde es erstaunlich, dass die 3080 bei 1080p und 2160p langsamer ist und bei 1440p immer vorne liegt. Woran liegt das?

Antwort 1 Like

pantsuki

Mitglied

37 Kommentare 6 Likes

ich würde behaupten das 1440p der "standart" ist und es dafür optimiert ist.

Antwort Gefällt mir

Megaone

Urgestein

1,747 Kommentare 1,646 Likes

Deutlich schneller als eine 2080ti mit 1 GB mehr zum halben Preis.

Kann man ja auch mal so sehen.

Ausserdem glaube ich, das bei den "Straßenpreisen" auch noch was passieren wird.

Aber Igor, weiss man eigentlich wo es bei der 7800er Serie hakt?

Wieso dauert das so lange?

Man kann sich zwar mit der aktuellen 6000er Serie noch ganz gut behelfen, aber im Sinne des Erfinders ist das ja alles nicht.

Antwort Gefällt mir

T
TheSmart

Veteran

418 Kommentare 209 Likes

Ja das denke ich auch. Eine 3080 vernachlässigt eher den 1080p Bereich, weil dafür die nächst niedrigere Variante vorgesehen ist und bei 2160p ist der Vorsprung eher hauchdünn finde ich. Das könnte auch an den 2 GB mehr VRam liegen. Da wurde ja die 10GB Variante als Benchmarkreferenz genutzt.
Und im Prinzip muss man es wohl so sehen.. ist eine 4070 wohl nichts anderes als eine weiterentwickelte und optimierte 3080. Nur halt für die entsprechende Zielgruppe optimiert.

Antwort Gefällt mir

Igor Wallossek

1

10,222 Kommentare 18,924 Likes

Nicht ganz. In Ultra-HD bricht die 3080 überdimensional ein (Speicher) und ist mit DLSS deutlich langsamer (alte Tensor- und RT-Cores). In Full-HD ist lustigerweise der Treiber-Overhead der 4070 etwas geringer, was die CPU weniger limitieren lässt. Das sind aber keine neuen Erkenntnisse :)

Antwort 3 Likes

echolot

Urgestein

937 Kommentare 725 Likes
FritzHunter01

Moderator

1,156 Kommentare 1,574 Likes

Das wäre genau die richtige Karte für den PC meiner Frau. Die passt optisch sowas von ins System... RGB ftw!

Die 12 GB halte ich zwar in Punkto Zukunftssicherheit für fragwürdig, aber besser als die 8GB der 3070Ti. Hinzu kommt, dass die 4070 deutlich effizienter läuft als die 3070Ti und mehr Leistung bringt die 4070 auch noch mit. DLSS 3 Frame Generation für single player kommt ja auch noch on top!

Aus meiner Sicht ist die KFA2 EX Gamer die beste 4070 auf dem Markt und optisch sowieso die schönste!

Antwort 1 Like

Jicaraen

Mitglied

54 Kommentare 29 Likes

Auch wenn es mich juckt, allerdings 12GB sind mir zu wenig und ich zocke nur in WQHD ein Upgrade von meiner 3070 lohnt einfach nicht. Vor allem nicht bei dem Preis. Mal sehen wann AMD endlich die 7800er Karte präsentiert und was diese liefern gerade im Hinblick auf Effizienz.

Antwort 1 Like

R
Robofighter

Mitglied

87 Kommentare 27 Likes
G
Guest

Kfa ist nice die 2070super eine kollege läuft noch immer gut :) aber surren hört man da bei dem sound sample wohl pech gehabt^^. das hat meine null komma josef :D

Antwort Gefällt mir

G
Guest

Habe jetzt über 50 games durch in 4k nicht einmal wurden die 12gb annähernd voll auch nicht in den neuen spielen :)

Antwort 2 Likes

R
Robofighter

Mitglied

87 Kommentare 27 Likes
Jicaraen

Mitglied

54 Kommentare 29 Likes

Tests zu diversen neuen Spielen zeigen was anderes. Anyway. Ich denke es lohnt sich für mich einfach nicht.

Antwort 1 Like

R
Robofighter

Mitglied

87 Kommentare 27 Likes

Ultra HD = 3840x1440? Bitte korrigieren.

Antwort Gefällt mir

G
Guest

Aha wo denn ? wie gesagt ich schaffe es nicht ausser ich forciere 8k. last of us sind es 10gb
forspoken sind es 9gb. imnetz steht so viel müll

Antwort 1 Like

G
Guest

seit wann ist 1440p ultra hd.

View image at the forums

Antwort Gefällt mir

R
Robofighter

Mitglied

87 Kommentare 27 Likes

Ich denke 12gb werden noch eine Weile reichen nur nicht bei schlecht programmierten Spielen oder zu frühen, nicht optimierten Neuerscheinungen.

Antwort Gefällt mir

Jicaraen

Mitglied

54 Kommentare 29 Likes

hardwareluxx, computerbase. Teilweise auch golem und heise. Jetzt nicht unbedingt Seiten, die Müll in die Welt setzen.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung