Grafikkarten Testberichte VGA

KFA2 GeForce RTX 4070 EX Gamer (1-Click-OC) 12 GB im Test – Günstige OC-Karte, kühl, leise und mit ganz viel Leuchtkraft

Teardown

Die KFA2 GeForce RTX 4070 EX Gamer 12 GB ist nicht ganz so schnell zerlegt, weil die Verschraubung der Backplate auch von der Frontseite aus erfolgt. Das macht die Zerlegung etwas aufwändiger, zumal man auch drei statt zwei Stecker abziehen muss (2x Lüfter und LED). Aber sie gingen relativ leicht ab, aber ohne die Gefahr, von allein einfach herauszurutschen. Die Slotblende wird zwischen Platine und Backplate geschraubt und am Kühler extra arretiert. Wieso, das erkläre ich gleich noch.

 

PCB-Layout und Komponenten

Beginnen wir zunächst wie immer mit der Platine der KFA2 GeForce RTX 4070 EX Gamer 12 GB. NVVDD ist immer noch die wichtigste Spannung und man nutzt sogar ein Spannungswandler-Design mit insgesamt 8 echten Phasen (statt 6 bei der FE und vielen MSRP-Karten) und den daraus resultierenden 8 Regelkreisen allein für NVVDD. Man spart also im Vergleich zur RTX 4070 Ti ordentlich was ein, was jedoch in Anbetracht der deutlich niedrigeren TDP noch zu akzeptieren ist.

Trotzdem besitzt die Karte eine interessante Eigenheit, denn der bei allen anderen Karten (auch der FE) einzeln oberhalb der nicht bestückten RAM-Plätze positionierte Spannungswandler entfällt komplett. Er wird durch eine zusätzliche DrMOS-Bestückung links unten in der NVVDD-Spannungswandlerreihe ersetzt. Das hat einen Vor- und einen Nachteil. Vorteil: Der Kühler wird einfacher (Heatsink kann kürzer sein) und damit günstiger. Nachteil: Diese Phase ist am Motherboardslot angebunden, was dort den Stromfluss deutlich erhöht.

Das sieht am Ende aber alles genauso mager aus wie bei der FE, was in Anbetracht des Preises ok sein mag. Man nutzt ebenfalls getrennte PWM-Controller für NVVDD (GPU Core) und FBVDDQ (Speicher), denn die Top-Modelle unter den PWM-Controllern sind leider viel zu teuer. Und deshalb muss es wieder der gute und altbekannte uP9512R von UPI Semi richten, der die 6 Phasen locker generieren kann und deutlich günstiger ist als die Modelle von Monolith, was aber völlig ausreicht. Mit einem zweiten PWM-Controller in Form des kleinen uP9529Q steuert man dann die zwei Phasen für den Speicher an. Beide Controller befindet sich übrigens  auf der Rückseite der Platine. Direkt dazwischen liegt noch ein uPI uS5650Q für die Überwachung der vier 12V-Rails (3x Aux und 1x PEG).

Alle verwendeten DrMOS, auch die für den Speicher, sind eher günstige Produkte von Alpha & Omega, die wir bereits von der Founders Edition kennen. Der in allen Regelkreisen für NVVDD und FBVDDQ (Speicher) genutzte AOZ5311NQI-03 mit 55 ​A Spitzenstrom integriert einen MOSFET-Treiber, einen High-Side-MOSFET und Low-Side-MOSFET in einem einzigen Gehäuse. Dieser Chip wurde speziell für Hochstromanwendungen wie z.B. DC-DC-Buck-Leistungswandlungsanwendungen konzipiert. Diese integrierte Lösung reduziert den Platzbedarf auf der Leiterplatte im Vergleich zu einer Lösung mit diskreten Komponenten. Die verwendeten Spulen für NVVDD und den Speicher besitzen eine Induktivität von 220 nH, die Kondensatoren sind in Becherform, was günstiger ist.

Und ich will (und muss) mal noch ein Wort zu den beliebten Listen verlieren, die im Internet gern zur Bewertung der Grafikkarten-Komponenten verwendet werden und sich nur auf die jeweils verwendeten DrMOS beziehen. Diese Listen sind nämlich reichlich wertlos und sogar irreführend, solange man nicht die verwendete Schaltfrequenz der Spannungswandler, die tatsächlichen Temperaturen und fließenden Ströme kennt und im Zusammenhang beurteilt. Denn die Maximalangaben in den Spezifikationen sind weit von dem entfernt, was im praktischen Betrieb dann auf einer Karte auftritt. Das kann, trotz gleicher DrMOS, sogar in der Bewertung von Karte zu Karte extrem unterschiedlich ausfallen und man muss schon die Messkurven zu Rate ziehen und keine theoretischen Endwerte.

Die 12V-Rails am 8-Pin-Anschluss werden direkt nach der Buchse zu einer einzigen Rail zusammengefasst, eine weitere liegt am PEG an, und wird für NVVDD nur gering genutzt. Das BIOS liegt am gewohnten Ort und auch die Generierung der restlichen Kleinspannungen ist wie gehabt. Die GDDR6X-Speicherchips werden von Micron hergestellt und tragen die Modellnummer D8BZC, die zu MT61K512M32KPA-21:U dekodiert wird. Sie sind für eine Taktfrequenz von 1313 MHz (21 Gbps GDDR6 effektiv) spezifiziert. Mehr Besonderheiten gibt es nicht.

 

 

Teardown: Der Kühler

KFA2 setzt auf die üblichen günstigen RGB-Lüfter, in diesem Fall sogar drei. Zwei Lüfter mit jeweils 9 cm Rotordurmesser (Öffnung 9,2 cm) flankieren einen mittig angeordneten 10-cm-Lüfter (Öffnung 10,2 cm). Alle Lüfter besitzen jeweils 11 Rotorblätter ohne umlaufenden Ring, was einen eher breiten Luftstrom in Richtung Kühler abgibt und auch zu mehr Verwirbelungen und Verlusten am Lufteinlass und unterhalb der Kühlerabdeckung führt (Abrissgeräusche). Der Motor ist ein klein wenig knurrig, aber dazu komme ich später noch.

Insgesamt drei vernickelte Heatpipes (2x 6 mm, 1x 8 mm) aus Kupfer-Kompositmaterial führen vom Heatsink zum Ende des Kühlers, von dem ein Teil auch über die sehr kurze Platine herausragt. Hier kommt es dann zu einem gern gesehenen „Durchzug“, da keine Platine den Luftstrom ausbremsen kann. Alle Heatpipes führen dann auch noch in Richtung Slotblende. Hier sitzt auch der im Vergleich zur MSI RTX 4070 Ventus deutlich stabilere VRM-Heatsink, der seinen Job sehr gut erledigt. Auch die beiden Spannungswandler für den Speicher werden durch Kühlflächen am großen GPU-Heatsink aktiv und valide gekühlt.

Die verwendeten Pads sind ok, aber nicht aus dem obersten Regal. Etwas Cost-Down findet man also auch hier. Die Backplate aus Leichtmetall ist mit der Kühlerabdeckung und der Platine verschraubt. Das stabilisiert die Platine nahezu perfekt und bewahrt sie vorm Durchbiegen im horizontalen Aufbau. Zum Luftstrom schrieb ich ja bereits etwas und wir sehen hier noch die passende Aussparung dafür (links im Bild).

Und jetzt kommen wir noch einmal, wie versprochen, auf die Slotblende zurück. Da die Slotblende fest mit der Platine und der Backplate verbunden ist, stabilisiert KFA2 sogar mit vier Schrauben diesen Winkel zusätzlich noch mit der Kühlerabdeckung. Das garantiert einen gleichbleibend guten Anpressdruck auf die zu kühlenden Bereiche (VRM).

 

Kommentar

Lade neue Kommentare

T
TheSmart

Veteran

418 Kommentare 209 Likes

Joa abgesehen vom "Running Gag" wofür der Hersteller ja nichts kann.
Ist das eine richtig gute Karte.
Mir gefällt hier vor allem das Kühlsystem bestehend aus direkt 3 Lüftern. Sowas sorgt bei so einer Karte direkt für ein deutlich angenehmeres Betriebsgeräusch.
Die RGB-Farbenpracht dagegen brauche ich nicht..aber ist mir auch völlig schnuppe, weil der Hersteller dafür keinen Aufpreis verlangt. Und ich sowieso nur geschlossene Gehäuse benutze.

Die Karte bestätigt mir wieder: Man sollte möglichst nie zu den "Erstkäufern" gehören.
Denn die mussten sich dann erstmal mit den fast schon nur mit Panzertape zusammengehaltenen Billigkarten zufrieden geben.
Und jetzt kommen durchaus ansehnliche Karten heraus, wo man das ganze mit ein bisschen Grips angegangen ist.

Antwort 1 Like

echolot

Urgestein

929 Kommentare 722 Likes

Ich finde es erstaunlich, dass die 3080 bei 1080p und 2160p langsamer ist und bei 1440p immer vorne liegt. Woran liegt das?

Antwort 1 Like

pantsuki

Mitglied

36 Kommentare 5 Likes

ich würde behaupten das 1440p der "standart" ist und es dafür optimiert ist.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,644 Likes

Deutlich schneller als eine 2080ti mit 1 GB mehr zum halben Preis.

Kann man ja auch mal so sehen.

Ausserdem glaube ich, das bei den "Straßenpreisen" auch noch was passieren wird.

Aber Igor, weiss man eigentlich wo es bei der 7800er Serie hakt?

Wieso dauert das so lange?

Man kann sich zwar mit der aktuellen 6000er Serie noch ganz gut behelfen, aber im Sinne des Erfinders ist das ja alles nicht.

Antwort Gefällt mir

T
TheSmart

Veteran

418 Kommentare 209 Likes

Ja das denke ich auch. Eine 3080 vernachlässigt eher den 1080p Bereich, weil dafür die nächst niedrigere Variante vorgesehen ist und bei 2160p ist der Vorsprung eher hauchdünn finde ich. Das könnte auch an den 2 GB mehr VRam liegen. Da wurde ja die 10GB Variante als Benchmarkreferenz genutzt.
Und im Prinzip muss man es wohl so sehen.. ist eine 4070 wohl nichts anderes als eine weiterentwickelte und optimierte 3080. Nur halt für die entsprechende Zielgruppe optimiert.

Antwort Gefällt mir

Igor Wallossek

1

10,193 Kommentare 18,806 Likes

Nicht ganz. In Ultra-HD bricht die 3080 überdimensional ein (Speicher) und ist mit DLSS deutlich langsamer (alte Tensor- und RT-Cores). In Full-HD ist lustigerweise der Treiber-Overhead der 4070 etwas geringer, was die CPU weniger limitieren lässt. Das sind aber keine neuen Erkenntnisse :)

Antwort 3 Likes

echolot

Urgestein

929 Kommentare 722 Likes
FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Das wäre genau die richtige Karte für den PC meiner Frau. Die passt optisch sowas von ins System... RGB ftw!

Die 12 GB halte ich zwar in Punkto Zukunftssicherheit für fragwürdig, aber besser als die 8GB der 3070Ti. Hinzu kommt, dass die 4070 deutlich effizienter läuft als die 3070Ti und mehr Leistung bringt die 4070 auch noch mit. DLSS 3 Frame Generation für single player kommt ja auch noch on top!

Aus meiner Sicht ist die KFA2 EX Gamer die beste 4070 auf dem Markt und optisch sowieso die schönste!

Antwort 1 Like

Jicaraen

Mitglied

54 Kommentare 29 Likes

Auch wenn es mich juckt, allerdings 12GB sind mir zu wenig und ich zocke nur in WQHD ein Upgrade von meiner 3070 lohnt einfach nicht. Vor allem nicht bei dem Preis. Mal sehen wann AMD endlich die 7800er Karte präsentiert und was diese liefern gerade im Hinblick auf Effizienz.

Antwort 1 Like

R
Robofighter

Mitglied

87 Kommentare 27 Likes
G
Guest

Kfa ist nice die 2070super eine kollege läuft noch immer gut :) aber surren hört man da bei dem sound sample wohl pech gehabt^^. das hat meine null komma josef :D

Antwort Gefällt mir

G
Guest

Habe jetzt über 50 games durch in 4k nicht einmal wurden die 12gb annähernd voll auch nicht in den neuen spielen :)

Antwort 2 Likes

R
Robofighter

Mitglied

87 Kommentare 27 Likes
Jicaraen

Mitglied

54 Kommentare 29 Likes

Tests zu diversen neuen Spielen zeigen was anderes. Anyway. Ich denke es lohnt sich für mich einfach nicht.

Antwort 1 Like

R
Robofighter

Mitglied

87 Kommentare 27 Likes

Ultra HD = 3840x1440? Bitte korrigieren.

Antwort Gefällt mir

G
Guest

Aha wo denn ? wie gesagt ich schaffe es nicht ausser ich forciere 8k. last of us sind es 10gb
forspoken sind es 9gb. imnetz steht so viel müll

Antwort 1 Like

G
Guest

seit wann ist 1440p ultra hd.

View image at the forums

Antwort Gefällt mir

R
Robofighter

Mitglied

87 Kommentare 27 Likes

Ich denke 12gb werden noch eine Weile reichen nur nicht bei schlecht programmierten Spielen oder zu frühen, nicht optimierten Neuerscheinungen.

Antwort Gefällt mir

Jicaraen

Mitglied

54 Kommentare 29 Likes

hardwareluxx, computerbase. Teilweise auch golem und heise. Jetzt nicht unbedingt Seiten, die Müll in die Welt setzen.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung