Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 5060 Ti 16 GB in Test und Teardown – Sparsam im Verbrauch, überraschend schnell, aber bitte nicht mit 8GB!

Teardown

Beim Zerlegen einer Grafikkarte wie der GeForce RTX 5060 Ti Gaming Trio erfolgt die Demontage systematisch, um sowohl die strukturelle als auch die elektrische Ausführung des Designs bewerten zu können. Der erste Schritt besteht in der fotografischen Dokumentation des Ausgangszustands, um spätere Zuordnungen und Vergleiche zu erleichtern. Nach dem Lösen der Gehäuseschrauben wird zunächst die massive Backplate entfernt, die meist nicht nur mechanische Stabilität bietet, sondern auch thermische Funktionen übernimmt.

Daraufhin erfolgt die Abnahme des eigentlichen Kühlkörpers, der aus mehreren Heatpipes, einer Basisplatte aus Kupfer, Aluminium-Heatsinks bzw- Finnen und drei Axiallüftern besteht. Die Platine liegt nun frei und erlaubt einen detaillierten Blick auf die Positionierung und Anordnung der GPU, der Speicherchips und der Spannungsregler. Besondere Aufmerksamkeit gilt hierbei dem Aufbau der Spannungsversorgung (VRM), deren Anzahl an Phasen, die Qualität der verbauten Bauelemente (MOSFETs, Spulen, Kondensatoren) und deren Platzierung in Bezug auf die thermischen Hotspots der Platine.

Platine und Komponenten

Die Platine fällt sehr kompakt aus und orientiert sich am Referenzdesign von NVIDIA, das auf drei große Spannungsschienen sowie mehrere kleinere setzt. Die Spannungswandler für die NVVDD, also die Kernspannung der GPU, sind bereits bekannt. Neu ist allerdings, dass NVIDIA – ähnlich wie Intel und AMD – erneut separate Spannungen für den GDDR7-Speicher und den Framebuffer verwendet. Während dedizierte Spannungsschienen für GPU-Kerne und Speicher bereits etabliert sind, ist die Trennung der Framebuffer-Spannung in dieser Form bei NVIDIA eine Neuerung. Der Framebuffer dient als Speicherbereich für die Bilddaten, die zur Darstellung auf dem Monitor benötigt werden. Hier werden Informationen wie Farbtiefe, Transparenz und Auflösung abgelegt und kontinuierlich von der GPU aktualisiert. Deshalb muss man sich in unserem heutigen Fall auch nicht über die nur vier Regelkreise für NVVDD wundern, denn nach alter Lesart wären es ja sechs.

Die klare Trennung zwischen MSVDD und FBVDD erlaubt eine präzisere Anpassung der Spannungswerte an die jeweiligen Anforderungen. MSVDD bestimmt die Geschwindigkeit und Stabilität der Speicherchips, indem sie auf die elektrischen Eigenschaften der Speicherzellen und der Speichercontroller-Logik abgestimmt ist. FBVDD hingegen stellt sicher, dass die Kommunikation zwischen Framebuffer und Speicher effizient bleibt. Die Spannungsregelung der Platine ist übersichtlich gehalten: Insgesamt sind 8 Regelkreise zu finden, davon 4 für NVVDD (GPU-Kernspannung, 0,8 bis 1,1 V), zwei für MSVDD (Speicherspannung, 0,8 bis 1,1 V) und zwei für FBVDD (Framebuffer-Spannung, 0,9 bis 1,24 V), ergänzt durch weitere kleinere Spannungen für verschiedene Komponenten.

Die Spannungsversorgung moderner Grafikkarten erfordert eine präzise Abstimmung verschiedener Steuer- und Leistungskomponenten. Auf der Frontseite der Platine befindet sich ein eher günstiger PWM-Controller, der die Spannungsregelung für die GPU-Kernspannung (NVVDD) und den Framebuffer (FBVDD) übernimmt.  Der hier verwendete uP9512R ist ein digital programmierbarer PWM-Controller für mehrphasige Buck-Spannungswandler aus dem Hause uPI Semiconductor. Das Bauelement eignet sich besonders für Anwendungen mit hohem Strombedarf wie moderne Grafikkarten oder Mainboards, auf denen es zur präzisen Regelung der GPU- oder CPU-Spannung eingesetzt wird.

Technisch unterstützt der uP9512R bis zu 8 Phasen im synchronen Betrieb, wobei sich die Phasenzahl dynamisch skalieren lässt. Die Spannungsregelung erfolgt über eine digitale Schnittstelle mit programmierbaren Parametern, darunter Load-Line-Kompensation, Schutzschwellen und Spannungsreferenzen. Die Ansteuerung der externen Treiber (z. B. uP9646A) erfolgt phasenversetzt zur Reduzierung der Ripple-Ströme und Verbesserung der Effizienz. Der Controller arbeitet mit einer Versorgungsspannung von 5 V, bietet umfangreiche Telemetrie- und Schutzfunktionen und kann in vielen Fällen über I²C oder PMBus konfiguriert und überwacht werden. Mit seinen präzisen Regelalgorithmen, digitaler Anpassbarkeit und hoher Phasenanzahl ist der uP9512R eine etablierte Lösung für hochwertige Spannungswandler-Designs, wie sie etwa auf leistungsstarken NVIDIA- und AMD-Grafikkarten zu finden sind.

Die Umsetzung der eigentlichen Spannungsregelung erfolgt durch DrMOS-Bausteine, wobei für NVVDD und FBVDD der uP9646A zum Einsatz kommt. Dabei handelt es sich um einen synchronen Dual MOSFET-Treiber von uPI Semiconductor, ausgelegt für den Einsatz in mehrphasigen Buck-Wandlern. Er treibt jeweils einen High-Side- und einen Low-Side-N-Kanal-MOSFET pro Spannungswandlerphase. Das Bauelement arbeitet typischerweise mit einer Versorgungsspannung von 5 V bis 12 V, bietet hohe Treiberströme bis zu 3 A, besitzt integrierte Schutzfunktionen wie Under Voltage Lockout (UVLO) und unterstützt Schaltfrequenzen im Bereich mehrerer MHz. Die Totzeit ist intern optimiert, um Shoot-Through zu vermeiden. Es kommt häufig im UQFN-Gehäuse zum Einsatz und ist besonders für GPU-VRM-Designs geeignet, etwa auf aktuellen GeForce-Grafikkarten.

Für den Speicher (MSVDD)  kommen für jede der beiden Phasen jeweils ein NIKOS PK616BA und ein NIKOS PKE96BB als Paar zum Einsatz. Das sind Leistungs-MOSFETs, die vor allem in der Spannungsversorgung von Grafikkarten, Mainboards und anderen Hochstromanwendungen verwendet werden. Beide stammen vom Hersteller NIKO Semiconductor, einem Anbieter von MOSFET-Lösungen mit Fokus auf kosteneffiziente Bauelemente für die Computertechnik. Der PK616BA ist dabei ein typischer N-Kanal-MOSFET, ausgelegt für den Einsatz als High-Side-Schalter in synchronen Buck-Wandlern. Er zeichnet sich durch eine geringe Gate-Ladung (Qg) sowie einen niedrigen RDS(on) aus, wodurch er sowohl bei hohen Schaltfrequenzen als auch bei hohen Lasten effizient arbeitet. Der PKE96BB ist ebenfalls ein N-Kanal-Leistungs-MOSFET und er ist für höhere Ströme optimiert und wird hier als Low-Side-Schalter eingesetzt.

Auf der Rückseite gibt es keine größeren Überraschungen. MSI setzt – wie auch NVIDIA – unter dem Sockel ausschließlich auf MLCCs und verzichtet vollständig auf Polymerkondensatoren. Die Gründe dafür wurden bereits ausführlich thematisiert, denn in meiner Untersuchung zu den Polymer-Kondensatoren der RTX 3090 habe ich seinerzeit festgestellt, dass deren Wahl direkten Einfluss auf die Stabilität der GPU hat, insbesondere bei hohen Taktraten. Einige Modelle setzten ausschließlich auf SP-CAPs, die zwar eine hohe Kapazität bieten, aber hochfrequente Spannungsspitzen schlechter filtern als MLCCs. Dies führte bei bestimmten Karten zu Instabilitäten und Abstürzen. Modelle mit einer Mischung aus MLCCs und SP-CAPs erwiesen sich als stabiler, da MLCCs Spannungsschwankungen effektiver glätten. Infolgedessen passten Hersteller ihre Designs an und setzten vermehrt auf Mischlösungen oder vollständig auf MLCCs, um die Betriebssicherheit zu verbessern. Mittlerweile ist auch NVIDIA, nach AMD und Intel, bei einer MLCC-Komplettbestückung angekommen. Ergänzt wird das Ganze auf der Rückseite durch den obligatorischen Supervisor-Chip, der für das Leistungsmonitoring zuständig ist.

Auf der Platine befindet sich dafür der NCP 45492 von ON Semi, ein Hochleistungs-IC zur Überwachung von Busspannungen und Strömen an bis zu vier Hochspannungs-Stromversorgungen. Dieses Bauteil ermöglicht die Erfassung und Skalierung von Shunt- und Busspannungen und erlaubt durch externe Widerstände eine flexible Anpassung jedes Kanals an spezifische Anforderungen. Besonders hervorzuheben ist die schnelle Einschwingzeit, die eine Echtzeit-Überprüfung der Spannungswerte ermöglicht. Damit eignet sich der Chip optimal als Supervisor für die 12V-Leitungen, insbesondere für die 12V2X6- und PEG-Verbindungen der Grafikkarte. Zu den insgesamt acht GDDR7-Speichermodulen im Clamshell-Modus, wo sich bei 4 Speicherplätzen jeweils ein Modul auf der Vorder- und eines auf der Rückseite befindet, hatte ich ja Eingangs bereits ausführlich geschrieben.

Nachfolgend sind alle relevanten Komponenten nochmals in hochauflösender Mikroskopie-Ansicht dargestellt:

 

Der Kühler

Die rückseitige Backplate ist aus Aluminium und kühlt mittels eines angebrachten Wärmeleitpads zusätzlich die Platine, natürlich mal wieder an der falschen Stelle, und mit vier weiteren die rückseitigen RAM Module. Die Backplate trägt also zur mechanischen Stabilität bei UND verbessert die Kühlung. Zusammen mit dem zentralen Kühlblock als tragendes Element wird die strukturelle Integrität der Karte zusätzlich erhöht, wodurch ein stabiler Betrieb unter hoher Last garantiert wird.

Der etwas leichtere Kühler der MSI GeForce RTX 5060 Ti Gaming Trio ist ein Kompromiss aus kühlem Betrieb und Kosteneffizienz, was durch eine Kombination aus innovativen Technologien und sehr viel Luftdurchsatz erreicht wird. Die Kühlung der GPU wird durch einen vernickelten Kupfer-Heatsink anstelle einer Vapor-Chamber ermöglicht, der als primäres Wärmeableitungselement dient. Dieser transportiert die Wärme direkt von der GPU  zu den vier sogenannten Core Pipes, von denen noch zwei mittig durchlaufen und dann noch einmal umgebogen zurück unter den Bereich des ersten Lüfters laufen. Diese hinter der Chamber quadratisch geformten Heatpipes optimieren den thermischen Kontakt zur Chamber und gewährleisten eine gleichmäßige Wärmeverteilung. Die Wärme wird anschließend durch ein Netzwerk aus präzisionsgefertigten Finnen abgegeben, die auf sehr viel Durchsatz ausgelegt sind, um die bis zu 220 Watt Abwärme stemmen zu können.

Die Lüfter des Kühlers sind jeweils mit sieben auf  Durchsatz optimierten Lüfterblättern ausgestattet, die wir schon von den neueren Vanguard- und Suprim-Modellen kennen. Ergänzend dazu bietet die Zero-Frozr-Funktion die Möglichkeit, die Lüfter bei niedriger Last vollständig zu stoppen, um einen geräuschlosen Betrieb zu ermöglichen. Ein weiteres Element sind die thermischen Pads, auf die ich noch eingehen werde und eine zusätzliche Wärmeableitung von kritischen Bauteilen wie den Spannungswandlern gewährleisten.

Das Kühlsystem stellt einen sehr guten Kompromiss aus Größe, Gewicht und Performance dar, den Rest muss ich noch messen…

 

Kommentar

Lade neue Kommentare

c
cunhell

Urgestein

686 Kommentare 709 Likes

Die Karte wurde auf einem aktuellen System mit PCIe 5.0 getestet. Interessant wäre auf Grund der PCIe 5.0 x8 Konfiguration auch ein Test mit PCIe 4.0 und PCIe 3.0.
Gerade preisbewusste User nutzen ja oftmals ältere Systeme und tauschen nur Teile wie z.B. eine Grafikkarte aus. Konfigurationen mit 5700x3d und B450/X470er Boards sind sicher in freier Wildbahn noch nicht zu selten anzutreffen. Hier wäre die Limitierung auf PCIe 5.0 x8 und deren Performanceauswirkung interessant.

Cunhell

Antwort 9 Likes

R
RazielNoir

Urgestein

657 Kommentare 306 Likes

Und der gleiche Chip als Profikarte als eine hypothetische RTX 2500 Blackwell von PNY hat dann 32GB Speicher, verlangt 150W und kostet UVP 3000€. Nette Gewinnmarge ;)
Ironiemodus off

Aber mal als ernsthafte Verständnisfrage. Bei den PRO-Karten von Nvidia werden ja in den letzten Generationen die jeweiligen GPU-Chips der Consumervarianten mit vollem Chipausbau ohne Teildeaktivierung und mit mehr Speicher verbaut. Das Speicherinterface bleibt dabei gleich? Also sind solche Karten wie die RTX 2000 ADA 16GB im Vergleich zur RTX 4060 8GB immer im Clamshell-Design?

Antwort Gefällt mir

G
Grobi

Neuling

1 Kommentare 0 Likes

Die X370er Serie war ja auch sehr erfolgreich und dort wurde PCIe 4.0 glaube ich sogar per BIOS-update abgeschaltet. Somit steht nur 3.0 nur Verfügung. Lohnt es sich von dort aus zur 5060ti aufzurüsten, wenn die Karte nur in x8er Konfiguration läuft?

Ähnlich würde mich 4070 Super vs 5070 interessieren. Letztere schafft es quasi nur auf Gleichstand zur älteren Karte auch hauptsächlich durch den schnelleren Speicher. Bleibt der Gleichstand auf einem Mainboard mit PCIe 3.0 bestehen oder kann die 5070 die erhöhte Speichergeschwindigkeit nicht mehr nutzen und fällt daher sogar noch ab?

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,089 Kommentare 492 Likes

Je mehr vRAM, je besser in dem Fall. Ob es sich "lohnt" liegt bei dir: viele Spiele laden alles ins vRAM und starten dann das Level.Primär bei Open World Spielen sollte man es merken können.

Antwort Gefällt mir

E
Eribaeri

Veteran

167 Kommentare 68 Likes

Au ja, PCIE Gen4 x16 und x8 würden mich auch interessieren.
Ist es überhaupt möglich, über einen Gen4x16 Slot die Bandbreite eines Gen5x8 Slots zur Verfügung zu stellen, wenn die Grafikkarte nur x8 kann?

Antwort Gefällt mir

amd64

1

1,177 Kommentare 773 Likes

Nein, selbstverständlich nicht. Wenn die im Slot steckende Karte nur 8 PCIe Lanes unterstützt, dann ist es egal ob der Slot auch mit 16 Lanes läuft.

View image at the forums

Antwort 2 Likes

R
RazielNoir

Urgestein

657 Kommentare 306 Likes

Interessant finde ich den Abschnitt Sicherungscode. Seh ich das richtig, das ausser bei Gen. 4+5 eine Art Fehlerkorrektur existiert? Was bringt mir dann bei Ada und Blackwell Pro Karten der ECC-Speicherschutz, wenn die Daten, die ankommen schon fehlerhaft sein können?

Antwort Gefällt mir

ipat66

Urgestein

1,644 Kommentare 1,802 Likes

Das sind dann im Durchschnitt 4% Verlust in 1080, 3% in 2k und 2% in 4K bei Verwendung von PCIe 3.0x8 ( 2% 1080, 1% 2k, 1% 4k bei PCIe 4.0x8 )...
Finde ich verschmerzbar ...
Ansonsten, in der 16 GB Version, eine preiswertere Alternative zu den nochmals überteuerten grösseren Schwestern.
Wird wohl die meistverkaufte 5000'er werden.
Danke Igor.

Antwort 6 Likes

A
Aragornius

Mitglied

99 Kommentare 34 Likes

Das ist schon eher positiv als die anderen GPU's, zudem 448GB/sek schon sehr gut sind, denn es ist GDDR7.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

2,543 Kommentare 1,678 Likes

Der von Dir verlinkte Artikel in Techpowerup ist in der Tat die Antwort auf die Frage, und zeigt schön, daß zumindest in der GPU Mittelklasse der Unterschied zwischen 8 Bahnen PCIe-5 zu -4 (und selbst zu -3) keiner bis sehr gering ist.
Mich würde noch interessieren, wie sich die PCIE Generation auswirkt, wenn ReBAR wichtig wird.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

2,543 Kommentare 1,678 Likes

@Igor Wallossek : Die 5060 TI mit 16 GB VRAM scheint tatsächlich die Blackwell Karte zu sein, die den größten Fortschritt gegenüber Ada zeigt. Ich habe allerdings auch den starken Verdacht, daß der Unterschied im Preis zwischen der 8 zur 16 GB Version in der kommerziellen Wildbahn deutlich größer ausfallen wird als es die UVPs suggerieren. Denn die 8 GB Karten werden sich am Ende viele Leute holen, denen die am Markt aufgerufenen Preise der 5060 TI 16 GB dann doch zu hoch sind, oder/und nicht auf die 16 GB Version warten wollen. Hier wäre es wirklich besser gewesen, wenn Nvidia und Boardpartner die 8 GB Variante einfach weggelassen hätten, und alle verfügbaren GPU Dies vollständig für 16 GB Boards einsetzten.
Und ja, die 12 GB der 5070 erscheinen jetzt noch mehr als die Fehlbesetzung aus, die sie ist.

Letztlich wäre es für AMD IMHO wirklich gut, wenn sie ihre 9060 mit mindestens 10 oder besser 12 GB ausstatten würden. Da die 5060 (ohne TI) sehr wahrscheinlich nur mit 8 GB VRAM erscheinen wird, wären 2 oder besser 4 GB mehr VRAM ein deutlicher Mehrwert. Daß 4 GB mehr VRAM viel ausmachen kann hat Intels B580 gezeigt, die auch dadurch der 4060 nicht nur in 1080p oft Paroli bieten kann, sondern in einigen Spielen in 1440p sogar davonzieht. Denn
"There's no replacement for displacement." Das stimmt so auch bei VRAM.

Antwort Gefällt mir

Klicke zum Ausklappem
M
MGFirewater

Veteran

224 Kommentare 90 Likes

Ich staune über die positive Resonanz für die Karte. Aber wer ist die Zielgruppe.

Von der rx6800 ist es nur ein geringer Leistungszuwachs. Und dafür dann 300€ investieren (sofern man seine alte GPU verkaufen will)

Ich sehe da wirklich nur Käufer die mit ihren alten gpus mit 8gb ins Ramlimit rennen. Dann aber 12vhbwr zu verbauen ist nicht zielführend weil die Zielgruppe sicherlich das "alte" NT weiter nutzen will, gerade wenn die GPU nur 150watt braucht, macht 12vhpwr keinen Sinn

Antwort 1 Like

leonavis

Veteran

277 Kommentare 147 Likes

Interessant. Das ist die bisher einzige positive Rezension, die ich über diese Karte gesehen habe.

Btw, wenn man auf "Alle AMD-Grafikkarten" klickt, fehlt RDNA4.

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,089 Kommentare 492 Likes

In den Daten ist kein expliziter Sicherungscode. Auf Hardwareebene (wie ECC auch) sollte es Paritätsprüfung geben.

Antwort 1 Like

R
RazielNoir

Urgestein

657 Kommentare 306 Likes
Y
Yumiko

Urgestein

1,089 Kommentare 492 Likes

Aufrüster von deutlich älteren Karten oder Nvidia Fans die jedes Jahr ihre GraKa aufrüsten (müssen, weil die aktuelle GraKa die Leistung schon nur mit Upscaling schafft).
Richtig, aber nicht jeder war so schlau eine rx6800 damals für 400-450€ zu kaufen, obwohl sie überall als der heilige P/L Gral gefeiert wurde.
Vermutlich per Adapter problemlos lösbar. Liegt da eigentlich einer dabei?

Antwort Gefällt mir

b
bitracer

Urgestein

749 Kommentare 336 Likes

Schon erstaunlich, da haben die Händler um kurz nach 0 Uhr es schon wieder versucht und boten die 16GiByte Modelle für etwa 540+ Euro an. knapp 100 Euro über der eigentlichen uvp/msrp

Euro ist gerade bei 1,14 US-$, macht 429$ / 1,14 (W.-Umrechnung) * 1,19 (Mehrwertstr) = 447,82 Euro
...und siehe da: inzwischen werden Karten von Palit, Gainward und Gigabyte für 449,- angeboten.

hmmm damit positioniert sich die 5060ti/16 knapp 50 Euro unterhalb einer im Raster knapp stärkeren rdna3-Karte der Vorgängergeneration - Hut ab, das kennt man sonst immer genau andersherum - ein Schelm, wer Böses dabei denkt!

Mal abgesehen davon, daß die Gewinnmarge bei diesen Verkaufspreisen durch die Decke gehen dürfte (grob halbe Chipfläche?), so verlangt team-grün zumindest leicht-weniger dafür als noch zu Ada-Lovelace Zeiten.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung