GPUs Graphics Reviews

NVIDIA GeForce RTX 5060 Ti 16 GB Review and Teardown – Effizient, surprisingly fast, but not with 8GB!

Detailed view of gaming in WQHD

In Cyberpunk 2077, the graphics card reaches peak values of up to 168 watts in WQHD and maximum settings. This high load is due to the immense computing requirements without AI-supported scaling and requires a stable power supply. Although the 12V2X6 design is not fully utilized, it still places high demands on power supply stability. The power consumption and current levels are measured in 20 ms intervals to capture even fast load changes. The first graph shows the real-time consumption as a product of current and voltage, which allows conclusions to be drawn about peak values and compliance with the PCIe specifications. The distribution between the 12V2X6 connection and the mainboard slot can be seen very clearly here:

The combination of both analyses provides a comprehensive view of the graphics card’s energy flows. While the power consumption evaluates the overall efficiency, the power distribution shows possible load peaks. This data is essential for developers and enthusiasts to precisely understand the power management of the card. The second graph therefore focuses on the power distribution between the PEG slot and external connections such as 12V2X6. It provides information on how heavily the mainboard slot is used and in which situations external connections should provide more power.

The next graphs analyze a single 20 ms interval with a resolution of 10 µs and show in detail the behavior of the power supply during short-term load changes. These are caused by sudden GPU requirements, such as render spikes or frame changes. The first graph visualizes the power consumption in this extremely short period of time and reveals short-term peaks of up to 210 watts, which do not place too high demands on the stability and response speed of the power supply unit.

The second graph shows the current flow through the supply cables and reveals abrupt changes under dynamic loads:

Load behavior in the Torture test

Furmark is an extreme load test for graphics cards that generates an atypically constant maximum load, far above what occurs in real applications or games. Through intensive calculations, both the shader and memory controllers are fully utilized, which leads to extreme thermal and electrical stress. This worst-case test checks the stability of the GPU and the power supply, whereby the power consumption can significantly exceed the specified TDP of 180 watts in the peaks and reach peak values of up to 250 watts.

 

As Furmark generates a permanent maximum load, the test is not representative for everyday use, but it is extremely useful for uncovering weak points in the cooling or power supply. Furmark thus serves as a stress test to ensure that the entire system remains stable even under extreme conditions. Here, too, it is remarkable that the current never falls below 2.2 amps at the slot, which is due to the fact that constant loads for other voltage converters (e.g. 5 volts, fans, MCU) are also permanently applied here.

The high-resolution measurements during a Furmark test provide precise insights into the behavior of the power supply and power consumption under extreme load. The continuous maximum load on the GPU results in constant thermal and electrical stress, which is analyzed at microsecond intervals. Particularly noticeable are short-term load peaks that far exceed the average power consumption and are caused by sudden changes in the load of individual GPU components.

These measurements are particularly relevant with regard to the ATX 3.1 standard, which requires power supply units to compensate for short-term peaks of up to 200% of the nominal load for up to 1 millisecond. The data shows that such peaks are not only theoretically possible, but actually occur and can severely stress the limits of power supply designs.

Summary of the load peaks and a power supply recommendation

A power supply unit with a rated output of at least 400 to preferably 500 watts, which does not necessarily have to meet the requirements of the ATX 3.1 standard, is a suitable and rather inexpensive choice to reliably cover the power consumption values and load scenarios described. The maximum peak loads of the graphics card, which can reach up to almost 250 watts in extreme situations such as Furmark or in very demanding games, do not require a particularly high power reserve. Together with the load of the rest of the system, such as the CPU, RAM and other components, this results in a requirement that can be up to around 450 to 500 watts in very short peak times.

 

A decent 500 watt power supply unit not only offers sufficient headroom, but also safely absorbs short-term load peaks on this card. The slight oversizing also ensures that the power supply operates in an efficient load range between 50 and 70 %, which optimizes energy efficiency and longevity.

Kommentar

Lade neue Kommentare

c
cunhell

Urgestein

700 Kommentare 748 Likes

Die Karte wurde auf einem aktuellen System mit PCIe 5.0 getestet. Interessant wäre auf Grund der PCIe 5.0 x8 Konfiguration auch ein Test mit PCIe 4.0 und PCIe 3.0.
Gerade preisbewusste User nutzen ja oftmals ältere Systeme und tauschen nur Teile wie z.B. eine Grafikkarte aus. Konfigurationen mit 5700x3d und B450/X470er Boards sind sicher in freier Wildbahn noch nicht zu selten anzutreffen. Hier wäre die Limitierung auf PCIe 5.0 x8 und deren Performanceauswirkung interessant.

Cunhell

Antwort 9 Likes

R
RazielNoir

Urgestein

677 Kommentare 316 Likes

Und der gleiche Chip als Profikarte als eine hypothetische RTX 2500 Blackwell von PNY hat dann 32GB Speicher, verlangt 150W und kostet UVP 3000€. Nette Gewinnmarge ;)
Ironiemodus off

Aber mal als ernsthafte Verständnisfrage. Bei den PRO-Karten von Nvidia werden ja in den letzten Generationen die jeweiligen GPU-Chips der Consumervarianten mit vollem Chipausbau ohne Teildeaktivierung und mit mehr Speicher verbaut. Das Speicherinterface bleibt dabei gleich? Also sind solche Karten wie die RTX 2000 ADA 16GB im Vergleich zur RTX 4060 8GB immer im Clamshell-Design?

Antwort Gefällt mir

G
Grobi

Neuling

1 Kommentare 0 Likes

Die X370er Serie war ja auch sehr erfolgreich und dort wurde PCIe 4.0 glaube ich sogar per BIOS-update abgeschaltet. Somit steht nur 3.0 nur Verfügung. Lohnt es sich von dort aus zur 5060ti aufzurüsten, wenn die Karte nur in x8er Konfiguration läuft?

Ähnlich würde mich 4070 Super vs 5070 interessieren. Letztere schafft es quasi nur auf Gleichstand zur älteren Karte auch hauptsächlich durch den schnelleren Speicher. Bleibt der Gleichstand auf einem Mainboard mit PCIe 3.0 bestehen oder kann die 5070 die erhöhte Speichergeschwindigkeit nicht mehr nutzen und fällt daher sogar noch ab?

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,128 Kommentare 527 Likes

Je mehr vRAM, je besser in dem Fall. Ob es sich "lohnt" liegt bei dir: viele Spiele laden alles ins vRAM und starten dann das Level.Primär bei Open World Spielen sollte man es merken können.

Antwort Gefällt mir

E
Eribaeri

Veteran

167 Kommentare 68 Likes

Au ja, PCIE Gen4 x16 und x8 würden mich auch interessieren.
Ist es überhaupt möglich, über einen Gen4x16 Slot die Bandbreite eines Gen5x8 Slots zur Verfügung zu stellen, wenn die Grafikkarte nur x8 kann?

Antwort Gefällt mir

amd64

1

1,188 Kommentare 777 Likes

Nein, selbstverständlich nicht. Wenn die im Slot steckende Karte nur 8 PCIe Lanes unterstützt, dann ist es egal ob der Slot auch mit 16 Lanes läuft.

View image at the forums

Antwort 2 Likes

R
RazielNoir

Urgestein

677 Kommentare 316 Likes

Interessant finde ich den Abschnitt Sicherungscode. Seh ich das richtig, das ausser bei Gen. 4+5 eine Art Fehlerkorrektur existiert? Was bringt mir dann bei Ada und Blackwell Pro Karten der ECC-Speicherschutz, wenn die Daten, die ankommen schon fehlerhaft sein können?

Antwort Gefällt mir

ipat66

Urgestein

1,653 Kommentare 1,807 Likes

Das sind dann im Durchschnitt 4% Verlust in 1080, 3% in 2k und 2% in 4K bei Verwendung von PCIe 3.0x8 ( 2% 1080, 1% 2k, 1% 4k bei PCIe 4.0x8 )...
Finde ich verschmerzbar ...
Ansonsten, in der 16 GB Version, eine preiswertere Alternative zu den nochmals überteuerten grösseren Schwestern.
Wird wohl die meistverkaufte 5000'er werden.
Danke Igor.

Antwort 6 Likes

A
Aragornius

Veteran

100 Kommentare 34 Likes

Das ist schon eher positiv als die anderen GPU's, zudem 448GB/sek schon sehr gut sind, denn es ist GDDR7.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

2,614 Kommentare 1,732 Likes

Der von Dir verlinkte Artikel in Techpowerup ist in der Tat die Antwort auf die Frage, und zeigt schön, daß zumindest in der GPU Mittelklasse der Unterschied zwischen 8 Bahnen PCIe-5 zu -4 (und selbst zu -3) keiner bis sehr gering ist.
Mich würde noch interessieren, wie sich die PCIE Generation auswirkt, wenn ReBAR wichtig wird.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

2,614 Kommentare 1,732 Likes

@Igor Wallossek : Die 5060 TI mit 16 GB VRAM scheint tatsächlich die Blackwell Karte zu sein, die den größten Fortschritt gegenüber Ada zeigt. Ich habe allerdings auch den starken Verdacht, daß der Unterschied im Preis zwischen der 8 zur 16 GB Version in der kommerziellen Wildbahn deutlich größer ausfallen wird als es die UVPs suggerieren. Denn die 8 GB Karten werden sich am Ende viele Leute holen, denen die am Markt aufgerufenen Preise der 5060 TI 16 GB dann doch zu hoch sind, oder/und nicht auf die 16 GB Version warten wollen. Hier wäre es wirklich besser gewesen, wenn Nvidia und Boardpartner die 8 GB Variante einfach weggelassen hätten, und alle verfügbaren GPU Dies vollständig für 16 GB Boards einsetzten.
Und ja, die 12 GB der 5070 erscheinen jetzt noch mehr als die Fehlbesetzung aus, die sie ist.

Letztlich wäre es für AMD IMHO wirklich gut, wenn sie ihre 9060 mit mindestens 10 oder besser 12 GB ausstatten würden. Da die 5060 (ohne TI) sehr wahrscheinlich nur mit 8 GB VRAM erscheinen wird, wären 2 oder besser 4 GB mehr VRAM ein deutlicher Mehrwert. Daß 4 GB mehr VRAM viel ausmachen kann hat Intels B580 gezeigt, die auch dadurch der 4060 nicht nur in 1080p oft Paroli bieten kann, sondern in einigen Spielen in 1440p sogar davonzieht. Denn
"There's no replacement for displacement." Das stimmt so auch bei VRAM.

Antwort Gefällt mir

Klicke zum Ausklappem
M
MGFirewater

Veteran

234 Kommentare 91 Likes

Ich staune über die positive Resonanz für die Karte. Aber wer ist die Zielgruppe.

Von der rx6800 ist es nur ein geringer Leistungszuwachs. Und dafür dann 300€ investieren (sofern man seine alte GPU verkaufen will)

Ich sehe da wirklich nur Käufer die mit ihren alten gpus mit 8gb ins Ramlimit rennen. Dann aber 12vhbwr zu verbauen ist nicht zielführend weil die Zielgruppe sicherlich das "alte" NT weiter nutzen will, gerade wenn die GPU nur 150watt braucht, macht 12vhpwr keinen Sinn

Antwort 1 Like

leonavis

Veteran

282 Kommentare 151 Likes

Interessant. Das ist die bisher einzige positive Rezension, die ich über diese Karte gesehen habe.

Btw, wenn man auf "Alle AMD-Grafikkarten" klickt, fehlt RDNA4.

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,128 Kommentare 527 Likes

In den Daten ist kein expliziter Sicherungscode. Auf Hardwareebene (wie ECC auch) sollte es Paritätsprüfung geben.

Antwort 1 Like

R
RazielNoir

Urgestein

677 Kommentare 316 Likes
Y
Yumiko

Urgestein

1,128 Kommentare 527 Likes

Aufrüster von deutlich älteren Karten oder Nvidia Fans die jedes Jahr ihre GraKa aufrüsten (müssen, weil die aktuelle GraKa die Leistung schon nur mit Upscaling schafft).
Richtig, aber nicht jeder war so schlau eine rx6800 damals für 400-450€ zu kaufen, obwohl sie überall als der heilige P/L Gral gefeiert wurde.
Vermutlich per Adapter problemlos lösbar. Liegt da eigentlich einer dabei?

Antwort Gefällt mir

b
bitracer

Urgestein

749 Kommentare 336 Likes

Schon erstaunlich, da haben die Händler um kurz nach 0 Uhr es schon wieder versucht und boten die 16GiByte Modelle für etwa 540+ Euro an. knapp 100 Euro über der eigentlichen uvp/msrp

Euro ist gerade bei 1,14 US-$, macht 429$ / 1,14 (W.-Umrechnung) * 1,19 (Mehrwertstr) = 447,82 Euro
...und siehe da: inzwischen werden Karten von Palit, Gainward und Gigabyte für 449,- angeboten.

hmmm damit positioniert sich die 5060ti/16 knapp 50 Euro unterhalb einer im Raster knapp stärkeren rdna3-Karte der Vorgängergeneration - Hut ab, das kennt man sonst immer genau andersherum - ein Schelm, wer Böses dabei denkt!

Mal abgesehen davon, daß die Gewinnmarge bei diesen Verkaufspreisen durch die Decke gehen dürfte (grob halbe Chipfläche?), so verlangt team-grün zumindest leicht-weniger dafür als noch zu Ada-Lovelace Zeiten.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung