GPUs Graphics Reviews

NVIDIA GeForce RTX 4060 8 GB in a complete Review – What you couldn’t learn on YouTube until now

Summary

I’m not entirely sure what NVIDIA was thinking in detail with this card, but when it comes to the mainstream, they seem to have been in quite good spirits until the launch of the GeForce RTX 4060 Ti. They certainly didn’t expect all the headwind with the 8 GB VRAM back then, so I’m not surprised that such marketing pirouettes were performed and marketing stunts were celebrated in the run-up to today’s launch.

I will certainly not go into the always soggy memory now, because then I would only repeat myself. The GeForce RTX 4060 8 GB also has positive sides, but you have to be able to accept them. It is almost 11% faster in Full HD than a GeForce RTX 3060 12 GB, and it is still 8% faster in Ultra HD. That might not sound much, but I used a gaming mix that is less prone to cherry-picking. So, the 11 percent is always in there in Full HD, even outside of the ordered YouTube show.

 

AMD’s Radeon RX 7600, which also belongs to the VRAM-hungry club, is also easily beaten in pure rasterization and that with considerably less thirst. This is also on the plus side of the GeForce RTX 4060, which could even be attractive to a certain extent if the price wasn’t so exorbitant. I know from some board partners that they actually wanted to offer the card cheaper, but NVIDIA insisted on the 299 USD as MSRP (329 Euros as RRP in Germany), for whatever reason. I rather see the card at 289 as the entry price instead of the fixed 329 Euros. That definitely won’t hold up in this form, or the cards will become lead on the shelves.

The market definitely needs something new for the mainstream, so the card definitely fits as a Full HD offering and technology carrier. I find as DLSS practical and the complete feature set of Ada cards, even away from all the gaming. But the sheer fear of cannibalizing the GeForce RTX 3060 12 GB owned with it, which you keep running until Q3 for some inexplicable reason, unfortunately cements the price where you genuinely can’t pick up buyers.

And a bit of harsh criticism must also be allowed at this point. That a current card in idle performs such capers (why and how ever) and the driver has still not been fixed after days, is completely beyond my understanding. Especially since the unnecessary omission of the exact input measurement with shunts and clean monitoring leads to the cards consuming much more power under load than they should. It is even more surprising that all programs get much too low values via NVAPI, which have nothing to do with the actual power consumption, but interestingly correspond to the values of the own marketing. The reference board has been designed in such a cost-optimized way that the whole thing simply had to go wrong. If the board partners then also orient themselves to this new “modesty”, then it will be even tighter for efficiency.

Because the efficiency observations also show us vividly that the GeForce RTX 4060 8 GB falls very clearly behind an RTX 4060 Ti or RTX 4070. This is not only due to the chip itself, but primarily to the boards and the technical implementation of the voltage converters. Everything that has already been converted into heat on the way to the end user is missing in the GPU later on. I can already spoil that a more lovingly designed OC card is a bit better in terms of efficiency, even though it was overclocked properly. But we’ll have more on that tomorrow, since we, as normal testers, are unfortunately not allowed to anticipate.

The GeForce RTX 4060 8 GB is a card for Full HD when it comes to higher frame rates and is also conditionally suitable for WQHD. But then you will have to think about smart upscaling because it gets a bit tight in places even in QHD without DLSS. NVIDIA can definitely use its advantages here, which DLSS 2.x also offers optically. However, if a game supports DLSS 3.0 and you would be stuck in the unplayable FPS range without Super Sampling, then this can even be the ultimate lifeline for playability. You can’t improve the latencies with this (they stay the same), but not every genre is as latency-bound as various shooters.

Thus, you get all the advantages of the Ada architecture starting at 329 Euros (MSRP cards). However, the outdated memory expansion and the narrow memory interface are disadvantages. The 8 lanes on the PCIe 4.0 are completely sufficient, but when the card has to access the system memory, it gets very tight on older systems with PCIe 3.0 at the latest. Then the 11 percent advantage over the RTX 3060 12GB is gone faster than you can say pug.

And if you ask me for a personal conclusion: It turns out slightly different than what was ordered in advance by certain YouTubers. Not absolutely negative, because I have mentioned the positive sides. But it is not really euphoria, because the card simply costs too much and does not quite deliver what was promised in advance. Drivers can be fixed, no problem. Only VRAM and telemetry are a bit more complicated.

The graphics card was provided by Palit for this test. The only condition was the compliance with the lock period, no influence or compensation took place.

 

Kommentar

Lade neue Kommentare

R
Racoon

Neuling

8 Kommentare 2 Likes

Abschnitt sechs , erstes Diagramm: 4060 it und non-it scheinen vertauscht zu sein.

Antwort Gefällt mir

Igor Wallossek

1

10,285 Kommentare 19,051 Likes
R
Racoon

Neuling

8 Kommentare 2 Likes

Siehe Screenshot. MfG.

Antwort Gefällt mir

R
Racoon

Neuling

8 Kommentare 2 Likes

Sorry, mein Fehler. Nicht genau genug hingesehen.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 371 Likes

Nvidia überspannt mMn den Bogen an Selbstverherrlichung. Dieses gekaufte Schaulaufen auf YT im Vorfeld ist sowas von peinlich.
Die Karte selbst, ein Billigheimer per Referenz, Speicherkrüppel, verkorkster Treiber zum Start, zu teuer.
Irgendwie muss man ja seine eigenen Taschen, und die der Bling YTer ja füllen, leider wird sie unerfahrene, unwissende Käufer erreichen. Wieder mal.
Wird mal Zeit, dass der grüne Narzisst ordentlich den Kopf stösst, wenn er vom Pferd fällt.

Antwort 5 Likes

h
hellm

Moderator

631 Kommentare 849 Likes

Keine Angst. KI ist auch etwas, worauf Nvidia sich nicht langfristig verlassen kann. Es ist ein Markt, der exorbitante Margen erlaubt, Blase hin oder her, da stehen noch ganz andere Größen in den Startlöchern. Und wenn nun auch andere Verwendungsmöglichkeiten für so spezielle, sehr parallelisierte Prozessoren gefunden sind, kann uns das langfristig auch nur helfen. Mining war nur ein ärgeliches Phänomen, das können wir wieder vergessen. Jetzt kommt KI.

Zuviel Erfolg ist für kein Unternehmen gut. Wie man sich dann auf den kommenden Wetterwechsel einstellen wird, wir werden es sehen. Die Preise wird man aber nicht durchhalten können, selbst wenn Nvidia weiterhin erfolgreich bleibt. Da können wir uns auf unseren Kapitalismus verlassen.

Antwort 5 Likes

e
eastcoast_pete

Urgestein

1,547 Kommentare 877 Likes

Leider sind im Moment sowohl Nvidia als auch AMD sehr auf den KI/Beschleuniger Zug abgefahren, und Intel wär auch gerne mit dabei, wenn sie nur Produkte dafür hätten. Und bis der Zug langsamer wird (oder ganz entgleist) werden die GPUs eben mehr so nebenher gemacht.
@Igor: Wieviel extra Silizium hätte denn ein Controller für einen 192 oder 256 Bit Bus so gekostet? Und ich weiß, hätte, hätte, Fahrradkette. Interessant wäre es trotzdem was hätte sein können für die kleine Ada.
Denn die 16 GB Versionen, die angeblich doch kommen sollen, werden ja trotzdem in den 128 Bit Flaschenhals rennen. Und der Cache hier ist zwar größer als bei der kleinen Ampere, aber so groß (bzw groß genug) ist der Cache wohl nicht, daß es bei Auflösungen über 1080p nicht schon eng wird. Oder ist die Rechenleistung schon ausgereizt, und der Bus ist zweitrangig?

Antwort Gefällt mir

Igor Wallossek

1

10,285 Kommentare 19,051 Likes

Spekulatius... Das muss man wirklich seriös testen. :(

Antwort Gefällt mir

RX480

Urgestein

1,883 Kommentare 873 Likes

als seriöser Tester könnte man mal die 115W im Datasheet auf HOLD setzen
vor Allem wenn NV jahrelang auf Einhaltung der TDP rumgehackt hat

... im Prinzip ja, aber welche Watt gelten denn nun für die 4060 sinds 115 oder 131W?
(würde man ne 7600 ebenfalls mit PL+14% laufen lassen, wirds net mehr so locker)

locker ist wie immer Parcourabhängig:

View image at the forums

Da könnte also Jemand der net RT braucht, auch mit ner preiswerten Graka auskommen.
(die 7600 gabs öfters für 259€ im MS)

Antwort Gefällt mir

echolot

Urgestein

981 Kommentare 755 Likes

Das Elend geht weiter. Na hoffentlich wars das jetzt erst einmal bei Nvidia...ach ja. Da kommt ja noch die 4060 Ti 16GB und dann wieder zu einem unschlagbaren Preis.

Antwort Gefällt mir

Brxn

Veteran

257 Kommentare 71 Likes

Ich glaub nicht dass die sooOo schlecht abschneidet. Die könnte für viele relevant werden.

Antwort Gefällt mir

D
Don Omerta

Mitglied

50 Kommentare 34 Likes

Danke Igor für diesen hervorragenden Test. :)
Gerade noch einen Artikel bei so einer "Blaskapelle" (Gol..) gelesen und auch das heißt es 118 Watt Aufnahme. Die schreiben wohl alle von einander ab, es gibt wirklich kaum noch seriöse Seiten wo man so aussagekräftige Test wie hier bekommt.

Antwort 1 Like

Igor Wallossek

1

10,285 Kommentare 19,051 Likes

Ich äußere mich nie zu Kollegen aus seriösen Medien. Manche sind auch vom Equiment (oder Nicht-Equipment) limitiert. Wobei Golem finanzkräftig genug sein sollte, ordentliche Technik anzuschaffen.

Wobei der Zweiseiter schon arg dünn geraten ist. Seit Marc zu Intel gewechselt ist, hat es dort etwas nachgelassen. Aber der neue Kollege muss lernen. Kommt sicher noch.

Antwort 3 Likes

Kohlkopf

Mitglied

43 Kommentare 10 Likes

Hatte mich heute sehr gefreut das du, lieber Igor wieder etwas auf YT geladen hast. Das Video zur 4060 8G fand ich für den (Wieder) Einstieg sehr gelungen (informativ) und unterhaltsam.

Was mich noch bzgl. Bauteile interessiert ist, ob es sich für die Hersteller nicht doch lohnen würde, auf längere Sicht, die besseren Bauteile zu verwenden. Die paar Euro für ein stabileres und fehlerfreies Produkt zu investieren, womit auch der Kunde mehr Freude hat. Gleichzeitig würde damit ja auch die Umwelt entlastet, da weniger RMA's und Retouren und dies im besten Fall auch weniger Elektroschrott bedeutet.

Bzgl. VRAM: Damals gab es ja sogar schon Grafikkarten wo der (V)RAM physisch, wie bei einem Mainboard erweitert werden konnte. Hat es rein technische Gründe, warum dies heute nicht im Consumer Bereich angeboten wird oder doch einfach nur um Verkäufe zu generieren.

Antwort Gefällt mir

RX480

Urgestein

1,883 Kommentare 873 Likes

Am Ende ist Jeder, der die Werbetexte veröffentlicht "Teil des Plans".
Der Plan ist = bei den Schafen bleiben solche Stichworte hängen und helfen beim Kauf.

Ich bin mir auch net sicher, ob z.Bsp. die regelmäßigen Leaks zum 3dMark net auch "bestellt" sind, .... und in dem Fall mit falschen Watt.

Antwort Gefällt mir

Klicke zum Ausklappem
Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Was hilft die teuerste Technik, wenn sie falsch bedient wird...

Antwort Gefällt mir

8j0ern

Urgestein

2,580 Kommentare 824 Likes

Nein, weil die besseren Bauteile zu 90% Rausfliegen.
Also 10% bleiben übrig für die Super Tolle TItan usw. usf.

Der Verschleiß nagt.

Antwort Gefällt mir

D
Don Omerta

Mitglied

50 Kommentare 34 Likes

@Igor Wallossek
Du sollst die auch nicht über andere Kollegen auslassen...;)
Ich kenne Golem seit 2001 und die Qualität der Berichte hat in den letzten Jahren, meiner Meinung nach, sehr nachgelassen. Die wurden in den letzten 15 Jahren ja auch durchgereicht wie ein Stück ranzige Butter, da geht ein wenig Qualität schon mal verloren.

249 Euro wären ein guter Preis für die Karte, wenn ich daran denke was mittlerweile die 3060ti kostet (bei NB für 329,00€)....

Antwort 1 Like

Igor Wallossek

1

10,285 Kommentare 19,051 Likes

249 Euro sind für die AIC leider Verlustzone.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung