Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 4060 8 GB im kompletten Test – Was man auf YouTube bisher nicht erfahren konnte

Zusammenfassung

Ich bin mir nicht ganz schlüssig, was sich NVIDIA im Detail mit dieser Karte gedacht hat, aber wenn es um den Mainstream geht, scheint man bis zum Launch der GeForce RTX 4060 Ti noch ganz guter Dinge gewesen zu sein. Den ganzen Gegenwind mit den 8 GB VRAM hat man damals mit Sicherheit so nicht erwartet und es wundert mich deshalb auch nicht, dass im Vorfeld dieses heutigen Launches derartige Marketing-Pirouetten gedreht und Marketing-Stunts zelebriert wurden.

Ich werde mit Sicherheit jetzt auch nicht auf den stets klammen Speicher eingehen, denn dann würde ich mich nur wiederholen. Die GeForce RTX 4060 8 GB hat nämlich auch positive Seiten, nur muss man sich damit auch arrangieren können. Sie ist in Full-HD in der Summe fast 11 Prozent schneller als eine GeForce RTX 3060 12 GB und in Ultra-HD noch reichlich 8 Prozent. Das mag wenig klingen, aber ich habe ja auch einen Spielemix genutzt, der weniger zum Kirschenpflücken neigt. Die 11 Prozent sind in Full-HD also immer drin, auch außerhalb des bestellten YouTube-Schaulaufens.

 

Die AMD Radeon RX 7600, die ebenfalls zum Club der VRAM-Hungerleider zählt, wird auch bei reiner Rasterization locker geschlagen und das bei deutlich weniger Durst. Auch das steht auf der Haben-Seite der GeForce RTX 4060, die sogar in gewissem Maße attraktiv sein könnte, wäre der Preis nicht so überzogen. Ich weiß von einigen Boardpartnern, dass man die Karte eigentlich günstiger anbieten wollte, NVIDIA aber auf den 299 USD als MSRP (329 Euro als UVP in Deutschland) bestanden hat, warum auch immer. Ich sehe die Karte eher bei 289 als Einstiegspreis statt der festgelegten 329 Euro. Das wird definitiv in dieser Form so nicht zu halten sein, oder die Karten werden zu Blei in den Regalen.

Irgendetwas Neues für den Mainstream braucht der Markt ja durchaus, so gesehen passt die Karte als Full-HD-Offerte und Technologie-Träger durchaus. Ich finde DLSS praktisch und das komplette Feature-Set der Ada-Karten nimmt man gern mit, auch abseits des ganzen Gamings. Aber die pure Angst, dann damit eigene GeForce RTX 3060 12 GB zu kannibalisieren, die man aus unerfindlichen Gründen bis Q3 weiterlaufen lässt, zementiert den Preis leider dort, wo man echt keine Käufer abholen kann.

Und etwas härtere Kritik muss an dieser Stelle auch erlaubt sein. Dass eine aktuelle Karte im Idle solche Kapriolen schlägt (warum und wie auch immer) und der Treiber auch nach Tagen noch nicht gefixt wurde, entzieht sich meinem Verständnis komplett. Zumal auch der unnötige Wegfall der exakten Eingangsmessung mit Shunts und sauberem Monitoring dazu führt, dass die Karten deutlich mehr an Leistung unter Last aufnehmen als sie sollten. Da ist es umso verwunderlicher, dass alle Programme über die NVAPI viel zu niedrige Werte geliefert bekommen, die mit der tatsächlichen Leistungsaufnahme nichts mehr zu tun haben, aber interessanterweise den Werten des eigenen Marketings entsprechen. Die Referenzplatine ist so kostenoptimiert entworfen worden, dass das Ganze einfach schiefgehen musste. Wenn sich dann auch noch die Boardpartner an dieser neuen „Bescheidenheit“ orientieren, dann wird es für die Effizienz noch enger.

Denn auch die Effizienzbetrachtungen zeigen uns anschaulich, dass die GeForce RTX 4060 8 GB sehr deutlich hinter eine RTX 4060 Ti oder RTX 4070 zurückfällt. Das liegt nicht nur am Chip selbst, sondern primär an den Platinen und der technischen Umsetzung der Spannungswandler. Alles, was hier auf dem Weg bis zum Endverbraucher schon in Wärme umgesetzt wurde, fehlt später dann der GPU. Ich darf schon einmal spoilern, dass eine etwas liebevoller gestrickte OC-Karte bei der Effizienz einen Tick besser dasteht, obwohl ordentlich übertaktet wurde. Aber dazu gibt es dann morgen mehr, denn wir als normalsterbliche Tester dürfen ja leider nicht vorgreifen.

Die GeForce RTX 4060 8 GB ist eine Karte für Full-HD, wenn es um höhere Frameraten geht und auch noch bedingt geeignet für WQHD. Dann aber wird man bereits über smartes Upscaling nachdenken müssen, denn ohne DLSS wird es stellenweise auch schon in QHD etwas arg eng. Hier kann NVIDIA durchaus seine Vorteile ausspielen, die DLSS 2.x auch rein optisch bietet. Unterstützt ein Spiel jedoch DLSS 3.0 und man würde ohne Super Sampling im unspielbaren FPS-Bereich herumdümpeln, dann kann dies quasi sogar der ultimative Rettungsanker zur Spielbarkeit sein. Die Latenzen kann man damit nicht verbessern (sie bleiben ja gleich), aber nicht jedes Genre ist so latenzgebunden wie diverse Shooter.

Man bekommt somit alle Vorteile der Ada-Architektur ab 329 Euro (MSRP-Karten). Nachteilig sind allerdings der nicht mehr zeitgemäße Speicherausbau und das enge Speicherinterface. Die 8 Lanes am PCIe 4.0 reichen vollends aus, aber wenn die Karte auf den Systemspeicher zugreifen muss, wird es spätestens bei älteren Systemen mit PCIe 3.0 arg eng. Dann sind die 11 Prozent Vorsprung zur RTX 3060 12GB schneller weg als man Mops sagen kann.

Und falls man mich noch nach einem persönlichen Fazit fragt: Es fällt leicht anders aus als das, was vorab bei gewissen YouTubern bestellt wurde. Nicht absolut negativ, denn die positiven Seiten habe ich ja genannt. Aber echte Euphorie ist es auch nicht, dazu kostet die Karte einfach zu viel und hält auch energiepolitisch nicht ganz das, was im Vorfeld versprochen wurde. Treiber kann man fixen, kein Thema. Nur beim VRAM und der Telemetrie wirds dann doch etwas komplizierter.

Die Grafikkarte wurde von Palit für diesen Test zur Verfügung gestellt. Die einzige Bedingung war die Einhaltung der Sperrfrist, eine Einflussnahme oder Vergütung fand nicht statt.

 

Kommentar

Lade neue Kommentare

R
Racoon

Neuling

8 Kommentare 2 Likes

Abschnitt sechs , erstes Diagramm: 4060 it und non-it scheinen vertauscht zu sein.

Antwort Gefällt mir

Igor Wallossek

1

10,224 Kommentare 18,928 Likes
R
Racoon

Neuling

8 Kommentare 2 Likes

Siehe Screenshot. MfG.

Antwort Gefällt mir

R
Racoon

Neuling

8 Kommentare 2 Likes

Sorry, mein Fehler. Nicht genau genug hingesehen.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 371 Likes

Nvidia überspannt mMn den Bogen an Selbstverherrlichung. Dieses gekaufte Schaulaufen auf YT im Vorfeld ist sowas von peinlich.
Die Karte selbst, ein Billigheimer per Referenz, Speicherkrüppel, verkorkster Treiber zum Start, zu teuer.
Irgendwie muss man ja seine eigenen Taschen, und die der Bling YTer ja füllen, leider wird sie unerfahrene, unwissende Käufer erreichen. Wieder mal.
Wird mal Zeit, dass der grüne Narzisst ordentlich den Kopf stösst, wenn er vom Pferd fällt.

Antwort 5 Likes

h
hellm

Moderator

624 Kommentare 846 Likes

Keine Angst. KI ist auch etwas, worauf Nvidia sich nicht langfristig verlassen kann. Es ist ein Markt, der exorbitante Margen erlaubt, Blase hin oder her, da stehen noch ganz andere Größen in den Startlöchern. Und wenn nun auch andere Verwendungsmöglichkeiten für so spezielle, sehr parallelisierte Prozessoren gefunden sind, kann uns das langfristig auch nur helfen. Mining war nur ein ärgeliches Phänomen, das können wir wieder vergessen. Jetzt kommt KI.

Zuviel Erfolg ist für kein Unternehmen gut. Wie man sich dann auf den kommenden Wetterwechsel einstellen wird, wir werden es sehen. Die Preise wird man aber nicht durchhalten können, selbst wenn Nvidia weiterhin erfolgreich bleibt. Da können wir uns auf unseren Kapitalismus verlassen.

Antwort 5 Likes

e
eastcoast_pete

Urgestein

1,507 Kommentare 852 Likes

Leider sind im Moment sowohl Nvidia als auch AMD sehr auf den KI/Beschleuniger Zug abgefahren, und Intel wär auch gerne mit dabei, wenn sie nur Produkte dafür hätten. Und bis der Zug langsamer wird (oder ganz entgleist) werden die GPUs eben mehr so nebenher gemacht.
@Igor: Wieviel extra Silizium hätte denn ein Controller für einen 192 oder 256 Bit Bus so gekostet? Und ich weiß, hätte, hätte, Fahrradkette. Interessant wäre es trotzdem was hätte sein können für die kleine Ada.
Denn die 16 GB Versionen, die angeblich doch kommen sollen, werden ja trotzdem in den 128 Bit Flaschenhals rennen. Und der Cache hier ist zwar größer als bei der kleinen Ampere, aber so groß (bzw groß genug) ist der Cache wohl nicht, daß es bei Auflösungen über 1080p nicht schon eng wird. Oder ist die Rechenleistung schon ausgereizt, und der Bus ist zweitrangig?

Antwort Gefällt mir

Igor Wallossek

1

10,224 Kommentare 18,928 Likes

Spekulatius... Das muss man wirklich seriös testen. :(

Antwort Gefällt mir

RX480

Urgestein

1,881 Kommentare 873 Likes

als seriöser Tester könnte man mal die 115W im Datasheet auf HOLD setzen
vor Allem wenn NV jahrelang auf Einhaltung der TDP rumgehackt hat

... im Prinzip ja, aber welche Watt gelten denn nun für die 4060 sinds 115 oder 131W?
(würde man ne 7600 ebenfalls mit PL+14% laufen lassen, wirds net mehr so locker)

locker ist wie immer Parcourabhängig:

View image at the forums

Da könnte also Jemand der net RT braucht, auch mit ner preiswerten Graka auskommen.
(die 7600 gabs öfters für 259€ im MS)

Antwort Gefällt mir

echolot

Urgestein

942 Kommentare 727 Likes

Das Elend geht weiter. Na hoffentlich wars das jetzt erst einmal bei Nvidia...ach ja. Da kommt ja noch die 4060 Ti 16GB und dann wieder zu einem unschlagbaren Preis.

Antwort Gefällt mir

Brxn

Veteran

257 Kommentare 71 Likes

Ich glaub nicht dass die sooOo schlecht abschneidet. Die könnte für viele relevant werden.

Antwort Gefällt mir

D
Don Omerta

Mitglied

49 Kommentare 34 Likes

Danke Igor für diesen hervorragenden Test. :)
Gerade noch einen Artikel bei so einer "Blaskapelle" (Gol..) gelesen und auch das heißt es 118 Watt Aufnahme. Die schreiben wohl alle von einander ab, es gibt wirklich kaum noch seriöse Seiten wo man so aussagekräftige Test wie hier bekommt.

Antwort 1 Like

Igor Wallossek

1

10,224 Kommentare 18,928 Likes

Ich äußere mich nie zu Kollegen aus seriösen Medien. Manche sind auch vom Equiment (oder Nicht-Equipment) limitiert. Wobei Golem finanzkräftig genug sein sollte, ordentliche Technik anzuschaffen.

Wobei der Zweiseiter schon arg dünn geraten ist. Seit Marc zu Intel gewechselt ist, hat es dort etwas nachgelassen. Aber der neue Kollege muss lernen. Kommt sicher noch.

Antwort 3 Likes

Kohlkopf

Mitglied

42 Kommentare 10 Likes

Hatte mich heute sehr gefreut das du, lieber Igor wieder etwas auf YT geladen hast. Das Video zur 4060 8G fand ich für den (Wieder) Einstieg sehr gelungen (informativ) und unterhaltsam.

Was mich noch bzgl. Bauteile interessiert ist, ob es sich für die Hersteller nicht doch lohnen würde, auf längere Sicht, die besseren Bauteile zu verwenden. Die paar Euro für ein stabileres und fehlerfreies Produkt zu investieren, womit auch der Kunde mehr Freude hat. Gleichzeitig würde damit ja auch die Umwelt entlastet, da weniger RMA's und Retouren und dies im besten Fall auch weniger Elektroschrott bedeutet.

Bzgl. VRAM: Damals gab es ja sogar schon Grafikkarten wo der (V)RAM physisch, wie bei einem Mainboard erweitert werden konnte. Hat es rein technische Gründe, warum dies heute nicht im Consumer Bereich angeboten wird oder doch einfach nur um Verkäufe zu generieren.

Antwort Gefällt mir

RX480

Urgestein

1,881 Kommentare 873 Likes

Am Ende ist Jeder, der die Werbetexte veröffentlicht "Teil des Plans".
Der Plan ist = bei den Schafen bleiben solche Stichworte hängen und helfen beim Kauf.

Ich bin mir auch net sicher, ob z.Bsp. die regelmäßigen Leaks zum 3dMark net auch "bestellt" sind, .... und in dem Fall mit falschen Watt.

Antwort Gefällt mir

Klicke zum Ausklappem
Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Was hilft die teuerste Technik, wenn sie falsch bedient wird...

Antwort Gefällt mir

8j0ern

Urgestein

2,551 Kommentare 805 Likes

Nein, weil die besseren Bauteile zu 90% Rausfliegen.
Also 10% bleiben übrig für die Super Tolle TItan usw. usf.

Der Verschleiß nagt.

Antwort Gefällt mir

D
Don Omerta

Mitglied

49 Kommentare 34 Likes

@Igor Wallossek
Du sollst die auch nicht über andere Kollegen auslassen...;)
Ich kenne Golem seit 2001 und die Qualität der Berichte hat in den letzten Jahren, meiner Meinung nach, sehr nachgelassen. Die wurden in den letzten 15 Jahren ja auch durchgereicht wie ein Stück ranzige Butter, da geht ein wenig Qualität schon mal verloren.

249 Euro wären ein guter Preis für die Karte, wenn ich daran denke was mittlerweile die 3060ti kostet (bei NB für 329,00€)....

Antwort 1 Like

Igor Wallossek

1

10,224 Kommentare 18,928 Likes

249 Euro sind für die AIC leider Verlustzone.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung