Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 4060 8 GB im kompletten Test – Was man auf YouTube bisher nicht erfahren konnte

Betreutes Wohnen kennen wir, das hat durchaus einen tieferen Sinn Sinn. Betreutes Benchmarken dagegen eher weniger. Und ich gebe es zu, ich war gediegen angefressen, nachdem ein paar handverlesene Edel-Influencer händchenhaltend mit NVIDIA (und sicher auch wider besseres Wissen) die bestellten Lobeshymnen für ein Produkt lieferten, das seriöse Tester und Medien im Gegensatz dazu über Tage aufwändig getestet haben und deren Ergebnisse erst heute öffentlich gemacht werden dürfen. Wer als Hersteller zu solchen Mitteln greift und die Spannungskurve damit bewusst abflacht, der ahnt wohl auch, wo sich sein Produkt in der Realität vielleicht positionieren könnte, und baut vermeintlich vor. Das hätte man in dieser Form sicher noch nicht einmal nötig gehabt, aber nun ja.

Ich werde die Tests trotzdem weitgehend emotionslos veröffentlichen, denn das bin ich meinen Lesern einfach schuldig und die Grafikkarte selbst kann ja auch nichts dafür. Allerdings habe ich den Fokus bewusst auf genau die Bereiche gelegt, die in den Videos nicht vorkommen durften. Denn irgendwie muss man sich ja (a) von den voreiligen Zeitgenossen inhaltlich auch abheben und (b) dem hoffentlich noch nicht komplett verwirrten Publikum die Realität präsentieren. Im Übrigen wird auch das objektiv erfolgen, denn ich werde mich bewusst an meine eigenen Regeln halten.

Ich habe stellvertretend für die sogenannten MSRP-Karten, also das, was preislich der UVP von 329 Euro entspricht, die Palit GeForce RTX 4060 Dual getestet. Und nicht ganz zufällig hat AMD gestern auch offiziell die Preise für die Radeon RX 7600 gesenkt. Dass der Markt mittlerweile sogar noch niedrigere Werte hervorbringt, ist sicher auch kein Zufall. Preislich stößt die Karte gerade in ein gewissen Vakuum, aber ob es damit auch leistungstechnisch korreliert, werden wir im Laufe des Tests noch herausfinden.

Wichtige Vorbemerkung

Ich splitte das ganze natürlich NDA-konform in zwei Reviews, also in jeweils einen Artikel für heute und morgen. Heute gibt es die MSRP-Karte quasi “Out of the Box” und morgen dann die OC-Karte mit dem maximal möglichen OC in allen Lebenslagen. Und ich spoilere einfach mal frech: da geht noch was. Allerdings werde ich auch noch einige Punkte ansprechen müssen, die mir nicht nur aus technischer Sicht wirklich missfallen haben, sondern auch in der Realität zu völlig falschen Werten führen.

Ich werde zwar nicht im Detail auf NVIDIAs alberne Stromspar-Folie eingehen, die allein schon wegen der veranschlagten Energiepreise so nicht stimmen kann, das haben bereits andere getan. Nur ist auch der zugrunde liegende Wert der Leistungsaufnahme eine grobe Fehlinformation, was ich im Laufe des Reviews auch beweisen werde. Und ganz im Ernst: über 50 Watt im Idle sind sowieso der frühzeitige Tod jeder Propaganda-Folie. Doch auch dazu später noch mehr. Schauen wir zunächst einmal auf die Ausgangslage: 115 Watt maximale Board-Power auf der MSRP-Karte ohne die Chance einer Erhöhung und ganz offensichtlich ein Bin 1 Chip, denn viel mehr ging hier auch nicht. Doch dafür habe ich ja morgen noch einmal ein längeres Review.

Natürlich gibt es wie gewohnt auch viele Benchmarks, den umfassenden Teardown (sehr wichtig!), eine sehr aufwändige Platinen- und Kühler-Analyse mit einigem Reverse-Engineering, sowie die Analyse der Leistungsaufnahme und der Lastspitzen samt passender Netzteilempfehlung (genauso interessant). Da ich weiß, dass viele Kollegen auch noch einmal die ganzen technischen Details samt Theorie wiederholen, die ja bereits vorab schon in diversen Häppchen dargereicht wurden, spare ich mir das heute im ganz großen Umfang und verweise nur noch einmal kurz auf die bereits bekannten Daten. Dazu gehört auch NVIDIAs Erklärung zum Cache und warum dies den Speicherausbau entlasten soll. Und das mit dem DLSS3 bzw. der Frame Generation teste ich auch mal mit, aber eben nicht nur. Wir sind ja nicht auf YouTube.

Der AD 107 und die neue Ada-Architektur

Der AD107 Chip von NVIDIA, basierend auf der Ada Lovelace Architektur und wird im TSMC 4N Prozess hergestellt. Dank ihrer geringen Größe von 146 mm² handelt es sich hierbei um einen recht kleinen Chip. Der AD107 unterstützt DirectX 12 Ultimate (Feature Level 12_2) und für GPU-Computing-Anwendungen können OpenCL Version 3.0 sowie CUDA 8.9 verwendet werden. Zusätzlich verspricht die DirectX 12 Ultimate Kompatibilität Unterstützung für Hardware-Raytracing, variable Schattierungsraten und vieles mehr für zukünftige Videospiele. Der AD107 verfügt noch über drei Graphic Processing Clusters (GPC) und somit über 3072 Shadereinheiten, 96 Textureinheiten und 48 ROPs. Ebenso integriert sind 96 Tensor-Kerne, die zur Beschleunigung von Machine Learning-Anwendungen beitragen. Zudem beinhaltet die GPU 24 Kerne für Raytracing-Beschleunigung. Der AD107 der GeForce RTX 4060 bietet in der Summe nur noch einen NVDEC (Decoder) und einen einzelnen NVENC (Encoder). Der AV1 Encoder soll bis zu 40% effizienter als H.264 arbeiten.

Die bereits genannten 18 Gbps GDDR6 128-Bit-Speicher wirken etwas spärlich, wenn man die Bandbreiten von 488 GB/s oder 608 GB/s der älteren GeForce RTX 3060 Ti berücksichtigt. Hier sollte allerdings der bei Ada Lovelace im Vergleich zu Ampere deutlich erweiterte L2-Cache beachtet werden: Während die GeForce RTX 3060 Ti noch über 4 MB L2-Cache verfügt, verfügt die RTX 4060 über einen 28 MB großen L2-Cache. Dieser reduziert den Datenverkehr über den Speicherbus und ermöglicht so die effizienteste Kombination aus Leistung und Energieeffizienz für Spiele in 1080p-Auflösung.

Verglichen mit einer 128-Bit-Ampere-GPU bietet die L2-Cache-Architektur von Ada somit eine 16-fache Kapazitätssteigerung. Darüber hinaus wurde die Bandbreite des L2-Caches in den Ada-GPUs im Vergleich zu vorherigen GPUs erheblich erhöht. Dies ermöglicht eine schnellstmögliche Datenübertragung zwischen den Kernen und dem L2-Cache. Der größere L2-Cache von Ada führt zu deutlich mehr Cache-Treffern im L2-Bereich und reduziert gleichzeitig den Datenverkehr über den Speicherbus. Ob das am Ende funktioniert, werden wir gleich noch sehen.

 

Die Palit GeForce RTX 4060 Dual 8 GB im Detail

Die Karte wiegt nur noch 649 Gramm, ein Fliegengewicht. Die Länge von 25 cm ist moderat und die Höhe von 11,5 cm liegt auf dem Normalmaß. Da braucht man kein Trum von Gehäuse zumal die Karte mit einem einzigen 6+2-Pin auskommt. Die Einbautiefe beträgt 3,8 cm zuzüglich der 4 mm für den Backplate-Ansatz auf der Rückseite. Damit ist sie eine echte Dual-Slot-Karte. Die einsilbige Kunststoffabdeckung ist altbekannt und auch die Formensprache samt Lüfter und Slotblende ist nicht neu. Nur dass alles reichlich simpel aussieht. Palit nutzt ein Single-BIOS und wer übertakten möchte, muss ein passendes Tool verwenden. Die Haptik ist eher billig, was auch dem Kostendruck geschuldet ist.

Man kann ja aber nicht nur Strom in die Karte stecken, sondern auch Videoanschlüsse. Es sind derer vier, um ganz genau zu sein, als da wären: dreimal DisplayPort 1.4a und einmal HDMI 2.1a. Das ist vor allem beim DisplayPort schade, wenn es um die neuen Spezifikationen geht. Chance vertan, leider. Und beim HDMI muss man ab 4K schon mit der Kompression tricksen, wenn es über 120 Hz gehen soll.

Der Screenshot aus GPU-Z zeigt uns Standardvorgaben der RTX 4060, die bei allen 115-Watt-Karten identisch sind:

  RTX 4060 Ti RTX 4060 RTX 3060 Ti RTX 3060
Architecture Ada Lovelace Ada Lovelace Ampere Ampere
Process node TSMC N4 TSMC N4 Samsung 8 nm Samsung 8 nm
CUDA cores 4352 3072 4864 3584
Ray tracing cores 32 cores (3rd-gen) 24 (3rd-gen) 38 cores (2nd-gen)  28 cores (2nd-gen)
Tensor cores 128 cores (4th-gen)  96 (4th-gen) 152 cores (3rd-gen) 112 cores (3rd-gen)
Base clock speed 2.31 GHz 1.83 GHz 1.41 GHz 1.32 GHz
Boost clock speed 2.54 GHz 2.46 GHz 1.76 GHz 1.78 GHz
VRAM  8 / 16 GB GDDR6 8 GB GDDR6 8 GB GDDR6/6X 8 / 12 GB GDDR6
L2 cache 32MB 28 MB 4 MB 3MB
Bus width 128-bit 128-bit 256-bit 192-bit
Total Graphics Power (TGP) 160 W/165 W 115 W 200 W 170 W

Damit wäre diese erste Seite geschafft und wir bereiten uns schon einmal langsam aufs Testgeschehen vor.

 

Kommentar

Lade neue Kommentare

R
Racoon

Neuling

8 Kommentare 2 Likes

Abschnitt sechs , erstes Diagramm: 4060 it und non-it scheinen vertauscht zu sein.

Antwort Gefällt mir

Igor Wallossek

1

10,330 Kommentare 19,156 Likes
R
Racoon

Neuling

8 Kommentare 2 Likes

Siehe Screenshot. MfG.

Antwort Gefällt mir

R
Racoon

Neuling

8 Kommentare 2 Likes

Sorry, mein Fehler. Nicht genau genug hingesehen.

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 371 Likes

Nvidia überspannt mMn den Bogen an Selbstverherrlichung. Dieses gekaufte Schaulaufen auf YT im Vorfeld ist sowas von peinlich.
Die Karte selbst, ein Billigheimer per Referenz, Speicherkrüppel, verkorkster Treiber zum Start, zu teuer.
Irgendwie muss man ja seine eigenen Taschen, und die der Bling YTer ja füllen, leider wird sie unerfahrene, unwissende Käufer erreichen. Wieder mal.
Wird mal Zeit, dass der grüne Narzisst ordentlich den Kopf stösst, wenn er vom Pferd fällt.

Antwort 5 Likes

h
hellm

Moderator

634 Kommentare 854 Likes

Keine Angst. KI ist auch etwas, worauf Nvidia sich nicht langfristig verlassen kann. Es ist ein Markt, der exorbitante Margen erlaubt, Blase hin oder her, da stehen noch ganz andere Größen in den Startlöchern. Und wenn nun auch andere Verwendungsmöglichkeiten für so spezielle, sehr parallelisierte Prozessoren gefunden sind, kann uns das langfristig auch nur helfen. Mining war nur ein ärgeliches Phänomen, das können wir wieder vergessen. Jetzt kommt KI.

Zuviel Erfolg ist für kein Unternehmen gut. Wie man sich dann auf den kommenden Wetterwechsel einstellen wird, wir werden es sehen. Die Preise wird man aber nicht durchhalten können, selbst wenn Nvidia weiterhin erfolgreich bleibt. Da können wir uns auf unseren Kapitalismus verlassen.

Antwort 5 Likes

e
eastcoast_pete

Urgestein

1,592 Kommentare 923 Likes

Leider sind im Moment sowohl Nvidia als auch AMD sehr auf den KI/Beschleuniger Zug abgefahren, und Intel wär auch gerne mit dabei, wenn sie nur Produkte dafür hätten. Und bis der Zug langsamer wird (oder ganz entgleist) werden die GPUs eben mehr so nebenher gemacht.
@Igor: Wieviel extra Silizium hätte denn ein Controller für einen 192 oder 256 Bit Bus so gekostet? Und ich weiß, hätte, hätte, Fahrradkette. Interessant wäre es trotzdem was hätte sein können für die kleine Ada.
Denn die 16 GB Versionen, die angeblich doch kommen sollen, werden ja trotzdem in den 128 Bit Flaschenhals rennen. Und der Cache hier ist zwar größer als bei der kleinen Ampere, aber so groß (bzw groß genug) ist der Cache wohl nicht, daß es bei Auflösungen über 1080p nicht schon eng wird. Oder ist die Rechenleistung schon ausgereizt, und der Bus ist zweitrangig?

Antwort Gefällt mir

Igor Wallossek

1

10,330 Kommentare 19,156 Likes

Spekulatius... Das muss man wirklich seriös testen. :(

Antwort Gefällt mir

RX480

Urgestein

1,885 Kommentare 874 Likes

als seriöser Tester könnte man mal die 115W im Datasheet auf HOLD setzen
vor Allem wenn NV jahrelang auf Einhaltung der TDP rumgehackt hat

... im Prinzip ja, aber welche Watt gelten denn nun für die 4060 sinds 115 oder 131W?
(würde man ne 7600 ebenfalls mit PL+14% laufen lassen, wirds net mehr so locker)

locker ist wie immer Parcourabhängig:

View image at the forums

Da könnte also Jemand der net RT braucht, auch mit ner preiswerten Graka auskommen.
(die 7600 gabs öfters für 259€ im MS)

Antwort Gefällt mir

echolot

Urgestein

1,027 Kommentare 785 Likes

Das Elend geht weiter. Na hoffentlich wars das jetzt erst einmal bei Nvidia...ach ja. Da kommt ja noch die 4060 Ti 16GB und dann wieder zu einem unschlagbaren Preis.

Antwort Gefällt mir

Brxn

Veteran

257 Kommentare 71 Likes

Ich glaub nicht dass die sooOo schlecht abschneidet. Die könnte für viele relevant werden.

Antwort Gefällt mir

D
Don Omerta

Mitglied

52 Kommentare 36 Likes

Danke Igor für diesen hervorragenden Test. :)
Gerade noch einen Artikel bei so einer "Blaskapelle" (Gol..) gelesen und auch das heißt es 118 Watt Aufnahme. Die schreiben wohl alle von einander ab, es gibt wirklich kaum noch seriöse Seiten wo man so aussagekräftige Test wie hier bekommt.

Antwort 1 Like

Igor Wallossek

1

10,330 Kommentare 19,156 Likes

Ich äußere mich nie zu Kollegen aus seriösen Medien. Manche sind auch vom Equiment (oder Nicht-Equipment) limitiert. Wobei Golem finanzkräftig genug sein sollte, ordentliche Technik anzuschaffen.

Wobei der Zweiseiter schon arg dünn geraten ist. Seit Marc zu Intel gewechselt ist, hat es dort etwas nachgelassen. Aber der neue Kollege muss lernen. Kommt sicher noch.

Antwort 3 Likes

Kohlkopf

Mitglied

43 Kommentare 10 Likes

Hatte mich heute sehr gefreut das du, lieber Igor wieder etwas auf YT geladen hast. Das Video zur 4060 8G fand ich für den (Wieder) Einstieg sehr gelungen (informativ) und unterhaltsam.

Was mich noch bzgl. Bauteile interessiert ist, ob es sich für die Hersteller nicht doch lohnen würde, auf längere Sicht, die besseren Bauteile zu verwenden. Die paar Euro für ein stabileres und fehlerfreies Produkt zu investieren, womit auch der Kunde mehr Freude hat. Gleichzeitig würde damit ja auch die Umwelt entlastet, da weniger RMA's und Retouren und dies im besten Fall auch weniger Elektroschrott bedeutet.

Bzgl. VRAM: Damals gab es ja sogar schon Grafikkarten wo der (V)RAM physisch, wie bei einem Mainboard erweitert werden konnte. Hat es rein technische Gründe, warum dies heute nicht im Consumer Bereich angeboten wird oder doch einfach nur um Verkäufe zu generieren.

Antwort Gefällt mir

RX480

Urgestein

1,885 Kommentare 874 Likes

Am Ende ist Jeder, der die Werbetexte veröffentlicht "Teil des Plans".
Der Plan ist = bei den Schafen bleiben solche Stichworte hängen und helfen beim Kauf.

Ich bin mir auch net sicher, ob z.Bsp. die regelmäßigen Leaks zum 3dMark net auch "bestellt" sind, .... und in dem Fall mit falschen Watt.

Antwort Gefällt mir

Klicke zum Ausklappem
Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Was hilft die teuerste Technik, wenn sie falsch bedient wird...

Antwort Gefällt mir

8j0ern

Urgestein

2,617 Kommentare 830 Likes

Nein, weil die besseren Bauteile zu 90% Rausfliegen.
Also 10% bleiben übrig für die Super Tolle TItan usw. usf.

Der Verschleiß nagt.

Antwort Gefällt mir

D
Don Omerta

Mitglied

52 Kommentare 36 Likes

@Igor Wallossek
Du sollst die auch nicht über andere Kollegen auslassen...;)
Ich kenne Golem seit 2001 und die Qualität der Berichte hat in den letzten Jahren, meiner Meinung nach, sehr nachgelassen. Die wurden in den letzten 15 Jahren ja auch durchgereicht wie ein Stück ranzige Butter, da geht ein wenig Qualität schon mal verloren.

249 Euro wären ein guter Preis für die Karte, wenn ich daran denke was mittlerweile die 3060ti kostet (bei NB für 329,00€)....

Antwort 1 Like

Igor Wallossek

1

10,330 Kommentare 19,156 Likes

249 Euro sind für die AIC leider Verlustzone.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung