MSI GeForce RTX 4060 Gaming X 8G im Overclocking-Test - Da geht doch noch was! Aber...

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.847
Bewertungspunkte
8.934
Punkte
1
Standort
Redaktion
Gestern hab es das Review der MSRP-Karten und heute dürfen wir Normalsterblichen dann endlich auch die etwas besseren Karten testen. Dass da noch viel Luft nach oben war, ohne dass sich das Testobjekt zum Krüppel saufen musste, zeigt einmal mehr, dass die knapp auf Kante genähten „Einsteigermodelle“ einmal mehr mit Argwohn zu betrachten sind. Nicht, (read full article...)
 
Danke für den Test.
Die Gaming X scheint in Vergleich zur günstigeren Schwester Ventus vom gleichen Hersteller die bessere/leisere Kühlung zu haben (Test bei CB von gestern) mitsamt resp. trotz OC. Wie hoch dieser Aufpreis ausfallen wird, weiss man nicht, weils noch keinen Preis zu geben scheint, wieso auch immer. Der Preis scheint bei dieser 4050 (ich meine 4050, kein Tippfehler) ein Thema sein zu müssen.
 
Alleine schon für den hohen Stromverbrauch im Idle verdient Nvidia hier eine silberne Zitrone! Dabei hat Nvidia (wie auch von Dir @Igor Wallossek ) beschrieben das eigentlich sehr gut im Griff, solange sie die entsprechende Hardware, die sie ja haben, auch verbauen.
Und, wenn man's ein wenig auf die Spitze treiben will, ist der deutliche Unterschied zwischen dem angegebenen (Software ausgelesen) und tatsächlichem (höheren) Verbrauch v.a.im Idle nicht schon ein Minderungsgrund?
 
Der Idle-Bug ist ja schon fast ein wenig peinlich für Nvidia..
Denn den hat eigtl AMD für sich reserviert und dann hauen die so ein Ding raus^^

Und ja dieses Leistungsplus hätte ich mir definitiv für die Bro&Butter-Modelle gewünscht.
Denn die sind ja..wie ich es auch schon geschrieben habe, eher unmerklich schneller als die Vorgängergeneration..wobei diese immerhin sogar ein bisschen mehr VRam bestzt^^

Und bei den 329€ würde ich eher die OC-Modelle verorten..aber nicht den..pardon.. optischen Ramsch.. der MSRP-Modelle.
Aber es scheint ja immer mehr in Mode zu kommen bei Nvidia Grakas verkaufen zu wollen, die aussehen als würde nur noch Paketband sie zusammen halten.. aber der Preis ist absolutes Premiumsegment.
 
Toller Test!
Hätte die Karte wenigstens 4GB mehr VRAM und würde bei MSRP bei 299€ und nicht $ starten, wäre das echt eine Überlegung gewesen. Schön das MSI hier ein wenig auf die Bauteile geachtet hat. Nicht das dies eine generelle Erwartung an Board-Partnern wäre, da die Karte generell einen Auspreis erfährt.
 
bin mir grad nicht sicher ob ich den zurückversetzten stecker (eigentlich steckdose) mag, da die Sicherung PCB-seitig zu sein scheint.
Aussparung hin oder her das wird ein Gefummel den Stecker wieder rauszukriegen, oder?
 
Hallo ihr Lieben,
ich les schon ... "gefühlt ewig" mit, aber grad hab ich ein Verständnisproblem, weswegen ich mich jetzt auch angemeldet habe.

4060 MSRP sollte im Game bei 110 Watt liegen, zieht sich tatsächlich aber 130 Watt.
Ich weiß grad nicht, wer das getestet hat (PCGH ?), aber die 4060 verliert sofort linear Leistung, wenn du mim Powerlimit runter gehst.
Drossel ich die 4060 soweit ein, dass sie innerhalb der von Nvidia kolportierten Leistung (Watt) läuft, dann ist sie (Dlss3 mal außen vor) wohl nicht schneller als ne 3060, die rd. 50 € günstiger ist und zudem mit 4 GB mehr aufweisen kann.
Um die 4060 (ohne Dlss3) also schneller als ne 3060 zu machen, musste man wohl bereits die MSRP-Karten ... übertakten?

Stromverbrauch / Effizienz
Ja, die 4060 produziert für die gleiche Anzahl an FPS weniger Abwärme als die 3060.
Das fällt aber doch nur in den warmen Jahreszeiten ins Gewicht, in denen zudem eh weniger gezockt wird.
Werden die Tage kürzer und auch kälter, dann wird mehr gezockt. Die Abwärme der Grafikkarte kann dann man durchaus mit den Heizkosten verrrechnen.
Watt die Grünen sich da schöngerechnet haben ist doch hanebüchen, unabhängig von den herangezogenen Strompreisen. Da würde ich bestenfalls ein Drittel der schöngerechneten Ersparnis gelten lassen wollen, und damit lohnt die Effizienzbetrachtung nicht mehr.

Versteh ich das richtig?

Btw: Die ersten 4060 OC sind auch schon für 329€ zu haben.
 
Hier wir deine Frage beantwortet, zwar durch die Blume, aber verständlich:
https://www.igorslab.de/katerstimmu...heibletten-tierisch-auf-den-hund-kommen-kann/

Was bitter ist, dass selbst die Full HD-Klasse jetzt schon Spulengeräusche macht.
Meine Sapphire Nitro RX 6700XT ist wegen Spulenfiepen rausgeflogen und wurde durch eine MSI RTX 3060 Gaming Z ersetzt.

Schade, dass kein Custom-Hersteller mal eine Grafikkarte mit vernünftigen Bauteilen rausbringt.
Die 50-70€ mehr dafür würde ich sofort bezahlen wollen, sofern die Lüfter dann auch entsprechend leise sind.
 
bin mir grad nicht sicher ob ich den zurückversetzten stecker (eigentlich steckdose) mag, da die Sicherung PCB-seitig zu sein scheint.
Aussparung hin oder her das wird ein Gefummel den Stecker wieder rauszukriegen, oder?
Würde die Biegeradien nach hinten verlegen zum Kabel, weg von den Steckern/Kontakten. Dürfte wohl eher bei den ganz dicken Karten mit 12VHPWR Stecker was bringen. Ist wohl eh gedacht dass das Ding genau 1x eingebaut/verkabelt und dann nicht mehr angerührt wird.
 
Nvidia hat mit Multi-Monitor und GSync bereits lange ein Problem im Idle. In meinem Fall (Ampere) zieht die Karte im Idle bis über 70W, wo es eigentlich um die 20W sein müssten und sollten. 100% reproduzierbar, mit Logs belegt.
Der Support bei denen war überfordert, wie es immer ist, wenn ein Niemand wie ich anklopft. Als dann endlich eine Antwort vom Driver Team kam, hiess es plump "das muss so sein" und der Kontakt wurde abgebrochen.
Wie würde "grün" wohl reagieren, wenn ein langhaariger YouTuber, oder ein Jay Sii zwei Cents darüber berichten würde? Toller Support für so ne teure Karte, die Lüge als Ausrede ist noch toller, etwa so toll wie heutzutage über 70W im Idle zu verschwenden. Ironie off/
 
Hallo ihr Lieben,
ich les schon ... "gefühlt ewig" mit, aber grad hab ich ein Verständnisproblem, weswegen ich mich jetzt auch angemeldet habe.

4060 MSRP sollte im Game bei 110 Watt liegen, zieht sich tatsächlich aber 130 Watt.
Ich weiß grad nicht, wer das getestet hat (PCGH ?), aber die 4060 verliert sofort linear Leistung, wenn du mim Powerlimit runter gehst.
Drossel ich die 4060 soweit ein, dass sie innerhalb der von Nvidia kolportierten Leistung (Watt) läuft, dann ist sie (Dlss3 mal außen vor) wohl nicht schneller als ne 3060, die rd. 50 € günstiger ist und zudem mit 4 GB mehr aufweisen kann.
Um die 4060 (ohne Dlss3) also schneller als ne 3060 zu machen, musste man wohl bereits die MSRP-Karten ... übertakten?

Stromverbrauch / Effizienz
Ja, die 4060 produziert für die gleiche Anzahl an FPS weniger Abwärme als die 3060.
Das fällt aber doch nur in den warmen Jahreszeiten ins Gewicht, in denen zudem eh weniger gezockt wird.
Werden die Tage kürzer und auch kälter, dann wird mehr gezockt. Die Abwärme der Grafikkarte kann dann man durchaus mit den Heizkosten verrrechnen.
Watt die Grünen sich da schöngerechnet haben ist doch hanebüchen, unabhängig von den herangezogenen Strompreisen. Da würde ich bestenfalls ein Drittel der schöngerechneten Ersparnis gelten lassen wollen, und damit lohnt die Effizienzbetrachtung nicht mehr.

Versteh ich das richtig?

Btw: Die ersten 4060 OC sind auch schon für 329€ zu haben.
Klingt für mich fast so, als war es mehr als nur der Einspareffekt, der zum Weglassen der Shunts geführt hat. Denn wer prüft schon so gewissenhaft, was die Karte wirklich verbraucht, und verlässt sich nicht einfach auf die Telemetrie, die ja bisher immer so genau war. Ein Schelm, wer böses dabei denkt.
 
Hallo miteinander,
mag sein, dass meine Frage den Wissenden hier unsinng vorkommt - dann bitte ich vorab um Milde.
Ich hab nun schon einige Generationen von GPU's und CPU's kommen und gehen sehen.
Die CPU wird austauschbar im Sockel platziert, der dazugh. Speicher ebenso, weshalb eigentlich macht man das mit GPU und Speicher nicht ebenso?
Kann mir das hier jemand beantworten?

Gruss Ahaba
 
Die GPU-Pin-Outs sind sogar innerhalb einer Generation in den einzelnen Leistungsklassen unterschiedlich. Stecksockel wären auch auf Grund der höheren Taktraten beim Speicher und der nötigen Signalintegrität technisch komplett unmöglich. Und es sind Fehlerquellen, die so keiner haben möchte.
 
Hallo Igor,

vielen Dank für die ausserodentlich schnelle und eindeutige Antwort. Ich bin lediglich interessierter Laie und will das Thema also nicht weiter auswalzen. Wenn ich also laienhaft zusammenfasse, ist der Anteil der ggf. weiterverwendbaren Hauptbestandteile - (Platine und Kühler) so gering, dass es sich nicht lohnt Entwicklung in diese Richtung zu betreiben (ich gehe davon aus, dass man die von dir ausserdem angeführten tech. Schwierigkeiten ggf. lösen könnte)?
 
Sollte tatsächlich auf einer Platine bleiben, weil die Ansprüche so unterschiedlich sind. Das mit dem Speicher könnte man allerdings über HBM lösen. Würde man aber einen Sockel einführen, wäre der auf Hersteller bzw. bestimmte GPUs zugeschnitten, ein Stzandard sehr schwer zu realisieren, gibts ja bei den CPUs auch nicht. Sehr unschön, will man seine GPU wechseln.

Nur 90° aufs Mainboard gesteckt, das sollte man dann doch überdenken. Nicht nur, das heutige Kühllösungen die benachbarten Ports sowieso überdecken, es ist einfach kompletter Unsinn was die Physik angeht. Temperatur und Kräfte, die Karte wird weiterhin am Slotblech verschraubt, das meist gar nicht gestützt wird, und der Rest hängt dann am Slot. Axiallüfter in dem Aufbau werden auch immer zumindest einen Teil ihrer eigenen Abluft fressen.

Irgendwann gibts hoffentlich ne Platine zum auf/danebenstecken und Kühllösungen welche man dann ordentlich verschrauben kann. Aber bis sich da mal was ändert.. heute gibts sauteure Backsteine, die auch mal druchbrechen können. Das Design um die Slots stammt noch aus einer Zeit, da hatten die GPUs noch nichmal einen Kühlkörper, nur so ein hübsches, schwarzes Package wie man es von den heutigen Speicherchips noch kennt. Und so wenig Pins, da brauchte man noch nicht mal ein BGA-Package, sah aus wie ein großer Microcontroller.
 
Zuletzt bearbeitet :
@Igor Wallossek
Lieber Igor Wallossek
Vielen Dank für die ausführlichen Berichte, kenne keine andere Seite die so schön ins Detail geht. So geht Journalismus!
Zur RTX 4060 im Detail. Tritt der Powerbug nur bei Win11 auf oder auch bei Win10 wenn man da den aktuellen Treiber installiert?
Sowas ist für mich ein Deal killer.
Für den Angegebenen OC im Detail würde ich mich auch sehr interessieren.
Freundliche Grüsse
 
@Igor Wallossek
Lieber Igor Wallossek
Vielen Dank für die ausführlichen Berichte, kenne keine andere Seite die so schön ins Detail geht. So geht Journalismus!
Zur RTX 4060 im Detail. Tritt der Powerbug nur bei Win11 auf oder auch bei Win10 wenn man da den aktuellen Treiber installiert?
Sowas ist für mich ein Deal killer.
Für den Angegebenen OC im Detail würde ich mich auch sehr interessieren.
Freundliche Grüsse
Hoppala, OC steht ja da, habs grad gesehen...
 
Würde die Biegeradien nach hinten verlegen zum Kabel, weg von den Steckern/Kontakten. Dürfte wohl eher bei den ganz dicken Karten mit 12VHPWR Stecker was bringen. Ist wohl eh gedacht dass das Ding genau 1x eingebaut/verkabelt und dann nicht mehr angerührt wird.
Sags mal so: Wenn ich 1x jährlich mim 10bar Kompressor durchblase blockiere ich alle Lüfter und stecke sie sicherheitshalber auch noch ab; habe keine Lust da wie bei einem Windrad Strom ins System zu pressen.
 
Oben Unten