NVIDIA GeForce RTX 4060 Ti Founders Edition 8 GB im Test mit 160 und 175 Watt Power Limit plus OC

Das Problem ist:
Man kann es seit Ewigkeiten kommunizieren, die Einsicht kommt bei allen Firmen immer erst an der Kasse. Ob Medien reichlich opportun mit ins Geheule einstimmen, oder der Schreibende dabei noch sachlich bleibt - den Firmen ist das doch alles scheißegal. Solange die dröge Masse das Zeug kauft und schwarze Zahlen geschrieben werden, solange wird es diese Kastraten eben geben. Man muss aber auch die technischen Probleme akzeptieren.
So lange die Karten aber von so manchen Hardwareseiten, trotz allem, gelobt werden, kaufen die Kunden das Zeug auch.
In sofern sehe ich Webseiten schon auch mit in der Verantwortung. Hat doch lange genug gedauert bis die Ersten sanfte Kritik an den knappen Speichermengen geübt und selbst dann wurde gleich wieder im Fazit zurückrudert.
Es wäre sinnvoller gewesen, die Chips so zu konziperen, dass beim Wegschneiden nicht gleich die Speichercontroller mitsterben und vor allem auch im Vollausbau schon genügend da sind. So ein Interface kostet aber Platz und auch Leistungsaufnahme. Aber diese Designentscheidungen wurden bereits vor Jahren getroffen, leider. Man müsste auf die Zwischenversionen verzichten, was auch wieder Geschrei geben würde. Dann nur noch 5090, 5080, 5070, 5060 und 5050. Das haben wir ja schon mal so ähnlich gehabt.
Braucht man denn wirklich die x Varianten? Ich sage mal frei raus, nein. Zum Großteil wurden die Zwischenversionen doch nur als Reaktion auf den Mitbewerber aufgelegt oder um teildefekte Chips auszunutzen. Nach und nach wurden dann daraus künstlich eigene Klassen definiert und vermarktet.
Die 4060 Ti mit 16 GB an so einem Winz-Interface und Clamshell ist genau so ein Unfug. 4GB pro Controller sind doch albern. Der Chip hat aber nur maximal 4. Und doppelseitige Bestückung, PCB mit mehr Layern... Der Preis der 16 GB Karte kommt nicht von Ungefähr.
Die Leute werden es kaufen, weil ja 16GB. Spätestens in den Billiger-FertigPCs werden die als Zugpferd auftauchen.

Cunhell
 
Ich hätte nochmal 50 Cent zur 4060Ti

Das Thema Speicher hat NVIDIA leider eingeholt. Bis auf die 4090/4080 hat es NVIDIA verkackt. Und das weiß NVIDIA, da könnt ihr euch sicher sein. Nicht nur bei der Menge, sondern auch bei der Bandbreite sowie PCIe 4.0 x8.

Dennoch muss man nicht Rumschreien und einen totalen Hate starten. Da bin ich bei Igor…

Die Message ist längst bei NVIDIA angekommen, oder was glaubt ihr, warum es plötzlich eine 4060 Ti mit 16GB gibt? Hätte es die so früh schon gegeben? Ich würde sagen: Nein! Die wäre vermutlich erst nächste Jahr gekommen, ähnlich der 3060 8GB… NVIDIA verwirrt uns ja gerne mit seinen Karten Ti, Super, Titan und zusätzlichen Speichergrößen.

Aus meiner Sicht, hätte es nur eine Variante zum Release geben dürfen: 4060Ti mit 16GB für 399 $ US. Damit hätte NVIDIA noch irgendwie Punkten können. Die 8GB Variante 350 $ und 4060 für 299 $. Na ja…

Die 4060, die kann sich NVIDIA im Grunde sparen. Die Leistung der Karte kann jeder mit dem Taschenrechner errechnen. Diese Karte ist tatsächlich „dead on arrival“…

DLSS 3 hin oder her, solange Frame Generation nicht in jedem AAA Titel verfügbar ist, sollte man sich dem Marketing nur bedingt hingeben. Ja, ich finde Frame Generation grundsätzlich sehr gut, aber am Ende ist es zum jetzigen Zeitpunkt nix anderes wie DLSS 1 2018/2019 oder wie mit Radeon Treibern… guter Wein und so - ihr wisst was ich meine.

Wer also nicht zwingend eine GPU braucht, der sollte diese Generation aussitzen oder die Effizienz mal außen vor lassen und eine Karte der 3000er bzw. 6000er Gen. kaufen. Die RX 6700XT/6750XT wäre hier die beste Alternative. In der Preisklasse. FSR 2.x hilft auch 👍

Ob AMD mit den neuen Karten z.B. 7700XT usw. eine Überraschung gelingt, das bezweifle ich. Die Hoffnung stirbt bekanntlich zuletzt, aber die Hoffnung ist eben auch - das Drahtseil auf dem die Narren tanzen!

In diesem Sinne
 
Zuletzt bearbeitet :
"aber der Vorsprung der GeForce RTX 4060 Ti gegenüber der GeForce RTX 3060 Ti bleibt mit 5.9 bzw. 8.3 Prozentpunkten immer noch riesig."
😊
Dies ist wahrlich ein großartiger Entwicklungsfortschritt in der Produktoptimierung,
eine effiziente und gleichermaßen wirtschaftlich maßgeschneiderte Kastrierung.

Die tuhnbergschen Einflüsse wurden gewissenhaft erhört,
unserer Umwelt zuliebe, welche jedoch auch ganz anderes stört.

So bleibt es ein richtiger Schritt um den Atomausstieg zu kompensieren,
obwohl wir unseren Energieüberschuss immer noch nach Frankreich exportieren.

Das ungeachtet dessen trotzdem ein Leistungszuwachs von etwa 7% daraus resultiert,
gehört, so finde ich, des höflichen Anstandes wegen auch gehörig zelebriert.
🥳
 
War nicht mal geplant, auch beim VRAM krumme Speichermengen zu bringen? Vielleicht hatte NVidia ja damit geplant? Also mit 3GB Speicherchips, um dann auf 12GB zu kommen. Das wäre meiner Meinung nach durchaus passend für die Karte. Und auch die anderen Karten (außer der 4090, die hat genug) wären da sicherlich gut mit solchem Ram bedient gewesen 4070 mit 16GB, 4080 mit 24GB.
Das mit den 3 GB vram Chips hatte ich mich auch schon häufiger gefragt. 16 GB finde ich auch etwas sinnfrei für die Karte, aber 12 GB (4 x 3 GB) + 128 bit wäre meiner Meinung ideal gewesen. Das wäre dann ein toller Nachfolger für die 3060 12 GB geworden...
 
Ich hätte nochmal 50 Cent zur 4060Ti

Das Thema Speicher hat NVIDIA leider eingeholt.
Wieso leider?
Das war ja schon vor zig Jahren bei der "angekündigten" 3070 16GB Thema, die dann nie kam!
Jahre später(!) versucht man nun auf "mauem" 3070 Performance-Niveau wieder 8GB zu verkaufen.
Mit der 4070 12GB hat sich NVidia selbst blockiert im Speicherausbau.

Die 4060Ti 16GB ist völlig überteuert und als hauptsächlich FHD Karte wären 12GB günstiger und passender was aber mit der von Nvidia getroffenen Einteilung so nicht mehr geht.

Wer kauft sich denn bitte eine teurere Karte, mit minimalen Performancegewinnen nur wegen deutlich besserer Effizenz?
Die deutlich bessere Effizienz ist ja bereits ein Kostensenker (Stromversorgung und Kühler wird billiger), aber es kommt davon überhaupt nix an.
 
Ich hätte nochmal 50 Cent zur 4060Ti

Das Thema Speicher hat NVIDIA leider eingeholt. Bis auf die 4090/4080 hat es NVIDIA verkackt. Und das weiß NVIDIA, da könnt ihr euch sicher sein. Nicht nur bei der Menge, sondern auch bei der Bandbreite sowie PCIe 4.0 x8.

Dennoch muss man nicht Rumschreien und einen totalen Hate starten. Da bin ich bei Igor…

Die Message ist längst bei NVIDIA angekommen, oder was glaubt ihr, warum es plötzlich eine 4060 Ti mit 16GB gibt? Hätte es die so früh schon gegeben? Ich würde sagen: Nein! Die wäre vermutlich erst nächste Jahr gekommen, ähnlich der 3060 8GB… NVIDIA verwirrt uns ja gerne mit seinen Karten Ti, Super, Titan und zusätzlichen Speichergrößen.

Aus meiner Sicht, hätte es nur eine Variante zum Release geben dürfen: 4060Ti mit 16GB für 399 $ US. Damit hätte NVIDIA noch irgendwie Punkten können. Die 8GB Variante 350 $ und 4060 für 299 $. Na ja…

Die 4060, die kann sich NVIDIA im Grunde sparen. Die Leistung der Karte kann jeder mit dem Taschenrechner errechnen. Diese Karte ist tatsächlich „death on arrival“…

DLSS 3 hin oder her, solange Frame Generation nicht in jedem AAA Titel verfügbar ist, sollte man sich dem Marketing nur bedingt hingeben. Ja, ich finde Frame Generation grundsätzlich sehr gut, aber am Ende ist es zum jetzigen Zeitpunkt nix anderes wie DLSS 1 2018/2019 oder wie mit Radeon Treibern… guter Wein und so - ihr wisst was ich meine.

Wer also nicht zwingend eine GPU braucht, der sollte diese Generation aussitzen oder die Effizienz mal außen vor lassen und eine Karte der 3000er bzw. 6000er Gen. kaufen. Die RX 6700XT/6750XT wäre hier die beste Alternative. In der Preisklasse. FSR 2.x hilft auch 👍

Ob AMD mit den neuen Karten z.B. 7700XT usw. eine Überraschung gelingt, das bezweifle ich. Die Hoffnung stirbt bekanntlich zuletzt, aber die Hoffnung ist eben auch - das Drahtseil auf dem die Narren tanzen!

In diesem Sinne
Bei dem Preis und der mageren Ausstattung kann man nur hoffen, daß NVIDIA auf ihrer Ada 4060ti "Dünnbrettbohrer Edition" schön sitzen bleibt. Wenn der Absatz wegbricht, kommt vielleicht die Einsicht, und eine kräftige Preissenkung. Bei €299 wär wenigstens das Preis/Leistungsverhältnis eher im Lot.
Und, wenn's nur fürs Spielen sein soll: fürs Geld einer 4060ti Karte gibt's ja fast eine SeriesX oder PS5 Konsole, und die haben 16 GB GDDR (okay, minus dem Memory welches fürs System reserviert wird), und die meisten Top Spiele sind ja zunächst für diese optimiert. Und die Konsolen sind ja jetzt wohl problemlos erhältlich.
Leider sind Konsolen aber für Sachen wie Da Vinci, Topaz usw eher nutzlos, oder ich wäre schon längst schwach geworden.
 
Zuletzt bearbeitet :
Unterstützt ein Spiel jedoch DLSS 3.0 und man würde ohne Super Sampling im unspielbaren FPS-Bereich herumdümpeln, dann kann dies quasi sogar der ultimative Rettungsanker zur Spielbarkeit sein. Die Latenzen kann man damit nicht verbessern (sie bleiben ja gleich), aber nicht jedes Genre ist so latenzgebunden wie diverse Shooter.
Wozu sollte man sich ne Graka mit FG kaufen, wenns Off bleiben muss, um gleich zu sein?

mit FG= on sind die Latenzen dann grottig (und net gleich)

Cyberpunk-2077-Latency-1440p-DX12-Ultra-RT-On-DLSS3_DLSS.jpg

btw.
Ganz interessant das OCen@175W auch NIX bringt bezgl. des Hauptproblems!

Weiss net genau ob CB das FG=on hatte, sieht ja übelst aus, wenn der Vram erstmal voll ist:
SpidermanMorales.JPG
und
Kann man Sowas für Aufrüster@PCiE 3.0 empfehlen?
 
Zuletzt bearbeitet :
Der Nächste, der DLSS3 nicht begriffen hat. Das wird mit FSR3 sogar noch schlechter.... Zwischenberechnete Frames haben keine physische Latenz. Die Latenz ist in der Theorie die gleiche wie ohne, denn der Füllstoff ist nur virtuell. Aber es bläst die Zahlen auf.
 
Wow,
Du hast schon FSR3 getestet?

Quelle?

FG@FSR3 hat nach meinem Kenntntsstand u.U. eher qualitativ mal ein paar Lunker in der KI-Vorhersage, aber muss net auf Bild 3 warten
und zusätzlich buffern wie das leidige DLSS3+FG, was eigentlich nur Bild1+3 zu nem Bild2 "umrechnet".
 
Wie vernagelt muss man sein...

FSR3 wird noch mehr dazwischen schieben, aber darum geht es nicht. Die Latenz kann man aber immer nur zwischen den physikalisch existenten Frames in der Pipeline messen, der Rest ist synthetischer Füllstoff, der im Chip passiert und nur zur Ausgabe gelangt. Ergo muss bei mehr Zwischenframes die Latenz als Auslesewert steigen.

Nehmen wir an, ein Frame enthält ein Bild ohne Mündungsfeuer und im nächsten Einzelbild knallt es. Alles, was dazwischengeschoben wird, hat handlungstechnisch keinen Wert oder neue Inhalte, sondern ist nur eine Art der intelligenten Glättung des Bildverlaufs, verschiebt aber das Ergebnis etwas nach hinten. Mehr kann und will FG gar nicht. Das Einhorn-FSR3 ist seit Anfang des Jahres überfällig und ich kann die ganzen Worthülsen nicht mehr hören. Wunderdingens... Aber die KI wird nichts anderes machen können. Und bevor es FSR3 dann endlich gibt, ist DLSS 4 oder 5 am Start. :D
 
NV wartet auf Bild3, speichert Dieses und dann fängt erst die Berechnung an.

AMD beginnt mit der Berechnung unmittelbar nach Bild1.

do the math

FSR2.2.jpg
Kannst ja mal in der AMD-FSR2-Demo die Berechnungszeit eines Bildes anschauen.
 
Zuletzt bearbeitet :
NV wartet auf Bild3, speichert Dieses und dann fängt erst die Berechnung an.
AMD beginnt mit der Berechnung unmittelbar nach Bild1
Es gibt keine Software, mit der man das in echten Anwendungen messen kann. Techdemos sind wie Propaganda. Man gewinnt immer, auch wenn es nichts zu gewinnen gibt. :D

Ich arbeite seit Jahren mit Plugins (auch dem Code), wo die KI fehlende Video-Sequenzen berechnet. Die exakte Vorausberechnung ohne zu wissen, was wirklich kommt, ist nahezu unmöglich. Ja, man kann Tendenzen und Trends erkennen und vorarbeiten und hat dann die Wahl nachzuberechnen oder zu verwerfen, aber was das bringt, sieht man an der vergleichsweisen schlechten Qualität von FSR2. Da ist sogar Intels XeSS deutlich besser. FSR3 soll sogar mit 4 Zwischenbildern arbeiten, die auch noch einmal miteinander vermatscht werden. Da wünsche ich allen einen schönen Tag und gutes Wetter. :D
 
Ich darf mich mal selbst zitieren. Und ich habs sogar explizit so ins Fazit geschrieben:
Sorry, Igor, aber mich überzeugt dieses Fazit auch nicht wirklich. Aussagen wie "neu kostet hier quasi so viel wie alt und man muss den Mehrwert schon an der Steckdose suchen" einerseits und "kaum Nachteile" andererseits sind für mich direkte Widersprüche, die sich semantisch nicht wirklich unter einen Hut bringen lassen.

Gut, Bewertung erfolgt eben immer relativ zu einer vorhandenen Erwartungshaltung, und die ist dann bei mir offenbar eine komplett andere. In Zeiten, in denen Spiele immer anspruchsvoller werden, nach zwei Jahren einen Nachfolger auf den Markt zu bringen, der genauso viel kostet wie sein Vorgänger, der genauso viel (oder besser wenig) VRAM hat, und dessen Leistungszuwachs im einstelligen Prozentbereich quasi nicht vorhanden ist, halte ich für pure Trollerei. Dass man - weil es Nvidias erste Offerte unter 500 Euro ist, und weil AMD als Konkurrent mal wieder ein Totalausfall ist - damit Erfolg haben wird, mag ja sein (und ist traurig genug), aber muss man derartigen Stillstand echt noch mit wohlwollenden Rezensionen belohnen?
 
Privet Igor, danke für den Test.

Gefällt mir nicht diese Karte.
Fazit: selbst RTX2060 gab/gibt es mit 192bit, 12GB VRAM und mit ohne PCIE Kastration.

mfg
 
Ich definiere Wohlwollen komplett anders, aber das kann jeder sehen wie er will. Ich hatte einfach keine Lust, mich in den Mainstream der Heulsusen einzureihen, siehe Glosse von heute. Gefahrloses Rudelheulen ist nicht meins, NV hat das eh bereits verstanden. Dann lieber eine separate Meinungsäußerung, deren subjektiver Charakter bereits in der Form erkennbar ist. Produkttests sollten möglichst emotionslos geschrieben werden.
 
Oben Unten