NVIDIAs GeForce RTX 4060 Ti 16 GB und kein Test – Aschenputtel oder Fall fürs Museum der Eitelkeiten?

256Bit und PCIe 16x, dann wäre es evtl. eine gute Karte...
 
Und dafür 100EU mehr.....
 
Schnäppchen!!
 
Und dafür 100EU mehr.....
Wer jetzt schon kauft in einer Zeit in der Nvidia quasi konkurrenzlos am Markt schalten und walten kann wie sie Lustig sind weil AMDs Konkurrenz in Form von RX7800 und 7700 immer noch nicht am Markt sind, dem ist in meinen Augen eh nicht mehr zu helfen, nach einer 7600XT mit ebenfalls 16gb siehts ja wohl auch nicht gerade danach aus ..
 
Alles eine Frage des Preises, aktuell ist die 4060 TI 16GB schlicht zu teuer, da man gute 200€ mehr ausgeben muss. Ist die Differenz 50-70€ und der Abstabd zur 4070 weit genug, finde ich die 16GB durchaus interessant. Alleine schon für Spiele wie Diablo die wenig performance aber viel Speicher benötigen. Das wird in den kommenden Jahren sicher nicht besser. Bekanntlich kostet es wenig GPU Leistung die Texturendetails hoch zu stellen, andere Settings müssen natürlich bei Bedarf reduziert werden.
Ja, der Preis macht's bzw. verdirbt es. Wobei die 4060 eben durch NVIDIAs Entscheidung, den Bus sehr eng zu halten, selten bis nie eine Chance haben wird, einer 4070 mit 12 GB auch nur annähernd das Wasser zu reichen. Und da gebe ich @Igor Wallossek völlig recht; die Beschränkung der 4060 auf 4 Memory Kontroller (64 Bit Breite) begrenzt den möglichen Mehrwert der 16 GB extrem. Da hat sich NVIDIA selbst ein Bein gestellt, allerdings verdienen die im Moment ja wie blöde mit AI, und Grafik ist eher ferner liefen.
 
Damals bekam man noch nativ viel Leistung fürs Geld. Meine RX 6800 bekam ich neu für 550,- €. Die hat immernoch wesentlich mehr rasterized-Leistung als eine RTX 4060 Ti 16 GB.
Ich finde man sollte halt eines nicht vergessen wenn man die 6800er Karten mit der 4060Ti vergleicht und das ist nunmal das Thema Stromverbrauch, der spielt eben leider bei den genannten AMD Karten halt auch in einer anderen Liga, und ob sich die Mehrleistung langfristig noch rechnet bei den heutigen Strompreisen wage ich ehrlichgesagt zu bezweifeln ...
 
Ich finde man sollte halt eines nicht vergessen wenn man die 6800er Karten mit der 4060Ti vergleicht und das ist nunmal das Thema Stromverbrauch, der spielt eben leider bei den genannten AMD Karten halt auch in einer anderen Liga, und ob sich die Mehrleistung langfristig noch rechnet bei den heutigen Strompreisen wage ich ehrlichgesagt zu bezweifeln ...
Ich denke das Verkaufsargument lautet "Frame Generation". Falls AMD da kontern kann sinken die Preise.
 
Wer jetzt schon kauft in einer Zeit in der Nvidia quasi konkurrenzlos am Markt schalten und walten kann wie sie Lustig sind weil AMDs Konkurrenz in Form von RX7800 und 7700 immer noch nicht am Markt sind, dem ist in meinen Augen eh nicht mehr zu helfen, nach einer 7600XT mit ebenfalls 16gb siehts ja wohl auch nicht gerade
Die 6750XT kostet das gleiche, hat 12GB VRAM und ist genau so schnell.
Selbst die 7000er haben noch etwas weniger RT Leistung und die 6000er brauchen noch etwas mehr Strom, aber sonnst kann man immer noch zu AMD greifen.
 
Die 6750XT kostet das gleiche, hat 12GB VRAM und ist genau so schnell.
Selbst die 7000er haben noch etwas weniger RT Leistung und die 6000er brauchen noch etwas mehr Strom, aber sonnst kann man immer noch zu AMD greifen.
Würde ich mir trotzdem nicht holen bzw empfehlen, hier wurde ja ausserdem nur die 8gb getestet, mal davon ab sind die 0.1% bei einigen Spielen bei der geforce besser

Stromverbrauch grob ca 140 zu 210 Watt spricht auch nicht gerade für die Radeon, muss halt aber am Ende jeder selber wissen was er will und wofür er sein Geld ausgbit, für die die eben nur ungern den "Bösen" nvidia ihr Geld geben und unbedingt ne AMD Radeon müssen kann ich nur empfehlen bis nächsten Monat auf die RX7800/7700 zu warten, jetzt noch ne Last gen zu kaufen ergibt in meinen Augen keinen Sinn, dafür müssten die Preise noch deutlich stärker fallen oder man begnügt sich mit einer gebrauchten
 
Würde ich mir trotzdem nicht holen bzw empfehlen, hier wurde ja ausserdem nur die 8gb getestet, mal davon ab sind die 0.1% bei einigen Spielen bei der geforce besser

Stromverbrauch grob ca 140 zu 210 Watt spricht auch nicht gerade für die Radeon, muss halt aber am Ende jeder selber wissen was er will und wofür er sein Geld ausgbit, für die die eben nur ungern den "Bösen" nvidia ihr Geld geben und unbedingt ne AMD Radeon müssen kann ich nur empfehlen bis nächsten Monat auf die RX7800/7700 zu warten, jetzt noch ne Last gen zu kaufen ergibt in meinen Augen keinen Sinn, dafür müssten die Preise noch deutlich stärker fallen oder man begnügt sich mit einer gebrauchten
Die 16GB wurde ja schon Oben verlinkt, bringt aber nicht wirklich mehr bei 100EU Aufpreis und für unter 500EU bekommst schon ne RX6800 die schon fast so schnell ist wie ne 4070.
 
Ich finde man sollte halt eines nicht vergessen wenn man die 6800er Karten mit der 4060Ti vergleicht und das ist nunmal das Thema Stromverbrauch, der spielt eben leider bei den genannten AMD Karten halt auch in einer anderen Liga, und ob sich die Mehrleistung langfristig noch rechnet bei den heutigen Strompreisen wage ich ehrlichgesagt zu bezweifeln ...

Dass die 4060 weniger Strom braucht, ist ja kein Geheimnis und eines der wenigen Argumente, die sie für sich verbuchen kann.

Aber mal ehrlich: entweder bin ich "richtiger" Zocker und Power-User, dann spielt der Stromverbrauch eher eine untergeordnete Rolle. Oder ich baue mir ein Stromsparsystem und kann damit Lemmings auf dem Amiga-Emulator und Browsergames zocken. Die Alternative wäre noch ein Laptop - mag ich aber nicht.

Ich finde halt auch, dass man eines nicht vergessen sollte: die 4060 ist halt neuer, bzw. hat ein neueres Fertigungsverfahren, die RX 6800 ist eine Generation älter. 1. Vergleiche ich da nicht nach Stromverbrauch, sondern ob mir die Rohleistung ausreicht, 2. Ein Vergleich auf Energieeffizienz hin hinkt wohl zwischen 2 Generationen. Oder vergleichst du auch den Benzinverbrauch zw. Clio III und IV?

Energieeffizienz alleine macht noch lange keine gute Hardware. Wenn, hätte ich das gerne als Bonus zur sonst guten Leistung und nicht als eines der Hauptargumente. "Dieser Lamborghini fährt nur maximal 100 km/h, verbraucht aber nur 4 Liter/100 km kombiniert." - So einen Lamborghini würde auch keiner kaufen, weil so etwas nicht der Marke entspricht.
 
Zuletzt bearbeitet :
Ja der Vergleich hinkt ein wenig. Nichtsdestrotrotz ist der Stromverbrauch bei gegebener Leistung enorm gut geworden gegenüber der letzten Generation und vor allem der Konkurrenz. Das stellt glaube ich hier auch niemand in Frage. Das perfide ist ganz einfach, dass das eine richtig gute Karte ohne viel Mehraufwand hätte sein können, wenn etwas mehr Speicher (z.B. 12GB oder 16GB), PCIe 4.0x16, 256Bit. Es handelt sich also eine bewußt kastrierte GPU aus markttechnischen Gründen.
 
Ich hoffe ja immer noch das nvidia wenigstens die normale 4060 am besten wieder vom Markt nimmt, gerade nochmal auf MF gezählt, alle Karten zusammen gerechnet dümpeln immer noch bei 285 Verkäufen rum, selbst die RX 7600 ist mit 550 solangsam mal ausm Quark gekommen

Das mit der Geschwindigkeit des Speicherinterface und 128 Bit ist garnicht das Hauptproblem bei den aktuellen Karten, das wird ja durch den neuen Cache sehr gut wieder ausgeglichen, hier war es nur gut das man sich an AMDs Technik orientiert hat, aber 8gb sind einfach zu wenig mittlerweile, wären es wenigstens 10gb und 160Bit gewesen hätte man immerhin noch von einer Weiterentwicklung gegenüber der Vorgänger Serie sprechen können, das das Gesamtpaket jetzt natürlich bei der 16gb version umso weniger beeindruckend für einige rüberkommt mit 2x 64Bit und der gleichen Anzahl an Shadern ist verständlich, aber was bitte habt ihr von nvidia erwartet ?

Ist doch am Ende erstaunlich genug das man sich doch tatsächlich dem Druck der community zähneknirschend gebeugt hat, schade ist hauptsächlich die Geschichte mit der Shader-Anzahl, da klafft eben zwischen 4060 Ti und 4070 ne dicke Lücke von 1536 stück, man kann hoffen das sich die 16gb gut verkauft und Nvidia dessen Potenzial anerkennt, dann lässt sich später vielleicht wenn GDDR6 chips mit 4gb mal verfügbar sind die 16gb leichter und billiger umsetzen und man könnte der gpu ein "vollwertiges 128 Bit Interface" an die Seite stellen


Ansonsten frage ich mich was einige denn wollen, die zusätzlichen 8gb haben ihren Mehrwert in meinen Augen bereits unter Beweis gestellt, war damals bei gtx 960 mit 4gb genauso, und die gibt es wenns nach nvidia geht offiziell ja eigentlich garnicht, ansonsten wird man Mehrleistung halt wie altgewöhnt mittels OC aus den Karten quetschen können, die meisten Karten die angeboten werden sollten dafür Potenzial übrig haben
 
Ganz nüchtern gesehen positioniert sich die Karte preislich zwischen 4060 Ti 8GB und 4070 12GB. Wie zu erwarten. Ja, Preis/Leistung kann man kritisch betrachten. Aber, warum jetzt dieser Kommentar so viel Hass auf dieser Karte ablädt kann ich nicht ganz nachvollziehen.
 
Ich muss bei dem Preis irgendwie lachen..
Ich hatte ja damit gerechnet, das Nvidia mindestens 100 Euro mehr für den doppelten Speicher verlangen würde...
Aber 200 Euro mehr.. das ist schon eine absolute Glanzleistung und wird wohl auch so schnell niemand nachmachen (wollen).

Zumal.. gerade etwas rumgegoogelt.. laute GameStar hat MSI das Teil wohl intern gebencht haben.. und 4 von 6 Spiele sollen angeblich schlechter laufen mit den 16GB als den 8GB.
Das kann ich mir in dem Sinne erklären, das der verbaute Speichercontroller eigtl nur für 8GB ausgelgt ist.. und die auch keine Hardwareanspassungen vorgenommen haben.. sonst das nur mit viel Trickserei so hingebogen haben, das er auch die 16GB nimmt^^
 
....
Das kann ich mir in dem Sinne erklären, das der verbaute Speichercontroller eigtl nur für 8GB ausgelgt ist.. und die auch keine Hardwareanspassungen vorgenommen haben.. sonst das nur mit viel Trickserei so hingebogen haben, das er auch die 16GB nimmt^^

Der Controller ist im Chip, also dem 4060er Dingsda, von NV, da kann MSI nix machen.

Der Controller kann eine Interfacebreite nutzen, egal wieviel RAM da dran hängt, wichtig sind nur die Anzahl der Lanes zu den Bausteinen und die Taktung.

Wenn man jetzt doppelt so viele Bausteine anhängt, geht das dann nur über die Halbierung der Lanes pro Baustein; also im Endeffekt der erzielbaren Übertragungsrate/RAM-Modul.
 
Außerdem ist der "haarsträubende" VRAM-Hunger aus einer anderen Perspektive zu betrachten: wie lange gibts es schon 8 GB-Karten? Meine Asus ROG Strix OC mit 8 GB habe ich 2016 (!) gekauft. Das ist bereits 7 Jahre her.
Da hast du mich missverstanden. Ich habe kein Problem mit grossen VRAM Hunger. Von mir aus können Spiele 20GB VRAM Schlucken und ich muss mir eine 4090 kaufen. Was mich nervt ist folgendes:
- VRAM / Optik Preisleistung stimmt einfach überhaupt nicht. Sorry, Diablo 4 sieht gut aus, aber über 8GB für diese Optik?
- Optimierung ist häufig Grütze. Siehe the last of us. Während aus auf der Konsole (die 8GB hat) problemlos läuft, muss für die gleich Optik über 12GB am PC her. Immerhin wurde angeblich mit einem Patch nachgebessert.

Es kann doch nicht sein, dass wir PC Gamer 16GB VRAM brauchen, während die Konsolen mit 8GB unterwegs sind. Wenn es dann wenigstens bedeutend besser aussehen würde...

Semiofftopic Rant:
Auch was ein neues CoD oder Halo an Leistung frisst, ist einfach unglaublich. Das bekomme ich auf niedrigsten Detailstufen um die 70-90 frames, aber das Spiel sieht verglichen mit einem uralt Game wie CSGO aus wie Müll. Das kann es doch nicht sein. Wenn die GPU Entwicklung so stockt, müssen halt mal die Games wieder lernen die Hardware besser zu nutzen. Nicht umsonst läuft die in meinen Augen schönste und beste openworld auf einer Nintendo Switch.

Naja, ich warte mal entspannt ab wie es mit UE5 so läuft. Aktuell sehe ich kein Spiel, das eine GPU Upgrade für mich persönlich rechtfertigen würde. Der Next Gen Sprung fehlt einfach.
 
Ich denke das Verkaufsargument lautet "Frame Generation". Falls AMD da kontern kann sinken die Preise.
Das hat Igor doch mal getestet: https://www.computerbase.de/2022-11...ation-ist-mit-amd-fsr-und-intel-xess-nutzbar/

Im Grunde gibt es das schon länger bei AMD und ist Bestandteil der LFC vom FreeSync Premium & Pro:

Was ist die Kompensation niedriger Bildraten?

Die Kompensation niedriger Bildraten (Low Framerate Compensation – LCF) macht es möglich, dass die FreeSync Technologie dann arbeitet, wenn die Bildrate unter die Mindestbildrate des Monitors fällt. Fällt die Bildrate unter die Mindestbildrate des Monitors, werden Bilder (Frames) dupliziert und mehrfach angezeigt, sodass sie der Bildrate angeglichen werden, die im Bereich des Monitors liegt. Wenn ein Monitor beispielsweise eine Aktualisierungsrate zwischen 60 und 144 Hz hat, könnten die Bilder in einem Spiel mit 40 Bildern pro Sekunde (BpS) verdoppelt werden. Sie werden dann mit 80 Hz dargestellt, sodass der Monitor synchronisieren kann. Ein Monitor mit LCF beseitigt im Endeffekt die Grenze der Mindest-Aktualisierungsrate. Alle Monitore der FreeSync Premium und FreeSync Premium Pro Reihen sind auf die Einhaltung der verpflichtenden LCF-Anforderungen zertifiziert.

Der Unterschied bei FreeSync ist, dass es der Monitor macht und nicht die GPU. ;)
 
Nein. FG ist etwas anderes. Mit FSR 3 wollte AMD bis Mitte des Jahres kontern. Im Grunde AI die Zwischenbilder dazu rechnet. Das gibt es zur Zeit nur bei Nvidia und erst ab RTX 4000.
Nein, das macht das selbe.

Wozu braucht man den die Zwischen Bilder ?

Damit es nicht Ruckelt. ;)

Edit: Muss man halt auch ein Freesync Premium Zertifizierten Monitor nehmen.
Das ist eh viel entspannter, weil man nicht auf FSR 3 warten muss und sofort genießen kann.
 
Zuletzt bearbeitet :
Oben Unten