NVIDIAs GeForce RTX 4060 Ti 16 GB und kein Test – Aschenputtel oder Fall fürs Museum der Eitelkeiten?

Da hast du mich missverstanden. Ich habe kein Problem mit grossen VRAM Hunger. Von mir aus können Spiele 20GB VRAM Schlucken und ich muss mir eine 4090 kaufen. Was mich nervt ist folgendes:
- VRAM / Optik Preisleistung stimmt einfach überhaupt nicht. Sorry, Diablo 4 sieht gut aus, aber über 8GB für diese Optik?
- Optimierung ist häufig Grütze. Siehe the last of us. Während aus auf der Konsole (die 8GB hat) problemlos läuft, muss für die gleich Optik über 12GB am PC her. Immerhin wurde angeblich mit einem Patch nachgebessert.

Es kann doch nicht sein, dass wir PC Gamer 16GB VRAM brauchen, während die Konsolen mit 8GB unterwegs sind. Wenn es dann wenigstens bedeutend besser aussehen würde...

Semiofftopic Rant:
Auch was ein neues CoD oder Halo an Leistung frisst, ist einfach unglaublich. Das bekomme ich auf niedrigsten Detailstufen um die 70-90 frames, aber das Spiel sieht verglichen mit einem uralt Game wie CSGO aus wie Müll. Das kann es doch nicht sein. Wenn die GPU Entwicklung so stockt, müssen halt mal die Games wieder lernen die Hardware besser zu nutzen. Nicht umsonst läuft die in meinen Augen schönste und beste openworld auf einer Nintendo Switch.

Naja, ich warte mal entspannt ab wie es mit UE5 so läuft. Aktuell sehe ich kein Spiel, das eine GPU Upgrade für mich persönlich rechtfertigen würde. Der Next Gen Sprung fehlt einfach.

Ja, damit gehe ich mit dir schon konform. Aber die meisten PC-Umsetzungen sehen besser aus als auf Konsole (bessere Texturen oder Raytracing) bzw. sind mir ihren FPS auf PC nicht begrenzt. Von dem her klar, dass die PC-Anforderungen steigen.

Mich stören eher die schlecht umgesetzten Ports und Bugfeste... Das sind Paradebeispiele für schlechte Optimierung. Mit besserer Optimierung kann man natürlich auch weniger Leistung beanspruchen bzw. mehr Leistung herauskitzeln.

Mit der UE 5 bin ich anderer Meinung. Richtig genutzt in Verbindung mit Raytracing, sorgt sie für einen ordentlichen Next Gen Grafikschub.

Nein, das macht das selbe.

Wozu braucht man den die Zwischen Bilder ?

Damit es nicht Ruckelt. ;)

Edit: Muss man halt auch ein Freesync Premium Zertifizierten Monitor nehmen.
Das ist eh viel entspannter, weil man nicht auf FSR 3 warten muss und sofort genießen kann.

So ein Quatsch (sorry). Freesync macht nichts anderes, als die FPS mit den Hz des Monitors zu syncen, um Tearing zu vermeiden. Also das gleiche, was man im Spiel mit V-Sync einstellen kann.

Frame Generation lässt die KI Zwischenbilder berechnen, um so neue Frames zu generieren, damit das Spiel flüssiger läuft. Nein, so etwas hat AMD bisher nicht.

Das sind 2 völlig unterschiedliche Technologien, die aber auch null miteinander zu tun haben. Außerdem läuft Freesync über den Monitor und FG wird von der KI der GPU berechnet. FG funktioniert aber auf einem 60 Hz Monitor genauso wie auf einem 240 Hz, da das von den FPS her flüssiger wird. Nvidia haate G-Sync ja auch VOR ihrer Frame Generation.

Und HDR bezieht sich rein auf den Farbkontrast, sonst nix. Hat auch null mit FG und Freesync zu tun, sondern bezieht sich auf einen höheren Kontrastbereich bei den Farben. Stell dir vor: es gibt Freesnyc-Monitore, die kein HDR können. Aber heutzutage hat fast jedes Panel HDR - sogar ein TV, der kein Freesync kann.
 
@MechUnit

Meine Aussage als Quatsch hinzustellen, machte deine Meinung deswegen nicht Richtiger ;)

Was ist den ein Neo Quantum Prozessor 4K:

Der leistungsstarke Neo Quantum Prozessor 4K sorgt für ein faszinierendes Seherlebnis. Integriertes Deep Learning und brilliantes 4K AI Upscaling sorgen dafür, dass Bild für Bild dein Seherlebnis optimiert wird, indem er deinen Content sichtlich verbessert. Leistungsstarkes 4K AI Upscaling stellt sicher, dass dir immer die volle 4K-Auflösung zur Verfügung steht.

Lesen scheint nicht mehr so verbreitet zu sein, und wenn dann Mangelt es an Verständnis. :)


P.S. Es wird in Zukunft nicht nur von mir mehr Kritik kommen. Nvidia bettelt gerade zu nach Kritik, zumal sie jetzt auch andere Konkurrenten haben als AMD.
 
Zuletzt bearbeitet :
Was ist den ein Neo Quantum Prozessor 4K:

Sorry,das Ganze hat mit der4060Ti immer noch nichts zu tun..
Schreib doch ein Review über Deinen OLED …

Ich bin genauso enttäuscht über die Preise von Nvidea und deren Speichergeiz.
Eine 4070 mit 16 GB wäre mir auch lieber gewesen und diese 4060Ti mit 16 Gb halte ich für einen weiteren schlechten Witz.
Bleiben wir also beim Thema :)
 
Sorry,das Ganze hat mit der4060Ti immer noch nichts zu tun..
Schreib doch ein Review über Deinen OLED …

Ich bin genauso enttäuscht über die Preise von Nvidea und deren Speichergeiz.
Eine 4070 mit 16 GB wäre mir auch lieber gewesen und diese 4060Ti mit 16 Gb halte ich für einen weiteren schlechten Witz.
Bleiben wir also beim Thema :)
Der Erste Absatz liest sich etwas Schräg, Zusammenhänge sind auch Wichtig! ;)

Vielleicht lässt sich die 4060 TI 16GByte für einen alten Röhren Monitor hin Optimieren. :devilish:
 
@MechUnit

Meine Aussage als Quatsch hinzustellen, machte deine Meinung deswegen nicht Richtiger ;)

Was ist den ein Neo Quantum Prozessor 4K:



Lesen scheint nicht mehr so verbreitet zu sein, und wenn dann Mangelt es an Verständnis. :)


P.S. Es wird in Zukunft nicht nur von mir mehr Kritik kommen. Nvidia bettelt gerade zu nach Kritik, zumal sie jetzt auch andere Konkurrenten haben als AMD.

Sorry, was hat irgend ein TV und dessen Marketinggeblubber mit der Frame Generation einer RTX 4XXX-Karte zu tun? Das macht immernoch die KI der Karte. Das, was du hier postest, ist KI-Upscaling für 4k (eines TV's, wohlgemerkt!), was auch nichts mit FG zu tun hat. Das hat auch keinen Zusammenhang. :rolleyes::sleep:

Bei Grafikkarten macht das DLSS/FSR/XeSS.

Bitte antworte zum Thema. Das ist ohnehin schon zu sehr Off Topic und das, was du als Zusammenhang darstellen möchtest, hat halt einfach keinen Zusammenhang. :ROFLMAO:

Nochmal: FG der GPU hat absolut gar nichts mit G-Sync oder Freesync zu tun und auch nicht die 4K Upscaling-Funktion irgend eines TV's, welcher hier sowieso keine Rolle spielt.
 
Nvidias Speicher-Geiz wurde berechtigt von allen Seiten kritisiert. Nun bringen sie endlich mal eine Karte raus, die genug und mehr als genug Speicher hat, so wie es sein soll. Leider ist wieder die xx60er Reihe dran und dann noch am dünnst-möglichen Interface.

Kritik ist durchaus berechtigt, vor allem an der immer arroganteren Preispolitik. Nichtsdestotrotz ist es ein guter und notwendiger Schritt in die richtige Richtung, mal ein Anfang. Auch wenn das Interface hauchdünn ist, die +8GB VRAM mehr sind durch nichts zu ersetzen, viel schneller als Shared Memory - und genau da werden Spiele spielbar, die sonst nur massivst stottern würden und deshalb nicht spielbar wären resp. waren.

Ja die 60er ist wohl die schlechteste Wahl für VRAM Verdopplung im aktuellen Ada Lineup, ja das Interface ist schmal, aber Nvidia hat's gemacht, endlich, gut so, und soll es wieder und wieder und wieder machen.
 
Nochmal: FG der GPU hat absolut gar nichts mit G-Sync oder Freesync zu tun und auch nicht die 4K Upscaling-Funktion irgend eines TV's, welcher hier sowieso keine Rolle spielt.
Genau, du siehst es nur auf dem Screen Shot.
Ich will es auf dem TV Live sehen, wer hat die niedrigere Latenz ?

Seit ihr Bereit mit den großen zu Batteln ? :alien:
 
Falls es wen interessiert. Klar der preis ist nicht so dolle aber für die Zukunft besser.

 
Dann doch eher eine 6800XT als sowas, die 4060TI 16GB ist doch eher wie ein Trabbi mit größerem Tank. Mehr Reichweite aber nicht wirklich schneller.
 
Die Karte muss schon deutlich unter 400€ fallen, damit sie halbwegs attraktiv wird.

RX6800(XT) stehen selbst nach 2 Jahren immer noch gut da.
 
Die einzige für mich sinnvoll vorstellbare Anwendung für so eine Karte wäre GPU Rendering, beispielsweise für meine 3D Scans mit dem Einstar. Hier ist auch eine Nvidia Karte zwingende Grundvoraussetzungen (Exstar läuft nur mit Nvidia). Rendert mit meiner 4090 natürlich schneller, aber viel GPU Speicher ist hier ein Thema.
 
Ich muss hier mal eine Lanze für die 4060ti 16GB brechen.
Es wird viel gesagt, schlechtgeredet etc.
Da wird ein Fass aufgemacht weil die 4060ti nur auf 8xPCIe4.0 Landes angebunden ist etc.
Alles richtig, aber tut es etwas zur Sache, nein, ist die Klare Antwort.

Zuerst einmal die Zielgruppe, die 4060ti 16GB richtet sich ausschließlich an User die in 1080p über 100Hz auflösen, aber mehr Grafikram wollen/brauchen.

Wer also z.B. einen 1080p Monitor mit 144 oder 165 Hz nutzt zum Gamen, liegt da schon einmal genau richtig.

Zu vergleichen sind die 4060ti mit der RTX 3070, und der RX 6750XT, vorteil bei der 16GB Version liegt jedoch auf der Hand, denn in ihrer Klasse bietet sie den größten RAM, was bei einigen Games und Anwendungen massive Vorteile bringt, z.B. RDR2
Die 8 PCIe Lanes sind schlicht KEIN Nachteil, zumindest nicht auf einem System das über PCIe4.0 Grafikanbindung verfügt. Bei den meisten Karten der 4060ti Serie sind auf dem Board tatsächlich nur 8 Lanes mechanisch vorhanden, das reicht auch völlig, solange ich kein PCIe3.0 System, also AM4 Boards der 400er Serien und oder Ryzen 3xxx,4xxx CPUs oder AMD 5500, oder 5xxxG APUs nutze, oder Intel CPUs unterhalbe der 11. Generation.
Dann sind die real mechanisch vorhandenen 8 Lanes ein Nachteil, weil die Karte dann auch nur auf PCIe3.0x8 laufen würde.
Bei PCIe4.0 Systemen bringt die halbierte Lane Anzahl keinen Nachteil, denn 4x8 entspricht 3x16 und die 4060ti würde von einer 4x16 Anbindung nicht profitieren, maximal mit 1% Mehrleistung, was Tests und Berechnungen gezeigt haben.
Die 4060ti hat deutlich schnellere Datenverarbeitung on Board, einen gut 3x so großen L2 Cache, extrem geringe Latenzen etc. wodurch sie real genauso performt wie eine 3070 in 4x16

Der tatsächliche Vorteil der 4060ti liegt aber ganz wo anders, nämlich dass sie die Leistung einer 3070 oder sogar teilweise mehr FPS Leistung als eine 6750XT bringt und dabei massiv viel weniger Energie verbraucht und dabei leiser und kühler ist.

Während eine 3070 oder eine 6750XT für die gleichen FPS in 1080p deutlich über 220-260 Watt schlucken, macht die 4060ti das je nach Game mit 130-170 Watt also im Schnitt mit guten 90Watt weniger und das ist eine Menge, nämlich gute 25-30% weniger.

Möglich macht das u.a. auch das DLSS3.0, denn das ist extrem viel besser als die vorherigen DLSS Versionen oder AMDs FSR.

Die sehr gute Performance bei deutlich geringerer Energieaufnahme kann die 4060ti also nur auf PCIe4.0 Systemen und mit eingeschaltetem DLSS3 ausspielen. Außerdem bringt auch ResizeBar deutliche FPS Zuwächse die zwischen 5-15% ja nach Game liegen, RDR2 macht z.B. gar keinen Unterschied, ob RBar On oder Off, andere Titel wie Division, Hitman etc. profitieren aber massiv von RBar.

Ich habe die 4060ti 16GB jetzt schon eine Weile in Gebrauch und habe so einiges herausgefunden, was auf dem Papier erstmal nach Nachteil klingt, aber real gar keiner ist, wie eben die PCIe4x8 Anbindung oder das "nur" 128bit breite Speicherinterface.
Es gibt sogar Vorteile, denn die Karte kann auf vielen Boards auch auf den oft vorhandenen PCIe4x8 Slots verwendet werden ohne Performanceverlust, was bei eine 4x16 anders wäre, das macht sie Flexibler bei Steckplatz, z.B. für mehr Abstand zum CPU Kühler z.B.

Der Wirkliche Nachteil dieser Karte liegt real nur in einem einzigen Punkt, den absolut frechen Preis, eine 4060ti mit 16gb kostet ab 520€, das ist ein NoGo. Im Vergleich mit einer anderen günstigen 16GB Karte , die mindestens die gleiche FPS Performance liefern kann und ähnlich leise ist ( daher habe ich die ARC 770 mal ausgeschlossen ) wie eine RX6800 ist die 4060ti sogar teurer, eine gut RX6800 bekommt man ab ca 490€.

Die 6800 braucht allerding im Schnitt bei gleicher Leistung auch 60-90 Watt mehr Energie, was bedeutet das bei mal angenommenen 1500Stunden Last im Jahr ( Gaming oder sonstiges ) gute 100kwh Strom / Jahr weniger kostet , also 30-40€ pro Jahr Stromersparnis bei der 4060ti im Vergleich zu einer RX6800 z.B. was die 40€ Preisvorteil einer 6800 nach einem Jahr amortisiert hat.

Ich werde den Eindruck nicht los, dass Nvidia hier genau das einkalkuliert, denn mit der Energieeffizienz, Leistung und 16GB RAM, gibt es schlicht keine Konkurrenz in der Klasse, also können sie den Preis einfach aufrufen.

Fazit aus meiner Sicht:

  • eine 4060ti 16GB ist nur für den Nutzer gut, der jetzt und mittelfristig auf maximal 1080p bis 144/165Hz oder 1440p 60Hz auflösen kann und will, und entsprechende FPS im Gaming verlangt, und dem Energieeffizienz ( Stromkosten, geringe Lautstärke, geringe Wärme ) wichtig sind, oder wer aus Platzgründen einen PCIe4x8 Slot ohne Performanceverlust nutzen will, für den ist die 4060ti 16GB goldrichtig.
  • Wer bis 1080p 75Hz auflöst und dem 75FPS entsprechend reichen, der ist mit einer Intel Arc 770 16GB für unter 400€ erstklassig bedient, allerdings braucht diese auch deutlich mehr Energie.
  • Wem Energieeffizienz und DLSS Vorteile nicht wichtig sind und in 1080p bis 165Hz bzw. 1440p bis 100Hz auflöst, der ist in diesem Fall mit einer RX6800 am Günstigsten weg.
  • Wer keine hohen FPS braucht, sondern nur entsprechend viel Grafikram, der wird wohl mit der IntelArc oder der 4060ti 16GB die Beste Option finden, je nachdem was für die genutzte Software am Sinnvollsten ist.
Die 4060ti 16GB ist leider derzeit absolut konkurenzlos in ihrem Segment, da in dieser Klasse bei gleicher Performance und derart geringem Verbrauch keine Karte mit 16GB alternativen bietet. Da muss man wohl oder Übel in den Apfel beißen.
 
Danke für deine nüchterne Einschätzung.
Folgende mini Vorteile sehe ich gegenüber einer RX6800 zusätzlich:
- Idle power consumption
- NVIDIA anstelle von AMD Treibern
- NVIDIA reflex
- ULMB2 falls ich mir kein OLED kaufe
Dafür nehme ich 20% weniger Leistung in Kauf. Mir ist aber klar, damit bin ich eine laute Minderheitsmeinung.

Wer sich die neusten Quartalszahlen von NVIDIA anschaut, versteht aber auch, warum es N schlicht egal sein kann, ob sich die 4060 verkauft oder nicht. Low und midrange GPU ist für die Verschwendung. Ai ist der neue heisse 3D Drucker, Blockchain, Cloud, Hype und übertrifft Gaming+Workstation nicht nur beim Umsatz, sondern auch bezüglich Marge.
 
Danke für deine nüchterne Einschätzung.
Folgende mini Vorteile sehe ich gegenüber einer RX6800 zusätzlich:
- Idle power consumption
- NVIDIA anstelle von AMD Treibern
- NVIDIA reflex
- ULMB2 falls ich mir kein OLED kaufe
Dafür nehme ich 20% weniger Leistung in Kauf. Mir ist aber klar, damit bin ich eine laute Minderheitsmeinung.

Wer sich die neusten Quartalszahlen von NVIDIA anschaut, versteht aber auch, warum es N schlicht egal sein kann, ob sich die 4060 verkauft oder nicht. Low und midrange GPU ist für die Verschwendung. Ai ist der neue heisse 3D Drucker, Blockchain, Cloud, Hype und übertrifft Gaming+Workstation nicht nur beim Umsatz, sondern auch bezüglich Marge.
Absolut richtig, die Performance der 4060ti 16 GB, habe ich hier auch mal live dokumentiert, besonders das DLSS3 macht richtig Spaß, habe bei einigen Games bereits nach 1-2 Spielstunden einen durchschnittlichen FPS Anstieg von 5-10% gehabt, gerade RDR2 profitiert zusätzlich vom größeren RAM.
Wie Du sagst, Software und Treiber sind massiv überlegen, dann gibt's in der Klasse nix sonst mit 16GB und der Verbrauch von Maximal mal kurz 170 Watt, im Schnitt 130-150 Watt bei den hohen FPS ist einfach sagenhaft, und wenn ich die Stromersparnis rechne, ist das eine Menge Geld.

Das weiß Nvidia ganz klar, daher können sie es nehmen
 
@DigitalBlizzard Ist dir der andere Thread zu unübersichtlich geworden?
Nein, hier geht's speziell um die 16GB, hatte den Artikel dazu heute Morgen gelesen, da passte das sehr gut, nachdem ich jetzt ausgiebig Testen konnte und DLSS3 Zeit zum lernen hatte.
Im anderen Thread ist das wieder derart ausgeufert in irgendwelche Fanboy Aktionen, dabei ging es nur um eine vergleichbare Energieeffizienz.
Ich bin kein Fanboy, ich kaufe das was Sinn macht für mein System und dabei ist es mir reichlich wurscht welcher Chipsatz, Prozessor oder welches Brand.
Und da es zur 16GB Variante echt wenig überall gibt, dachte ich, ich bringe es nochmal auf den Punkt.
Denn die Karte ist deutlich besser als das was die Leute anhand von Spezifikationen ableiten.
 
Und um es nochmal in aller Deutlichkeit zu sagen, ich finde die Nvidia RAM und Preispolitik absolut beschissen, aber leider hat der Verein ein paar echt gute technische Argumente, die einen darüber hinwegsehen lassen.
 
Deswegen musst dein Quatsch jetzt hier weiter verbreiten?!
Meinen Quatsch, ich habe Deine Aussagen hier bewusst ignoriert, vor allem nach dem letzten " Test" mit Beweisvideo.
Verschone mich und andere bitte mit dem Fanboy Gequatsche.
Es zwingt Dich niemand irgendwas zu Posten, vor allem nicht so ein unqualifiziertes und unsachliches Zeug.
 
Oben Unten