NVIDIAs GeForce RTX 4060 Ti 16 GB und kein Test – Aschenputtel oder Fall fürs Museum der Eitelkeiten?

Nein, das macht das selbe.

Wozu braucht man den die Zwischen Bilder ?

Damit es nicht Ruckelt. ;)

Edit: Muss man halt auch ein Freesync Premium Zertifizierten Monitor nehmen.
Das ist eh viel entspannter, weil man nicht auf FSR 3 warten muss und sofort genießen kann.

Wird da gut beschrieen. Es werden künstliche Zwischenbilder durch AI dazugeneriert. Das spart Rechenleistung der GPU. Im Gegensatz zu FSR 2 kein Upscaling und Nachhübschen. FG funtkioniert schon nach diesem Prinzip aber eben nur wie oben erwähnt.

 

Wird da gut beschrieen. Es werden künstliche Zwischenbilder durch AI dazugeneriert. Das spart Rechenleistung der GPU. Im Gegensatz zu FSR 2 kein Upscaling und Nachhübschen. FG funtkioniert schon nach diesem Prinzip aber eben nur wie oben erwähnt.

Apro Apro Nachhübschen ich nutze Freesync Premium Pro, also mit HDR.
AMD FreeSync™ Premium Pro3 war zuvor als AMD Radeon FreeSync 2 HDR bekannt. Die AMD FreeSync Premium Pro Stufe fügt HDR-Fähigkeiten für unterstützte Spiele und Displays hinzu. Während sich Spiele weiterentwickelt haben, ist auch die Nachfrage nach optisch anspruchsvollen Spieleerfahrungen gewachsen. Displays, die für die AMD FreeSync™ Premium Pro Stufe zertifiziert sind, bieten hochgenaue Luminanz und ein durch Tests sichergestelltes breites Farbspektrum, um ein herausragendes HDR-Grafikerlebnis zu ermöglichen. Alle Spiele, die zuvor FreeSync 2 HDR unterstützt haben, unterstützen auch FreeSync Premium Pro.

Mein Monitor macht daraus HDR10+ was ich bisher noch nie bei einer nvidia GPU gesehen habe und mich bis dato von einer nvidia Abhält.
Ich habe ein bessere Bild als die beste Nvidia im Moment im Stande ist zu Produzieren. ;)
 
Der Monitor hat nichts damit zu tun!!! FG pimpt die GPU-Leistung.
 
Der Monitor hat nichts damit zu tun!!! FG pimpt die GPU-Leistung.
Wozu denn Freesync deckelt bei mir mit 119,xxxHz ab, das schafft mein GPU locker in UHD mit HDR Rendering in der Spiele Engine.

Klar, mehr ist immer gut, aber um Nvidia zu Piksen, brauchen sie kein FSR3. ;)
 
Das ist trotzdem alles OT...
Macht doch einen neuen Thread auf.

Dann könnt Ihr „in aller Ruhe“ darüber diskutieren :)
 
Das ist trotzdem alles OT...
Macht doch einen neuen Thread auf.

Dann könnt Ihr „in aller Ruhe“ darüber diskutieren :)
Genau, damit es in der Senke untergeht.

So wie die 16GByte, was soll das bringen wenn das Bild immer noch Matschig ist ?
 
Die 16 GB Variante sollte preislich dort liegen wo die 8er liegt, die dann mindestens 50€ darunter und deshalb die 4060 noch ein Stück nach unten schieben.
Dann wären die Preise halbwegs erträglich.
 
Versteht mich nicht Falsch, wer ein 1080p Monitor mit 120Hz hat wird auch bei der 4060 16GByte DLSS benötigen, damit die Hz vom Monitor erreicht wird.

Aber wer ein 4K UHD HDR10+ Display hat, will Qualität auf dem Monitor, das kostet nun mal Rechenleistung und somit auch Strom ! ;)
 
Und hier noch mal ein Test wo die 16GB-Variante seine massiven Vorteile gerade bei vram-lastigen Spielen ausspielt. 12GB hätten zum jetzigen Zeitpunkt auch gereicht, aber 16Gb ist dann immer noch gut für die Zukunft. Die Unterschiede sind heftig was die Mikroruckler und Texturen angeht.

 
Was ist dann erst mit 24GByte Möglich, den Frame Buffer erhöhen ist jetzt kein Geheimnis.
Trotzdem sehen manchen Konsolen Ports, für ihren VRAM Verbrauch, echt Mies aus auf dem 1080p 120Hz Monitor. ;)
 
Mal ein kleine Anekdote:

Das was Nvidia als Gsync eingeführt hat, hat AMD Vollendet, sogar mit Zertifizierung der Hersteller bis zum Monitor/Display/TV
Ein TV kann auch die Musik Wiedergeben. ;)
 
Brunnen, Stein, Schere & Blatt.

Schnick, schnack, schnuck.

Das neue Tick Tock :cool:
 
Oben Unten