NVIDIA GeForce RTX 4060 Ti Founders Edition 8 GB im Test mit 160 und 175 Watt Power Limit plus OC

@Casi030 Also für mich hast du nicht widerlegt:

Die Aussage ist, dass eine RX6000 Karte genauso Effizient sein kann wie eine RTX4000 und um das zu belegen muss man vergleichen:
Stock <-> Stock
Optimiert <-> Optimiert

und nicht:
Optimiert <-> Stock

Also bleibt die Aussage, dass Nvidia im Moment die Effizientesten Karten hat (zudem das bessere Feature-Set), noch immer richtig.

Ob nun eine runter geregelte 4070 weniger verbraucht als eine Stock 4060ti möchte ich mal gar nicht behaupten, da die 4000der sehr konstant skalieren.
Ich habe ja den Vergleich 4070 <-> 4080, beide verhalten sich Quasi gleich. Der Unterschied in der Effizienz ist sehr gering. Wenn ich Diablo 4 gespielt habe (ein Spiel was ich mit beiden Karten gespielt habe), war bei gleichen Einstellungen der Verbrauch fast gleich. So gleich, dass man von Messtoleranz reden könnte.

Persönlich hätte ich auch eher die 4070 genommen, ich verstehe aber die Argumentation für die 4060ti von @DigitalBlizzard und finde er hat nicht falsch entschieden.

Und ja bei mir würde die 4090 auch länger leben als meine 4080. Meine Einschätzung ist aber, dass die 4080 bis zur NextGen reicht und diese mit Sicherheit Effizienter wird und mit neuen Features aufwartet, DLSS4, noch schnelleres RT... Deshalb habe ich mir das Geld gespart. Zudem hatte ich ja schon erwähnt, dass ich die 4080 aus einer Laune heraus gekauft habe. Realistisch hätte mir die 4070 gereicht.
 
@Casi030 Also für mich hast du nicht widerlegt:

Die Aussage ist, dass eine RX6000 Karte genauso Effizient sein kann wie eine RTX4000 und um das zu belegen muss man vergleichen:
Stock <-> Stock
Optimiert <-> Optimiert

und nicht:
Optimiert <-> Stock

Also bleibt die Aussage, dass Nvidia im Moment die Effizientesten Karten hat (zudem das bessere Feature-Set), noch immer richtig.

Ob nun eine runter geregelte 4070 weniger verbraucht als eine Stock 4060ti möchte ich mal gar nicht behaupten, da die 4000der sehr konstant skalieren.
Ich habe ja den Vergleich 4070 <-> 4080, beide verhalten sich Quasi gleich. Der Unterschied in der Effizienz ist sehr gering. Wenn ich Diablo 4 gespielt habe (ein Spiel was ich mit beiden Karten gespielt habe), war bei gleichen Einstellungen der Verbrauch fast gleich. So gleich, dass man von Messtoleranz reden könnte.

Persönlich hätte ich auch eher die 4070 genommen, ich verstehe aber die Argumentation für die 4060ti von @DigitalBlizzard und finde er hat nicht falsch entschieden.

Und ja bei mir würde die 4090 auch länger leben als meine 4080. Meine Einschätzung ist aber, dass die 4080 bis zur NextGen reicht und diese mit Sicherheit Effizienter wird und mit neuen Features aufwartet, DLSS4, noch schnelleres RT... Deshalb habe ich mir das Geld gespart. Zudem hatte ich ja schon erwähnt, dass ich die 4080 aus einer Laune heraus gekauft habe. Realistisch hätte mir die 4070 gereicht.
Optimierte Werte kann @DigitalBlizzard ja noch nach liefern.......
Nur wenn ich Stock kaufe und mehr dafür zahle,muss ich mich nicht wundern das andere Produkte besser sind,man hätte genauso zum besseren Produkt greifen können,dieses zu Optimieren wäre Langlebiger und Effizienter gewesen.
Das glaube Ich nicht so wirklich das eine 4080 nicht Effizienter ist als eine 4070 oder sogar 4070ti.
Der 4070/TI fehlen einfach die Recheneinheiten.
Einfaches Beispiel mit CPUs.
Ein 8Kerner kommt in CineBench auf 15000P bei 100Watt.
Ein 12Kerner muss für die gleichen Punkt deutlich niedriger Takten,die Berechnung geht somit in die Breite und nicht in die Höhe wo die Kerne ineffizient werden.Er verbraucht dabei 80Watt.
Ein 16Kerner geht noch weiter mit dem Takt runter,noch weiter in die Breite und wird so noch Effizienter und verbraucht bei den gleichen Punkten nur noch 50Watt.

Bei AMD Karten ist es auch so.

Klar ist es natürlich auch das man gern die HW sobald was neues raus kommt Tausch,nur muss man ja nicht immer und wie geschrieben, 1440p Monitor und die 4060ti ist nicht mehr zu gebrauchen.
 
@Casi030 CPU Kerne kannst du absolut nicht mit GPU Recheneinheiten vergleichen und auch kannst du nicht 2 komplett verschiedene GPU Architekturen vergleichen. Es ist nun mal so, dass es Nvidia eben gelungen ist dass die 4000der sowohl mit Takt wie Anzahl der Recheneinheiten und der Verbrauch sehr gut skaliert. Sprich es ist für den gleiche Verbrauch ziemlich egal ob wenig Recheneinheiten, dafür mehr Takt oder mehr Recheneinheiten mit weniger Takt. Ist nun mal so.

Bei RDNA2 ist das definitiv nicht so. Ich möchte aber ganz klar sagen, dass die in meinen Augen weder ein Vor- noch ein Nachteil ist.

Bei den AMD Vega Karten war ja auch etwas Speziell. Die Vega64 (hatte eine, sogar unter Wasser), nicht wirklich schneller war als eine Vega56 und definitv nicht effizienter als die Kleine.
 
@Casi030 CPU Kerne kannst du absolut nicht mit GPU Recheneinheiten vergleichen und auch kannst du nicht 2 komplett verschiedene GPU Architekturen vergleichen. Es ist nun mal so, dass es Nvidia eben gelungen ist dass die 4000der sowohl mit Takt wie Anzahl der Recheneinheiten und der Verbrauch sehr gut skaliert. Sprich es ist für den gleiche Verbrauch ziemlich egal ob wenig Recheneinheiten, dafür mehr Takt oder mehr Recheneinheiten mit weniger Takt. Ist nun mal so.

Bei RDNA2 ist das definitiv nicht so. Ich möchte aber ganz klar sagen, dass die in meinen Augen weder ein Vor- noch ein Nachteil ist.

Bei den AMD Vega Karten war ja auch etwas Speziell. Die Vega64 (hatte eine, sogar unter Wasser), nicht wirklich schneller war als eine Vega56 und definitv nicht effizienter als die Kleine.
Das ist ja das Problem bei Nvidia,volle Einschränkungen des Kunden,ein großer Grund neben den hohen Preisen keine zu kaufen.Bei AMD hast deutlich mehr Freiheiten,da ist selbst der 5700G Effizienter als der 5600G.



Vega hab ich zu der Zeit Überspannung und konnte sie somit nicht Testen,die 56er die ich seit gut 2Jahren hier habe ist uninteressant geworden.......
 
Casi, du würdest auch für eine 4060Ti mit der Leistung einer 4080 und für 400€ Preis kein gutes Wort finden, weil es keine AMD ist.
Da könnt ihr noch zwanzig Seiten weiterschreiben, es wird hier doch keinen Konsens geben.
 
Casi, du würdest auch für eine 4060Ti mit der Leistung einer 4080 und für 400€ Preis kein gutes Wort finden, weil es keine AMD ist.
Da könnt ihr noch zwanzig Seiten weiterschreiben, es wird hier keinen Konsens geben.
AMD liefert halt auch die besseren Treiber,wobei ich Nvidia Treiber schon länger nicht mehr gesehen hatte.
Aber hier wird es dann doch schon schwieriger,AMD Optimiert vs Nvidia Standard = gleiche Effizienz.
Mit der 4070TI funktioniert das dann nicht mehr mit den RX6000ern.
 
AMD liefert halt auch die besseren Treiber,wobei ich Nvidia Treiber schon länger nicht mehr gesehen hatte.
Du meinst die eingebettete Software im Treiber? Den Treiber selber und die Kompatibilität kannst du ja nicht meinen.
 
Du meinst die eingebettete Software im Treiber? Den Treiber selber und die Kompatibilität kannst du ja nicht meinen.
Sagen wir mal so,unter Windows7 gab es keine Probleme,mit Windows10 verdammt viele,allein schon das Windows10 den AMD Treiber runter schmeißt und seinen eigenen installiert..........Treiber läuft und läuft und läuft wenn er vom instabilen Ram nicht Resettet wird,bzw die eingebettete Software,die 1A ist,genau.ABER auch da wird nicht alles verwendet wie das Overlay was beim Aufzeichnen fürs stocken sorgt........
Wenn es nach vielen hier geht,dann würde mein Rechner gar nicht laufen mit MSI AfterBurner,HWinfo64,AI Suite 3 und dem Armoury Create die alle beim Start mit Starten.;)
 
Der schmale Grad zwischen den Welten. ;)

HDR10+ ist das Feature 2023 für mich, es ist sogar Quell offen und kann auch bei YouTube Videos "Nachbearbeitet" werden:
Dort kann man es unter dem Zahnrädchen mit der Bezeichnung "Beleuchtung wie im Kino" Aktivieren (enabled) 🏳️‍🌈
 
undervolting :)
 
Die Google KI weiß leider auch keinen Rat gegen die rote-Brille-Krankheit:

1692294634448.png
 
Die Google KI weiß leider auch keinen Rat gegen die rote-Brille-Krankheit:
Naja, zuhause schläft es sich immer noch am besten. ;)

Eine KI nach einer neuen Matraze Fragen, mit Weltraum Technik für tieferen Schlaf (frozen) :sneaky:
 
Etwas OffTopic:
Gestern Abend war ich mal wieder spazieren, kam dann am Friedhof an.
Da standen drei Mädels, am diskutieren, welchen Weg sie nach Hause nehmen sollten und das der Weg über den Friedhof ja der schnellste wäre, sie sich aber ängstigen würden.
Gentleman wie ich bin, bot ich den Mädels an, sie über den Friedhof zu begleiten.
Nach einigen Schritten sagte ich, ich könnte sie gut verstehen. Ich hatte früher auch Angst hier.....als ich noch lebte.
 
Genau das Problem habe ich mit meiner Ampere Karte aber auch!

In Outlook oder Word verschwinden eben geschriebene Buchstaben, der Cursor scheint irgendwo anders hin zu springen, an Stellen die nun leer sind, obschon da eigentlich Wörter oder gar ein Absatz wäre.

Windows Terminal (inkl. preview) musste ich auf SW Renderer umschalten, weil in der PowerShell die letzten Zeilen der Ausgabe immer fehlen und auch da der Cursor da ist wo er eigentlich sein sollte.

Das liegt nicht an oder nur bei AMD, selbe Probleme bei oder mit Nvidia. Daher keine Ahnung obs doch an Microsoft liegt, Windows und/oder Office, Terminal etc. etc. Microsoft ist bei mir sowas von unten durch, weil die ihre Prioritäten derart umverlagert haben und eben bei zB Windows nur noch konstanten Müll rauswerfen.
Naja, ich hab halt nur Foreneinträge zu AMD gefunden. Einen einzigen zu NVIDIA, der aber ins leere lief. 4070 rein und Neuinstallation und dann lief es. Mit der AMD Karte hab ich mir ein Wolf installiert ohne Erfolg und alles, wirklich alles was im Netzt dazu zu finden war, hab ich ausprobiert.

Selbst unser Haus und Hofprogrammierer wusste irgenwann nicht mehr weiter.
 
Naja, ich hab halt nur Foreneinträge zu AMD gefunden. Einen einzigen zu NVIDIA, der aber ins leere lief. 4070 rein und Neuinstallation und dann lief es. Mit der AMD Karte hab ich mir ein Wolf installiert ohne Erfolg und alles, wirklich alles was im Netzt dazu zu finden war, hab ich ausprobiert.

Selbst unser Haus und Hofprogrammierer wusste irgenwann nicht mehr weiter.
Ich hab ehrlich gesagt nicht mal danach gesucht im Netz, weil ich es Microsoft in die Schuhe geschoben haben, nicht der GPU. Dass Du nun dasselbe mit AMD Karte hattest, machts für mich klar : ein weiterer von vielen unzähligen Microsoft Fails. Für die gibts nur noch Cloud, KI, und alles irgendwie zu kopieren was jegliche Konkurrenz schon macht. An Microsoft: back to the roots! Schuster back zu deinen Leisten!
 
@Casi030 CPU Kerne kannst du absolut nicht mit GPU Recheneinheiten vergleichen und auch kannst du nicht 2 komplett verschiedene GPU Architekturen vergleichen. Es ist nun mal so, dass es Nvidia eben gelungen ist dass die 4000der sowohl mit Takt wie Anzahl der Recheneinheiten und der Verbrauch sehr gut skaliert. Sprich es ist für den gleiche Verbrauch ziemlich egal ob wenig Recheneinheiten, dafür mehr Takt oder mehr Recheneinheiten mit weniger Takt. Ist nun mal so.

Bei RDNA2 ist das definitiv nicht so. Ich möchte aber ganz klar sagen, dass die in meinen Augen weder ein Vor- noch ein Nachteil ist.

Bei den AMD Vega Karten war ja auch etwas Speziell. Die Vega64 (hatte eine, sogar unter Wasser), nicht wirklich schneller war als eine Vega56 und definitv nicht effizienter als die Kleine.
Hattest im 3DMark z.b. TimeSpy mit der 4080 schon mit gespielt?
 
Oben Unten