NVIDIA GeForce RTX 4060 Ti Founders Edition 8 GB im Test mit 160 und 175 Watt Power Limit plus OC

:sleep:
 
@Casi030 ich wiederhole meine Frage zu deinem Post 282:
Dann eine Erkärung zu deinen fps, wie kommt es, dass du im Benchmark max. 284fps hast und HWiNFO nur 79,4fps max hattest. (erkenne noch ein paar unstimmigkeiten, möchte jetzt aber nicht zu tief graben...)
 
Zuletzt bearbeitet :
Schau den Screen in Beitrag 299 an,da kannst alles genau abgleichen.
Vergiss es, Du und ich wissen, die einzige Option auf die Effizienz zu kommen mit einer AMD ist schummeln, Du bekommst die mit über 110 FPS in Ultra in keinem Spiel der Welt unter 200Watt GPU, von Karte gesamt sprechen wir gar nicht, zeigt jeder, aber absolut jeder Test und jede Benchmark.
Und das hat nichts mit "Wissen und Können" zu tun, sondern mit Schnacken und Mogeln, einen schlüssigen Videobeweis mit eindeutigen Overlay Watt und FPS bist schuldig geblieben, und mir ist klar warum, weil das was man da sieht weit weg ist vom dem, was Du erzählst.

Wenn Du die behauptete Effizienz auf irgendeiner AMD Karte auch nur im Ansatz hättest, würde dich AMD sofort mit Monatlich 100.000€ Gehalt einstellen.
Was kein Testlabor der Welt, kein AMD bei Vorführungen hinbekommt, willst Du so locker erreichen.

AMD würde alles dafür tun, die von Dir gepriesenen Werte bei einer Produktvorstellung vorführen zu können, können sie aber nicht, weil es UNMÖGLICH ist.
Entweder bekommst die Watt etwas runter, unter die 200 gesamt, hast dann aber nur noch max 60 FPS, oder eben Du gehst auf FPS, hast dann aber 100 Watt mehr auf der Uhr als eine 40xx.

Beides geht nicht, und solange kein ganz klarer eindeutiger Videobeweis vorliegt, mit Einstellungen und Live Verbrauch mit dem Catalyst Overlay , Screenshots kann ich viele machen, nur ob sie zusammengehören ist nicht beweisbar.
Ich habe den Vorteil, ich kann eines sowieso belegen, eine RTX4060ti 16GB OC nimmt selbst maximal Overclocked nie mehr als 188 Watt gesamte Karte, und 265 Watt GPU.

Egal wie viele FPS ich erreiche, es sind immer maximal 165 Watt GPU dahinter .
 
Und ein Game wie SoTR ist eh nur bedingt tauglich, weil es da am meisten auf die CPU ankommt, die macht gut 50-65% der gesamten FPS, anders als bei Division 2.

Division 2 habe ich mit Overlay gepostet, das haste doch, stell mal ein vergleichbares Video mit Overlay ein, dann sehen wirs ja.
 
Vergiss es, Du und ich wissen, die einzige Option auf die Effizienz zu kommen mit einer AMD ist schummeln, Du bekommst die mit über 110 FPS in Ultra in keinem Spiel der Welt unter 200Watt GPU, von Karte gesamt sprechen wir gar nicht, zeigt jeder, aber absolut jeder Test und jede Benchmark.
Und das hat nichts mit "Wissen und Können" zu tun, sondern mit Schnacken und Mogeln, einen schlüssigen Videobeweis mit eindeutigen Overlay Watt und FPS bist schuldig geblieben, und mir ist klar warum, weil das was man da sieht weit weg ist vom dem, was Du erzählst.

Wenn Du die behauptete Effizienz auf irgendeiner AMD Karte auch nur im Ansatz hättest, würde dich AMD sofort mit Monatlich 100.000€ Gehalt einstellen.
Was kein Testlabor der Welt, kein AMD bei Vorführungen hinbekommt, willst Du so locker erreichen.

AMD würde alles dafür tun, die von Dir gepriesenen Werte bei einer Produktvorstellung vorführen zu können, können sie aber nicht, weil es UNMÖGLICH ist.
Entweder bekommst die Watt etwas runter, unter die 200 gesamt, hast dann aber nur noch max 60 FPS, oder eben Du gehst auf FPS, hast dann aber 100 Watt mehr auf der Uhr als eine 40xx.

Beides geht nicht, und solange kein ganz klarer eindeutiger Videobeweis vorliegt, mit Einstellungen und Live Verbrauch mit dem Catalyst Overlay , Screenshots kann ich viele machen, nur ob sie zusammengehören ist nicht beweisbar.
Ich habe den Vorteil, ich kann eines sowieso belegen, eine RTX4060ti 16GB OC nimmt selbst maximal Overclocked nie mehr als 188 Watt gesamte Karte, und 265 Watt GPU.

Egal wie viele FPS ich erreiche, es sind immer maximal 165 Watt GPU dahinter .
Das EINZIGE was ICH weis ist das ICH mit Trollenden Nvidia Fanboys wieder meine Zeit verschwendet haben weil sie nicht akzeptieren können was sie fürn Schrott gekauft haben und das AMD selbst mit 1000 Fakten,Daten und Belegen nicht Akzeptieren wollen das es möglich ist die RX6000er Karten auf die GLEICHE Effizienz zu bringen wie die 4000er bis min zur 4070TI.
 
Und ein Game wie SoTR ist eh nur bedingt tauglich, weil es da am meisten auf die CPU ankommt, die macht gut 50-65% der gesamten FPS, anders als bei Division 2.

Division 2 habe ich mit Overlay gepostet, das haste doch, stell mal ein vergleichbares Video mit Overlay ein, dann sehen wirs ja.
Wie RDRD2 ist jetzt auch Müll......
Division 2 nicht mit DX12?
Stürzt der Treiber ab?

Was soll ich mit dem Overlay wo keine Daten zu sehen sind........
DU willst seit 20Jahren bei der IT sein und kannst noch nicht mal ein paar Daten Auswerten.

Und OHNE Netzteilauslastung kannst auch DU mit deinen Manipulationen rein GARNIX belegen.
 
Ich würde vorschlagen, es jetzt einfach gut sein zu lassen. Jede Partei hat ihren Standpunkt klar gemacht. Ihr müsst euch nicht auf Teufel komm raus gegenseitig überzeugen.

❤️‍🔥
 
Standpunkt?!
Fakten die die Nvidia Fanboys nicht akzeptieren wollen,aber ist leider seit Jahrzehnten immer wieder die gleiche Leier.....
Das schlimme ist ja das ich mich noch auf solch eine Opfer Karte eingelassen habe,wäre es wenigstens ne 4070 oder TI dann hätte es sich wenigstens gelohnt.
 
Zuletzt bearbeitet :
@Brxn es geht nicht unbedingt sich gegenseitig zu überzeugen. Es geht eher darum, dass @Casi030 scheinbar zaubern kann, er kann AMD Hardware besser als die ganze Industrie optimieren und jeder der dies nicht kann ist Unwissend. Also AMD kennt sich mit ihren Produkten selbst nicht aus... Er ist sozusagen ein AMD Gott...

Sobald man ihn aber zu unstimmigkeiten seiner Daten befragt, Phantasie Einstellungen hinterfragt u.s.w. wird er sofort pampig und beleidigend. Dies ist nicht nur in diesem Thema so, sondern zieht soch durch all seine Posts.

Oft fängt er positiv an und gibt tatsächlich den ein oder anderen guten Tipp, sobald der User aber Probleme mit seinen empfohlenen Einstellungen hat und sich eher auf die Tipps, welche sich tatsächlich bei den meisten Bewährt haben, zurückgreift, wird er auch beleidigend.

Grob zeigt das wieder, dass sein Einstellungen nur bei ihm Funktionieren. Wenn sie nur bei ihm funktionieren... naja...

um noch ein Beispiel zu nennen, gibt es noch einen zweiten User, welcher bei einem Ryzen 5950X für 3200mhz cl14 Ram nur eine SoC Spannung von 0,775V benötigt? (Post 282)
 
um noch ein Beispiel zu nennen, gibt es noch einen zweiten User, welcher bei einem Ryzen 5950X für 3200mhz cl14 Ram nur eine SoC Spannung von 0,775V benötigt? (Post 282)
Da hättest mal besser aufpassen sollen,ich hab ja schon mit ASUS Telefoniert weil nach nem Bios Update der Ram nicht mehr mit 4000MHz lief,dafür gehen die Spannungen extrem weit runter,auch mit folge Bios Versionen änderte es sich nicht.ASUS meinte ja ich soll das Mainboard einschicken, nur alles über 3200MHz ist OC und das kann laufen,muss aber nicht deswegen hab ichs auch nicht eingeschickt.

Und wenn selbst das Netzteil,die Steckdose unter 300Watt anzeigt,dann kann die Grafikkarte allein keine 250Watt ziehen was eigentlich logisch sein sollte.

Und wie soll AMD seine Karten auf EIN Spiel Optimieren?!

Desweiteren hab Ich es schon öfter versucht es dem ein oder anderen bei zu bringen, aber ohne Daten funktioniert das nun mal nicht.
Z.b.


 
Eine 4060ti ist nun mal in keinster Weise ein Gegner für ne RX6900XT weil sie einfach zu wenig Recheneinheiten hat,ne RX6800 könnte es da schon schwerer haben.
Auf der anderen Seite kommt dann aber auch ne RX6900XT/50XT in keinster Weise gegen eine 4080 an,da brauch ich schon locker 100-150Watt mehr um überhaupt nur annähernd and die FPS zu kommen.

Ist wie bei CPUs,zwinge das System dazu etwas zu machen was es normal nicht mach und schon verbraucht ein 8Kern keine 50Watt sondern nur noch 35Watt.
Nur ohne Daten funktioniert das nun mal nicht.
 
Zuletzt bearbeitet :
Als Besitzer von insgesamt vier Grafikkarten, davon eine Nvidia ( 4060ti ), zwei AMD ( RX 6800 und einer RX580 in den Rechnern meiner Kinder ) und einer Matrox in der Workstation meiner Frau, bin ich wohl alles andere als ein Nvidia Fanboy!
Ich sehe aber durchaus hier den ein oder anderen AMD Fanboy, der mit haarsträubenden Behauptungen ohne jeden Beleg meint, er müsse die Ehre von AMD verteidigen.
Es ging um nichts anderes , als um die besser gewordene Effizienz von Grafikkarten, und das wir überrascht waren, wie viel effizienter die neuen 40xx geworden sind.
Aber da haben sich direkt einige mit übermäßigem Markenzugehörikeitsgefühl angegriffen gefühlt, ihre ihre bevorzugte Marke eben leider in Sachen Effizienz nicht sooo gut abschneidet.
Ging eigentlich nie um eine Marke, das Fass haben die, die andere als Fanboys bezeichnen, selbst aufgemacht, weil sie als die echten Fanboys direkt auf Angriff gingen, weil es ja gar nicht geht, dass der "Feind" so gute neue Karten liefert.
Also argumentiert man wie ein Gebrauchtwagenhändler mit den wildesten Behauptungen.

Mir ist es wurscht was auf der Karte steht, selbst wenn da "Karl Arsch der 3." Draufstünde , sie aber bei 160 Watt satte dreistellige FPS in 1080p Ultra erreicht, wie es die 4060ti jetzt tut, dann würde ich sie kaufen.
Punkt.
Ich habe nicht nur aktuell AMD Karten im Haushalt, genau wie Nvidia, und ich weiß um die Probleme beider, auch beruflich zusätzlich, und da muss ich ganz unvoreingenommen sagen, leider ist Nvidia im Moment das deutlich kleinere Übel, aber eben zum höheren Preis.

Zur Diskussion habe ich die Effizienz der 4060ti in jeder erdenklichen Weise getestet und nachvollziehbar transparent hier veröffentlicht, leider kann man das von der Fanboy Fraktion nicht behaupten.
Da herrscht die Devise " Champignon" , das Gegenüber im Dunkeln halten und mit scheiße füttern.
Ausflüchte, RDR2 Benchmark kann ich nicht, mag das Game nicht, mein Sohn hat den Rechner verstellt, ich hab kein anderes Overlay, die Daten muss man schon aus einem Screenshot von HWInfo ziehen, dessen Zusammenhang zur Benchmark äußerst fraglich und unglaubhaft ist.
Fehlt nur noch, der Hund hat mein Zugangspasswort gefressen.

Es ist auch müßig , denn die Effizienz und Leistungen der RX6800/XT etc wurde tausende Male gestresst und dokumentiert und die Ergebnisse, sind immer ähnlich, natürlich auch bei meiner eigenen 6800, daher kann ich so klar sagen, das die 4060ti sowohl in Leistung 1080p als auch Effizienz der 6800 überlegen ist.
 
Als Besitzer von insgesamt vier Grafikkarten, davon eine Nvidia ( 4060ti ), zwei AMD ( RX 6800 und einer RX580 in den Rechnern meiner Kinder ) und einer Matrox in der Workstation meiner Frau, bin ich wohl alles andere als ein Nvidia Fanboy!
Ich sehe aber durchaus hier den ein oder anderen AMD Fanboy, der mit haarsträubenden Behauptungen ohne jeden Beleg meint, er müsse die Ehre von AMD verteidigen.
Es ging um nichts anderes , als um die besser gewordene Effizienz von Grafikkarten, und das wir überrascht waren, wie viel effizienter die neuen 40xx geworden sind.
Aber da haben sich direkt einige mit übermäßigem Markenzugehörikeitsgefühl angegriffen gefühlt, ihre ihre bevorzugte Marke eben leider in Sachen Effizienz nicht sooo gut abschneidet.
Ging eigentlich nie um eine Marke, das Fass haben die, die andere als Fanboys bezeichnen, selbst aufgemacht, weil sie als die echten Fanboys direkt auf Angriff gingen, weil es ja gar nicht geht, dass der "Feind" so gute neue Karten liefert.
Also argumentiert man wie ein Gebrauchtwagenhändler mit den wildesten Behauptungen.

Mir ist es wurscht was auf der Karte steht, selbst wenn da "Karl Arsch der 3." Draufstünde , sie aber bei 160 Watt satte dreistellige FPS in 1080p Ultra erreicht, wie es die 4060ti jetzt tut, dann würde ich sie kaufen.
Punkt.
Ich habe nicht nur aktuell AMD Karten im Haushalt, genau wie Nvidia, und ich weiß um die Probleme beider, auch beruflich zusätzlich, und da muss ich ganz unvoreingenommen sagen, leider ist Nvidia im Moment das deutlich kleinere Übel, aber eben zum höheren Preis.

Zur Diskussion habe ich die Effizienz der 4060ti in jeder erdenklichen Weise getestet und nachvollziehbar transparent hier veröffentlicht, leider kann man das von der Fanboy Fraktion nicht behaupten.
Da herrscht die Devise " Champignon" , das Gegenüber im Dunkeln halten und mit scheiße füttern.
Ausflüchte, RDR2 Benchmark kann ich nicht, mag das Game nicht, mein Sohn hat den Rechner verstellt, ich hab kein anderes Overlay, die Daten muss man schon aus einem Screenshot von HWInfo ziehen, dessen Zusammenhang zur Benchmark äußerst fraglich und unglaubhaft ist.
Fehlt nur noch, der Hund hat mein Zugangspasswort gefressen.

Es ist auch müßig , denn die Effizienz und Leistungen der RX6800/XT etc wurde tausende Male gestresst und dokumentiert und die Ergebnisse, sind immer ähnlich, natürlich auch bei meiner eigenen 6800, daher kann ich so klar sagen, das die 4060ti sowohl in Leistung 1080p als auch Effizienz der 6800 überlegen ist.
Eben nicht,es ging um die bessere Effizienz der 4070 gegenüber der 4060ti.
Und die Frage warum die 4070 nicht deutlich Effizienter sein kann wie die 4060ti.
Bei AMD funktioniert es ja ohne Probleme eine RX 6800XT Effizienter laufen zu lassen als eine RX6800.
Darum ging es ursprünglich.
Das DU auf die 4070 aus diversen Gründen verzichtet hast ist ja auch nachvollziehbar, nur wenn es einem Egal ist ob sie weiß ist,dann sollte man für die paar EU mehr zur 4070 greifen.

Und das sind 2 AMD Karten.........
Soll ich meine aufzählen.....
 
Eine 4060ti ist nun mal in keinster Weise ein Gegner für ne RX6900XT weil sie einfach zu wenig Recheneinheiten hat,ne RX6800 könnte es da schon schwerer haben.
Auf der anderen Seite kommt dann aber auch ne RX6900XT/50XT in keinster Weise gegen eine 4080 an,da brauch ich schon locker 100-150Watt mehr um überhaupt nur annähernd and die FPS zu kommen.
Es ging nie um Gegner, sondern einfach darum, dass eine RX6800 keine Alternative zu einer 4060ti 16 GB für 1080p Gaming darstellt Punkt.
Du hast die Behauptung aufgestellt, dass eine 6900xt effizienter sei als eine 4060ti oder 4070, was schlicht nicht der Fall ist.

Selbst eine 4080 schlägt eine 6900xt in Leistung und Effizienz, und zwar mehr als deutlich.
Selbst die 7900 wird von einer 4080 deutlich auf sie Plätze verwiesen wenn es um die Effizienz geht, oder DLSS logischerweise, aber wenn die 4090 ins Spiel kommt, ist selbst die 7900xtx absolut chancenlos, in Leistung und Effizienz.
So sieht es im Moment halt aus.
Und wenn Nvidia eine 4080ti rausbringt, wird die 7900xtx auch hier schon ihren Meister finden, da braucht's keine 4090

Die 4080ti wird zwar auch 1200-1500€ kosten, und damit wieder leider etwas teurer sein als die meisten 7900xtx, dafür aber auch schneller und effizienter.
 
Eben nicht,es ging um die bessere Effizienz der 4070 gegenüber der 4060ti.
Und die Frage warum die 4070 nicht deutlich Effizienter sein kann wie die 4060ti.
Bei AMD funktioniert es ja ohne Probleme eine RX 6800XT Effizienter laufen zu lassen als eine RX6800.
Darum ging es ursprünglich.
Das DU auf die 4070 aus diversen Gründen verzichtet hast ist ja auch nachvollziehbar, nur wenn es einem Egal ist ob sie weiß ist,dann sollte man für die paar EU mehr zur 4070 greifen.

Und das sind 2 AMD Karten.........
Soll ich meine aufzählen.....
Nein, ich wurde gefragt, warum ich bei dem hohen Preis der 4060ti 16 nicht gleich zur 4070 oder nicht besser einer RX6800 gegriffen habe, die seien ja beide Stärker und quasi fast gleich teuer und auch alle genauso effizient!
Und meine Antwort war, ja die GPUs von 4070 und 4060ti haben die nahezu gleiche Effizienz, aber die 4070 hat die höhere Boardpower, zudem nur 12GB und kostet 60-100€ mehr, je nach Modell.
Da die 4060ti 16GB aber für meine Nutzung, nämlich 1080p Ultra Gaming bis max 144 Hz exakt das liefert von der Leistung, was ich brauche und dabei am wenigsten verbraucht, war die 4070 raus.
Die 6800 kam gar nicht in Frage weil sie schlicht bei der gleichen Leistung 80-100 Watt mehr braucht und eben in 1080p Ultra teilweise weniger FPS liefert als die 4060ti 16GB.
Und es gibt keine ein weiß.

Das war die Ausgangslage.
Du hast dann gesagt, Du könntest mit einer 6900xt in 1080p effizienter sein als eine 4060ti oder 4070, was technisch schlicht nicht machbar ist, weil alleine die Boardpower schon viel höher ist und Du drosseln, Undervolten, limitieren kannst wie Du willst.
Bei gleicher Wattleistung liefert keine Andere Karte auf dem Markt so viel 1080p Ultra FPS wie die 4070 und 4060ti
 
Es ging nie um Gegner, sondern einfach darum, dass eine RX6800 keine Alternative zu einer 4060ti 16 GB für 1080p Gaming darstellt Punkt.
Du hast die Behauptung aufgestellt, dass eine 6900xt effizienter sei als eine 4060ti oder 4070, was schlicht nicht der Fall ist.

Selbst eine 4080 schlägt eine 6900xt in Leistung und Effizienz, und zwar mehr als deutlich.
Selbst die 7900 wird von einer 4080 deutlich auf sie Plätze verwiesen wenn es um die Effizienz geht, oder DLSS logischerweise, aber wenn die 4090 ins Spiel kommt, ist selbst die 7900xtx absolut chancenlos, in Leistung und Effizienz.
So sieht es im Moment halt aus.
Und wenn Nvidia eine 4080ti rausbringt, wird die 7900xtx auch hier schon ihren Meister finden, da braucht's keine 4090

Die 4080ti wird zwar auch 1200-1500€ kosten, und damit wieder leider etwas teurer sein als die meisten 7900xtx, dafür aber auch schneller und effizienter.
Die RX6800 hast DU mit ins Spiel gebracht um deine 4060ti hoch leben zu lassen,nur hab ICH dich mit der RX6900XT auf den Boden der Tatsachen wieder runter geholt was dir entgegen aller Fakten und Daten überhaupt nicht gefällt und wieso sollen meine Daten Fake sein und deine nicht?

Über die 4090 braucht man gar nicht reden,da hat AMD auch nix,4080TI müsste man sehen.

Du vergisst halt das AMD/ATI schon immer dafür bekannt war seinen Produkten ein hohes Optimierungspotenzial zu spendieren im Gegensatz zu Intel und NVIDIA
 
Niemand bestreitet das nvidia mit der 4000er Serie einen massiven Effizienzsprung hingelegt hat. Wäre ja auch lächerlich wenn sie das nicht geschaft hätten bei einen doppelten Nodesprung.
RDNA3 ist da ein wenig zwiespältig da die effizienz bei den Chiplets noch nicht so funktioniert wie erhofft. Bei der kleinen 7600 zeigt die Umstellung von 7 auf 6nm aber eine leichte Verbesserung. Mal abwarten was die 77/7800 bringen aber Wunder erhoffe ich mir keine.
 
Nein, ich wurde gefragt, warum ich bei dem hohen Preis der 4060ti 16 nicht gleich zur 4070 oder nicht besser einer RX6800 gegriffen habe, die seien ja beide Stärker und quasi fast gleich teuer und auch alle genauso effizient!
Und meine Antwort war, ja die GPUs von 4070 und 4060ti haben die nahezu gleiche Effizienz, aber die 4070 hat die höhere Boardpower, zudem nur 12GB und kostet 60-100€ mehr, je nach Modell.
Da die 4060ti 16GB aber für meine Nutzung, nämlich 1080p Ultra Gaming bis max 144 Hz exakt das liefert von der Leistung, was ich brauche und dabei am wenigsten verbraucht, war die 4070 raus.
Die 6800 kam gar nicht in Frage weil sie schlicht bei der gleichen Leistung 80-100 Watt mehr braucht und eben in 1080p Ultra teilweise weniger FPS liefert als die 4060ti 16GB.
Und es gibt keine ein weiß.

Das war die Ausgangslage.
Du hast dann gesagt, Du könntest mit einer 6900xt in 1080p effizienter sein als eine 4060ti oder 4070, was technisch schlicht nicht machbar ist, weil alleine die Boardpower schon viel höher ist und Du drosseln, Undervolten, limitieren kannst wie Du willst.
Bei gleicher Wattleistung liefert keine Andere Karte auf dem Markt so viel 1080p Ultra FPS wie die 4070 und 4060ti
Und MIR Fake vorwerfen aber selber falsche Daten angeben.....
Du schreibst 138WATT max,komisch HWINFO64 sagt knapp 170W für die Karte.
Ist die Frage wer hier der Fanboy ist.
leider ist mein YouTube Tageslimit voll, daher hier mal das letzte Testvideo.
138W maximal GPU bei 133FPS Schnitt, also wieder das 1zu1 Limit FPS / Watt

und mit dem aktuellen HWInfo Shot



Finde es absolut bombastisch was die kleine 4060ti 16GB leistet, bei RDR2 ist es allerdings wirklich unschlagbar gut
Anhang anzeigen 27258 Anhang anzeigen 27259 Anhang anzeigen 27260 Anhang anzeigen 27261

Anhang anzeigen 27257
 
Niemand bestreitet das nvidia mit der 4000er Serie einen massiven Effizienzsprung hingelegt hat. Wäre ja auch lächerlich wenn sie das nicht geschaft hätten bei einen doppelten Nodesprung.
RDNA3 ist da ein wenig zwiespältig da die effizienz bei den Chiplets noch nicht so funktioniert wie erhofft. Bei der kleinen 7600 zeigt die Umstellung von 7 auf 6nm aber eine leichte Verbesserung. Mal abwarten was die 77/7800 bringen aber Wunder erhoffe ich mir keine.
Die 4070TI die hoffentlich noch getestet wird hat +- den gleichen Verbrauch wie die RX7900GRE.
 
Oben Unten