NVIDIA GeForce RTX 4060 Ti Founders Edition 8 GB im Test mit 160 und 175 Watt Power Limit plus OC

Du kannst die RX6800xt mit NICHTS 30% drosseln und trotzdem die gleichen FPS erreichen, absolut unmöglich.
Zwei Beispiele:
Du musst nicht immer von der Schlechten Leistung der Nvidia Garten aus gehen mit dem Nutzlosen Treiber........Geht nicht gibt es bei AMD nicht.
PL drosselt bei 281Watt = 125FPS.
Need for Speed™ Payback_2022.05.14-12.39.jpg
Unbenannt.JPG

PL drosselt bei 230Watt =129FPS
Need for Speed™ Payback_2022.05.14-02.40.jpg
230Watt.JPG
 
Ich brauche MIT RT und minimalen Änderungen zu TGs Einstellungen wie FSR Ausgewogen und RT mittel rund 40Watt mehr als die 4060TI weil sich eine 6900XT auf dieser geringen Leistungsklasse schlecht über den Treiber Optimieren lässt.Was bei der 6000er noch schlecht ist ist die RT Leistung in ein paar RT Demo Spielen von Nvidia.Die 7000er sind da gut 50% besser.
Für die sehr Schwache Leistung der 4060Ti ist eine gleicht Teure RX6800XT oder günstigere RX6800 deutlich besser geeignet.Eine 4070 ist auch nicht günstiger als eine 6950XT.
Wobei sich die 6950XT auch noch nicht gut auf ne 4070 drosseln lässt über den Treiber.
https://geizhals.de/?cmp=2579721&cmp=2469759&cmp=2987084&cmp=2769240&cmp=2930593&active=2


Gleiche Effizienz mit max 190Watt gegenüber der 4070 mit minimal mehr FPS.
Wie geschrieben,der 0815 PC Nutzer der keine Ahnung von AMD hat kann gerne die Monopole unterstützen........
Vulkan frisst einige FPS beim Aufzeichnen in 2160p.
Anhang anzeigen 27172
Zeig mir doch mal bitte wie Du bei einer Boardpower von 165 Watt maximal mit einer 6800XT oder 6800 durchgehend 100FPS in 1080p erreichst!
Beweise, kein Gerede, das geht nämlich nicht, völlig unmöglich.
 
Um es noch drastischer auszudrücken, wenn ich drei Porsche habe, einen 4060ti, einen 4070 und RX6800XT, die aber begrenzt sind auf 100kmh weil Landstraße ( sinnbildlich für 100FPS in 1080p, dann braucht der 6800XT seine 10 Liter, der 4070 seine 7 Liter und der 4060ti nur 5,5 Liter.
Plastischer kann ich's nun wirklich nicht machen.
Alle fahren 100kmh, alle haben einen 60 Liter Tank, der 6800 kommt 600 km weit, der 4070 schafft 857 km und der 4060ti schafft 1090km.
Der 4060ti schafft zwar nur 270kmh auf der Autobahn , die beiden anderen 280, aber weil die beiden anderen Tanken müssen, kommt der 4060 TI nach 4h mit konstant 270kmh im 1090km entfernten Ziel an, die beiden anderen müssen Tanken und brauchen mit 15 Minuten Verzögerung durch den Tankstopp nach 4 Stunden 15 Minuten da an.
Und sie haben unterwegs 100€ ausgegeben, fürs Tanken, der 4060ti nicht.
Die 4060Ti fahre ich im 2. Gang.
Die 4070 fahre ich im 4. Gang.
Die 6800XT im 7 Gang.
Und schon verbrauchen alle das gleiche und kommen gleich weit.
 
Bei 720P in Tetris?????
Wie was wo?
Nimm mal RDR2 1080p höchste Qualitätseinstellungen / Ultra im Spiel.
Da erreicht die 4070 ca 100-110FPS im Schnitt bei 190 Watt Boardpower der Grafik-Karte.
Die 4060ti 16GB erreicht 95-100 FPS im Schnitt bei 160 Watt Gesamtaufnahme der Grafikkarte.

Das heißt bei der 4060ti sind es also Pro 1 FPS 1,6-1,7 Watt maximal.
Bei der 4070 sind es pro 1 FPS 1,7-1,9 Watt maximal.

Das sind die Werte die diese Karten ab Werk hinbekommen, ohne jeden Eingriff in Takt, Voltage etc

Wenn Du diese Werte mit einer AMD Karte, egal welcher, hinbekommst, bin ich stark beeindruckt, nehme nehme meine Behauptung zurück und behaupte das Gegenteil.
Und RDR2 kommt Dir da sehr entgegen, weil es stark auf AMD Karten ausgelegt ist.

Also Aufgabe RDR2 auf maximalen Einstellungen 1080p mit maximal 1,7 Watt pro FPS und durchschnittlich um die 100FPS, das ist der Mittelwert zwischen 4060ti und 4070 was die Energieeffizienz betrifft.

Kann Dir jetzt schon sagen, wirst niemals unter 230 Watt bei 100FPS im Schnitt landen für die Gesamtaufnahme der Karte, egal was Du drosselt oder einstellst.

Ich wäre schon stark beeindruckt wenn Du auf 200 Watt kommen würdest.

Die die 6800XT braucht pro 1 FPS in 1080p Ultra Einstellungen nämlich locker 2,3-2,4 Watt, und damit bei quasi gleicher Endleistung wie die 4060ti 16GB von 100FPS 60-70 Watt mehr.
 
Die gleichteure RX6800 schafft gerade mal 90-95 FPS im Schnitt bei RDR2 1080p Ultra, und zieht dabei weit über 230 Watt
Um die gleichen FPS zu schaffen wir die 4060ti und die 4070 brauchst also schon eine 6800XT

Und genau deswegen ist für mein System die 4060ti 16GB die effizientesten und beste Karte, am meisten Leistung für den geringsten Verbrauch
 
Nimm mal RDR2 1080p höchste Qualitätseinstellungen / Ultra im Spiel.
Da erreicht die 4070 ca 100-110FPS im Schnitt bei 190 Watt Boardpower der Grafik-Karte.
Die 4060ti 16GB erreicht 95-100 FPS im Schnitt bei 160 Watt Gesamtaufnahme der Grafikkarte.

Das heißt bei der 4060ti sind es also Pro 1 FPS 1,6-1,7 Watt maximal.
Bei der 4070 sind es pro 1 FPS 1,7-1,9 Watt maximal.

Das sind die Werte die diese Karten ab Werk hinbekommen, ohne jeden Eingriff in Takt, Voltage etc

Wenn Du diese Werte mit einer AMD Karte, egal welcher, hinbekommst, bin ich stark beeindruckt, nehme nehme meine Behauptung zurück und behaupte das Gegenteil.
Und RDR2 kommt Dir da sehr entgegen, weil es stark auf AMD Karten ausgelegt ist.

Also Aufgabe RDR2 auf maximalen Einstellungen 1080p mit maximal 1,7 Watt pro FPS und durchschnittlich um die 100FPS, das ist der Mittelwert zwischen 4060ti und 4070 was die Energieeffizienz betrifft.

Kann Dir jetzt schon sagen, wirst niemals unter 230 Watt bei 100FPS im Schnitt landen für die Gesamtaufnahme der Karte, egal was Du drosselt oder einstellst.

Ich wäre schon stark beeindruckt wenn Du auf 200 Watt kommen würdest.

Die die 6800XT braucht pro 1 FPS in 1080p Ultra Einstellungen nämlich locker 2,3-2,4 Watt, und damit bei quasi gleicher Endleistung wie die 4060ti 16GB von 100FPS 60-70 Watt mehr.
Kannst keine Beiträge lesen........
Den Test hab ich schon mit 1440p gemacht +Video bei max 190Watt.
Schau dir mein Video an,überprüf die Einstellungen,normal läuft es bei mir mit DX12 und nicht Vulkan wie es auch TG hat im Test.
Übrigens befindet sich das PL was DU in HWINFO64 sehen kannst bei rund 150Watt.
 
Ok Sprechen wir nochmals von Effizienz ;-)

Bei AMD fängt es schon mal damit an, dass man über Software nicht den Realen Verbrauch sehen kann. Angezeigt wird nur der Verbrauch von GPU-Die und VRam, die Restlichen Bauteile auf der Karte verbrennen aber auch eine nicht zu vernachlässigende Menge an Strom.
Meine Asus TUF 6800XT hat z.b. eine TDB von 300W die Software begrenz bei 272W (Chip+VRam) also verbraucht der Rest der Karte 28W.

Nvidia misst den ganzen Verbrauch der Karte und zeigt diesen auch an. So kann für den 0815 Verbraucher natürlich der Irrglaube entstehen AMD wäre soviel Effizienter. Was nicht der Fall ist. (Dennoch war RDNA2 effizienter als Ampere, dass muss man aber auch festhalten)

Bei Ada Lovelace stelle ich hier ein paar Sachen fest (hatte kurzzeitig eine Asus 4070 TUF und jetzt eine MSI 4080 Ventus):
-Trotz beschnitt der einzelnen Modell, skaliert die Leistung enorm gut. Ich habe selten eine Architektur gesehen wo man an den Papier-Werten die Leistung so genau einordnen konnte.
-Bei normalen Gebrauch wird die TDP nur sehr selten ausgeschöpft. Sogar in Benchmarks geht meine 4080 sehr selten über 300W (TDP 320W) in Spielen ohne FPS Limit, sind es sogar eher 285W.
-Lässt sich enorm gut Undervolten, so läuft meine 4080 mit 2640mhz@945mV und Verbrauch nur noch 230W im Schnitt mit seltenen Spikes Richtung 240W, dabei habe ich nur einen Leistungsverlust von 3%.
-BG3 spiele ich z.b. mit VSync 60 und DLSS Quality, der Rest auf Max, hier Verbraucht die Karte zwischen 85-120W (je nach Scene)

Leider kann ich die bei meiner Erfahrung mit einer RX6700XT, sowie der Vorerwähnten 6800XT nicht behaupten.
Egal wie gut ich z.b. meine 6800XT optimierte, kam ich bei BG3 VSync 60 und FSR Qualtiy nicht unter 125W es waren eher 145W mit Regelmäßigen Steigerungen auf 200W und dann kommt ja noch der Restliche Verbrauch der Karte dabei...

Jetzt können natürlich Rote Brillen behaupten, dass die 4080 ja Leistungsstärker ist und bei dieser Last deshalb weniger Verbraucht. Naja meine 4070 konnte ich genau gleich einstellen und hatte einen sehr ähnlichen Verbrauch wie die 4080, so ähnlich dass ich von Messtoleranz rede.
Und die 4070 ist genau in der gleichen Leistungsklasse wie die 6800XT.

Was zeigt mir das, die RX6000 sind absolut keine Alternative zu den RTX4000, wenn man die Effizienz betrachtet. Rein von der Rasterleistung können sie zwar mitthalten, aber sobald wie von DLSS und RT sprechen ist schon wieder Ende.

Hier nachmal klar, im Generationsvergleich RX6000 vs RTX3000 war es nicht so klar und ich bevorzugte sogar AMD. Als ich meine RT6800XT gekauft habe, gab es noch zu viele Probleme mir DLSS (2.3+ war noch nicht da), so dass ich FSR1 bevorzugte und RT war bei den RTX3000 (Ausnahme 3090(Ti)) auch nicht brauchbar.

Betrachten wir nun die RX7000, mehr Rohleistung, mehr VRam, RT auf RTX3000 niveau, sonst keine neuen "verfügbaren" Features, deutlich schlechtere Effizienz. Ausser dem Preis kann AMD im Moment absolut nichts bieten.

Und wie hier mehrfach schon geschrieben wurde, ist das Out of the Box Erlebnis bei Nvidia deutlich besser. Wenn ich dann die Behauptung lese, dass man sich halt mit AMD beschäftigen muss, damit sie super läuft, sogar besser als die Konkurrenz, wird mir schon übel. Denn auch die Nvidia Karten lassen sich super optimieren, womit wir wieder am gleichen Punkt sind.
 
Ok Sprechen wir nochmals von Effizienz ;-)

Bei AMD fängt es schon mal damit an, dass man über Software nicht den Realen Verbrauch sehen kann. Angezeigt wird nur der Verbrauch von GPU-Die und VRam, die Restlichen Bauteile auf der Karte verbrennen aber auch eine nicht zu vernachlässigende Menge an Strom.
Meine Asus TUF 6800XT hat z.b. eine TDB von 300W die Software begrenz bei 272W (Chip+VRam) also verbraucht der Rest der Karte 28W.

Nvidia misst den ganzen Verbrauch der Karte und zeigt diesen auch an. So kann für den 0815 Verbraucher natürlich der Irrglaube entstehen AMD wäre soviel Effizienter. Was nicht der Fall ist. (Dennoch war RDNA2 effizienter als Ampere, dass muss man aber auch festhalten)

Bei Ada Lovelace stelle ich hier ein paar Sachen fest (hatte kurzzeitig eine Asus 4070 TUF und jetzt eine MSI 4080 Ventus):
-Trotz beschnitt der einzelnen Modell, skaliert die Leistung enorm gut. Ich habe selten eine Architektur gesehen wo man an den Papier-Werten die Leistung so genau einordnen konnte.
-Bei normalen Gebrauch wird die TDP nur sehr selten ausgeschöpft. Sogar in Benchmarks geht meine 4080 sehr selten über 300W (TDP 320W) in Spielen ohne FPS Limit, sind es sogar eher 285W.
-Lässt sich enorm gut Undervolten, so läuft meine 4080 mit 2640mhz@945mV und Verbrauch nur noch 230W im Schnitt mit seltenen Spikes Richtung 240W, dabei habe ich nur einen Leistungsverlust von 3%.
-BG3 spiele ich z.b. mit VSync 60 und DLSS Quality, der Rest auf Max, hier Verbraucht die Karte zwischen 85-120W (je nach Scene)

Leider kann ich die bei meiner Erfahrung mit einer RX6700XT, sowie der Vorerwähnten 6800XT nicht behaupten.
Egal wie gut ich z.b. meine 6800XT optimierte, kam ich bei BG3 VSync 60 und FSR Qualtiy nicht unter 125W es waren eher 145W mit Regelmäßigen Steigerungen auf 200W und dann kommt ja noch der Restliche Verbrauch der Karte dabei...

Jetzt können natürlich Rote Brillen behaupten, dass die 4080 ja Leistungsstärker ist und bei dieser Last deshalb weniger Verbraucht. Naja meine 4070 konnte ich genau gleich einstellen und hatte einen sehr ähnlichen Verbrauch wie die 4080, so ähnlich dass ich von Messtoleranz rede.
Und die 4070 ist genau in der gleichen Leistungsklasse wie die 6800XT.

Was zeigt mir das, die RX6000 sind absolut keine Alternative zu den RTX4000, wenn man die Effizienz betrachtet. Rein von der Rasterleistung können sie zwar mitthalten, aber sobald wie von DLSS und RT sprechen ist schon wieder Ende.

Hier nachmal klar, im Generationsvergleich RX6000 vs RTX3000 war es nicht so klar und ich bevorzugte sogar AMD. Als ich meine RT6800XT gekauft habe, gab es noch zu viele Probleme mir DLSS (2.3+ war noch nicht da), so dass ich FSR1 bevorzugte und RT war bei den RTX3000 (Ausnahme 3090(Ti)) auch nicht brauchbar.

Betrachten wir nun die RX7000, mehr Rohleistung, mehr VRam, RT auf RTX3000 niveau, sonst keine neuen "verfügbaren" Features, deutlich schlechtere Effizienz. Ausser dem Preis kann AMD im Moment absolut nichts bieten.

Und wie hier mehrfach schon geschrieben wurde, ist das Out of the Box Erlebnis bei Nvidia deutlich besser. Wenn ich dann die Behauptung lese, dass man sich halt mit AMD beschäftigen muss, damit sie super läuft, sogar besser als die Konkurrenz, wird mir schon übel. Denn auch die Nvidia Karten lassen sich super optimieren, womit wir wieder am gleichen Punkt sind.
Da liegst voll daneben bei AMD.
TDP von 300Watt bezieht sich immer auf die Referenz Karten und die werden bei 255Watt gedrosselt was rund 45Watt Unterschied sind + RGB Klamotten,je nach Variante sind das 6-12Watt.
Wenn deine ASUS jetzt übertaktet ist und somit erst bei 272Watt begrenzt ist sind das + 45Watt und je nach verbauten Lüftern auch ein paar Watt mehr + RGB und das machen dann gut 325-330Watt TDP und keine 300Watt.

Hättest dich mal mit AMD beschäftigen sollen.....
 
Da liegst voll daneben bei AMD.
TDP von 300Watt bezieht sich immer auf die Referenz Karten und die werden bei 255Watt gedrosselt was rund 45Watt Unterschied sind + RGB Klamotten,je nach Variante sind das 6-12Watt.
Wenn deine ASUS jetzt übertaktet ist und somit erst bei 272Watt begrenzt ist sind das + 45Watt und je nach verbauten Lüftern auch ein paar Watt mehr + RGB und das machen dann gut 325-330Watt TDP und keine 300Watt.

Hättest dich mal mit AMD beschäftigen sollen.....
Sorry habe die Karte nicht mehr und habe mich auf die Datenbank von Techpowerup verlassen. Aber denkst du wirklich dass deine Aussage es besser macht? Es verschlimmert die Situation für AMD nur noch mehr.
 
Sorry habe die Karte nicht mehr und habe mich auf die Datenbank von Techpowerup verlassen. Aber denkst du wirklich dass deine Aussage es besser macht? Es verschlimmert die Situation für AMD nur noch mehr.
Warum verschlimmert es,ist doch logisch das OC Karten mehr verbrauchen.
Stell dir vor Nvidia würde keinen Riegel davor schieben, dann könntest auch ne 4080 mit 450Watt kaufen.
 
Zuletzt bearbeitet :
Kannst keine Beiträge lesen........
Den Test hab ich schon mit 1440p gemacht +Video bei max 190Watt.
Schau dir mein Video an,überprüf die Einstellungen,normal läuft es bei mir mit DX12 und nicht Vulkan wie es auch TG hat im Test.
Übrigens befindet sich das PL was DU in HWINFO64 sehen kannst bei rund 150Watt.
Du erinnerst Dich, meine Aussage war, das für meine Nutzung 1080p 144Hz die 4060ti 16GB die optimale Karte im Verhältnis FPS Energie, Wärme etc ist. Deine Aussage war, das eine RX6800 zum gleichen Preis Energieeffizienter und stärker wäre.
Fakt ist, die RX6800 schafft in den Ultra Einstellungen vielleich annähnerd ähnliche FPS aber bei viel mehr Watt auf der Grafikkarte. die gleiche Leistung erzielt nur die RX6800XT bei ebenfalls viel mehr Aufnahme.


wir reden nicht von 1440p, sondern ganz klar von 1080p Ultra, völlig andere Sache und hier kommen die Beweisvideos, das schaffste mit keiner RX6xxx mit den Einstellungen, FPS und gleichzeitig geringer Boardpower.


Ich habe beim RDR2 Ultra 1080P eine Maximale Boardpower der Grafikkarte gesamt von 161,9Watt, GPU sogar nur 148Watt, erreiche aber durchgehend FPS von 95-110FPS im Schnitt

Das erreicht KEINE RX6xxx in der gleichen Auflösung und Game Einstellungen





rdr2last1.jpgrdr2last2.jpg
 

Anhänge

  • rdrultra.jpg
    rdrultra.jpg
    200,3 KB · Aufrufe : 7
Zuletzt bearbeitet :
Du erinnerst Dich, meine Aussage war, das für meine Nutzung 1080p 144Hz die 4060ti 16GB die optimale Karte im Verhältnis FPS Energie, Wärme etc ist. Deine Aussage war, das eine RX6800 zum gleichen Preis Energieeffizienter und stärker wäre.
Fakt ist, die RX6800 schafft in den Ultra Einstellungen vielleich annähnerd ähnliche FPS aber bei viel mehr Watt auf der Grafikkarte. die gleiche Leistung erzielt nur die RX6800XT bei ebenfalls viel mehr Aufnahme.


wir reden nicht von 1440p, sondern ganz klar von 1080p Ultra, völlig andere Sache und hier kommen die Beweisvideos, das schaffste mit keiner RX6xxx mit den Einstellungen, FPS und gleichzeitig geringer Boardpower.


Ich habe beim RDR2 Ultra 1080P eine Maximale Boardpower der Grafikkarte gesamt von 161,9Watt, GPU sogar nur 148Watt, erreiche aber durchgehend FPS von 95-110FPS im Schnitt

Das erreicht KEINE RX6xxx in der gleichen Auflösung und Game Einstellungen





Anhang anzeigen 27194 Anhang anzeigen 27195
Verwende den Benchmark.
 
@Casi030
Es verschlimmert sich, weil der von Software angegebene Wert noch deutlicher vom Realen abweicht.

Der Riegel von Nvidia ist für normale Gamer sehr vernünftig ausgelegt.

Aber wieder zu den "kleineren" Karten und vom Preis abgesehen. Was kann AMD in der Leistungsklasse der 4060ti bieten, was auch nur annähernd an die Effizienz der Nvidia ran kommt?

Als ich meine 6700XT hatte, verbraucht diese Angezeigt immer mindestens 125W, sprich wenn ich HZD (60fps) gespielt habe, waren es immer mindestens 125W, egal ob Low oder Ultra. Dann kommen die Nebenverbraucher noch dazu...
Wärend eine 4060ti im direkten Vergleich unter 100W fallen wird. Meine Erfahrung und Einschätzung der 4060ti

Techpowerup hat es getestet und das Urteil ist vernichtend:
 

Anhänge

  • Screenshot 2023-08-15 104129.png
    Screenshot 2023-08-15 104129.png
    250 KB · Aufrufe : 7
Da die Videos mit FPS Einblendung via Game Overlay als Bildschirmkopie aufgenommen wurden, hier das original direkt mit dem Nvidia Game Overlay aufgezeichnet, da ist leider die FPS Einblendung weg, warum auch immer

 
@Casi030
Es verschlimmert sich, weil der von Software angegebene Wert noch deutlicher vom Realen abweicht.

Der Riegel von Nvidia ist für normale Gamer sehr vernünftig ausgelegt.

Aber wieder zu den "kleineren" Karten und vom Preis abgesehen. Was kann AMD in der Leistungsklasse der 4060ti bieten, was auch nur annähernd an die Effizienz der Nvidia ran kommt?

Als ich meine 6700XT hatte, verbraucht diese Angezeigt immer mindestens 125W, sprich wenn ich HZD (60fps) gespielt habe, waren es immer mindestens 125W, egal ob Low oder Ultra. Dann kommen die Nebenverbraucher noch dazu...
Wärend eine 4060ti im direkten Vergleich unter 100W fallen wird. Meine Erfahrung und Einschätzung der 4060ti

Techpowerup hat es getestet und das Urteil ist vernichtend:
Du siehst es ja oben an den Daten, ich habe RDR2 in Ultra mit DLSS3 aktiv in 1080p gespielt, das erste mal mit der neuen Karte, mit der Zeit wird es immer besser durch das DLSS, am Anfang sammelt es noch, trotzdem erreiche ich bereits 95-105 FPS im Schnitt, spitze 130FPS bei gerade mal 146Watt GPU bzw 162Watt komplette Grafikkarte, das ist der pure Irrsinn, selbst die 3070 davor ging dabei immer deutlich über 230-260 Watt, bei fast identischen FPS

rdr2last2.jpgvlcsnap-2023-08-15-10h54m10s824.pngvlcsnap-2023-08-15-10h54m46s986.pngvlcsnap-2023-08-15-10h56m09s225.png
 
Oben Unten