NVIDIA GeForce RTX 4060 Ti Founders Edition 8 GB im Test mit 160 und 175 Watt Power Limit plus OC

Warum hast jetzt zur 4060ti mit 16GB gegriffen und nicht zur 4070 die nicht viel Teurer ist dafür aber effizienter wo der Aufpreis doch nicht mehr so groß ist?
Du nimmst mehr Verbrauch bei der 4060ti in Kauf für 4GB mehr,oder verbraucht die 4070 am Ende doch mehr bei gleicher Leistung wie die 4060ti?
Dann hättest doch besser zur AMD gegriffen, weil da ist es kein Problem.

Und zu deinen komischen vergleichen solltest dir mal reale Daten ansehen.
Die 7600 ist ne 6700 mit weniger VRAM,leicht weniger Verbrauch und günstiger.

Die 4GB mehr kann ich verstehen, den Rest gar nicht,aber gut ich bin besseres gewohnt mit AMD wo die größeren Modelle Effizienter sind als die kleineren und Intel und NVIDIA da nicht mithalten können.
Gut Du kannst es nicht und NVIDIA Karten kann man nicht Effizienz betreiben.
Allein schon zu Schreiben das die 6800 lauter ist und Wärmer wird und dann noch das Bild ein zu fügen mit Lüftern die der Karte die kühle Luft entziehen disqualifiziert Dich eh und zeigt nur wie Du denkst.
Bring also nix mit dir,weil Du das eigentliche Thema eh nicht verstehst.
Und von welchem Test redest DU,ich sehe keinen......
Und selbst eine 6900XT ist schon fast Effizienter als ne 4060TI,da liegt eine 6800 mit der 4060TI schon recht gleich auf für den gleichen Preis.
Leider liefert Igor keine Daten,deswegen TGs Cyberpunk2077.
Meine 6900XT liefert im Spiel immer über 50FPS wenn man das Aufzeichnen mal abzieht bei max TBP von 160Watt wenn sie Lüfter hätte,die 4060TI avg 46FPS bei max 150Watt.
Das waren so verscheidene Einlassungen, bezüglich AMD sei Effizienter usw.

die Ausgangslage war folgende
Moinsen, ja seit knapp einer Woche bin ich auch im Besitz einer 4060Ti, allerdings in der 16GB Version, eine Inno3D / Zotac Twin X2 OC https://www.inno3d.com/en/PRODUCT_INNO3D_GEFORCE_RTX_4060_TI_16GB_TWINX2_OC_WHITE

Ich habe meine vorherige 3070 OC durch diese ersetzt und wurde nur positiv überrascht, da ich sowieso nur in FHD 144Hz max. auflöse, reicht das völlig, selbst für meine ab und an stattfindenden Gaming Anfälle ( RDR2, Division 2 etc. )

Was mir sofort aufgefallen ist, am Beispiel RDR2, die Grafik ist bei gleichen Ultra Einstellungen wie vorher bei der 3070 OC irgendwie smoother, dazu läuft es dank 16GB RAM jetzt viel stressfreier.
Aber das Beste ist wirklich der Verbrauch und damit auch die viel geringeren Temperturen und eine Lautstärke die nicht mehr vorhanden ist.

Bei 165Watt liegt das bisherige Maximum in Werks OC Einstellungen, dabei geht die Karte nicht mal auf 70Grad Temperatur, Hotspot waren 76 Grad, und man hört sie absolut nicht.

Ich habe lange mit mir gerungen, weil ich definitiv keine 8GB Karte mehr haben wollte, aber in der Mittelklasse quasi alles mit 8GB gesetzt ist, daher war ich schon drauf und dran, schweren herzens auf eine RX6800 zu gehen.

Ich bin aber sehr eingeschränkt, weil ich eine weiße Karte brauche ( White Build System ).
Es gab schlicht nichts, womit ich glücklich hätte werden können, erst als meine bisherige Gigabyte 3070 Vision OC nach wenigen Monaten quasi fast abgeraucht ist, weil plötzlich die Wärmeleitpads offensichtlich keinen Bock mehr auf ihren Job hatten, habe ich kurzentschlossen die Inno3D 16GB 4060ti gekauft.

Als Fazit kann ich bisher nur sagen, der absolute Sweetspot für jeden der Gaming in FHD abwickelt.
Ich bin fast ein wenig verliebt.

Endlich mal keine exorbitanten Temperaturen und Lüfterorgien, saubere Leistung, die zumindest mit der 3070 OC gleichauf liegt ( nahezu identische FPS in den Games, teilweise sogar bessere wie bei RDR2 ), gute 100Watt weniger Verbrauch und endlich keinen auf Kante genähten VRAM mehr.
nur die Preise die Nvidia für 8GB RAM mehr aufruft, sind eine echte Ohrfeige.

Eine 3070 gibts ab 400€ logischerweise nur mit 8GB, eine 4060ti mit 8GB gibts ebenfalls ab 400€, eine RX6750 mit 12GB gibts ab 380€, eine ARC 770 mit 16GB gibts ab 360€, aber die 4060ti mit 16 GB gibts ab 530€ also mindestens 120 Euro teurer als die normale 4060ti, 120€ für 8GB GDDR6!??? Selbst die 4070 kommt mit 12GB daher und die bekommt an bereits ab 590€

Bisher lagen zwischen einer 3060ti und einer 3070 je nach Modell so ca 100-150€, also ca 100€ mehr für die nächstgrößere GPU.
Jetzt liegen zwischen 4060ti 8GB und 4070 12GB satte 190€ ( 100€ mehr für die größere GPU und 90€ für 4GB RAM oder was ?? ), zwischen 4060ti 16GB und 4070 12GB ( +100€ für die größere GPU und 40€ Abzug für 4GB weniger RAM ) nur noch 60€. Seltsame Kalkulation.

Die 4070 steigt also knapp 100€ teurer ein als ihre Vorgängerin, nur wegen 4GB RAM mehr, 25€/GB, krass, die Einstiegspreise der 3060ti und der 4060ti mit je 8GB sind jedoch gleich geblieben, also kann ja nur der RAM die Preissteigerung rechtfertigen.

Für Nvidia ist die 4060ti entweder die absolute Melkkuh, oder man will diese Karte, die Nvidia ja eigentlich niemals bauen wollte, über den Preis unbeliebt machen. Nvidia scheint wohl die Politik zu verfolgen, wer mehr RAM will, den man heute auch braucht, soll gefälligst größere und teurere GPUs kaufen, in der Mitteklasse für 1080p haben 8GB zu reichen.
Aber ich will ja keine größere GPU brauche sie auch nicht, nur mehr RAM, also war ich bereits diesen unverschämten Preis zu zahlen.
Da habe ich bereits ganz klar erklärt, warum es letztlich Diese und keine Andere wurde.
Und dann kamen so Sätze wie " selbst meine 6900XT ist effizienter als eine 4060ti.... blablabla" Absoluter Nonsens und Kneipenlogik.
 
Das waren so verscheidene Einlassungen, bezüglich AMD sei Effizienter usw.

die Ausgangslage war folgende

Da habe ich bereits ganz klar erklärt, warum es letztlich Diese und keine Andere wurde.
Und dann kamen so Sätze wie " selbst meine 6900XT ist effizienter als eine 4060ti.... blablabla" Absoluter Nonsens und Kneipenlogik.
Sorry @Igor Wallossek aber langsam reicht es.
Sag mal wie begriffsstützig bist du eigentlich, ich habe klar in den ersten Beiträgen geschrieben und gefragt ob es nicht möglich ist eine 4070 Effizienter zu betreiben als eine 4060ti, ist Nvidia da so Schrott das das nicht möglich ist?
Warum funktioniert das dann mit AMD Karten so gut.
Wenn Nvidia da so ein Schrott ist,dann solltest besser zu AMD greifen.
Genau DAS hab ich am Anfang geschrieben und DU hast Scheinbar 0 davon begriffen und willst bei der IT sein.Da frag Ich mich ob DU nicht den lieben langen Tag in Kneipen rum hängst und deinen Schwachsinn verbreitest.
Und dann hab ich Fakten und Belege geliefert zu deinem Getrolle das eine 6900XT min genauso Effizienz sein kann wie deine 4060ti.Wenn DU es nicht Akzeptieren kannst,dann ist das dein Problem, nur höre endlich auf damit deine Fakt Aussagen zu Posten wo alle anderen Test und deine Eigenen Screens das Gegenteil belegen.
 
Die 4070TI die hoffentlich noch getestet wird hat +- den gleichen Verbrauch wie die RX7900GRE.

oh mann, wieder dummes Zeug.

die Golden Rabbit ist nur eine 6950 Starke 7900 Sonderedition mit überhöhtem Preis, keineswegs wesentlich effizienter als die 4070ti, dafür teurer und nicht offiziell zu bekommen

Die GRE ist nicht als Retail Karte zu kaufen, rein für einige OEMs, also was soll der Verleich mit einer Sonderedition die nur ab 1000€ zu bekommen ist in Verbindung mit einem PC

Die GRE ist quasi gleichstark wie eine reguläre 4070ti FE, hat den fast identischen Verbrauch, kostet theoretisch sogar 100-200€ weniger, ist aber offiziell nicht einzeln zu bekommen weil OEM

Und damit hat sie einen entscheidenden Nachteil, nämlich keine Gewährleistung im herkömmlichen Sinn, sondern nur über den Händler, bei dem man sie in einem PC gekauft hat, außerhalb dieses Systems ist es vorbei mit der Gewährleistung


Die 4070TI hat die gleiche Leistung wie eine 6950 XT, sie ist schwächer als eine 7900XT

die 4070 braucht unter Vollast maximal 250-280Watt gesamt boardpower, die 7900XTX gute 350Watt

Die 4070ti braucht im Schnitt sogar 30Watt weniger als die 6900XT die schwächer ist, und 6950XT die etwa gleichstark ist, im Vergleich zur 4070ti braucht wiederum 325-370Watt in 1440p


RTX 4070 TiRTX 4080RTX 4090RX 7900 XTXRX 7900 XTRX 6900 XTRTX 3080 Ti
Leerlauf (Desktop)17 Watt*18 Watt23 Watt17 Watt***15 Watt***8 Watt12 Watt
Dual-Display (UHD + FHD)22 Watt*24 Watt32 Watt48 Watt***41 Watt***40 Watt23 Watt
UHD-Youtube-Video23 Watt20 Watt35 Watt69 Watt***64 Watt***52 Watt27 Watt
Gaming (MAXIMUM)284 Watt315 Watt442 Watt353 Watt315 Watt301 Watt348 Watt
Full-HD-Gaming @ 60 Fps**55 Watt58 Watt81 Watt89 Watt99 Watt112 Watt90 Watt
Anno 1800 (Full HD)263 Watt266 Watt268 Watt349 Watt312 Watt296 Watt344 Watt
A Plague Tale Requiem (4K)279 Watt307 Watt-350 Watt313 Watt--
Control (WQHD + RT)265 Watt303 Watt361 Watt350 Watt313 Watt296 Watt343 Watt
CSGO (Full HD, FXAA)57 Watt61 Watt80 Watt149 Watt135 Watt--
CSGO (8K-DSR/VSR, 8× MSAA)183 Watt205 Watt296 Watt347 Watt311 Watt--
CP2077 (4K, RT Psycho, FSR/DLSS)272 Watt304 Watt423 Watt352 Watt311 Watt--
Doom Eternal (Full HD, 8× TSSAA)247 Watt258 Watt301 Watt349 Watt313 Watt--
Doom Eternal (4K/5K, Raytracing)281 Watt309 Watt414 Watt350 Watt315 Watt--
Dying Light 2 (4K, RT, FSR/DLSS)266 Watt306 Watt431 Watt349 Watt310 Watt--
Metro Exodus EE (4K/5K, RT)278 Watt310 Watt442 Watt349 Watt312 Watt--
 
Zuletzt bearbeitet :

oh mann, wieder dummes Zeug.

die Golden Rabbit ist nur eine 6950 Sonderedition mit überhöhtem Preis, keineswegs wesentlich effizienter als die 4070ti, dafür teurer und nicht offiziell zu bekommen

Die GRE ist nicht als Retail Karte zu kaufen, rein für einige OEMs, also was soll der Verleich mit einer Sonderedition die nur ab 1000€ zu bekommen ist in Verbindung mit einem PC


Die 4070TI hat die gleiche Leistung wie eine 6950 XT, sie ist schwächer als eine 7900XT

die 4070 braucht unter Vollast maximal 250-280Watt gesamt boardpower, die 7900XT gute 350Watt

Die 4070ti braucht im Schnitt sogar 30Watt weniger als die 6900XT die schwächer ist, und 6950XT die etwa gleichstark ist, im Vergleich zur 4070ti braucht wiederum 325-370Watt in 1440p


RTX 4070 TiRTX 4080RTX 4090RX 7900 XTXRX 7900 XTRX 6900 XTRTX 3080 Ti
Leerlauf (Desktop)17 Watt*18 Watt23 Watt17 Watt***15 Watt***8 Watt12 Watt
Dual-Display (UHD + FHD)22 Watt*24 Watt32 Watt48 Watt***41 Watt***40 Watt23 Watt
UHD-Youtube-Video23 Watt20 Watt35 Watt69 Watt***64 Watt***52 Watt27 Watt
Gaming (MAXIMUM)284 Watt315 Watt442 Watt353 Watt315 Watt301 Watt348 Watt
Full-HD-Gaming @ 60 Fps**55 Watt58 Watt81 Watt89 Watt99 Watt112 Watt90 Watt
Anno 1800 (Full HD)263 Watt266 Watt268 Watt349 Watt312 Watt296 Watt344 Watt
A Plague Tale Requiem (4K)279 Watt307 Watt-350 Watt313 Watt--
Control (WQHD + RT)265 Watt303 Watt361 Watt350 Watt313 Watt296 Watt343 Watt
CSGO (Full HD, FXAA)57 Watt61 Watt80 Watt149 Watt135 Watt--
CSGO (8K-DSR/VSR, 8× MSAA)183 Watt205 Watt296 Watt347 Watt311 Watt--
CP2077 (4K, RT Psycho, FSR/DLSS)272 Watt304 Watt423 Watt352 Watt311 Watt--
Doom Eternal (Full HD, 8× TSSAA)247 Watt258 Watt301 Watt349 Watt313 Watt--
Doom Eternal (4K/5K, Raytracing)281 Watt309 Watt414 Watt350 Watt315 Watt--
Dying Light 2 (4K, RT, FSR/DLSS)266 Watt306 Watt431 Watt349 Watt310 Watt--
Metro Exodus EE (4K/5K, RT)278 Watt310 Watt442 Watt349 Watt312 Watt--
Hattest dich eigentlich nur zum Trollen hier angemeldet.....
Wo verbraucht die XT 350Watt???????
Die XT ist auf 315Watt gedrosselt und die GRE um 250-270Watt die von der Leistung her zwischen der 4070 und der 4070ti landet mit dem gleichen Verbrauch der TI.
01-QHD-FPS-1.png




01-Power-Consumption-1.png
 
Sorry @Igor Wallossek aber langsam reicht es.
Sag mal wie begriffsstützig bist du eigentlich, ich habe klar in den ersten Beiträgen geschrieben und gefragt ob es nicht möglich ist eine 4070 Effizienter zu betreiben als eine 4060ti, ist Nvidia da so Schrott das das nicht möglich ist?
Warum funktioniert das dann mit AMD Karten so gut.
Wenn Nvidia da so ein Schrott ist,dann solltest besser zu AMD greifen.
Genau DAS hab ich am Anfang geschrieben und DU hast Scheinbar 0 davon begriffen und willst bei der IT sein.Da frag Ich mich ob DU nicht den lieben langen Tag in Kneipen rum hängst und deinen Schwachsinn verbreitest.
Und dann hab ich Fakten und Belege geliefert zu deinem Getrolle das eine 6900XT min genauso Effizienz sein kann wie deine 4060ti.Wenn DU es nicht Akzeptieren kannst,dann ist das dein Problem, nur höre endlich auf damit deine Fakt Aussagen zu Posten wo alle anderen Test und deine Eigenen Screens das Gegenteil belegen.
Du hast NICHT eine Deiner Aussagen mit einem eindeutigen Benchmarkvideo belegt, Punkt, nur Ausreden und Palaver, und Fake Screenshots.... also vorsicht im Glashaus mit den Steinen, alle haben abgeliefert, nur Du nicht.


Punkt zwei, es ist also aus Deiner Sicht "Schrott" ist wenn eine Karte mit eine völlig andere Basis verwendet und die 4070 ist genauso effizient auf der GPU wie die 4060ti, teiweise sogar minimal besser, aber hat eine höhere Boardpower, die AMD ja immer sauber ausschließt.

AMD arbeitet hier mit Navi 21 und 22 auf völlig anderen Grundlagen, weswegen man auch gut runtertakten kann

eine 6700XT liegt bei ca 230Watt die 6800XT bei 300Watt, und hat in etwa exakt die gleiche Mehrleistung im Verhältnis zum Watt Wert, also kein Ding
Vergleichen kann man nicht eine XT oder XTX zur NON XT Version eine 6800 liegt bei etwa 10% höherer Aufnahme im Vergleich zu einer 6700XT, bringt aber fast 20% mehr FPS

die Nividia 4060ti liegt bei 165 Watt, die 4070 bei 200 Watt, also 20-25% höhere Aufnahme, dafür hat sie aber 30% mehr Cores und entsprechend auch ein 30-35% höhere FPS Leistung bzw Geschwindigkeit.
die 4070 ist für 1440p ausgelegt, die 4060ti für 1080p, also schwer vergleichbar, am ende haben aber beide auf der GPU in 1080p die gleiche extrem hohe Effizienz und liegen in der Effizienz 30-40% besser als die vergleichbaren AMD Modelle

Also Dein vergleich hinkt, denn die AMD Modelle haben eine viel schlechter Effizienz als die Nvidia Modelle, daher gibts bei AMD eben auch "Spielräume" weil sie einfach schlecht eingestellt und konzipiert sind.

Für 100FPS 1080P Ultra benötigen sowohl die 4060ti als auch die 4070 zwischen 135 und 165 Watt, die vergleichbaren AMD Modelle liegen bei gleicher FPS und gleicher CPU alle deutlich über 200-250 Watt

Also das man die AMD noch optimieren kann, bedeutet nicht das Nvidia Schrott ist, sondern das Nvidia einen guten Job macht und AMD das nicht hinbekommt.
Denn Nvidia 40xx hat die deutlich bessere Effizienz von Haus aus, also der Kernschrott liegt auf AMD Seite.

Du musst einfach mal Deine Denkweise an Logik anpassen und nicht an Fanboy

Was schon gut ist, muss man nicht optimieren, das ist halt bei AMD anders


 
Hattest dich eigentlich nur zum Trollen hier angemeldet.....
Wo verbraucht die XT 350Watt???????
Die XT ist auf 315Watt gedrosselt und die GRE um 250-270Watt die von der Leistung her zwischen der 4070 und der 4070ti landet mit dem gleichen Verbrauch der TI.
Kannst Du eigentlich lesen, oben ganz klar gesamtverbrauch der Karte ( nicht nur AMD GPU ) in verschiedenen Spielen

Die AMD Karten mit gleicher Leistung verbrauchen alle 30-40 Watt mehr im Schnitt

Gleiche Leistung heißt 4070ti--6900XT/50XT
4080/ti --- 7900XT/ xtx

eine 4070ti schlägt eine 6950XT um 10-20% je nach Game


Und Effizienz

die 7900XT nimmt bei Anno 1800 1440p 144Hz Limit 312 Watt, die 4070ti beim gleichen Game und gleicher Leistung in 1440p 144Hz nur 263Watt, 50Watt mehr , oder 20% mehr

RTX 4070 TiRTX 4080RTX 4090RX 7900 XTXRX 7900 XTRX 6900 XTRTX 3080 Ti
Leerlauf (Desktop)17 Watt*18 Watt23 Watt17 Watt***15 Watt***8 Watt12 Watt
Dual-Display (UHD + FHD)22 Watt*24 Watt32 Watt48 Watt***41 Watt***40 Watt23 Watt
UHD-Youtube-Video23 Watt20 Watt35 Watt69 Watt***64 Watt***52 Watt27 Watt
Gaming (MAXIMUM)284 Watt315 Watt442 Watt353 Watt315 Watt301 Watt348 Watt
Full-HD-Gaming @ 60 Fps**55 Watt58 Watt81 Watt89 Watt99 Watt112 Watt90 Watt
Anno 1800 (Full HD)263 Watt266 Watt268 Watt349 Watt312 Watt296 Watt344 Watt
A Plague Tale Requiem (4K)279 Watt307 Watt-350 Watt313 Watt--
Control (WQHD + RT)265 Watt303 Watt361 Watt350 Watt313 Watt296 Watt343 Watt
CSGO (Full HD, FXAA)57 Watt61 Watt80 Watt149 Watt135 Watt--
CSGO (8K-DSR/VSR, 8× MSAA)183 Watt205 Watt296 Watt347 Watt311 Watt--
CP2077 (4K, RT Psycho, FSR/DLSS)272 Watt304 Watt423 Watt352 Watt311 Watt--
Doom Eternal (Full HD, 8× TSSAA)247 Watt258 Watt301 Watt349 Watt313 Watt--
Doom Eternal (4K/5K, Raytracing)281 Watt309 Watt414 Watt350 Watt315 Watt--
Dying Light 2 (4K, RT, FSR/DLSS)266 Watt306 Watt431 Watt349 Watt310 Watt--
Metro Exodus EE (4K/5K, RT)278 Watt310 Watt442 Watt349 Watt312 Watt--
 
Du hast NICHT eine Deiner Aussagen mit einem eindeutigen Benchmarkvideo belegt, Punkt, nur Ausreden und Palaver, und Fake Screenshots.... also vorsicht im Glashaus mit den Steinen, alle haben abgeliefert, nur Du nicht.
Dann liefere doch selber mal Fakten ohne deine Fake Anzeige.
Stromverbrauch vom Netzteil, oder Du kannst Dir Deine Fakes sonst wo hinstellen.
Aber mit der Logik hast recht,20 Jahre IT kann auch der Hausmeister von sich sagen.
 
Und dann nimm mal den Preis für eine gute Karte



Nvidia schneller, billiger und effizienter


eine gute 7900xt kostet ca 50€ mehr als eine 4070ti, ist zwar nominal 10% schneller, was aber auf die Auflösung ankommt und braucht dann aber auch 50Watt mehr, oder 20% mehr energie für 10% mehr Leistung

Begrfiff Effizienz jetzt kapiert?
 
Kannst Du eigentlich lesen, oben ganz klar gesamtverbrauch der Karte ( nicht nur AMD GPU ) in verschiedenen Spielen

Die AMD Karten mit gleicher Leistung verbrauchen alle 30-40 Watt mehr im Schnitt

Gleiche Leistung heißt 4070ti--6900XT/50XT
4080/ti --- 7900XT/ xtx

eine 4070ti schlägt eine 6950XT um 10-20% je nach Game


Und Effizienz

die 7900XT nimmt bei Anno 1800 1440p 144Hz Limit 312 Watt, die 4070ti beim gleichen Game und gleicher Leistung in 1440p 144Hz nur 263Watt, 50Watt mehr , oder 20% mehr

RTX 4070 TiRTX 4080RTX 4090RX 7900 XTXRX 7900 XTRX 6900 XTRTX 3080 Ti
Leerlauf (Desktop)17 Watt*18 Watt23 Watt17 Watt***15 Watt***8 Watt12 Watt
Dual-Display (UHD + FHD)22 Watt*24 Watt32 Watt48 Watt***41 Watt***40 Watt23 Watt
UHD-Youtube-Video23 Watt20 Watt35 Watt69 Watt***64 Watt***52 Watt27 Watt
Gaming (MAXIMUM)284 Watt315 Watt442 Watt353 Watt315 Watt301 Watt348 Watt
Full-HD-Gaming @ 60 Fps**55 Watt58 Watt81 Watt89 Watt99 Watt112 Watt90 Watt
Anno 1800 (Full HD)263 Watt266 Watt268 Watt349 Watt312 Watt296 Watt344 Watt
A Plague Tale Requiem (4K)279 Watt307 Watt-350 Watt313 Watt--
Control (WQHD + RT)265 Watt303 Watt361 Watt350 Watt313 Watt296 Watt343 Watt
CSGO (Full HD, FXAA)57 Watt61 Watt80 Watt149 Watt135 Watt--
CSGO (8K-DSR/VSR, 8× MSAA)183 Watt205 Watt296 Watt347 Watt311 Watt--
CP2077 (4K, RT Psycho, FSR/DLSS)272 Watt304 Watt423 Watt352 Watt311 Watt--
Doom Eternal (Full HD, 8× TSSAA)247 Watt258 Watt301 Watt349 Watt313 Watt--
Doom Eternal (4K/5K, Raytracing)281 Watt309 Watt414 Watt350 Watt315 Watt--
Dying Light 2 (4K, RT, FSR/DLSS)266 Watt306 Watt431 Watt349 Watt310 Watt--
Metro Exodus EE (4K/5K, RT)278 Watt310 Watt442 Watt349 Watt312 Watt--
Und wenn DU nicht nur Trollen würdest dann wären Dir die 260Watt der GRE auch aufgefallen die schneller ist als die 4070.
Screenshot_20230816-121632_Samsung Internet.jpg
 
Und dann nimm mal den Preis für eine gute Karte



Nvidia schneller, billiger und effizienter


eine gute 7900xt kostet ca 50€ mehr als eine 4070ti, ist zwar nominal 10% schneller, was aber auf die Auflösung ankommt und braucht dann aber auch 50Watt mehr, oder 20% mehr energie für 10% mehr Leistung

Begrfiff Effizienz jetzt kapiert?
Würde ich mit Luft immer bevorzugen.

Ne 6950XT liegt auch unter 800EU.
 
@DigitalBlizzard besser hätte ich es nicht beschreiben können.

Da ich ja selbst fast 2 Jahre mit einer 6800XT Erfahrung sammeln konnte muss ich aber sagen, dass die von Werk gar nicht so schlecht optimiert war. Selbst optimieren, hier gab es wenig Spielraum. Also hat AMD und/oder Asus hier gut gearbeitet.
Wäre FSR2 das geworden was angekündigt gewesen war, hätte ich nicht mal gewechselt. Nur leider ist FSR2 beiden Alternativen also XeSS und DLSS2,3+ unterlegen. XeSS hätte mich ja noch überzeugen können, da es mit der 6800XT nutzbar ist, dennach ist es in Spielen welche ich zocken möchte nicht enthalten. Intel rettet AMD ist ja auch mal lustig...

Ich habe aber ein 4K Schirm und manche Spiele packte die GPU nicht mehr ohne die Hilfe von Upscalern meine gewünschten festen 60fps.
Wegen DLSS entschied ich mich für eine 4070 und war von der Effizienz begeistert. Da diese sich aber nicht mit meinem Mainboard vertrug (Details würde das Thema noch mehr sprengen), musste sie zurück und habe aus einer Laune heraus eine 4080 bestellt.
Objektiv wäre für mein System und Bedarf die 4070 aber besser. Dennoch bereue ich den Kauf nicht. Da ich sie nicht voll auslaste, liegt die Effizienz/Verbrauch auf dem gleichen Niveu einer 4070. In 1-2 Jahren wird es sich aber vielleicht Rechnen, mal sehen.

Zurück zur 6800XT und mein Fazit zu diesen: Optimierungsspielraum nicht berauchend, für die gleiche Leistung wie die der 4070 gut 100W mehr verbrauch. Dank DLSS ist der Unterschied noch grösser.

Und wie @DigitalBlizzard schreibt, haben alle hier vorgelegt sogar @LEIV mit seiner AMD Karte hat absolut niemand beanstandet, da plausibel und ohne Hate präsentiert. Nur du @Casi030 kommst mit ubelegten Zauberwerten und Beleidigungen... Es hat noch keiner dich hier angegriffen (ausser ich habe es überlesen) nur ganz normale Fragen gestellt, welche nur mit Ausreden und Beleidigungen beantwortet werden. Dann @Igor Wallossek um Hilfe bitten. Glaubst du er kann nicht selbst lesen und erkennen, wer hier die Stimmung zu nichte macht?
 
Bin auf den test der 7800xt mit Starfield und FSR3 gespannt...auch wenn die 4070 vorhin bestellt wurde.

Mal gucken was FSR3 dann noch so zaubert ... aber es muss ja auch erstmal bei den Spielen implementiert werden.
 
Dann @Igor Wallossek um Hilfe bitten. Glaubst du er kann nicht selbst lesen und erkennen, wer hier die Stimmung zu nichte macht?

Glaube kaum,dass Igor hier groß mitliest.
Er hat besseres zu tun und kennt auch die Antwort in Bezug auf Leistung und Effizienz ;)

Ich habe auch nur mitgelesen weil ich Zeit übrig habe und es mich zum Lachen brachte.

Auf „den Beweis“ warten wir wohl vergebens....
 
Ich bitte ihn um Hilfe wenn ich mich entschuldige, ok........
Wenn ich Hilfe bräuchte dann würde ich schreiben,nimm die Referenz RX6900XT aus dem Regal,stell das PL runter,die Spannungskurve auf 1100 und den Takt auf 1625MHz.
Einstellungen wie in RDR2 aus meinem Video und den Benchmark messen.
1000% kommt auch er auf den geringen Verbrauch.
 
Auf „den Beweis“ warten wir wohl vergebens....
Nvidia Fanboy schreibt ich habe 139Watt gemessen obwohl es 170Watt sind und jeder glaubt ihm blind.
AMD Nutzer liefert Videobeweis mit deutlich mehr Daten und richtigen Daten und der Nvidia Fanboys würde es selbst wenn er vor dem Rechner steht nicht glauben.
Soviel zu Fanboys.
 
Ich geb's auf.
Der Weihnachtsmann kommt in 131 Tagen, zumindest zu denen die noch dran glauben, aslo sei gewappnet Casi
Dann liefere doch selber mal Fakten ohne deine Fake Anzeige.
Stromverbrauch vom Netzteil, oder Du kannst Dir Deine Fakes sonst wo hinstellen.
Aber mit der Logik hast recht,20 Jahre IT kann auch der Hausmeister von sich sagen.
Ich habe die Fakten live im Video geliefert Nvidia Overlay original Kartenwerte und dazu die HWInfo, absolut identisch und übereinstimmend.
Und lustigerweise genau in dem Werten die auch in jedem Test rauskommen.

Zur Erinnerung:

Live im Video, Original und jegliche Fremddaten, also unterstelle Du mir keinen Fake , zumal meine Karte generell bei maximal 165-170 Watt das Kartenmaximum erreicht hat

 
Und das Beste, jetzt gerade inklusive Einblendung HWInfo 7.6
RDR2 Benchmark 1080p Ultra, Live Overlay , Sync 144Hz, DLSS3 auf Ultra

Also über jeden Zweifel erhaben, alles dokumentiert, live

Video ab 15 Uhr in HD


BEnch NEU.jpgvlcsnap-2023-08-16-14h22m29s469.pngvlcsnap-2023-08-16-14h22m35s928.png
 
Und das Beste, jetzt gerade inklusive Einblendung HWInfo 7.6
RDR2 Benchmark 1080p Ultra, Live Overlay , Sync 144Hz, DLSS3 auf Ultra

Also über jeden Zweifel erhaben, alles dokumentiert, live

Video ab 15 Uhr in HD


Anhang anzeigen 27291 Anhang anzeigen 27292 Anhang anzeigen 27293
Du möchtest also das Overlay von AMD sehen weil den Rest hab Ich ja identisch zu deinem geliefert um Mir dann zu Unterstellen ich hätte den Treiber manipuliert, sehe Ich das richtig?
 
Du möchtest also das Overlay von AMD sehen weil den Rest hab Ich ja identisch zu deinem geliefert um Mir dann zu Unterstellen ich hätte den Treiber manipuliert, sehe Ich das richtig?
Nein, ich werde einfach aus diesem wusel Overlay nicht schlau.
Das zeigt tausend Prozente und co an, aber nicht was exakt zuzuordnen wäre.
Einfach FPS, GPU Wattage dann kann man da die 30% raufrechnen und sieht was Masse ist, und wie ich es im Video gemacht habe im Hintergrund HWInfo 7.60 mitlaufen lassen und am Ende der Benchmark in der Aufnahme in den Vordergrund öffnen.

Dann ist es absolut nachvollziehbar was tatsächlich an FPS zu Watt Verhältnis anliegt
 
Nein, ich werde einfach aus diesem wusel Overlay nicht schlau.
Das zeigt tausend Prozente und co an, aber nicht was exakt zuzuordnen wäre.
Einfach FPS, GPU Wattage dann kann man da die 30% raufrechnen und sieht was Masse ist, und wie ich es im Video gemacht habe im Hintergrund HWInfo 7.60 mitlaufen lassen und am Ende der Benchmark in der Aufnahme in den Vordergrund öffnen.

Dann ist es absolut nachvollziehbar was tatsächlich an FPS zu Watt Verhältnis anliegt
Sicher das es so einfach ist,nachher wird mir wieder unterstellt ich hab das Video manipuliert, oder soll ich zur Sicherheit noch ein Video machen was zeigt wie ich das eine Video erstelle?!
 
Oben Unten