NVIDIA GeForce RTX 4060 Ti Founders Edition 8 GB im Test mit 160 und 175 Watt Power Limit plus OC

Ja, das hat wohl nicht so geklappt von 6 auf 7 bei AMD
RX 6600 135Watt RX 6700 165 Watt, RX 6900 300 Watt RX 7900 315 Watt.

Nvidia RTX 3060Ti 200 Watt, RTC 4060Ti 165 Watt, 3070 265 Watt 200 Watt.

Also wie ich das sehe packt AMD jeweils 15-30 Watt drauf, Nvidia dagegen hat 60-65 Watt gesenkt mit dem Nachfolgemodell.

Und leiser sind die AMDs auch nicht geworden.

Bei der 6600 zur6700 hat AMD 9% Leistungszuwachs und 31% höhere Energieaufnahme.
Bei 3060ti zur 4060ti ist die Leistung um 9-12% gestiegen, die Energieaufnahme allerdings um 36% gesunken
 
Ja, das hat wohl nicht so geklappt von 6 auf 7 bei AMD
RX 6600 135Watt RX 6700 165 Watt, RX 6900 300 Watt RX 7900 315 Watt.

Nvidia RTX 3060Ti 200 Watt, RTC 4060Ti 165 Watt, 3070 265 Watt 200 Watt.

Also wie ich das sehe packt AMD jeweils 15-30 Watt drauf, Nvidia dagegen hat 60-65 Watt gesenkt mit dem Nachfolgemodell.

Und leiser sind die AMDs auch nicht geworden.

Bei der 6600 zur6700 hat AMD 9% Leistungszuwachs und 31% höhere Energieaufnahme.
Bei 3060ti zur 4060ti ist die Leistung um 9-12% gestiegen, die Energieaufnahme allerdings um 36% gesunken
Plug&Play gab es bei AMD noch nie........
Nur damit du es verstehst,dein Vergleich bezog sich auf die 4060 vs 4070 und wenn der Preisunterschied bei AMD zwischen einer 6700XT und 6800 nicht zu groß ist,dann greift man logischerweise zur 6800 weil sie gegenüber der 6700XT bei gleicher Leistung deutlich leiser ist bzw. Lautlos bei deutlich weniger Verbrauch.
Um 120EU für mehr Leistung,weniger Verbrauch,mehr VRAM und deutlich leiser.

Bei Nvidia wirst einfach nur verarscht und übern Tisch gezogen.

Und aus welchen Fingern du dir deine Prozente raus gesaugt hast musst mir auch mal erklären.?!
 
Zuletzt bearbeitet :
Und aus welchen Fingern du dir deine Prozente raus gesaugt hast musst mir auch mal erklären.?!
Die Werte stammen aus den Tests und den Hersteller Angaben, findest unter anderem bei pcgh etc.
Und aus eigener Erfahrung.
Und Fakt in allen Tests ist das AMDs 7xxx Serie die Wattleistung Pro FPS angestiegen ist, bei Nvidias 40xx Serien ist sie allerdings stark gesunken im Vergleich zum Vorgänger.
Das bedeutet ganz klar das Nvidia effizienter ist.

Die 3060 TI hatte noch 0.183FPS/ Watt die 4060ti hat 0.287FPS/Watt
Die RX6650 hatte 0.17FPS/ Watt die RX6700 hat 0.199 Watt/FPS
Die RX 7 Serie erreicht zwar mehr FPS aber auch der Verbrauch ist gestiegen, sie ist nur minimal effizienter geworden.
Wahren AMD 0.1FPS pro Watt mehr erreicht, schafft AMD gerade mal 0.029 FPS pro Watt mehr.
Ist also ein sehr deutlicher Effizienzunterschied.

Wenn man bedenkt das eine 7600 nicht im Ansatz an eine 4060ti herankommt und trotzdem durchschnittlich 160Watt Boardpower zieht, die 4060ti jedoch deutlich höhere Leistung bei 140Watt durchschnittlicher Boardpower liefert, ist der Effizienzunterschied riesig.

Nimmt man diese Differenzwerte und übertragt die auf die kommende 7700 dann hat AMD ein Problem, denn die bisherige 6700 hat gerade mal 0.176FPS/ Watt erreicht bei einer durchschnittlichen Boardpower von 185 Watt, die 6700xt 0.183FPS/Watt bei einer Boardpower von 205 Watt.

Von der Effizienz der bereits auf dem Markt befindlichen 7xxx ausgehend, wird die 7700 0.205FPS/Watt erreichen und damit 170Watt durchschnittliche Boardpower ziehen.
Die 7700xt wird 0.211FPS/ Watt erreichen und rund 185 Watt Boardpower ziehen.

Das bedeutet ganz klar, Nvidia ist auf gleichem Leistungsniveau fast 25-30% effizienter als AMD bei den neuen Serien.
Und mehr Watt bedeutet immer mehr Wärme und Kühlung und damit Lautstärke.

Und wenn ich von den Werten ausgehe, eine 7600 nicht im Ansatz an die 4060ti herankommt, dann wird die 7700/7700xt der Kontrahent mit nahezu gleicher Leistung werden.
Fazit, um die Leistung einer 4060ti zu erreichen brauchst eine 7700/XT die zwischen 400-500 Euro kosten wird, dabei hat sie nur 12GB RAM, die 4060ti für 500€ aber 16GB RAM und dann braucht die 7700/XT immer noch 20-30 Watt mehr im Schnitt als die 4060ti.

Und wenn ich vom fast gleichen Preis aber höherem Verbrauch ausgehe wird es fies.

Wenn ich jeden Tag NUR 2 Stunden Spiele, dann habe ich mit der AMD 7700 21.900 Watt mehr Strom verbraucht pro Jahr, also 22kwh, was in etwa 8-9€ pro Jahr entspricht.
Macht in 3 Jahren schon fast 30€ damit liegt die AMD durch die schlechtere Effizienz auch preislich hinten.

Und das sind Testwerte und Mathematik, kein Fanboy schöngerede, oder kann ich ja alles einstellen.
Nein, es geht um die Nutzung der Karte ab Werk @ Stock, einstellen, Undervolten etc kann ich bei Nvidia auch.
 
Die Werte stammen aus den Tests und den Hersteller Angaben, findest unter anderem bei pcgh etc.
Und aus eigener Erfahrung.
Und Fakt in allen Tests ist das AMDs 7xxx Serie die Wattleistung Pro FPS angestiegen ist, bei Nvidias 40xx Serien ist sie allerdings stark gesunken im Vergleich zum Vorgänger.
Das bedeutet ganz klar das Nvidia effizienter ist.

Die 3060 TI hatte noch 0.183FPS/ Watt die 4060ti hat 0.287FPS/Watt
Die RX6650 hatte 0.17FPS/ Watt die RX6700 hat 0.199 Watt/FPS
Die RX 7 Serie erreicht zwar mehr FPS aber auch der Verbrauch ist gestiegen, sie ist nur minimal effizienter geworden.
Wahren AMD 0.1FPS pro Watt mehr erreicht, schafft AMD gerade mal 0.029 FPS pro Watt mehr.
Ist also ein sehr deutlicher Effizienzunterschied.

Wenn man bedenkt das eine 7600 nicht im Ansatz an eine 4060ti herankommt und trotzdem durchschnittlich 160Watt Boardpower zieht, die 4060ti jedoch deutlich höhere Leistung bei 140Watt durchschnittlicher Boardpower liefert, ist der Effizienzunterschied riesig.

Nimmt man diese Differenzwerte und übertragt die auf die kommende 7700 dann hat AMD ein Problem, denn die bisherige 6700 hat gerade mal 0.176FPS/ Watt erreicht bei einer durchschnittlichen Boardpower von 185 Watt, die 6700xt 0.183FPS/Watt bei einer Boardpower von 205 Watt.

Von der Effizienz der bereits auf dem Markt befindlichen 7xxx ausgehend, wird die 7700 0.205FPS/Watt erreichen und damit 170Watt durchschnittliche Boardpower ziehen.
Die 7700xt wird 0.211FPS/ Watt erreichen und rund 185 Watt Boardpower ziehen.

Das bedeutet ganz klar, Nvidia ist auf gleichem Leistungsniveau fast 25-30% effizienter als AMD bei den neuen Serien.
Und mehr Watt bedeutet immer mehr Wärme und Kühlung und damit Lautstärke.

Und wenn ich von den Werten ausgehe, eine 7600 nicht im Ansatz an die 4060ti herankommt, dann wird die 7700/7700xt der Kontrahent mit nahezu gleicher Leistung werden.
Fazit, um die Leistung einer 4060ti zu erreichen brauchst eine 7700/XT die zwischen 400-500 Euro kosten wird, dabei hat sie nur 12GB RAM, die 4060ti für 500€ aber 16GB RAM und dann braucht die 7700/XT immer noch 20-30 Watt mehr im Schnitt als die 4060ti.

Und wenn ich vom fast gleichen Preis aber höherem Verbrauch ausgehe wird es fies.

Wenn ich jeden Tag NUR 2 Stunden Spiele, dann habe ich mit der AMD 7700 21.900 Watt mehr Strom verbraucht pro Jahr, also 22kwh, was in etwa 8-9€ pro Jahr entspricht.
Macht in 3 Jahren schon fast 30€ damit liegt die AMD durch die schlechtere Effizienz auch preislich hinten.

Und das sind Testwerte und Mathematik, kein Fanboy schöngerede, oder kann ich ja alles einstellen.
Nein, es geht um die Nutzung der Karte ab Werk @ Stock, einstellen, Undervolten etc kann ich bei Nvidia auch.
Mir wäre selbst die Effizenz egal, aber ich hab noch nichtmal das Officepaket ans laufen bekommen. Das Netz ist voller Berichte das sich Buchstaben nachziehen, kurzzeitig verschwinden, der Cursor zurückspringt, manchmal Absätze kurz weg sind und wieder auftauchen etc. etc.

Der Fehler ist wohl schon länger bekannt und bezieht sich auf die 6000er Serie und wurde AMD auch schon gemeldet. Woran das im Einzellfall liegt, scheint unklar. Mich würde sowas nichtmal groß stören, aber eine Schreibkraft kann so nicht wirklich arbeiten.

Keine der im Netz offerierten Lösungsvorschläge hat funktioniert. Und damit bin ich nicht allein.

Auch das Probleme, das der andere Rechner nach Einbau der 5500XT plötzlich X-Minuten zum Booten brauchte, hab ich nie gelöst.

Da ist es für mich billiger, mich von NVDIA verarschen zu lassen. Scheint ja ein großteil der Käufer ähnlich zu sehen.

Im übrigen allen ein schönes Wochenende.
 
Zuletzt bearbeitet :
einstellen, Undervolten etc kann ich bei Nvidia auch.
Das hat aber gedauert..........
Warum hast jetzt zur 4060ti mit 16GB gegriffen und nicht zur 4070 die nicht viel Teurer ist dafür aber effizienter wo der Aufpreis doch nicht mehr so groß ist?
Du nimmst mehr Verbrauch bei der 4060ti in Kauf für 4GB mehr,oder verbraucht die 4070 am Ende doch mehr bei gleicher Leistung wie die 4060ti?
Dann hättest doch besser zur AMD gegriffen, weil da ist es kein Problem.

Und zu deinen komischen vergleichen solltest dir mal reale Daten ansehen.
Die 7600 ist ne 6700 mit weniger VRAM,leicht weniger Verbrauch und günstiger.
 
Zuletzt bearbeitet :
Genau das ist es, ich bin mittlerweile zwar echt zum Effizienzfreak geworden, aber wie vorher schon geschrieben, ich mags problemlos und ohne tausend Einstellungen uneingeschränkt nutzbar.

Das hatte ich leider mit all meinen AMDs vorher nicht, ständig Inkompatibilitäten, Treiberfehler, man denke an Win11 Einführung, da waren dann die AMD Karten auf vielen Systemen auf 40% ihrer Leistung begrenzt.
AMD Treiber die sich Standardprogrammen wie MS Office, Kaspersky, etc beißen.

Nvidia hat, wie auch die Verkaufszahlen zeigen, schlicht mehr zufriedene Nutzer, seine Zahlen erreicht AMD nach wie vor nur über den Preis, und ehrlich gesagt zahle ich lieber mehr, habe dafür aber keinen Stress, sondern es läuft einfach, und ich muss auch nicht den Notarzt verständigen, wenn das nächste Treiberupdate ansteht, einfach weil man sich sicher sein kann, automatisch installieren, läuft perfekt.
Bei AMD kommen schon die Hinweise vorher, " möchten sie vorherige Installationen sicher entfernen, weil es sonst zu Problemen kommen kann" ! Nein danke
 
Das hat aber gedauert..........
Warum hast jetzt zur 4060ti mit 16GB gegriffen und nicht zur 4070 die nicht viel Teurer ist dafür aber effizienter wo der Aufpreis doch nicht mehr so groß ist?
Du nimmst mehr Verbrauch bei der 4060ti in Kauf für 4GB mehr,oder verbraucht die 4070 am Ende doch mehr bei gleicher Leistung wie die 4060ti?
Dann hättest doch besser zur AMD gegriffen, weil da ist es kein Problem.
Weil die 4070 mehr verbraucht und ich mit der Mehrleistung nichts anfangen kann, ich löse 1080p 144 Hz auf, das erfüllt die 4060ti vollkommen und hat gleichzeitig 16Gab statt 12GB bei der 4070.
Also 4070 macht für mich keinen Sinn.
Was bringt Mehrleistung, die ich gar nicht brauche oder nutzen kann,

Ich kann jedes Game auf Ultra mit hohen dreistelligen FPS zocken, brauche dabei weniger Strom, die Karte bleibt entsprechend kühler, leiser und hat nochmal 4GB mehr.
Also warum sollte ich eine 4070 kaufen.
Komme von der 3070, die ich nicht ausgelastet habe, die 4060ti bringt quasi die identische Leistung bei 100 Watt weniger als die vorherige 3070
 
Ich geh doch auch nicht zu Rewe mit 20€ und sage statt der 300g DryAdged Filetsteak vom Angus nehme ich fürs gleiche Geld lieber 1,2kg Bratwurst, nur weil ich nominal mehr bekomme, es aber gar nicht will oder brauche.
 
Weil die 4070 mehr verbraucht und ich mit der Mehrleistung nichts anfangen kann, ich löse 1080p 144 Hz auf, das erfüllt die 4060ti vollkommen und hat gleichzeitig 16Gab statt 12GB bei der 4070.
Also 4070 macht für mich keinen Sinn.
Was bringt Mehrleistung, die ich gar nicht brauche oder nutzen kann,

Ich kann jedes Game auf Ultra mit hohen dreistelligen FPS zocken, brauche dabei weniger Strom, die Karte bleibt entsprechend kühler, leiser und hat nochmal 4GB mehr.
Also warum sollte ich eine 4070 kaufen.
Komme von der 3070, die ich nicht ausgelastet habe, die 4060ti bringt quasi die identische Leistung bei 100 Watt weniger als die vorherige 3070
Die 4GB mehr kann ich verstehen, den Rest gar nicht,aber gut ich bin besseres gewohnt mit AMD wo die größeren Modelle Effizienter sind als die kleineren und Intel und NVIDIA da nicht mithalten können.
Hab leider nur ne 6700XT und 6900XT und da ist der Unterschied viel zu groß, allein vom Preis her.
Bei den CPUs ist das leichter,wobei 5800X vs 5950X ist preislich natürlich auch kein Vergleich, aber da verbraucht der 5950X z.b. min 10Watt weniger PPT als ein 5800X die beide zu 95% Optimiert sind.

Das Video hatte ich zur 4070 gemacht,die 6900XT ist Preislich natürlich auch teurer als deine 4060ti, nur verbraucht die 6900XT hier max 160Watt.

 
Zuletzt bearbeitet :
Welche Karte man kauft ist und bleibt am Ende immer eine Einzelfallentscheidung. Ich habe mich am Ende zwar für die 4070 entschieden,

aber

ich hab auch sehr lange mit der 4060Ti mit 16 GB geliebäugelt und mich gefragt, was hier eigentlich auf Dauer die bessere Wahl ist und was passiert, wenn die 12 GB der 4070 bei 1440P nicht mehr reichen. Von daher kann ich die Entscheidung von Digital Blizzard schon nachvollziehen.
 
Die Effizienz, also FPS/Watt ist bei AMD im Moment deutlich schlechter als bei Nividia und die Effizientlz pro Watt wird auch nicht besser wenn ich eine größere nehme und weniger auslasten, denn der durchschnittliche Boardverbrauch ist auch ein Faktor.

Die RTX 470 ist nicht effizienter, die liegt bei 0.286FPS pro Watt, zieht aber durchschnittlich 190 Watt Board, also fast 50 Watt mehr als die 4060ti bei gleicher FPS Leistung, klar kann die 4070 dadurch nich mehr FPS generieren, die ich aber gar nicht nutzen kann auf 1080p 144Hz, also unsinnig.
60€ mehr, viel höherer Verbrauch, Effizienz FPS pro Watt ist identisch und ich hätte 4GB weniger, also in jeder Hinsicht unsinnig.

Aussagekräftige sind am Ende die FPS pro Watt und da sind 4070 und 4060ti gleichauf.
Dafür habe ich 60€ mehr und weniger RAM.
In meinem Fall sogar noch mehr, denn die günstigste weiße 4070 kostet 100€ mehr und ich brauche eine weiße Karte

Also wäre das ein völlig unsinniges "Upgrade" denn die 144FPS max mit Sync liefert mir die 4060ti 16GB auch.

Und bei AMD gibt es in der Preisklasse keine einzige weiße Karte und keine die nur annähernd an die knapp 0.290FPS/ Watt rankommt, die liegen alle maximal bei 0.210FPS/Watt und damit 20-30% schlechter als die Nvidias
 
Welche Karte man kauft ist und bleibt am Ende immer eine Einzelfallentscheidung. Ich habe mich am Ende zwar für die 4070 entschieden,

aber

ich hab auch sehr lange mit der 4060Ti mit 16 GB geliebäugelt und mich gefragt, was hier eigentlich auf Dauer die bessere Wahl ist und was passiert, wenn die 12 GB der 4070 bei 1440P nicht mehr reichen. Von daher kann ich die Entscheidung von Digital Blizzard schon nachvollziehen.
Das kann ich auch vollkommen verstehen wenn AMD keine Option mehr ist.
Es geht aber um seine Aussage:
Klar ist der Preisunterschied von der 4060 TI 16 zur 4070 eigentlich lächerlich, aber warum soll ich mehr Watt verbrauchen, mehr Kühlbedarf haben und ggf eine lautere Karte, wenn die 4060ti 16GB meine Anforderungen zu 100% erfüllt.
Und Meine Antwort dazu:
Das ist einfach zumindestens bei AMD,die nächste größer Karte ist immer leiser und Stromsparender wenn man es kann.

Und selbst eine 6900XT ist schon fast Effizienter als ne 4060TI,da liegt eine 6800 mit der 4060TI schon recht gleich auf für den gleichen Preis.
Leider liefert Igor keine Daten,deswegen TGs Cyberpunk2077.
Meine 6900XT liefert im Spiel immer über 50FPS wenn man das Aufzeichnen mal abzieht bei max TBP von 160Watt wenn sie Lüfter hätte,die 4060TI avg 46FPS bei max 150Watt.



Igor meinte mal in FC6 wäre sein Testbereich fast so wie der Benchmark von den Ergebnissen.
Meine 6900XT kommt bei TBP von max 175Watt wenn sie Lüfter hätte auf avg 76FPS mit Aufzeichnen,die RX6800XT listet Igor noch mit 65.5FPS in seinem Test und hat rund 300Watt gemessen.Selbst wenn es durch Updates mittlerweile 10 FPS mehr wären,würdest die 6800XT nicht auf 175Watt runter bekommen ohne Leistung zu verlieren.
Far-Cry-6-FPS-2160p-DX12-Ultra.png


Far-Cry-6-AvWatt_DE-2160p-DX12-Ultra.png

Warum ist eine nächst schnellere NVidia Karte also nicht in der Lage Effizienter zu sein als seine kleinere Schwester 4070 vs 4060TI?!
Warum ist NVidia da sooooo schlecht?
Bei AMD ist es hingegen überhaupt kein Problem.

Auch kostet eine Weiße Karte rund 10EU mehr bzw ist meist sogar günstiger wenn man es kann.

Bilder von meiner alten weißen Grafikkarte finde ich gerade leider nicht.....
Der Wasserkühler der RX6900XT hatte z.b. auch keine weiße Backplat,dann macht man es halt Selber.
 
Zuletzt bearbeitet :
Wenn man die reinen GPU Werte nehmen, ohne die CPU dazuzunehmen, dann erzeugt die 4070 und die 4060ti knapp 0.290 FPS/ Watt, eine 6800 erzeugt knapp 0.185 FPS/ Watt, also satte 30% weniger, oder 0.105 FPS / Watt weniger.

Wie soll sie dann effizienter sein?

Mein Sohn hat einen 12700k mit RX6800

wir haben gerade mal parallel ( Gleicher LG Monitor mit 1080P 144Hz ) RDR2 und Divison 2 getestet. Sync an, also Limit 144FPS

bei der 4060ti stehen 163Watt auf der HWInfo UHR, bei der 6800 ( Powercolor red Dragon ) stehen 213 Watt auf der Uhr, dazu ist sie deutlich wärmer und lauter ( 4060ti 67Grad, RX6800 81 Grad )

Auch kostet eine Weiße Karte rund 10EU mehr bzw ist meist sogar günstiger wenn man es kann.

Bilder von meiner alten weißen Grafikkarte finde ich gerade leider nicht.....
Der Wasserkühler der RX6900XT hatte z.b. auch keine weiße Backplat,dann macht man es halt Selber.
Das ist so eine schwachsinnige Aussage, wenn ich eine Grafikkarte umbauen will, dann kann man alles machen und den Garantieverlust akzeptieren, da ich aber weder eine WaKü noch sonstigen Umbau haben will, ist da eben nicht der Fall, eine gleiche weiße Karte kostet 100€ mehr PUNKT, ich bastel oder lackier doch nicht an einer Karte rum, das ist so ein Unsinn, nur um als AMD Fanboy quasi Recht haben zu wollen.

Effizienz ist bei den AMD schlechter, das kannst überall hinlänglich lesen und belegt bekommen, der Terst gerade beweist es nochmal ganz klar, über 50 Watt mehr hat die RX6800 für die gleiche Aufgabe in 1080p 144Hz gebraucht, also wie soll sie dann effizienter sein!?

Und basteleien, Undervolting oder sonstiges juckt nicht, denn wir reden von Karten ab Werk


pssmk.jpgIMG_20220305_125159.jpg
 
Wenn man die reinen GPU Werte nehmen, ohne die CPU dazuzunehmen, dann erzeugt die 4070 und die 4060ti knapp 0.290 FPS/ Watt, eine 6800 erzeugt knapp 0.185 FPS/ Watt, also satte 30% weniger, oder 0.105 FPS / Watt weniger.

Wie soll sie dann effizienter sein?

Mein Sohn hat einen 12700k mit RX6800

wir haben gerade mal parallel ( Gleicher LG Monitor mit 1080P 144Hz ) RDR2 und Divison 2 getestet. Sync an, also Limit 144FPS

bei der 4060ti stehen 163Watt auf der HWInfo UHR, bei der 6800 ( Powercolor red Dragon ) stehen 213 Watt auf der Uhr, dazu ist sie deutlich wärmer und lauter ( 4060ti 67Grad, RX6800 81 Grad )


Das ist so eine schwachsinnige Aussage, wenn ich eine Grafikkarte umbauen will, dann kann man alles machen und den Garantieverlust akzeptieren, da ich aber weder eine WaKü noch sonstigen Umbau haben will, ist da eben nicht der Fall, eine gleiche weiße Karte kostet 100€ mehr PUNKT, ich bastel oder lackier doch nicht an einer Karte rum, das ist so ein Unsinn, nur um als AMD Fanboy quasi Recht haben zu wollen.

Effizienz ist bei den AMD schlechter, das kannst überall hinlänglich lesen und belegt bekommen, der Terst gerade beweist es nochmal ganz klar, über 50 Watt mehr hat die RX6800 für die gleiche Aufgabe in 1080p 144Hz gebraucht, also wie soll sie dann effizienter sein!?

Und basteleien, Undervolting oder sonstiges juckt nicht, denn wir reden von Karten ab Werk


Anhang anzeigen 27132 Anhang anzeigen 27133
Gut Du kannst es nicht und NVIDIA Karten kann man nicht Effizienz betreiben.
Allein schon zu Schreiben das die 6800 lauter ist und Wärmer wird und dann noch das Bild ein zu fügen mit Lüftern die der Karte die kühle Luft entziehen disqualifiziert Dich eh und zeigt nur wie Du denkst.
Bring also nix mit dir,weil Du das eigentliche Thema eh nicht verstehst.
Und von welchem Test redest DU,ich sehe keinen......
Zu dem widersprichst dir dauernd.
 
Gut Du kannst es nicht und NVIDIA Karten kann man nicht Effizienz betreiben.
Allein schon zu Schreiben das die 6800 lauter ist und Wärmer wird und dann noch das Bild ein zu fügen mit Lüftern die der Karte die kühle Luft entziehen disqualifiziert Dich eh und zeigt nur wie Du denkst.
Bring also nix mit dir,weil Du das eigentliche Thema eh nicht verstehst.
Und von welchem Test redest DU,ich sehe keinen......
Zu dem widersprichst dir dauernd.
Die laberst einen Müll, das ist ein Torrent Compact mit Lumen, da entzieht gar nichts Luft., Denn der Input ist mehr als genug, haben das auch mit LuKü getestet null Unterschied.

Zumal von Vorne fast doppelt so viel Frischluft reinkommt als die AIO und die Grafik ziehen würden, und die Karte ist weder zu warm noch zu heiß.

Ich bin seit weit über 20Jahren als IT Techniker tätig, also bitte verschone mich mit den Aussagen, habe es verstanden, dass Du AMD Fanboy bist, und die Augen vor den nackten Zahlen verschließt.

Eine RX6800 hat eine wesentlich schlechtere, ( 30% ) Leistung FPS / Watt, das ist ein Fakt.

Für die gleiche Leistung , also 1080p 144 FPS braucht die Nividia 163Watt die RX6800 über 210 Watt, das bezeichnet der Begriff Effizienz.
Nämlich wieviel Energie ich für ein gewisses Leistungsmaß aufwenden muss.
Das hat nichts mit nicht können bei mir zu tun, sondern mit dummen Zeug Reden bei Dir um seine AMD Karte schönzureden.
Oder Du verstehst einfach den Begriff Effizienz nicht.
Jeder einzelne beschissenen Test überall belegt, dass die 4070 und die 4060ti die effizientesten Karten derzeit überhaupt sind, zumindest im Bereich 1080p und bedingt auch 1440p.



Die fast 0.290 FPS pro Watt schafft derzeit keine andere Karte in der Klasse.

Aber glaub mal ruhig weiter was Du da so vom Stapel lässt.
 
Vielleicht findet ihr ja nen Konsens, das AMD GPU eher zum basteln und tunen sind, Nvidia eher zum einbauen und in Ruhe lassen

PS: Meine RX 6800 auf 165W per MPT begrenzt, liefert Stock Performance 😅
Dazu ein 3D gedruckter GPU Cover mit Arctic F9 Lüfterm, damit sie tatsächlich unhörbar ist (im offenen Aufbau, im Gehäuse wars auch so kein Problem)
IMG_20230730_213329.jpg
 
Genau, und jetzt erklär mal warum ich für das gleiche Geld eine Karte kaufen sollte, die ich heruntertaktet muss um auf die Effizienz zu kommen, die Obendrein umgebastelt werden muss, lackiert , foliert oder sonstwas, ich durch Umbauten den Garantiestatus zerstören muss und deren Treiber ewig und drei Tage Ärger machen, wenn ich das ganze ab Werk fertig fürs gleiche Geld bekomme, dazu mit Top Raytracing und DLSS!?
Am Ende kommt dann die RX6800 deutlich teurer.
Ich will kein Bastelobjekt kaufen, sondern eine Plug and Play Karte die super läuft.

Und genau das bieten die 4060ti und die 4070.

@ Stock optimal.

Ich hatte mehr als 15 Jahre immer Radeon Karten, die letzte war die RX5800 von Sapphire, dann hätte ich die Schnauze voll von Treiberärger und beschissener Software.
Wechsel zu Nvidia und ich hatte nie wieder Ärger.

Das zeigen ja auch die Weltweiten Verkaufszahlen, Nvidia verkauft ja nicht ohne Grund 3-4 mal so viele Karten.
 
Umgebastelt werden muss nix 🤔
Sage nur das sich AMD Karten dafür besser eignen (zumindest die 6000er)

Weis ja nicht was ihr immer mit euren Treibern habt, hatte da noch nie Probleme, die nicht selbst verschuldet waren (GTX 980/1650 RX 6600XT/6800)

Edit: Abgesehen davon habe ich bei der GTX 1650 den Standard Kühler auch weggeschmissen, und von ner 750 Ti den KalmX Kühler drauf 😅
 
Zuletzt bearbeitet :
Vielleicht findet ihr ja nen Konsens, das AMD GPU eher zum basteln und tunen sind, Nvidia eher zum einbauen und in Ruhe lassen

PS: Meine RX 6800 auf 165W per MPT begrenzt, liefert Stock Performance 😅
Dazu ein 3D gedruckter GPU Cover mit Arctic F9 Lüfterm, damit sie tatsächlich unhörbar ist (im offenen Aufbau, im Gehäuse wars auch so kein Problem)
Anhang anzeigen 27135
Ich finde es ja ok, wenn man gerne rumbastelt ist das eine Sache. Und sicher kann man bei AMD mit Untervolting etc einiges rausholen. Aber ich will eine Fire and Forget Karte. Als bei meiner 6650 XT noch nichtmal Office vernünftig ans laufen zu bringen war, hatte ich echt einen Kabelbrand im Herzschrittmacher. Ich meine, wir reden nicht über ein Game, sondern über die Standardsoftware schlechthin.

Wer auf reine Renderleistung steht, das basteln und den Treiberärger nicht scheut und dem RT und DLSS Wumpe ist, der erhält mit einer 6800/6900/6950 eine Top Karte zu einem wirklich akzeptablen Kurs.

Aber wie gesagt, meine 6650XT war unterm Strich durch den Neukauf der 4070, den Wertverlust der 6650XT und die Kosten für die versuchte Fehlerbehebung, sowie den Arbeitsausfall genauso teuer wie eine 4090. Von meinen Nerven und dem ständigen genöle mal abgesehen.

Auf sowas hab ich keine Lust mehr. Da ist mir meine Zeit echt zu Schade.

Vielleicht habe ich mit der 5500XT und der 6650 XT auch einfach Pech gehabt. Aber ich werde mein Schicksal definitiv nicht noch mal herausfordern. ;)
 
Zuletzt bearbeitet :
Die laberst einen Müll, das ist ein Torrent Compact mit Lumen, da entzieht gar nichts Luft., Denn der Input ist mehr als genug, haben das auch mit LuKü getestet null Unterschied.

Zumal von Vorne fast doppelt so viel Frischluft reinkommt als die AIO und die Grafik ziehen würden, und die Karte ist weder zu warm noch zu heiß.

Ich bin seit weit über 20Jahren als IT Techniker tätig, also bitte verschone mich mit den Aussagen, habe es verstanden, dass Du AMD Fanboy bist, und die Augen vor den nackten Zahlen verschließt.

Eine RX6800 hat eine wesentlich schlechtere, ( 30% ) Leistung FPS / Watt, das ist ein Fakt.

Für die gleiche Leistung , also 1080p 144 FPS braucht die Nividia 163Watt die RX6800 über 210 Watt, das bezeichnet der Begriff Effizienz.
Nämlich wieviel Energie ich für ein gewisses Leistungsmaß aufwenden muss.
Das hat nichts mit nicht können bei mir zu tun, sondern mit dummen Zeug Reden bei Dir um seine AMD Karte schönzureden.
Oder Du verstehst einfach den Begriff Effizienz nicht.
Jeder einzelne beschissenen Test überall belegt, dass die 4070 und die 4060ti die effizientesten Karten derzeit überhaupt sind, zumindest im Bereich 1080p und bedingt auch 1440p.



Die fast 0.290 FPS pro Watt schafft derzeit keine andere Karte in der Klasse.

Aber glaub mal ruhig weiter was Du da so vom Stapel lässt.
Ohhh wie oft hab ich das schon gelesen bin seit X Jahren bei der IT.........:ROFLMAO:
Fakten belegen im identischen Gehäuse das die 6800 nicht wärmer wird.


Dann kann die RX6800 gar nicht über 203Watt kommen......lediglich Übertaktete haben ein höheres PL hinterlegt wie deine mit 211Watt.Dazu kommt noch das die TBP über 250Watt liegt.
Es ist also fraglich was DU da verglichen hast,Fakt ist aber das Du eine Standard Karte mit einer OC Karte vergleichst und vermutlich nicht mal sagen kannst in welchem Modus die läuft.

Das einzige was DU lieferst ist Fanboygehabe weil DU auf die 4060ti vs 4070 nicht eingehst, eben weil sie schlechter sind als die AMD Karten.
 
Oben Unten