Ok Sprechen wir nochmals von Effizienz ;-)
Bei AMD fängt es schon mal damit an, dass man über Software nicht den Realen Verbrauch sehen kann. Angezeigt wird nur der Verbrauch von GPU-Die und VRam, die Restlichen Bauteile auf der Karte verbrennen aber auch eine nicht zu vernachlässigende Menge an Strom.
Meine Asus TUF 6800XT hat z.b. eine TDB von 300W die Software begrenz bei 272W (Chip+VRam) also verbraucht der Rest der Karte 28W.
Nvidia misst den ganzen Verbrauch der Karte und zeigt diesen auch an. So kann für den 0815 Verbraucher natürlich der Irrglaube entstehen AMD wäre soviel Effizienter. Was nicht der Fall ist. (Dennoch war RDNA2 effizienter als Ampere, dass muss man aber auch festhalten)
Bei Ada Lovelace stelle ich hier ein paar Sachen fest (hatte kurzzeitig eine Asus 4070 TUF und jetzt eine MSI 4080 Ventus):
-Trotz beschnitt der einzelnen Modell, skaliert die Leistung enorm gut. Ich habe selten eine Architektur gesehen wo man an den Papier-Werten die Leistung so genau einordnen konnte.
-Bei normalen Gebrauch wird die TDP nur sehr selten ausgeschöpft. Sogar in Benchmarks geht meine 4080 sehr selten über 300W (TDP 320W) in Spielen ohne FPS Limit, sind es sogar eher 285W.
-Lässt sich enorm gut Undervolten, so läuft meine 4080 mit 2640mhz@945mV und Verbrauch nur noch 230W im Schnitt mit seltenen Spikes Richtung 240W, dabei habe ich nur einen Leistungsverlust von 3%.
-BG3 spiele ich z.b. mit VSync 60 und DLSS Quality, der Rest auf Max, hier Verbraucht die Karte zwischen 85-120W (je nach Scene)
Leider kann ich die bei meiner Erfahrung mit einer RX6700XT, sowie der Vorerwähnten 6800XT nicht behaupten.
Egal wie gut ich z.b. meine 6800XT optimierte, kam ich bei BG3 VSync 60 und FSR Qualtiy nicht unter 125W es waren eher 145W mit Regelmäßigen Steigerungen auf 200W und dann kommt ja noch der Restliche Verbrauch der Karte dabei...
Jetzt können natürlich Rote Brillen behaupten, dass die 4080 ja Leistungsstärker ist und bei dieser Last deshalb weniger Verbraucht. Naja meine 4070 konnte ich genau gleich einstellen und hatte einen sehr ähnlichen Verbrauch wie die 4080, so ähnlich dass ich von Messtoleranz rede.
Und die 4070 ist genau in der gleichen Leistungsklasse wie die 6800XT.
Was zeigt mir das, die RX6000 sind absolut keine Alternative zu den RTX4000, wenn man die Effizienz betrachtet. Rein von der Rasterleistung können sie zwar mitthalten, aber sobald wie von DLSS und RT sprechen ist schon wieder Ende.
Hier nachmal klar, im Generationsvergleich RX6000 vs RTX3000 war es nicht so klar und ich bevorzugte sogar AMD. Als ich meine RT6800XT gekauft habe, gab es noch zu viele Probleme mir DLSS (2.3+ war noch nicht da), so dass ich FSR1 bevorzugte und RT war bei den RTX3000 (Ausnahme 3090(Ti)) auch nicht brauchbar.
Betrachten wir nun die RX7000, mehr Rohleistung, mehr VRam, RT auf RTX3000 niveau, sonst keine neuen "verfügbaren" Features, deutlich schlechtere Effizienz. Ausser dem Preis kann AMD im Moment absolut nichts bieten.
Und wie hier mehrfach schon geschrieben wurde, ist das Out of the Box Erlebnis bei Nvidia deutlich besser. Wenn ich dann die Behauptung lese, dass man sich halt mit AMD beschäftigen muss, damit sie super läuft, sogar besser als die Konkurrenz, wird mir schon übel. Denn auch die Nvidia Karten lassen sich super optimieren, womit wir wieder am gleichen Punkt sind.