Nicht Bandbreite, Rohleistung
6900XT ~23TF
3090 ~35,5TF
Zahlen: Techpowerup
Die Rohleistung ist auch in RT wichtig, da eine 3070 mit ~22TF ziemlich auf 6900XT Niveau liegt (ohne DLSS)
Die FLOPS sind nicht in jedem Fall Indikator für eine abrufbare Rechenleistung unter Spielen (denn die profitieren nicht immer vom Floating Point). Aber du hast Recht, unter RT können sie wichtig sein und letztlich ist es die Rechenpower, den die GPU (und allein die) theoretisch zur Verfügung stellen könnte (abhängig von Hersteller internen Testszenarien und Hochrechnungen was die Architektur angeht). FLOPS sind unter Spielen eine gerne von Herstellern genutzte Marketinglüge, wenn man es hart betrachtet.
Es liegt derzeit eher am BVH Algorithmus und der ist auch mit dafür verantwortlich, dass die Hw-Shader dann warten müssen. Das war auch bei Nvidias erster Gen der Fall, bis man es Hersteller intern mit den Devs optimierte. Das ist für AMD ein genauso langer Prozess. Auch wenn DXU unterstützt wird, heißt das nicht das eine Lösung der anderen Hardware intern gleichen muss.
Übrigens, die Hitratio des Speicher bei AMD inklusive der IF ist unter 4K höher als bei Nvidia. Also daran kann es kaum liegen. Das wurde von den meisten Testern eher angenommen oder vermutet. Ich denke es ist ein Treiberoverhead und o.G.. Denn wenn es um BVH speicherintensive Zugriffe geht, müsste AMD eigentlich Vorteile haben, nur muss man sie auch ausnutzen. Das ist schwierig, wenn ein Spiel dann auf einer anderen Plattform entwickelt wird und diese dann Devs vornehmlich als Benchmark gilt. Devrel wird da eine wesentliche Rolle für AMD spielen.
Komplexität kann in der Entwicklung auch dazu führen, dass die Leistung die man erwartet in der Praxis geschmälert werden kann, wenn Komplexität nicht erwünscht ist oder zu schwierig zu integrieren ist. Unter Turing war es vor allem das Energiemanagment, dass heißt die Verteilung der möglichen Ressourcen auf der GPU unter Berücksichtigung der verfügbaren Energie, dass Einheiten auch parallel rechnen können.
Da es hier nur um CPU Test geht und man unter 720p das tatsächliche Leistungsvermögen abbilden und soviel wie möglich Bootlenecks seitens der GPU ausschließen will, scheint AMD bei CPUs Test erste Wahl zu sein. Das sieht Igor vollkommen richtig. Unter 4K ist dann bisher Nvidia vorne.
Wenn wir von Prozentangaben ausgehen ist 56% unter 4K ein recht ordentlicher Wert, wenn es allein um die Hitratio geht.
Es wäre im Fall der CPU Test auch verwunderlich, wenn AMD nicht zuerst auf die eigene Plattform optimiert, dass machen alle anderen auch. Ob immer positiv für die Spieler sei mal dahingestellt. Ich denke, man hat sich das genau angesehen und dort auch in niedrigeren Auflösungen Potential gesehen. Es ist ja zuletzt auch der größte Markt/Marktanteil, in dem man seine Hardware und das dazugehörige Technologiepaket absetzen könnte (bis 1440p) - wenn man expandieren oder Markanteile zurück gewinnen will. Ob man dabei Nvidia immer vom Thron stoßen will, glaube ich nicht. Das kostet ja auch mehr Aufwand, so wie das letzte bißchen in jedem Fall.