Reviews Greift AMD jetzt nach der Krone? Radeon RX 6900 XT 16 GB im Test mit Benchmarks und einer Technikanalyse

Sehr toller Artikel / Test und deckt sich sehr mit meinen persönlichen Erwartungen.

Wenn erst später professional workloads getestet werden, ist das für mich persönlich kein Problem, da AMD nach Vega / seit RDNA eigentlich sich nur noch um die Gaming Leistung kümmern wollte.

Jeder der eine Vega Frontier Edition (Liquid) hatte weiß, wie schade es im späteren Verlauf war, sich in späteren Treibern zwischen Pro / Adrenalin (letzerer ohne UV bzw. Wattmann) entscheiden zu müssen und eigentlich deswegen die Karte überhaupt ins Auge (für den hohen Mehrpreis) gefasst hatte!

Daher wünsche ich mir bei AMD mehr kontinuierliche Treiberarbeit, da mir sonst die beste Hardware nicht hilft, wen das Wegfallen von Funktionen immer den Spaß verderben. 😉
 
Zuletzt bearbeitet :
Gibt es eigentlich eine Methode die real anliegende Speicher-Übertragungsrate einer Grafikkarte über die Zeit auszulesen?
Dass die Radeons in 4K gegenüber den RTX-Karten etwas zurückfallen, würde ich nämlich eher auf die deutlich geringeren TFLOPS zurückführen. AMD spricht in seinen Marketingfolien ja von über 3TB/s effektiver Bandbreite, das wäre deutlich mehr als ein hypothetisches 512bit-Interface einer verdoppelten RX 5700XT.
 
Gibt es eigentlich eine Methode die real anliegende Speicher-Übertragungsrate einer Grafikkarte über die Zeit auszulesen?
Dass die Radeons in 4K gegenüber den RTX-Karten etwas zurückfallen, würde ich nämlich eher auf die deutlich geringeren TFLOPS zurückführen. AMD spricht in seinen Marketingfolien ja von über 3TB/s effektiver Bandbreite, das wäre deutlich mehr als ein hypothetisches 512bit-Interface einer verdoppelten RX 5700XT.



Release: https://github.com/kruzer/poclmembench/releases/download/0.91/poclmembench_win_0_91.zip

 
Release: https://github.com/kruzer/poclmembench/releases/download/0.91/poclmembench_win_0_91.zip

Ich meinte Software zum Auslesen der benutzten Bandbreite z.B. im Spiel.
Oh, GPU-Z kann ja zumindest den Memory Controller Load anzeigen. Wär vlt. eine Überprüfung wert, wenn jemand eine Karte hat...
 
Ich meinte Software zum Auslesen der benutzten Bandbreite z.B. im Spiel.
Oh, GPU-Z kann ja zumindest den Memory Controller Load anzeigen. Wär vlt. eine Überprüfung wert, wenn jemand eine Karte hat...
Natürlich könnte man über HW Info oder CapFrameX das loggen.
Jedoch ist mir nur bekannt, dass man Speicherverbrauch (temporärer belegter und dedizierter reservierter) auslesen / loggen kann.

Da aber jeder Entwickler selbst festlegt, ob der Speicher wann und ob überhaupt (bzw. erst wenn voll oder Grenze in %) geleert wird, hat das leider oft nix zu bedeuten (Beispiel ist da Resident Evil Remake).

Da es dir aber um die Speichebandbreite geht, sollten beide Tools über längeren Zeitraum hinweg dir einen theoretischen Flaschenhals der VRam Anbindung aufzeigen können.

Das da natürlich noch andere Abhängigkeiten bestehen (Provokante Frage: Wer schaufelt denn der GPU / VRam die Daten zu? = Die CPU / DMI via PCIe oder was auch immer es dann wieder bei AMD gibt ~ HyperTransport?, der CPU wiederum erhält neue Daten trotzdem aus dem Arbeitsspeicher als Zwischgenlager etc...).
Stichwort (auch wenn veraltet): Wie funktioniert ein PC = Von Neumann Prinzip!

Im Zusammenhang wie die übliche Kommunikation zu PCIe Express (GPUs) abläuft: Architektur bzw. Topologie von PCIe

Daher sollten die Tools eigentlich genau das aufzeigen können, was die meisten Spiele eigentlich aufgrund der Entwickler verhindern wollen oder sollten... 😉

Nicht umsonst dauert das entwickeln und vor allem später das Testing / Optimieren einer Engine / Spiele mit so lange...
 
Zuletzt bearbeitet :
Ich hätte da mal eine Frage und zwar bauen bei AMD ja verschiedenste Hersteller das 6900XT Referenzmodell (Powercolor, Saphirre, XFX, MSI und AMD.com)

gibt es hier Unterschiede, bzw. sollte man bestimmte Hersteller meiden?
Oder sind alle referenzmodelle egal von welchem Hersteller zu 100% identisch? (Was ich mir irgendwie nur schwer vorstellen kann)
 
Das kommt wohl auf die Vorgaben seitens AMD an. Wenn die strikt sind sollten die Karten identisch sein.
 
Es geht mir vor allem daum ob bei allen z.B. die identische Vaporchamber verbaut wird und ob auch die identischen Lüfter drauf sind. Wenn ich um die 1000€ für so eine Karte ausgebe möchte ich schon die besten Komponenten verbaut haben
 
ich meine bei der Referenz gibt es nur einen Hersteller (Sapphire als Entwickler bzw PcPartner als Fertiger) und die anderen pappen da einfach ihr Stickerl drauf.
 
Okay gut zu hören, hätte mich auch irgendwie stark gewundert dass alle Hersteller ihr eigenes Ding machen... meine 6900XT kommt voraussichtlich am Dienstag an, bin echt gespannt 🤩
 
Kommen eigentlich noch Encoding aund Transcoding tests?
 
Zuletzt bearbeitet :
too sad you listen to people and change testing protocol between cards just for this one... that raises more questions .. and comparison irrelevant with 6800xt and 6800 ... removing the backplat and seeing so much difference on tjunction, i don't understand that ... i got my 6800xt yesterday and testing with red dead redemption getting 108-110° tjunction (with fans at 100% , lot more than witcher 3 apparently) is making me fear that the card throttles at this temps ... so i will have to go waterblock i think ... but when i see 80° on 6900xt and 100° on 6800xt on these tests, there is something I don't understand just seeing at the fact that the backplate as been removed ... but now can't be sure this is the cause or it's just the card that works differently...
edit: false alarm , seems maybe it was a bug of the driver or in red dead redemption when i alt tab to change settings,... but now my gpu doesn't go beyond 73° tjunctions with same performances ... don't know why it got so hot last time ...
EDIT 2 : in fact nope , not false alarm , with superposition benchmark I effectively get this temps as the cards goes above 250W (what it doesn't in most games where it stay cool at 75 tjunction, except sometime in rdr2, even if i don't get to reproduce this in rdr2 now) .. so i don't know how Igor stays under 100° but mine throttles over 250W because junction temperature is rapidely at 110 ... nothing alarming at all , it's intendend like that and throttling is not visible... but to maintain the load i deflnitely going to watercool it ... the waterblock is ordered :)
EDIT 3 : 6800xt under watercooling : done ... now getting 75° max for tjunction under superposition benchmark (score at the end remains the same, so in fact the card wasn't throttling atfer all if i'm right)
 
Zuletzt bearbeitet :
Oben Unten