Reviews Resizeable BAR – Ryzen R9 5900X vs. Ryzen 9 3900XT mit AMD Radeon und NVIDIA GeForce im Benchmark

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.477
Punkte
1
Standort
Redaktion
Inoffiziell ging es ja mit dem ComboAM4PI V2 1.2.0.1 schon länger, aber seit dem 03.03.2021 hat AMD auch offiziell die Unterstützung von Zen2 angekündigt. Man setzte ja bisher bei AMD eine aktuelle Zen3-CPU voraus, dazu ein B550- oder X570-Motherboard samt aktualisiertem BIOS. Oder eben eine aktuelle Intel-Lösung. Nun also auch offiziell Zen2 und es ist […]

Hier den ganzen Artikel lesen
 
@Igor Wallossek Danke Dir für diesen Vergleich. Interessant ist, dass der Bildverlauf durch rBAR "unrund" wird anstatt sich zu bessern.

Aber ein grundsätzlicher Wunsch:
Du testest fast ausnahmslos mit dem R9 5900X; auch, wenn Du wieder eine Grafikkarten Testmuster in Deinen Händen hast.
In der Breite ist allerdings nicht der R9 der am meisten vertretene Prozessor, sondern vielmehr die kleinen Brüder. Wenn ich mir die nackten Zahlen von Mindfactory anschaue, ist der R5 5600X viermal häufiger verkauft worden als der R9.
Ich kann es natürlich nicht belegen, aber ich vermute, dass es für eine Vielzahl der Zocker und Streamer da draußen ein gutes Stück interessanter ist, wie sich z. B. eine 6800XT/3080 mit einem R5 5600X respektive einem R7 5800X schlägt.

Könntest Du diesen Aspekt eventuell mit in Deine Testszenarien einfließen lassen?
 
Der Witz ist: der 5800X zeigt hier zum 5900X keinen echten Unterschied, beim 5600X bin ich ohne OC aber fast immer im CPU-Limit, mit der 6800 auch noch in WQHD. Für Tests ist das eher albern, weil man keine allumfassende Aussage bekommt.

Mit dem 5900X kann ich sowohl im CPU- als auch im GPU-Limit testen. Da kann sich der 5600X-Nutzer die Wiksamkeit unter Full-HD ansehen. :)
 
Spannend, dass 5800X und 5900X so nah zusammen liegen, der 5600X hier aber deutlich abfällt.
Ich hab in meinem Rig ja die 6800XT zusammen mit dem 5600X auf WQHD werkeln. Lasse ich in die In Game Benchmarks laufen (Borderlands 3, Ghost Recon Breakpoint, AC Valhalla, Forza), habe ich eine CPU-Last, die im Durchschnitt bei 65-70% liegt. Die CPU läuft ohne OC im Auto Modus und dennoch bin ich vom CPU-Limit entfernt. 🤔 Allerdings stehen die Settings bei mir allesamt auf Ultra/Badass.

Machen dann die Einstellungen den Unterschied, dass ich nie ins CPU-Limit laufe?
Oder an den Monitoring-Programmen, die Du vermutlich parallel laufen lässt und die Kerne auslastest?

Ein bisschen verunsichert hast Du mich jetzt schon mit der Info bzgl. des CPU-Limits, das weckt dann immer meine Neugier. 😃
 
Prima Test, sehr aufschlussreich, danke dafür!
@Pheenox: 5600X, 6 Kerne, 12 Threads. Wenn deine Anwendung 4 Kerne und 8 Threads nutzen kann und diese dann voll auslastet bist du bereits bei 66% Auslastung der CPU im CPU-limit. So einfach ist es also nicht.
 
Der Witz ist: der 5800X zeigt hier zum 5900X keinen echten Unterschied, beim 5600X bin ich ohne OC aber fast immer im CPU-Limit, mit der 6800 auch noch in WQHD. Für Tests ist das eher albern, weil man keine allumfassende Aussage bekommt.

Mit dem 5900X kann ich sowohl im CPU- als auch im GPU-Limit testen. Da kann sich der 5600X-Nutzer die Wiksamkeit unter Full-HD ansehen. :)
Danke, ich habe selbst noch keinen Vergleich gemacht mit meinem 3900XT und der Vega64.
Seit dem es Rize BAR im UEFI gibt ist es an bei mir.
Borderlands 2 läuft mit im Spiel gedeckelten 120FPS astrein, die Frametime Linie ist stets Flach auch bei schnellen Bewegungen und viele Effekte.

Hast du bei dem Test System auch "Secure Boot" an oder ist das bei dir aus gewesen?
 
wieviel bringt rBar eigentlich im CPU-Limit? oder bringts da gar nichts?
 
Habe ähnliche Erfahrungen gemacht (5800x reicht vollkommen). Was Nvidia angeht, muss man abwarten. Sieht aber eher ernüchternd aus. Ihnen fehlt wohl der L3 in Form des IFC, der für die volle Beschleunigung auf PCIe4 BW sorgt.

Mittlerweile scheinen sie mit dem Taktverhalten der IFC auch die Hitrate in höheren Auflösungen anzupassen. Also SAM scheint nicht einfach nur rBAR zu sein, was scheinbar so geplant war, setzt aber grundsätzlich auf dem Protokoll der PCI Sig auf.
 
Maßnahmen wie rBAR (SAM), DLSS, Infinity Cache, FidelityFX usw. lassen langsam erkennen, das beide Anbieter, rein von der Hardware, keine Steigerungen wie in den letzten Jahren mehr erwarten.
 
Das würde ich so nicht schreiben case..:). Man nutzt eher was brach liegt. Letztlich ist rBAR ein GPUMmu (WDDM2) Feature, dass man in Software und Hardware unterstützen kann, es ist optional (daher muss man Nvidia auch keine Schuld geben, wenn es eben nicht so ist) und wenn man es in Hardware unterstützen will erfordert das einige Register mehr. Die werden benötigt, um der Software in Hardware auch mitzuteilen, welche Ressource wo verfügbar ist, wobei die Software dann der größten Ressource zuweisen kann.

Da sich ein paar der Partner für Nvidia aus dem Fenster gelehnt haben (Asus mal wieder vorne weg), sind sie nun in der Bringpflicht obwohl sie diese Register in Hardware wahrscheinlich auf Gamerhardware nicht unterstützen.

rBAR war dazu gedacht bestimmten Impact bei großen Speicherkonfigurationen abzufedern und auf feste Größen von Systemressourcen zu programmieren, wenn Dynamic nicht erforderlich ist weil Poole groß genug sind. Die PCI Sig schrieb aber nie vor es in Hardware unterstützen zu müssen und an deiner Auflistung erkennt man das Kleinvieh auch Mist machen kann.

Natürlich kann Software bei der Ressourcenzuweisung einen Overhead erzeugen, wie das bei Treibern (bzw. den genannten Dienstprogrammen) auch schon erkennbar war. Das Nvidia gerne was an der Hardware vorbei scriptet ist ja auch bekannt. AMD tut sicher nichts anderes, wenn's drauf ankommt. War ja bei den ACE auch schon so.

Da kommunizieren einfach zwei I/O Die direkt, was klar schneller funzt. Nur muss die Software es zulassen, wie man an den APIs (Spiele) gut erkennt, unterstützen es nicht alle gleich gut.

Die ursprünglichen Ideengeber (Sponsoren) waren HP in Zusammenarbeit mit AMD. Nur logisch das sie dann irgendwann damit kommen.
 
@gastello Was rBAR angeht, hat AMD sehr tief in die Mottenkiste gegriffen...es wurde ja schon 2008 in den PCIE Standard (3.0) integriert.
 
@8j0ern funktioniert das mit der Vaga64? Dachte das es erst mit den rdna2 Karten läuft. Das mit der VII zu testen wäre für mich nämlich auch verlockend...
 
@gastello Was rBAR angeht, hat AMD sehr tief in die Mottenkiste gegriffen...es wurde ja schon 2008 in den PCIE Standard (3.0) integriert.
Naja, aber immerhin hat AMD in der Mottenkiste gegruschelt und damit noch ein paar Prozent mehr Leistung für quasi umsonst gefunden.
Und es ist etwas, dass einem für alle zugänglichen Standard entspricht und keine properitäre Lösung wie sie andere Hersteller gerne verwenden.

Cunhell
 
Ich denke letztlich hilft Resizable BAR ein wenig ein etwas zu schmales Speicherinterface zu entlasten. Es spielt seine Stärke also ganz besonders im Zusammenhang mit dem InifinityCache und gleichzeitig geringerer VRAM-Bandbreite aus.

Andererseits kann ich mir vorstellen, dass ein großes VRAM den positiven Effekt von ReBAR wieder ein wenig schmälert. Weil einfach seltener große Datenmengen übertragen werden müssen (oder anders gesagt: Wenn der Speicher näher an die Grenzen kommt, müssen Daten potentiell öfter übertragen werden). Bei solchen Szenarien müsste also eigentlich NVidia eher einen Vorteil von ReBAR haben.

Gerade diesen Effekt wird man aber gerade bei der 3060 dank ihren 12 GB eben nicht sehen.

Letztich hilft ReBAR die Auswirkungen bestimmter Flaschenhälse zu verringern. D.h. wenn es sich stark auswirkt, ist es nicht unbedingt nur positiv sondern ein Zeichen, das hier Potential für Verbesserung ist.

Ich bin gespannt wie die Vergleiche bei einer 3070 und 3080 aussehen werden.
 
@Grestorn klingt einleuchtend - und demnach würde es grade mit der VII also keinen sinn machen da Sie bzgl. Bandbreite & Größe des Speichers relativ selten Probleme bekommt.

Also ist rBAR eigentlich ein anderer Lösungsansatz für das gleiche Problem...
Irgendwie fühlt sich das Jetzt an wie ein Workaround um an die Leistung zu kommen die liegen gelassen wurde als man auf HBM verzichtet hat...
 
Ich denke letztlich hilft Resizable BAR ein wenig ein etwas zu schmales Speicherinterface zu entlasten. Es spielt seine Stärke also ganz besonders im Zusammenhang mit dem InifinityCache und gleichzeitig geringerer VRAM-Bandbreite aus.
Wie soll rBAR die Speicherbandbreite erhöhen? Du hast mit rBAR nur vollen Zugriff von der CPU auf den VRAM und kannst direkt ohne Umwege reinschreiben. Der Inifinity-Cache sollte für die CPU transparent sein, sonst würd die CPU ja nur die Größe
des Caches sehen und nicht die 16GB VRAM. Da aber die Daten trotzdem durch den Infinity-Cache müssen, bleibt die Bandbreite zum VRAM hin gleich.
Und Dein Argument mit der VRAM-Größe passt auch irgendwie nicht. Die 6800er haben 16GB, die 3060 nur 12. Mit deinem Argument müsste also die 3060 mehr profitieren als die 6800er. Tut sie aber nicht.

Was dagegen sein kann ist, dass es eben nicht reicht einfach nur ReBAR zu aktivieren ohne Soft- und Hardwareseitig entsprechende Optimieriungen vorzusehen. Bestes Beispiel war aus meiner Sicht Async Compute, das auf AMD besser lief als bei Nvidia, da es Nvidia nicht so performant umgesetzt hatte. Sie konnten es zwar dann als unterstützt angeben, waren aber bei dem Feature schlechter was die Leistung angeht als AMD, da sie die Vorteile durch einen nötigen Overhead verspielt haben, den AMD nicht hatte.

Cunhell
 
Ich zweifle auch an dieser Annahme. Anscheinend bringt SAM ja bei niedriger Auflösung mehr und da habe ich doch Zweifel, dass bei FullHD das Speicherinterface der limitierende Faktor ist.

Ich glaube eher, dass NVidia etwas Zeit braucht um eine wirklich sinnvolle Nutzung der rBar umzusetzen. Ich würde daher damit rechnen, dass Nvidia da eventuell noch etwas nachlegt.
 
Ich denke, Nvidia wird erst bei der nächsten Generation wirklich von dem Feature profitieren. Sieht ja man quasi am anderen Ende auch. Der AMD Ryzen 3900 kann es zwar mittlerweile auch und gewinnt etwas Leistung, der 5000er, der schon vom Design her darauf ausgelegt ist, hat aber mehr Vorteile davon. Ich kann mir gut vorstellen, dass ein einfaches Bios-Update auf den Nvidia-Karten nicht soviel herausholen kann wie eine direkte Auslegung der Hardware auf das Feature. Hier hat AMD wohl diesmal eben eine Generation Vorsprung. Den hat Nvidia wiederum in anderen Bereichen, in denen AMD aufholen muss.

So lange sich die Beiden, und später evtl. auch Intel, gegenseitig puschen, kann es uns doch nur recht sein. Es gibt nichts innovationsfeindlicheres als ein quasi-Monopol. Sieht man ja auch an den aufgerufenen UVPs, die zum Teil deutlich gesunken sind. Leider sind die Umstände jetzt so, dass es zu viele Faktoren gibt, die dem jetzt entgegen stehen, aber man würde heute sehr viel Leistung zu einem doch ganz fairen Preis bekommen.

Cunhell
 
Prima Test, sehr aufschlussreich, danke dafür!
@Pheenox: 5600X, 6 Kerne, 12 Threads. Wenn deine Anwendung 4 Kerne und 8 Threads nutzen kann und diese dann voll auslastet bist du bereits bei 66% Auslastung der CPU im CPU-limit. So einfach ist es also nicht.

Würde man aber bei dieser Anwendung nicht genauso mit 12 Kernen / 24 Threads ins gleiche Limit laufen? Dann hätte man eben nur noch 33% Auslastung, wäre aber trotzdem im Limit.

Ich finde es auch immer etwas suboptimal wenn mit Hardware getestet wird, die nur einer deutlichen Minderheit der Nutzer (sei es durch hohe Preise oder geringe Verfügbarkeit) zugänglich ist. Natürlich kann man nicht jede beliebige Konfiguration testen, aber das am weitesten verbreitete Modell der aktuellen Generation zu verwenden wäre für die meisten Leser vermutlich "praxisrelevanter", sozusagen. Die Ergebnisse sind mit der besten Hardware natürlich besser messbar, aber am Ende stelle ich mir immer die Frage, wem nutzt die Information letzten Endes?
 
Danke für den Test Igor. Was mich noch interessieren würde, wäre ein Test mit einem Intel Board, ich habe gesehen, selbst für mein Z390 Board von Gigabyte gibt es ein BIOS mit rBAR. Oder funktioniert das aus irgendeinem Grund (noch) nicht?
 
Oben Unten