Reviews Flaschenhals bei NVIDIA und DirectX 12? MSI GeForce RTX 3090 SUPRIM gegen MSI Radeon RX 6900XT Gaming X und die eigenen Treiber

Die Intention des Tests wird in der Einleitung beinahe unverhohlen angedeutet und wie dort auch vorweggenommen wird, bleiben tatsächlich einige (dringliche) Fragen unbeantwortet. Ich tu' mich wirklich schwer Werte aus einem einzigen Titel kombiniert mit einer bestimmten CPU-Geschwindigkeit auf etwas (Allgemeingültiges?) zu übertragen oder generelles etwas davon abzuleiten.

Wenn man zudem, wie angedeutet, die Engine im Verdacht hat, wäre ein weiterer Titel damit wünschenswert, z.B. Death Stranding. Der soll sogar deutlich besser mit der CPU-Performance skalieren als HZD. Also schlau werde ich aus dem Ganzen nicht, der Artikel wirkt eher beruhigend denn skandalisierend, klar. Aber wenn ich ehrlich bin, bin ich nun noch gespannter. Auch auf was da noch kommen mag.

Ein großes Lob muss ich aber wie immer wegen der sehr guten Leistungsaufnahme- und Effizienzuntersuchung aussprechen. Das ist einfach konkurrenzlos im Netz, zumindest so umfassend und vor allem differenziert.
 
Zuletzt bearbeitet :
Ich meine das Verhalten bei Ampere ist schon seit Beginn so, so ein wenig die Handbremse in kleineren Auflösungen aber vergleichsweise flacher Abfall in hohen Auflösungen.
Erinnert irgendwie an Polaris/Vega die sich wohl aus anderen Gründen ähnlich verhalten haben
 
@Igor Wallossek Wurde eigentlich HAGS (Hardware Accelerated GPU Scheduling) im Windows aktiviert und wie stehst du selber, zu dieser Einstellung?
 
Ist mir auch schon auf Twitch aufgefallen, die spielen meist auf 1080p low details und haben mit ihrer 3080 probleme.
Kann man mal einen älteren Treiber nutzen? Imho war dies doch nicht schon "immer" so.
Das Phänomen bestand schon seit Release von Ampere.
 
Das mit dem Verhalten der Ampere Karten in niedrigen Auflösungen wurde schon oft erwähnt, bekommen dort ihre Leistung scheinbar nicht auf die Straße. Dachte das Problem hat AMD sonst für sich gepachtet...

Bin gespannt was so nach und nach sich noch findet an Details.
 
Konsequenterweise müssten CPU-Benchmarks in Reviews (@720p) mit Big Navi (idealweise RX 6900XT) gemacht werden. Ich lege meine Hand dafür ins Feuer, dass sich Zen 3 dann noch stärker von Comet Lake absetzt als unter der RTX 3090.
 
Konsequenterweise müssten CPU-Benchmarks in Reviews (@720p) mit Big Navi gemacht werden. Ich lege meine Hand dafür ins Feuer, dass sich Zen 3 dann noch stärker von Comet Lake absetzt.
Wenn man den Leistungsunterschied von CPUs rauskitzeln will, muss man doch gerade Ampere nehmen, wo dieser Unterschied deutlicher sichtbarer wird. Oder missverstehe ich Dich jetzt?
 
Jo, welche CPU kommt besser mit dem Treiberoverhead klar. Wäre ein interessantes Testfeld.
 
Letztlich egal. Solange man in einer Messreihe bei einem Hersteller bleibt.
 
@Grestorn Wenn ich sehe wie dicht alle CPUs z.B. in der neuen PCGH z.B. unter Assassins Creed: Valhalla beieinander liegen, ist ganz klar die RTX 3090 der Hemmschuh. Mit einer RX 6900 XT würden die starken CPUs (5900X/5950X) wie Raketen abgehen und vermutlich 30-50% mehr FPS liefern.

Der massive 720p/1080p Overhead von Big Ampere kommt momentan auch Intel extrem zugute. Daher würde ich mir einen kompletten CPU-Benchmark-Parcour auf Big Navi-Basis wünschen.
 
Zuletzt bearbeitet :
@Grestorn Wenn ich sehe wie dicht alle CPUs z.B. in der neuen PCGH z.B. unter Assassins Creed: Valhalla beieinander liegen, ist ganz klar die RTX 3090 der Hemmschuh. Mit einer RX 6900 XT würden die starken CPUs (5900X/5950X) wie Raketen abgehen und vermutlich 30-50% mehr FPS liefern.
Es geht bei CPU-Tests doch nicht um die absolute FPS Zahl, sondern darum, die Leistungsunterschiede der CPU herauszuarbeiten. Und wenn die Unterschiede bei Ampere ausgeprägter sind, dann wäre Ampere hier besser geeignet.

Wenn natürlich der Flaschenhals bei allen CPUs unabhängig von der Leistung der CPU gleichermaßen vorhanden ist (was aber schräg wäre), dann hättest Du recht.
 
PCGH und CB sehe ich nichts, haben die das schon wieder weggelöscht? Das 3DC besuche ich nicht mehr. Zu klein und unbedeutend, deren Reichweite ist komplett abgeschmiert. Was mich aber auch nicht wundert. Elitärer Sebstbeweihräucherungsverein. Die echten Urgesteine und interessanten User haben sie mittlerweile alle vergrault oder weggebissen. Es ist wirklich erschreckend, wie 4-5 Leute ein gesamtes Forum ruinieren können und die Mods noch seelenruhig dabei zuschauen. ;)

Anhang anzeigen 11890
Also die Aussage bezüglich 3DC kann ich in der Form nicht wirklich nachvollziehen. Ich weiß zwar nicht was damals vorgefallen ist und fand es schade das du dort plötzlich nicht mehr aktiv warst, aber du teilst sicherlich auch gerne mal aus und lässt auch gerne ab und zu mal durchblicken was du von anderen hälst. Wenn du nun überhaupt nicht mehr aufs 3DC schaust gehen dir zumindest jegliche Launch-Analysen durch die Lappen und diese dürfte so ziemlich einmalig sein. Neben dem Fakt das dir dadurch sicher auch der ein oder andere Input durch die Lappen geht die man als 1 Mann Betrieb sicher gebrauchen könnte ist es vor allem auch die Tatsache das dort auf deine Arbeit des öfteren hingewiesen wird und das zumindest wie ich es beurteilen kann neutral und anerkennend. (auch von Leo) Naja Ausnahmen von Einzelnen gibt es immer, aber da sollte man als Redakteur sicher drüber stehen und die Anderen können es ja auch und das obwohl der Gegenwind sicher das ein oder andere mal echt Nervend ist.
Das man mal Emotional reagiert ist ja ok und das habe ich im CB Forum vor kurzem auch als ein Mod meinen 2 mal geteilten Beitrag aufs Abstellgleis geschoben hat und ich schreibe so gut wie kaum in Foren, aber der Kommentar den er dazu geschrieben hat hat mich extrem geärgert zudem es um den selten Fall des Betriebs eines 5800x auf einem B350 Board ging, aber nun ein paar Wochen später ist dann auch mal wieder gut. ;-)
Es wäre schön wenn du da zumindest wieder mitlesen würdest und vor allem vielleicht auch selbst mal deine Worte überdenkst denn dazu "Elitärer Sebstbeweihräucherungsverein" zählen bestimmt die wenigsten dort.

Davon ab danke für diesen Test und auch die vielen Anderen die sich vor allem darin auszeichnen das sie die Dinge leicht anders beleuchten, mehr ins Detail gehen als bei den meisten anderen Seiten oder aber einfach Probleme links und rechts des "Normalen" beleuchten.
 
Es wäre schön wenn du da zumindest wieder mitlesen würdest und vor allem vielleicht auch selbst mal deine Worte überdenkst denn dazu "Elitärer Sebstbeweihräucherungsverein" zählen bestimmt die wenigsten dort.
Mag ja sein, das es wenige sind. Aber sie sind ziemlich "laut". Elite ist da schon falsch ausgedrückt, eher "verschrobener Haufen". Es sind einfach zu wenige "Fachleute" dort. Leo kann den Laden halt nicht alleine führen, da fehlen mitwirkende Mitglieder.
 
Um zurück zum Thema zu kommen:
Ich hab's gestern auch schon zur 3DC-Meldung kommentiert, das Phänomen hat eine technische Erklärung, die nicht erst für Ampere gilt, wobei dem in dieser Form bisher kaum Aufmerksamkeit zu kam.
NerdTech hat eine technische Erklärung dafür geliefert, schon vor längerem.
Grund dafür ist anscheinend, dass die Scheduler sich unterscheiden. NVidia verwendet wohl seit Kepler einen Software-Scheduler, AMD seit GCN einen Hardware-Scheduler. Im Zusammenspiel mit DX11 zieht NVidia einen Vorteil aus dem Software-Ansatz, indem sie CPU-Treiber-Last besser auf mehrere CPU-Kerne verteilen können, während das aber die Last, auf allen Kernen addiert, erhöht. Das führt bei zu geringen CPU-Ressourcen zu Performance-Verlusten. Da unter DX12 bei gut parallelisierten Spielen die Last sowieso schon gut über die CPU-Kerne verteilt ist, hat AMDs Hardware-Scheduler hier den Vorteil, da er geringere Last auf der CPU benötigt, wobei diese auf nur einen Kern konzentriert ist.
Ich vermute mal, dass der Scheduler und Async Compute recht eng zusammenhängen.
Das verlinkte 20-minütige Video ist die Zeit auf jeden Fall wert.
 
Hallo Igor,

erst einmal vielen Dank für den Artikel. Mir fehlen da noch ein paar Angaben die durchaus Einfluss haben können.
1. War die CPU auf maximale Leistung gestellt (keine Power savings)
2. Hast du den Nvidia Treiber mit all den Diensten und GFE installiert? Teste mal nur Treiber ohne den Rest.
3. Welche Taktraten hatten CPU / GPU bei den jeweiligen Auflösungen?

Ebenso der Shader Cache und das Prerenderlimit. Bei Nvidia ist es standardmäßig auf 3, bei AMD auf 1 bei D3D12 & Vulkan.
Das sind die Zeit raubenden Dinge, die jedoch deine These stützen oder revidieren könnten. ASync compute läuft bei AMD komplett in Hardware. Bei Nvidia nicht. Kann man es gezielt im Spiel deaktivieren? Wäre doch ein leichtes es so nachzuvollziehen...
 
Schön rausgearbeitet das Ganze.
 
Hallo,

alleine die Tatsache, dass es mit der aktuellen Ryzen Generation beim Abschalten von Kernen bereits zu einem solchen Phänomen kommt, zeigt, dass Nvidia hier ein Thema hat.
Der Steve von Hardware Unboxed ist zufällig beim CPU Vergleich darauf gestoßen und mit dem Test von Igor im Vergleich, wird deutlich, dass ältere CPUs das Thema noch deutlicher hervorheben. Es liegt also sehr wahrscheinlich nicht nur an der reinen IPC.

Meine Latenzmessungen haben ein extremes Verhalten offenbart... dazu kommen noch mindestens zwei Artikel von mir!

kleiner Spoiler:

3800X 4.45 GHz all core OC

3080 vs 5700 XT

CoD MW Multplayer 1080p Low Details

Beide GPUs in etwa gleich schnell mit 247 FPS im Durchschnitt
Da bin ich ja mal gespannt drauf.
 
Also die Aussage bezüglich 3DC kann ich in der Form nicht wirklich nachvollziehen. Ich weiß zwar nicht was damals vorgefallen ist und fand es schade das du dort plötzlich nicht mehr aktiv warst, aber du teilst sicherlich auch gerne mal aus und lässt auch gerne ab und zu mal durchblicken was du von anderen hälst. Wenn du nun überhaupt nicht mehr aufs 3DC schaust gehen dir zumindest jegliche Launch-Analysen durch die Lappen und diese dürfte so ziemlich einmalig sein. Neben dem Fakt das dir dadurch sicher auch der ein oder andere Input durch die Lappen geht die man als 1 Mann Betrieb sicher gebrauchen könnte ist es vor allem auch die Tatsache das dort auf deine Arbeit des öfteren hingewiesen wird und das zumindest wie ich es beurteilen kann neutral und anerkennend. (auch von Leo) Naja Ausnahmen von Einzelnen gibt es immer, aber da sollte man als Redakteur sicher drüber stehen und die Anderen können es ja auch und das obwohl der Gegenwind sicher das ein oder andere mal echt Nervend ist.
Das 3DC hat schon allein anhand der Reichweite eigentlich gar keine Relevanz oder Bedeutung mehr. Die Launchanalysen bekomme ich woanders auch. Austeilen und Einstecken können ist das eine, solange es sachlich bleibt. Und genau dort haben ein paar User, deren Name oft auch Programm ist, einen so abartigen Ton an sich, den man sich in der Freizeit einfach nicht geben muss. Wenn es unsachlich und persönlich wird, dann bin ich raus.

Fast alle Kollegen sind dort mittlerweile weg, weil es wirklich unerträglich ist und die Mods vor Selbstüberschätzung kaum noch laufen können. Das Thema ist bei mir komplett durch, solange dort nicht mal ausgemistet wird und wieder ein normaler Umgangston Einzug hält, so wie früher. Zum damaligen Heise Stunt und dem NV-NDA hätte ich auch weiter ausholen können, aber was solls. Die Gegenwart gibt mir doch völlig Recht. Leo ist ein Braver, aber er hat die Leute nicht mehr im Griff, leider.

Zum Test:
GFE nutze ich generell nicht, WU ist auf dem Testsystem während der Tests deaktiviert, Ethernet abgesteckt. Minimalsystem also. Ich bin ja kein Anfänger. Sonst hätte ich ja keine konsistenten Benchmarks. Die Taktraten lagen, je nach Kernauslastung zwischen 4.6 und 4.8 GHz :)
 
Oben Unten