Reviews Flaschenhals bei NVIDIA und DirectX 12? MSI GeForce RTX 3090 SUPRIM gegen MSI Radeon RX 6900XT Gaming X und die eigenen Treiber

Ganz großes Kino!

Vielen Dank Igor, mir standen die Tränen in den Augen als ich den Artikel gelesen habe.
Lesen ist ja das eine, aber Verstehen was damit gemeint ist die andere.

:ROFLMAO:
 
Ne, so ist es nicht. Das Thema ist per se komisch - ich kenne wirklich niemanden, der auf derart niedriger Auflösung für ein derart hohes Budget spielt. Trotzdem interessant, der Sache auf den Grund zu gehen. Wo die Hardware 2.000+ Euro kostet...
Warum denn nicht?
hmm.png
CoDBOCW_1080p_2 (2).png

Zählt nur Ultra GFX Quality @4k? Kann man sich hier nicht vorstellen dass einige sensibler auf Latenz/Inputlag reagieren als auf Ultra Settings vs Normal Settings?
 
Na jetzt "kenne" ich einen 😉
 
@gastello

Ich habe ja nicht behauptet, dass iCX in irgendeiner Form ein Schutzmechanismus ist, lediglich das sich damit die Temperaturen auslesen lassen und meiner Meinung nach die Kühlleistung potent ist. Mir ist auch bewusst, dass der GDDR6X Speicher nicht abhängig vom iCX ist, da dies lediglich das Kühlkonzept von EVGA darstellt. Ich möchte auch hier nochmal kurz was anhängen:


Ohne Cap.PNG

Hier sind alle verfügbaren Temperatursensoren der RTX3080 Ftw3 Ultra Gaming aufgelistet, gemessen während einer Runde CoD. Ausgelesen aus HwInfo64. Ich kann hier als "Laie", ohne spezielle Messtechniken oder Messgeräte, keinerlei bedenkliche Temperaturen feststellen, auch bleibt der Takt stabil. Tatsächlich sind für mich hier die maximalen Möglichkeiten als Ottonormalverbraucher auch erreicht, was den Umfang der Tests angeht. Und da das der Fall ist, muss ich mich (und die meisten anderen Verbraucher auch) wohl oder übel darauf verlassen können, dass die angezeigten Werte stimmen und der Hersteller mir hier keinen absoluten Müll angedreht hat, bei dem die Sensoren 10cm weg vom Hotspot sitzen.

Ich möchte hier eure Aussagen auch gar nicht revidieren. Ihr seid sehr wahrscheinlich teilweise viel tiefer in der Materie als ich es bin, aber das hier sind eben die Möglichkeiten die mir zu Verfügung stehen und aufgrund derer ich meine Aussagen hier schreibe.
 
Auf den ersten Blick kann ich auch keine kritischen Temperaturen sehen, jedoch bricht die GPU-Auslastung zum Zeitpunkt der Spikes ebenfalls ein.
Kann die installierte Version von HWInfo bereits die GDDR6X Junction Temperature auslesen? Die kann ich hier nämlich noch nicht sehen. Eventuell ist das aber auch nur der 3080FE möglich, die ich verbaut habe.
 
Dort steht ja "GPU Memory Junction Temperature". Linke Seite, viertes von oben. Das Spiel hat ca. ab der gestrichelten Linie begonnen, der krasse Einbruch war ein Tod und der nachfolgende Respawn.

Ich habe scheinbar die Spikes in den Griff bekommen nach einem erneuten aufsetzen von Windows und einem cleanen Test. Muss wohl an einem Programm liegen, welches ich installiert hatte. Vielleicht kann ich es reproduzieren, dann melde ich mich nochmal.

Ansonsten schönen Abend euch allen.
 
Vielen Dank für den überaus arbeitsintensiven und aufschlussreichen Artikel!

Im Prinzip bestätigt er, was eigentlich von Anfang in den Benchmarks zu RDNA2 und Ampere offensichtlich geworden ist: Ampere ist deutlich CPU abhängiger und kann seine theoretischen Vorteile an Rechenleistung erst ab 4k so richtig ausspielen.

Deine Theorie mit dem Async Computing ist interessant. Aber das würde ja bedeuten, dass entweder das Setup von diesem Feature bei Ampere mehr CPU Zeit braucht - oder dessen Ausführung. Bei letzterem kann ich mir das kaum vorstellen, denn die Ausführung muss ja die GPU erledigen. Also kann es doch nur das Setup sein. Eventuell muss da was umorganisiert oder sortiert werden, damit die GPU optimale Ergebnisse liefert?

Nicht desto trotz...

Häme incoming in 3... 2... 1...

Würde das Ergebnis ein anderes sein, wenn anstatt eines Ryzen ein Intel Prozessor im Testsystem gesessen hätte?

Denn... AMD hat doch dieses Smart Access Memory, wodurch auch nochmal ein paar Prozent rausgeholt werden. Ich habe die MSI RTX 3090 Suprim X mit
einem Intel i9 10850K und habe damit eine wirklich gute Leistung im wassergekühlten System, obwohl die CPU doch recht warm wird....das wiederum würde
bestätigen, das die RTX die CPU mehr fordert.

Was mich jedoch überrascht hat, ist die Leistungsaufnahme bei Volllast...da ist das AMD-System ja deutlich effizienter.

Toller Vergleich Igor!
 
HWInfo liest die Werte aus der NVIDIA API mittlerweile richtig aus, die Sensoren von EVGA sind kleine Widerstände, die man auf der Platinenoberseite positioniert. Das allerdings ist reichlich überflüssig. ;)

rBAR funktioniert mittlerweile auch mit NVIDIA und Intel. :)
 
HAGS (Nvidia) und GHS/HWS (AMD) aktiviert oder nicht macht am Gesamtbild keinen Unterschied. Schwierig, das noch von Messtoleranzen zu unterscheiden.
 
Hey Leute jetzt mal ne etwas andere Frage zur hier verwendeten 3090 Suprim. Ich wollte mal wissen wo da genau der RGB Stecker ist, kann den "rainbow puke" Modus nicht mehr sehen, und wollte dem bunten treiben ein für allemal ein Ende setzten :) Leider findet mal (Ich :D ) dazu nichts, wäre echt super wenn vielleicht einer ne Ahnung hat, und mir helfen könnte.
 
HAGS (Nvidia) und GHS/HWS (AMD) aktiviert oder nicht macht am Gesamtbild keinen Unterschied. Schwierig, das noch von Messtoleranzen zu unterscheiden.
Wird interessant sobald AMD SAM und HAGS auch wirklich ausrollt. Dann noch DirectStorage und schon wird das Thema TreiberCPULimit IMHO noch spannender.
 
Hey Leute jetzt mal ne etwas andere Frage zur hier verwendeten 3090 Suprim. Ich wollte mal wissen wo da genau der RGB Stecker ist, kann den "rainbow puke"
Das sind der rote und schwarze an der Oberseite. Aber die fest verlöteten LED auf der Platinenrückseite bekommst Du damit nicht weg :D
Man kann doch die LED Kacke auch per Software töten...
 
Das sind der rote und schwarze an der Oberseite. Aber die fest verlöteten LED auf der Platinenrückseite bekommst Du damit nicht weg :D
Man kann doch die LED Kacke auch per Software töten...
Danke Igor, dass mit der Software wusste ich tatsächlich nicht. Ich hoffe doch du meinst damit nicht das Dragon Center :D
Ich habe mir normal nie viele Gedanken zu diesem bunten Lichterspiel gemacht, da mein Rechner sowieso mit der Glasscheibe am Schreibtisch klebte. Nachdem er jetzt umgezogen ist sieht man die Lichter aber deutlich, also werde ich mich da mal informieren, und du kannst natürlich gerne mehr über die Softwarelösung schreiben, wenn es zeitlich passt ;)
 
Also ich habe einmal versucht das Ganze zu analysieren.

Leider habe ich nur ein System zur Verfügung mit:
9900K @ 95W default, DDR4-2667
Nvidia 1070 Ti
32GB RAM

Damit ich den Einfluss der GPU Leistung selbst möglichst eliniere habe ich die Einstellunge möglichst weit runter geschraubt:
640x480, Renderauflösung 50%
Settings @ Low + AA aus
Frame Limiter, vsync etc. deaktiviert
Gebencht habe ich mit dem ingame Benchmark

Mein Ergebnis waren ca. 170fps, was etwas schwächer als die Werte von igor@720p sind, was sich aber denke ich durch seinen Zen3 + besseren RAM erklären lässt, von daher liege ich denke ich nicht so meilenweit daneben.

Nun habe ich denselben Benchmark noch einmal laufen lassen und bin währenddessen mit Alt+Tab raus gewechselt.

Und nun die große Überraschung:
Die CPU Auslastung ist bis knapp auf 100% hoch, die CPU Auslastung der Game exe selbst waren jedoch nur um die 60%.
Der Rest waren "Kernelzeiten" laut dem Windows Task Manager.

Könnte das vielleicht genau dieser Overhead sein, den wir suchen?
Wäre einmal interessant, wenn das einmal jemand mit einer AMD Karte nachbenchen könnte, ob das dort ähnlich aussieht oder vielleicht die Kernelzeiten deutlich niedriger sind.

Screen.png
 
Oben Unten