Reviews Flaschenhals bei NVIDIA und DirectX 12? MSI GeForce RTX 3090 SUPRIM gegen MSI Radeon RX 6900XT Gaming X und die eigenen Treiber

@Monstranz

Danke für den Link.

Man hat also offenbar den globalen "Texture LOD Bias" verstellt. Das ist eine versteckte Einstellung, die man nur über Zusatztools setzen kann (seinerzeit nHancer (hehe) oder heute den Inspector). Dadurch kann man die Texturauflösung de fakto auf ein Minimum runterdrehen und man kann das in gewissen Situationen durchaus als Cheaten sehen. Es wird zwar keine Geometrie unterschlagen, aber geringer aufgelöste Texturen können auch einen Unterschied bei kompetitiven Spielen machen.

Aber was das mit diesem Thread zu tun hat, kann ich nicht ganz nachvollziehen. Es ist ja nicht so, wie oben unterstellt, dass sich NVidia damit einen Vorteil bei Benchmarks erkauft.
 
Zuletzt bearbeitet von einem Moderator :
Auf YOUTUBE gibt es von Jackfrags ein Gameplay-Video dazu.
Es muss auch definitive am Nvidia-Treiber eingestellt werden. Nur mit den .cfg's in BF5 geht das nicht.
 
Aber was das mit diesem Thread zu tun hat, kann ich nicht ganz nachvollziehen. Es ist ja nicht so, wie oben unterstellt, dass sich NVidia damit einen Vorteil bei Benchmarks erkauft.
Nicht? Komisch seiner Zeit hat man ATI genau das vorgeworfen.

Um das vllt. nochmal zu untermauern, ist auch memcpy_async nicht anderes als ein code changes in der synchronous Pipeline und unter Minecraft RTX hat man schon ordentlich am LoD umhergespielt.
 
Zuletzt bearbeitet von einem Moderator :
Nicht? Komisch seiner Zeit hat man ATI genau das vorgeworfen.
Du vergleichst eine fest im Treiber eingebaute Cheat-Funktion um in einem Benchmark besser dazustehen, mit einem Setting im Treiber, den es schon immer gab und der für alle Spiele funktioniert und die Grafikqualität klar sichtbar reduziert?

(Und meine Erinnerung sagt mir auch, dass es NVidia war, die sich damals hat erwischen lassen, nicht ATi)
 
Zuletzt bearbeitet von einem Moderator :
@Monstranz

Danke für den Link.

Man hat also offenbar den globalen "Texture LOD Bias" verstellt. Das ist eine versteckte Einstellung, die man nur über Zusatztools setzen kann (seinerzeit nHancer (hehe) oder heute den Inspector). Dadurch kann man die Texturauflösung de fakto auf ein Minimum runterdrehen und man kann das in gewissen Situationen durchaus als Cheaten sehen. Es wird zwar keine Geometrie unterschlagen, aber geringer aufgelöste Texturen können auch einen Unterschied machen.

Aber was das mit diesem Thread zu tun hat, kann ich nicht ganz nachvollziehen. Es ist ja nicht so, wie oben unterstellt, dass sich NVidia damit einen Vorteil bei Benchmarks erkauft.
Ging mir um Grafikunterschiede bei gleicher Einstellung in BF2 zwichen ATI und Nvidia. Das Damals Nvidia Details in Entfernung einfach weg gelassen hat, versuche mal was darueber zu finden. Dadurch waren die Benchmark-Ergebnisse gefacked. Glaube ATI ist bei sowas auch mal erwischt worden.
 
Ging mir um Grafikunterschiede bei gleicher Einstellung in BF2 zwichen ATI und Nvidia. Das Damals Nvidia Details in Entfernung einfach weg gelassen hat, versuche mal was darueber zu finden. Dadurch waren die Benchmark-Ergebnisse gefacked. Glaube ATI ist bei sowas auch mal erwischt worden.
Sorry, ich sehe den Zusammenhang nicht. Wir reden hier über eine manuelle Einstellung, die kein Mensch, der sinnvolle Benchmarks anfertigt, vornehmen wird.

Außerdem dürfte sich die Texturauflösung bei modernen spielen nicht wesentlich auf die Performance auswirken. Die Zeiten sind vorbei.

Für mich wirkt das, was hier im Thread gerade abgeht, wie ein geradezu verzweifelter Versuch, NV irgendeine Schweinerei anzudichten.
 
Nein war ATI. Sie meinten dann das LoD Bias Editing sei ein Treiberfehler, von wegen fest eingebaut. Solche Tweaks waren seinerzeit eher verpöhnt, heute werden sie ja bejubelt.
 
Zitat Artikel: "...wir haben in einem aktuellen Testprojekt (Danke an Fritz Hunter!) zu Lags und Latenzen..."

Wird der Test mit der 3080 gemacht? Wäre sehr interessant, da ich ebenfalls eine 3080 habe und teilweise nicht zufrieden bin was genau dieses Thema angeht. Durchgehend flüssige FPS aber leider in vielen Spielen extreme Frametimespikes und daraus resultierende Mikroruckler.



Hier Ryzen 5900x und RTX 3080 - sowohl 1440p, als auch 1080p Monitor vorhanden. Zu der aktuellen Diskussion kann ich mit dem Setup sicher nicht viel beitragen, bei anderen Dingen evtl. schon. ;)
Ich hatte diese Mikroruckler auch mal und es hat sich herausgestellt, dass in diesen Momenten der VRAM runtergetaktet wurde, weil der zu heiß lief. Hast du das schonmal überprüft? Mittlerweile bin ich auf eine Wasserkühlung umgestiegen und das Problem hat sich komplett erledigt.
 
@ActiveRage

Die FTW3 Ultra Gaming hat eigentlich einen recht potenten Kühler und die Temperaturen lassen sich mithilfe der iCX Technologie hervorragend prüfen und ich betreibe mein Thermaltake Core P8 gerade im offenen Zustand um Wärmestau durch die Graka zu verhindern. Daran liegt es leider nicht. Ich habe eine Custom-Wakü, sogar mit zwei 420er Radiatoren, ich warte jedoch noch auf das Upgrade zur 3090 via Step Up, bevor ich die Graka wieder in den Loop mit einbeziehe.
 
Die kleinen Sensoren der ICX sitzen NEBEN dem Speicher und sind komplett sinnlos. Erste Tests zwischen Auslesen des GDDR6X ind solchen Sensoren ergeben ca. 10 bis 25° Unterschied. Das ist sinnlos. Ich habe damals zu den ersten Kühlern mal ein Review geschrieben und dass es den Kühler gibt, liegt auch mit an mir. Ich sage nur Pad-Mod. Das war mein erster größerer :D

 
@Igor Wallossek

die aktuellen Karten scheinen ja einen neue iCX Generation zu haben, die älteren kenne ich leider nicht. Ist natürlich blöd einen Sensor zu verbauen, der neben dem wichtigen Punkt misst. :LOL: Im Grund kann mir das als Endkunde ja auch völlig wurscht sein :D In der Regel sind die meisten ja nicht so versiert und trauen sich ihre GPU direkt auseinander zu bauen, ich würde es mit dem Pad-Mod versuchen, wenn sie nicht zum Step-Up angemeldet wäre. Ansonsten muss ich mich darauf verlassen können, dass EVGA ihr Kühlkonzept im Griff hat und das nicht nur Marketinggewurstel ist, wie scheinbar so oft heutzutage leider.
 
Ich möchte das jetzt lieber nicht thematisieren ;)
 
ICX ist nichts was die Module schützt sondern in die Hysterese mit einfließt, damit die Lüfter langsamer drehen können und überwacht die Powermodule, dass ist ein Fan reduced Feature. Das sorgt nicht für bessere Temps, eher umgekehrt wird ein Schuh daraus, man bewegt sich immer am Limit.

Die GDDR6 Module throtteln allein, dass ist nicht abhängig von iCX. Und ja auf EGVA Karten werden die viel zu warm, was ja nicht neu ist.

Die Temp kann man mit HWInfo überwachen.

Das sind Werte wie:
TA (ambient air)
TB (board)
TC (case)
TJ (junction of device)
PB (power dissipated down)
PC (power dissipated up)

die da einfließen müssten (*wenn das überhaupt alles überwacht werden kann, ich denke da setzt iCX an, kann aber bestimmte Werte nur simulieren). Das deckelt iCX also in keinster Weise. Das ist eher eine Art Platinenüberwachung als denn für die Module. Die Temperaturen sind natürlich auch von der Casetemp abhängig (Jedec EIA/JesD51).

Igor hatte dazu schon mal was verfasst. Und wie es so ist, bei Karten im Referenzdesign befinden sich die Module mal wieder über den Leitungszügen der Powermodule für die GPU, die 250w saugen. Selbe Schwachstelle wie bei Turing schon und an das Layout (BDK) muss man sich nunmal halten.
 
Für mich wirkt das, was hier im Thread gerade abgeht, wie ein geradezu verzweifelter Versuch, NV irgendeine Schweinerei anzudichten.
Ne, so ist es nicht. Das Thema ist per se komisch - ich kenne wirklich niemanden, der auf derart niedriger Auflösung für ein derart hohes Budget spielt. Trotzdem interessant, der Sache auf den Grund zu gehen. Wo die Hardware 2.000+ Euro kostet...
 
Ne, so ist es nicht. Das Thema ist per se komisch - ich kenne wirklich niemanden, der auf derart niedriger Auflösung für ein derart hohes Budget spielt. Trotzdem interessant, der Sache auf den Grund zu gehen. Wo die Hardware 2.000+ Euro kostet...
Ich meinte nicht die Sache mit der CPU-Abhängigkeit, also das eigentliche Thread-Thema, das ist völlig unbestritten.

Ich habe mich hier auf die plötzlich aufgekommene Nebendiskission bezogen, dass NVidia angeblich durch reduzierte Bild-Qualität Benchmark-Ergebnisse fälschen würde. Das kam witziger Weise nach der (korrekten) Bemerkung auf, dass DLSS in Metro:Exodus schlecht funktioniert und wohl tatsächlich Details unterschlägt.

So kommt das eine zum anderen und schon ist man total vom Thema weg und einige ergehen sich in irgendwelchen Vorwürfen :)
 
Zuletzt bearbeitet von einem Moderator :
Meines Wissens sind beide Hersteller in der Vergangenheit keine unbeschriebenes Blätter gewesen. Hat aber nichts mit der aktuellen Thematik zu tun. Diese ist zwar interessant, aber für mich persönlich nicht relevant.
 
Och, mal provokant formuliert, ist der Artikel für mich vor allem eine weitere Bestätigung, dass ich mit der 3090 grds. die richtige Karte für 4K Gaming gekooft hab. ;)

Auflösungen darunter interessieren mich nicht (mehr) und Frames/Frametimes jenseits der 120FPS/Hz (egal bei welcher Auflösung) tendenziell auch nicht, denn mehr packt mein Monitor eh nicht.

Schön wäre es, wenn die aktuelle Medienpräsenz des Themas kurz- oder mittelfristig dazu führen würde, dass Nvidia vielleicht mit Treiberupdates o.ä. noch die ein oder andere Bremse lösen / Potenzial heben kann - aber viel Hoffnung hab ich da nicht, vor allem nicht, dass sich das dann auch (spürbar) auf die hohen Auflösungen positiv auswirkt.
 
@Besterino Deine Hoffnung teile ich ebenfalls. Ich würde sogar weitergehen und NV in den Popo treten, sich bei den Partnern von NV in der Spieleentwicklung, für stärkere Optimierungen stark zu machen! Wenn ma sich ansieht, was AMD und ihre Partner zustande bringen.
 
Oben Unten