News AMD kontert mit der Radeon RX 6900XT, 6800X und 6800 Nvidias GeForce RTX 3070, 3080 und 3090

Hier haben wohl einige keine oder wenig Ahnung wie ML bzw. DL funktioniert. Bei den Genauigkeiten (=Datenmengen!), die man für gescheite Bilder beim Gaming benötigt, gehe ich fest davon aus, dass die Modelle pro Spiel erstellt werden müssen. Die Modelle bestimmen dann ggf., wie die Vektor-Technik konkret eingesetzt wird - die Kunst ist es also, die verschiedenen Techniken clever zu kombinieren. Es kann aber einen fundamentalen Unterschied machen, ob das Spiel einen Stil wie Borderlands oder eben HZD oder WOW oder WDlegion hat. Modell von Borderlands wird kaum für WD legions gescheit funktionieren... Das erste Modell ist bestimmt beim Game bzw. Release-Treiber dabei, Aktualisierungen können dann SOWOHL über Game-Updates wie auch TREIBER-Updates oder auch GF-Experience oder sonstwoher kommen, was sich Entwickler und/oder Nvidia halt gerade ausdenken. Und so ein Modell - also die Erstellung! - rechnet selbst die 3090 mal nicht in Echtzeit nebenher auf den paar Tensorkernchen und wendet das dann noch fröhlich gleich parallel in Echtzeit an. Die Graka dürfte froh sein, dass sie die Anwendung des Modells hinbekommt.

Grundfunktionen gehen dann immer, besser wird’s nur mit Updates. Merkt das einer? Nee, weil im Zweifel marginale Unterschiede und man muss die mit der Lupe im Standbild suchen.

Also: bitte differenzieren, bei der Berechnung der Bilder beim SPIELEN wird definitiv nichts heruntergeladen. Die Bilderzeugung als Basis für und die Erzeugung der Modelle, die bei der Bilderzeugung beim Spielen bei DLSS ANGEWENDET werden, findet nicht auf unseren Büchsen statt. Und dummerweise musst Du die Modelle für jede Verbesserung immer gleich von Null neu rechnen...
 
Doch ein paar wissen das. Lief schon auf GCN1 und Kepler, vor allem der geringe Overhead ist von Vorteil. Nvidia versucht mit dedizierter Hardware (Cuda) immer zu forcieren und vorzugreifen, was open source noch nicht soweit ist. Früher oder später verschwinden ihre Ansätze dann wieder, so wird das auch mit DLSS passieren, bzw. ... werden sie es wenn's soweit ist, es in eine ML taugliche open source Variante überführen, so wie Gsync Compatible etc. (wobei sie bei Laptop's noch nie ein Modul verbaut haben, Gsync also dann VRR auf eDP aufsetzt). ML ist DirectX und nicht von AMD, sie fokussieren sich nur darauf.

Was das Ganze dedizierte Zeugs nunmehr kostet ist offensichtlich, Waferfläche und einen Haufen Energie, wobei man dann woanders sparen muss (VRAM usw.).

Übrigens gerade gibst die MSI 3080 OC auf Mindfactory für schlappe 999 EUR. Krank ... genau wie alle Varianten OC Potential gleich null, 300 EUR teurer als 'ne FE. Dann lieber doch etwas weniger von dem dediziertem Zeugs und mehr von open source -> wobei Early Adopter dann nicht unbedingt an die potentiellen Käufer zur Refinanzierung dedizierter Ansätze weitergegeben werden muss. Es dauert halt länger bis es im Markt und beim Spieler ankommt. Dann haben aber alle was davon.

*Quellcode zu DirectML Superres und Flowsample wurde auf Github schon vor Monaten veröffentlich.

Und nur so zu mitlesen ->die API inklusive Runtime und Inference Engine von WinML braucht keinen Tensorcore, egal was Nvidia behauptet. Die Ergebnisse sind gleichgut ohne jeglichen dedizierten Treiber- oder Experiencesupport. Ein Teil davon wird genauso wie unter DLSS auf die CPU ausgelagert.
 
Zuletzt bearbeitet von einem Moderator :
Was nur angemeldet geht, also du musst die Nutzung personalisieren (Anmeldezwang).

Microsoft ließ den Herstellern freie Wahl, wie sie hardwareintern und fernab des HLSL Code und LowLevel die Anforderungen umsetzen. Letztlich werden die Gleitkommadaten zu FP32 formatiert.

Darauf beruhen auch die DNN FP16 Modelle, weil sich mehr Daten bei höherer Ungenaugikeit durch die Einheiten schleusen lassen, anstatt die Einheiten ins unermessliche auszubauen. Das bedeutet eine bis zu 8-fach höhere Rechenpower. Dediziert hat den Nachteil, dass der In- und Output bestimmter Funktionsblöcke begrenzt bleibt und damit auch DNN Modelle.

Totzdem kann man ausgehend von dem möglichen Output (Overhead mal aussen vor), von "Statisch" auf "Echtzeit" wechseln. Das ist in dem Fall auch keine Erfindung von Nvidia, sondern Teil von d3d12.
 
Es ist schon faszinierend wieviel nicht-wissen hier verbreitet wird um seinen Vorurteilen zu frönen.
Es ist vor allen Dingen faszinierend, was du anderen Usern immer wieder anhängen willst. Bei DLSS 1.0 hieß es, dass die Daten via Geforce Experience geladen würden, falls sich das mittlerweile geändert haben sollte, dann hättest du das ganz normal berichtigen können.

Eine Antwort ist übrigens nicht nötig, ich werde sie nicht mehr lesen.
 
@Grestorn
Es kristallisiert sich so langsam heraus, wie du tickst: Wenn jemand anderer Meinung ist und sich nicht überzeugen lässt wird mit "Vorurteilen" oder gleich "Verschwörungstheorien" umhergeworfen. Man kann hier über vieles diskutieren, das hat sogar eine ganze Weile lang mit dem Thema Corona funktioniert, natürlich unter in weiser Voraussicht angedeuteten, moderatorischer Maßnahmen seitens Igor, sollte es doch nicht klappen.

Man kann durchaus mal falsch liegen, das ist keine Schande. Wie auf der Site die LurkingInShadows verlinkte zu lesen ist, wird bei Nvidia, NICHT auf deinem Rechner, ein KI Netzwerk angelernt.
Nvidia hat gesagt. :
Unser neuronales Grafik-Framework, NGX, trainiert ein Deep Neural Network gegen Zehntausende hochauflösende, schöne Bilder, die offline in einem Supercomputer mit sehr niedrigen Frameraten und 64 Samples pro Pixel gerendert werden. Basierend auf dem Wissen aus unzähligen Trainingsstunden kann das Netzwerk dann Bilder mit niedrigerer Auflösung als Eingabe aufnehmen und hochauflösende, schöne Bilder erstellen.
So, irgendwie müssen diese Daten mit dem Ergebnis aber auch auf deinen PC. Das passiert entweder über den Treiber, ein Profilupdate seitens GFE oder vielleicht liefert das Spiel auch selbst bereits Daten zu Release oder über (Day-1-)Patches mit, die von den Tensorcores verwendet werden können. Wissen tu ich es nicht, aber ich vermute aus logischer Schlussfolgerung daraus, dass über einen dieser Pfade die Informationen für die Tensorcores auf deinen PC kommen, damit diese aus der niedrigeren Auflösung das hochrechnen können, was du schließlich auf dem Bildschirm siehst.

//edit:
Ach ja, wir sind hier im Übrigen immer noch in einem AMD RX 6800/XT/6900XT Thread, ich frage mich so langsam auch, warum die Diskussion immer wieder zurück zu Nvidia schwenkt.
 
Zuletzt bearbeitet :
Wahrscheinlich über den üblichen Längenvergleich, auch wenns hier nur um die der Featureliste geht. :)
 
Es handelt sich um einen AMD kontert Nvidia-Thread, @DHAmoKK.
 
Man kann durchaus mal falsch liegen, das ist keine Schande. Wie auf der Site die LurkingInShadows verlinkte zu lesen ist, wird bei Nvidia, NICHT auf deinem Rechner, ein KI Netzwerk angelernt.

Ich kann durchaus mal falsch liegen, ich glaube nur weiterhin nicht, dass diese "angelernten" Daten Teil des Treibers sind und schon gar nicht werden sie über GF Experience heruntergeladen. Wenn ich das noch begründen muss, dann tut es mir leid, denn es ist einfach offensichtlich.

Es kann schon sein, dass sie im Spiel selbst hinterlegt werden müssen. Aber ehrlich: Ich bezweifle das. Ich denke, die Daten sind, wenn es sie überhaupt gibt, generisch und global über alle Spiele. Was auch Sinn macht, denn ein neuronales Netz zeichnet sich dadurch aus, dass es mit verschiedenen Situationen klar kommen muss.

Aber egal, mein Kommentar oben bezog sich einzig und alleine auf @gastellos Behauptung, man bräuche GF Experience und damit einen Account. Das ist schlicht falsch, PUNKT.

Herr Rossi, gut, dann sind wir ab sofort gegenseitig auf Ignore.
 
@Grestorn: Link von @LurkingInShadows oder dem hier folgen, Fakten sammeln, Freude haben. So ist es offenbar im Gegensatz zu DLSS 1 jetzt in der Tat so, dass KEINE individuellen Modelle mehr pro Spiel trainiert werden müssen. Aber "offensichtlich" ist da mal gar nix, denn noch mit DLSS 1 war das EXAKT GENAU der Fall.

Und grundsätzlich werden Aussagen nicht dadurch besser oder glaubhafter nur weil Du da "ehrlich" oder ich "ich bezweifle das" oder "was auch Sinn macht" dran schreibst. Wäre ja noch schöner, wenn Du das was Du ansonsten als Fakt von Dir gibst, nicht ehrlich meinst, selbst bezweifelst oder schon aus Deiner Sicht keinen Sinn macht. Und natürlich darfst Du das gerne, so wie du auch ehrlich bezweifeln darfst, dass die Erde rund ist. Aber glauben werde ich dir das deshalb trotzdem nicht.
 
"Offensichtlich" bezog sich auf GF Experience.

Es ist offensichtlich, dass das nicht benötigt wird. Oder hat je jemand gesehen, dass DLSS ohne GF Experience nicht funktioniert?

Also.

Warum habt ihr Euch so auf mich eingeschossen? Wieso lest ihr Dinge in meinen Kommentaren, die da gar nicht stehen?

Und wenn Du jetzt auch noch bestätigst, dass ich recht habe... Ich habe ja mehrfach auf DLSS2 hingewiesen und woher ich meine Infos habe. Danke für die Bestätigung übrigens.
 
Das ein gewisser Aufwand (in welcher Form auch immer) pro Spiel nötig ist, steht für mich außer Frage. Sonst wird es schwierig zu erklären, warum das nicht bei jedem Titel implementiert wird.
 
Das ein gewisser Aufwand (in welcher Form auch immer) pro Spiel nötig ist, steht für mich außer Frage. Sonst wird es schwierig zu erklären, warum das nicht bei jedem Titel implementiert wird.
Klar. Bei den Entwicklern ist es ein gewisser Aufwand. Aber da es offenbar in die großen Engines integriert ist, wird sich dieser eher verringern, genau wie bei RT.

Das ist jedenfalls meine Hoffnung.
 
"Offensichtlich" bezog sich auf GF Experience.

Es ist offensichtlich, dass das nicht benötigt wird. Oder hat je jemand gesehen, dass DLSS ohne GF Experience nicht funktioniert?

Also.

Warum habt ihr Euch so auf mich eingeschossen? Wieso lest ihr Dinge in meinen Kommentaren, die da gar nicht stehen?

Und wenn Du jetzt auch noch bestätigst, dass ich recht habe... Ich habe ja mehrfach auf DLSS2 hingewiesen und woher ich meine Infos habe. Danke für die Bestätigung übrigens.
Du musst das DLSS und das was auf der GPU passiert auseinaderhalten, die komplexere Berechnung eines DNN auf Basis von FP32 und die Vectorverrechnung mit reduzierter Genauigkeit von Tensor auf der GPU (reducded precision wo du int 64 runterbrechen könntest).

Du kannst Änderungen dann gleich über Expierence einspielen und musst nicht auf jedes Treiberupdate warten, wo auch noch andere Dinge gefixt werden. Mit dem genannten Anmeldezwang (nach Hause telefonieren -> Metriken) halt, mir ging es übrigens nicht um AMD gegen Nvidia oder umgekehrt, und Tensor ist dafür auch eigentlich nicht der richtige Begriff, er fasst es nur technisch zusammen. Letztlich ist es Cuda oder GPGPU.

Tensor ist in dem Fall ein reiner AI/KI Marketingbegriff (so wie Tensorcore), denn letztlich ist es nichts anderes, als mit einer einzelnen Anweisung (Multiplikation) zwei 4x4 Matrizen verrechnen zu können. Dafür braucht es eben keinen Tensorcore.
 
Zuletzt bearbeitet von einem Moderator :
Gastello, Du behauptest also, dass DLSS 2 bei einem neuen Spiel nicht (korrekt) funkioniert, wenn man einen einen Monat alten Treiber verwendet?

Das ist eine sehr steile These!
 
Ich behaupte es nicht, ich weiß es und das genau ist der Unterschied. Unterstützt denn jedes Spiel DLSS v2.0+? Nö. Keine Ahnung was da mit Thesen willst und wozu gibt es Treiberupdates überhaupt?

Natürlich fließen Änderungen nur ein, wenn man den neusten Treiber installiert oder eben Expierence aktiviert. Daran ist absolut nichts neu. Die DLSS Updates werden über Game ready oder EP verteilt.
 
Die Antwort ist: Nein. Man braucht keinen neuesten Treiber um DLSS 2 nutzen zu können. Und Experience braucht man schon zweimal nicht. Und was man absolut nicht braucht ist ein Account.

Alles Dinge, die Du einfach mal so behauptest (und ja, das hast Du klar getan), ohne es zu wissen. Und Du hast es getan, um die Technologie zu diskreditieren.
 
Oben Unten