Verbesserter Starfield DLSS 3.5 Mod für PC bietet überlegene Hochskalierung gegenüber nativer Auflösung

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.820
Bewertungspunkte
8.828
Punkte
1
Standort
Redaktion
Die DLSS 3.5-Technologie, bekannt für ihre Fähigkeit zur Verbesserung von Bildqualität und Bildraten, ist nun für Starfield auf dem PC verfügbar, dank der Bemühungen von Moddern.Nach der Veröffentlichung von Mods für NVIDIA DLSS 2 und Intel XeSS-Plugins durch PureDark wurde die Unterstützung für DLSS 3.5 schnell ins Spiel integriert. Diese Entwicklung bietet Vorteile, insbesondere für (read full article...)
 
Darüberhinaus sollte Starfield das Zugpferd schlechthin sein. Da haue ich doch raus, was es gibt. DLSS in allen Varianten + XESS. Warum sollte ich die Nutzer der Karten des Marktführers aussen vor lassen.
Du beantwortest dir die Frage m.E. selbst:
Aus meiner Sicht hat man hier sein Geld schon im Vorfeld verdient. Du bekommst das Game doch defakto hintergeworfen. Du kannst ja so gut wie kein AMD Produkt aus dem Bereich PC- Graka - CPU kaufen ohne das du das Game bekommst. Und im XBOX Abo gibt es das Game sowieso.

Ich bin auf deiner Seite. Nicht nur Starfield sollte nach Möglichkeit immer alle Technologien unterstützen. Es ist vermessen, wenn ich sagte, was Microsoft will oder wollen sollte. Aber Fakt scheint mir auch zu sein, dass der Konsolenmarkt wichtiger ist als der des PCs. Nach der Logik müsste so ziemlich jedes Spiel, insbesondere Konsolenports, besonders gut auf AMDs PC Hardware laufen. Tut es nicht. Gibts FSR(2) überhaupt für die Konsolen? Gut im Sinne des Sponsorings hat man sich dann drauf eingelassen und es eher "vertragsgemäß" umgesetzt *hust* verkackt. Im Zusammenhang mit dem Windows Schedulers und den Ryzen CPUs hat man ja gesehen, wie gut die beiden Hersteller zusammenarbeiten.

Die Unterstellung einer Verschwörung ist fies und der Diskussion nicht zuträglich. Ich für meinen Teil möchte nicht an eine "Deoptimierung" zulasten nVidias glauben, "nur" weil es bei nVidia noch schlechter läuft. Wenn man schon in die Kerbe schlägt, dann doch bitte mit bösen Blick richtung Intel, denn bei deren CPUs scheint es ja zu flutschen. Ist auch unsinn, denn untern Strich können wir es nicht wissen. Es ist und bleibt Spekulation. Ausnahmen bestätigen die Regel.

Eine "Deoptimierung" wäre im übrigen eine aktive Handlung zum Schaden des Konkurenten und was völlig anderes, als wenn man nicht für die Optimierung zahlt oder es zugunsten seines Sponsoring lieber auf später verschiebt. Zum anderen, wenn wir hier schon von Kalkulation sprechen, müssten wir von einem von AMD kalkuliertes und bewusst herbeigeführtes Eigentor sprechen, da die jämmerliche Umsetzung von FSR2 in erster Linie FSR2 und damit auch AMD schadet. Denn wer von nVidia will hiernach an eine Alternative zu DLSS denken? Nur nVidia kann etwas dagegen haben (was nicht bedeutet, dass sie dahingehend aktiv sabotierend handeln).

Was faktisch (für mich greifbar) bleibt, ist ein vermurkster Start. Einer von vielen irgendwie :(

Edit: und Gegenwind macht hier noch niemanden zum Opfer in der Diskussion. Meinung basiert auf Fakten und Vermutungen und über solche (bzgl. Sabotage durch AMD) lässt sich (heißblütig) diskutieren 😘

Edit2: das Sponsoring als Argument kann eigentlich nur dann funktionieren, wenn das Sponsoring funktioniert hätte. Aber wenn AMD für eine Deoptimierung (Sorry, dass ich auf den Begriff so rumreite @Megaone , ich meine nicht dich) gesorgt hätte, dann aber nicht ohne Zustimmung von Bethesda und Microsoft. Wenn das nur ansatzweise zuträfe, und das ist ein großes Wenn, dann wäre AMD das kleinste Problem bei der Nummer ^^
 
Zuletzt bearbeitet :
Ich hatte mol lust auf ein Fallout3 ähnliches RPG, mit all de, was ich hier lese ist Starfield kein Kandidat mehr. Dann doch lieber Fallout 4 testen.
 
Noch mal zum Verständnis:
Ich unterstelle NIEMANDEM etwas, aber wer die alte Engine kennt, wird sich schon etwas wundern. Aber egal, so einfach wie DLSS mittlerweile per SDK zu implementieren ist, glaube ich wirklich nicht so Recht an die unbefleckte Empfängnis. :D
Und dass nicht mal FSR Leistungsstufen zur Auswahl besitzt, ich komplett ärmlich.
 
Noch mal zum Verständnis:
Ich unterstelle NIEMANDEM etwas, aber wer die alte Engine kennt, wird sich schon etwas wundern. Aber egal, so einfach wie DLSS mittlerweile per SDK zu implementieren ist, glaube ich wirklich nicht so Recht an die unbefleckte Empfängnis. :D
Und dass nicht mal FSR Leistungsstufen zur Auswahl besitzt, ich komplett ärmlich.
Ja wenn man bedenkt, dass man mit FG+DLSS eine deutlich bessere Leistung hinbekommt, dann ist Starfield ja gerade deswegen eine Kaufempfehlung für Nvidia. Ich vermute mal, dass man FSR 3 bis zum Release schon fertig haben wollte. Aber so geht der Schuss für AMD leider nach hinten los.
 
Also ein typisches Bethesda Spiel (Bethesda Game Studios). Deren Spiele werden immer viel romantisiert.
Für Bethesda Verhältnisse ist der Starfield Release der mit den wenigsten Problemen seit gut 20 Jahren. Heißt aber nicht dass es jetzt "fertig" ist.
Manche Dinge sind aber viel nerviger als nicht so tolle Performance, das ist man inzwischen gewohnt.
Die erhöhten Schwarzwerte in SDR sind ein großes Problem. Kaputtes HDR zum Start ist man auch schon gewöhnt. Wenn man sich das YouTube Video von GamingTech ansieht sieht man dass der Startbildschirm keine Probleme hat in SDR wie HDR. Muss also ein technisches Problem sein und keine künstlerische Entscheidung wie hier spekuliert wird.

EDIT: Klarstellung bezüglich des Studios, es war nicht der Publisher gemeint.
 
Zuletzt bearbeitet :
Du beantwortest dir die Frage m.E. selbst:


Ich bin auf deiner Seite. Nicht nur Starfield sollte nach Möglichkeit immer alle Technologien unterstützen. Es ist vermessen, wenn ich sagte, was Microsoft will oder wollen sollte. Aber Fakt scheint mir auch zu sein, dass der Konsolenmarkt wichtiger ist als der des PCs. Nach der Logik müsste so ziemlich jedes Spiel, insbesondere Konsolenports, besonders gut auf AMDs PC Hardware laufen. Tut es nicht. Gibts FSR(2) überhaupt für die Konsolen? Gut im Sinne des Sponsorings hat man sich dann drauf eingelassen und es eher "vertragsgemäß" umgesetzt *hust* verkackt. Im Zusammenhang mit dem Windows Schedulers und den Ryzen CPUs hat man ja gesehen, wie gut die beiden Hersteller zusammenarbeiten.

Die Unterstellung einer Verschwörung ist fies und der Diskussion nicht zuträglich. Ich für meinen Teil möchte nicht an eine "Deoptimierung" zulasten nVidias glauben, "nur" weil es bei nVidia noch schlechter läuft. Wenn man schon in die Kerbe schlägt, dann doch bitte mit bösen Blick richtung Intel, denn bei deren CPUs scheint es ja zu flutschen. Ist auch unsinn, denn untern Strich können wir es nicht wissen. Es ist und bleibt Spekulation. Ausnahmen bestätigen die Regel.

Eine "Deoptimierung" wäre im übrigen eine aktive Handlung zum Schaden des Konkurenten und was völlig anderes, als wenn man nicht für die Optimierung zahlt oder es zugunsten seines Sponsoring lieber auf später verschiebt. Zum anderen, wenn wir hier schon von Kalkulation sprechen, müssten wir von einem von AMD kalkuliertes und bewusst herbeigeführtes Eigentor sprechen, da die jämmerliche Umsetzung von FSR2 in erster Linie FSR2 und damit auch AMD schadet. Denn wer von nVidia will hiernach an eine Alternative zu DLSS denken? Nur nVidia kann etwas dagegen haben (was nicht bedeutet, dass sie dahingehend aktiv sabotierend handeln).

Was faktisch (für mich greifbar) bleibt, ist ein vermurkster Start. Einer von vielen irgendwie :(

Edit: und Gegenwind macht hier noch niemanden zum Opfer in der Diskussion. Meinung basiert auf Fakten und Vermutungen und über solche (bzgl. Sabotage durch AMD) lässt sich (heißblütig) diskutieren 😘

Edit2: das Sponsoring als Argument kann eigentlich nur dann funktionieren, wenn das Sponsoring funktioniert hätte. Aber wenn AMD für eine Deoptimierung (Sorry, dass ich auf den Begriff so rumreite @Megaone , ich meine nicht dich) gesorgt hätte, dann aber nicht ohne Zustimmung von Bethesda und Microsoft. Wenn das nur ansatzweise zuträfe, und das ist ein großes Wenn, dann wäre AMD das kleinste Problem bei der Nummer ^^
Ich bin ja in weiten Teilen bei dir, aber wir wollen doch eins nicht vergessen.

Ich habe geschrieben:"Die Frage ist, ob es für AMD optimiert und/oder für NVIDIA deoptimiert wurde?"

Ich habe eine Frage aufgeworfen und niemanden irgendwas unterstellt. Und es war auch nicht meine Absicht (entgegen sonstiger Geflogenheiten) mit verbalen Handgranaten zu werfen.

Wobei der Unterschied (wenn wir denn schon beim Haare spalten sind), zwichen deoptimiert und nicht optimiert, der ist zwischen Totschlag und unterlassener Hilfeleistung ist. Beides ist für den Betroffenen nicht so das Gelbe vom Ei.

Mit ist das ganze im Grunde ernsthaft Wumpe, aber weil ich gerad in Bayern im Hotel abhänge und Langeweile habe......

Immerhin kommen ja die ersten Top Headlines ( böse Zungen würden sagen) "Wunschgemäß".

"Die optimale Grafikkarte für Starfield: Radeon RX 7900 XTX schlägt Geforce RTX 4090 durchgängig "​


Aber man findet leider auch folgenden bemerkenswerten Satz bei den Hardwarefachkräften von PCGH.

Ich zitiere:". Blickt man jedoch auf die Skalierung von RTX 4080 auf RTX 4090, scheint doch etwas zu bremsen. Normalerweise rangiert das Topmodell um gut 40 Prozent vor der RTX 4080, wenn pure Grafiklast angesagt ist, in diesem Fall kann sich die RTX 4090 jedoch nur um 31 bis 38 Prozent absetzen.

Das wiederum passt zu Igors Aussage.

Im Moment ist das ein sehr schöner Erfolg für AMD. Die Fanboy`s überschlagen sich mit Freude, Hohn und Spott.

Es sei Ihnen ernsthaft aufrichtig gegönnt. Ich befürchte nur, das das ganze von kurzer Dauer ist.

Und eines sollten wir nicht vergessen. Egal wer dafür sorgt, das irgendwas für irgendein Produkt nicht optimiert ist und/oder wird. Oder Möglicherweise der Versuchung nicht wiederstehen kann, das ein Produkt vom Wettbewerb schlechter aussieht als notwendig. Am Ende ist das Opfer immer der zahlende Kunde.

Wobei dies hier, egal ob De- oder Nichtoptimiert, das Potenzial zu einem nachhaltigen Eigentor für AMD und für Bethesda besitzt. Bis jetzt sehen wir im Grunde nur Ersatzlösungen von geneigten Programmierer, aber ich bin mir sicher, das NVIDIA das nicht auf sich sitzen läst.

Und an einer weiteren Schwächung von AMD hab ich aus mehrfach genannten Gründen keinerlei Interesse.
 
Zuletzt bearbeitet :
Da muss ich dir Recht geben,nur wird es wie immer nicht dabei bleiben wie man in der Vergangenheit immer wieder gesehen hat.
Sollen sie, haben ja genug Frust geschoben. Ist halt nicht die Ebene auf der ich mich auseinandersetzen will. Man kann jetzt nur hoffen, das das Beispiel nicht Schule macht.

Die Leute verstehen halt nicht, das wir ,unabhängig von der persönlichen Kaufentscheidung, im selben Boot sitzen. Als ich das Gerücht vernommen habe, das AMD sich aus dem High-End Grafikkartenmarkt möglicherweise zurück ziehen möchte, war das weiss Gott kein Grund zur Freude.

Aber so ist es halt,
 
Sollen sie, haben ja genug Frust geschoben. Ist halt nicht die Ebene auf der ich mich auseinandersetzen will. Man kann jetzt nur hoffen, das das Beispiel nicht Schule macht.

Die Leute verstehen halt nicht, das wir ,unabhängig von der persönlichen Kaufentscheidung, im selben Boot sitzen. Als ich das Gerücht vernommen habe, das AMD sich aus dem High-End Grafikkartenmarkt möglicherweise zurück ziehen möchte, war das weiss Gott kein Grund zur Freude.

Aber so ist es halt,
Naja die Leute haben eben keine Ahnung was früher so abging mit AMD bzw.heute noch ist.
Ich erinnere mich noch an die Anfänge von AMD bzw.den Artikel wo Intel schneller war als die AMD CPU,zu der Zeit konnte man aber noch reicht einfach aus ner AMD CPU nen Intel machen und auf einmal war die AMD CPU Schneller.
Intels Compiler der AMD CPUs ausgebremst hatte.
ATI Grafikkarten die in Spielen nicht richtig liefen.
HandBrake was AMD CPUs nur zu 75% pro Kern ausgelastet hatte.
CineBench wo sich jemand den Code angesehen hatte und nur Optimierungen für NVIDIA und Intel existierten.
BF wo die FX6000er am Anfang rund und schneller liefen als die i7.Nach ein paar Patches und riesen Aufreger liefen die 6000er fast gar nicht mehr,die 8000er hatten immer mehr an Leistung verloren bis sie langsamer als die Intel waren und die wurden kaum schneller,und und und......
 
Da nehm ich doch jetzt auch mal nen großen Schluck von dem Lack den hier mancher säuft, nen Aluhut und behaupte einfach mal:

Nvidia hat mit dem letzten Treiber seine eigenen GPU ausgebremst, um nen shitstorm gegen AMD auszulösen

--- Kann spuren von Ironie enthalten ---
 
Da nehm ich doch jetzt auch mal nen großen Schluck von dem Lack den hier mancher säuft, nen Aluhut und behaupte einfach mal:

Nvidia hat mit dem letzten Treiber seine eigenen GPU ausgebremst, um nen shitstorm gegen AMD auszulösen

--- Kann spuren von Ironie enthalten ---
Joo, das wär es noch!:ROFLMAO::ROFLMAO::ROFLMAO:
 
 
Da Valve jetzt auch gesagt hat, daß Starfield auch fürs Steamdeck erhältlich sein wird, ist das jetzt mein Plan: warten, bis Starfield bei Steam für wenige € erhältlich sein wird, dann für mein Steamdeck runterladen. Auf 7 Zoll und 720p sieht man die ganzen Artefakte wahrscheinlich kaum. Darf halt nur dem Impuls, es doch mal in groß zu spielen, nicht nachgeben 😁
 
Hatte mich auf Starfield gefreut, werde jetzt aber so machen wie bei Cyberpunk.
In 1-2 Jahren das fertig gepachte (gemoddete :p )Spiel im Sale für ~25€ kaufen.
Wenn man bedenkt das ein Ryzen 7800X3D mit RTX 3060 in FullHD gerade mal 33fps schafft,
kann ich mit meinem 10400f + RTX 2060 sowieso nur eine Diashow in FullHD spielen.
 
Hat eigentlich Nvidia bei Cyberpunk AMD CPUs absichtlich ausbremsen lassen?
Im Moment ist das ein sehr schöner Erfolg für AMD. Die Fanboy`s überschlagen sich mit Freude, Hohn und Spott.
Aus meiner Sicht gibt es überhaupt nichts zu feiern. Aber Hohn und Spott sicherlich. Schließlich sehen die X3D CPUs richtig schlecht aus.
Ich behaupte von mir, dass meine Draufsicht auf das Ganze einfach größer ist.
 
Schließlich sehen die X3D CPUs richtig schlecht aus.
nur mit langsamen Vram, weil einfach permanent gestreamed wird brauchts durchgehend Bandbreite
Ich behaupte von mir, dass meine Draufsicht auf das Ganze einfach größer ist.
na dann zoom Dich weiter raus, oder schaust Du nur Tests in 720p an
vermutlich wird man in SF ab 1440p+ eeh net mehr sooo von der CPU abhängen

@RedF
Was für Vram läuft bei Deinem 5800x3D eigentlich, mit welchem fclk?
 
Oben Unten