Testreihe mit Karten von NVIDIA und AMD - Wenn plötzlich der Speicher der Grafikkarte nicht mehr reicht

@8j0ern
Was hat dies nun mit FSR3 zu tun?

FSR3 wurde angekündigt und seither herrscht stille.

FSR2.2 ist in SW Survivor integriert und bringt noch immer keine zufriedenstellende Ergebnisse.

Dann haben wir XeSS, welches z.b. ich in The Witcher 3 schon testen konnte und hier sind die Ergebnisse überraschend gut. Hier Respekt an Intel, was für eine Mühe sie sich geben, bei XeSS und auch den Treibern. Eigentlich ein Wunder, wenn man den Gerüchten glaubt, dass die Intel dGPU Sparte begraben ist.

Sie sind wohl dran am FSR3.0 es gab ja bisher kein Datum wann es kommt.

Wurde SW Survivor mit dem Hot Fix getestet? Das Glaube ich zumindest nicht, der fix kam ja erst raus.
Warum man mit dem Release vom Spiel nicht warten wollte, weiß ich nun auch. ;)
 
@Supie Das was aber Intel da zaubert ist deutlich mehr als nur einen Alibi Support aufrecht zu erhalten, meint du nicht?

@8j0ern der Hotfix wird nicht das Resultat merklich verbessern. Die Notes sprechen ja auch nur von kleinen Verbesserungen. Versteh mich nicht falsch, das ist natürlich begrüßenswert, rettet die Situation aber nicht.

Ja AMD hat kein Datum für FSR3 genannt, das ist ok, dennoch täten sie gut daran das Thema in der Öffentlichkeit zu halten, das tun sie aber nicht. Woran liegt es?
Sogar für Starfield wurde mit Stolz (ironisch gemeint) nur FSR2.2 angekündigt.
 
Ja AMD hat kein Datum für FSR3 genannt, das ist ok, dennoch täten sie gut daran das Thema in der Öffentlichkeit zu halten, das tun sie aber nicht. Woran liegt es?
Sogar für Starfield wurde mit Stolz (ironisch gemeint) nur FSR2.2 angekündigt.
Joo, das schaut nach einer weiteren AMD Großbaustelle aus. Manchmal tun sie mir fast schon leid. Mit Ihrer Mittelklasse kommen sie auch nicht aus dem Quark.

Wenn das so weitergeht, kommen die Dinger Zeitgleich mit der 5090. Obwohl, wenn man sieht was NVIDIA mit Ihrer 4060 abgeliefert hat, kann man sich auch nur an den Kopf fassen.
 
Das was aber Intel da zaubert ist deutlich mehr als nur einen Alibi Support aufrecht zu erhalten, meint du nicht?
War doch ein Zitat von dir wenn ich mich nicht irre? Ich habe das nicht behauptet...... nur erwähnt, was ich schätze, das passieren wird, wenns so wäre.

Ich finde das ist doch noch ein ziemlicher Unterschied zu deiner Aussage mit den Gerüchten. ausserdem fände ich das echt schade, wenn mit Intel eine finanzstarke Konkurenz das Handtuch wirft, die sich...von Anfangsproblemen, abgesehen doch recht gut gemacht hat.
Aber das langt halt nicht gegen den Platzhirsch, da muss langsam mal Leistung zum vernünftigen Preis kommen, und eine Innovation wäre auch nicht schlecht fürs Image, wobei das dann wieder für die Kunden nicht so wirklich gut wäre.........

Aber wie will man sonst von NVIDIA Kunden loseisen?
 
@Supie Sorry, scheint als hätten wir aneinander vorbei geschrieben, was ich meinte
-Es gibt Gerüchte, dass Intel das Handtuch werfen würde
-Deren Software Support macht aber so grosse Fortschritte, dass man diesen Gerüchten nur schwer glauben schenken kann
-Den Support könnten sie deutlich geringer halten ohne einen Shitstorm befürchten zu müssen
-Ein "mini" Shitstorm gab es ja beim Release der Karten. Leider hat bis dato niemand die Karten nochmals vernünftig mit aktuellen Treibern getestet. Denke die Treiber entwickeln sich so schnell, dass wenn stand Heute neu getestet würde, morgen es schon wieder anders aussehen würde

Im Low-End Bereich also RTX4060, RX7600... sehe ich die Karten mittlerweile gar nicht mal so schlecht aufgestellt. Gerade die ARC 750 bekommt man im Moment schon für 260Euro. Müsste ich einen PC in dieser Leistungs/Preisklasse zusammenstellen, wäre es eine Überlegung Wert.
 
Im Low-End Bereich also RTX4060, RX7600... sehe ich die Karten mittlerweile gar nicht mal so schlecht aufgestellt. Gerade die ARC 750 bekommt man im Moment schon für 260Euro. Müsste ich einen PC in dieser Leistungs/Preisklasse zusammenstellen, wäre es eine Überlegung Wert.
Und sei es nur um Intel zu motivieren weiter zu machen. Wenn wir hier irgendwann mit NViDIA alleine sitzen, sehen wir alle ganz alt alt aus.
 
@Supie Das was aber Intel da zaubert ist deutlich mehr als nur einen Alibi Support aufrecht zu erhalten, meint du nicht?

@8j0ern der Hotfix wird nicht das Resultat merklich verbessern. Die Notes sprechen ja auch nur von kleinen Verbesserungen. Versteh mich nicht falsch, das ist natürlich begrüßenswert, rettet die Situation aber nicht.

Ja AMD hat kein Datum für FSR3 genannt, das ist ok, dennoch täten sie gut daran das Thema in der Öffentlichkeit zu halten, das tun sie aber nicht. Woran liegt es?
Sogar für Starfield wurde mit Stolz (ironisch gemeint) nur FSR2.2 angekündigt.
Welche Situation soll FSR3 den retten?

Sie sagen einfach nichts mehr zu FSR3 weil die Leute zu schnell weinen.
FSR2.2.1 läuft ich kann nicht über Irgendetwas meckern, selbst 3DMark hat einen FSR2.0 FunktionsTest bekommen. ;)
 
@8j0ern Es geht halt nicht nur ums "funktionieren" sondern auch um die Optik.

Nehme dann mal God of War (über The Witcher 3 hatt ich mich ja schon geäußert) hier kann ich auch FSR2 mit DLSS vergleichen.
Wo Ultra-Leistung immer schlecht ausschaut (also von 720p auf 4K), Sieht DLSS Leistung (1080p-->4K) noch immer eine Schippe besser aus als FSR2 in seiner besten Qualitätsstufe.

Also JA FSR3 sollt hier schon ordentlich nachlegen. Und ich sage nochmals Intel hat mit XeSS jetzt schon eine bessere Software Lösung als FSR2.0 und XeSS wird auch in immer mehr Titel implementiert.
 
@8j0ern Es geht halt nicht nur ums "funktionieren" sondern auch um die Optik.

Nehme dann mal God of War (über The Witcher 3 hatt ich mich ja schon geäußert) hier kann ich auch FSR2 mit DLSS vergleichen.
Wo Ultra-Leistung immer schlecht ausschaut (also von 720p auf 4K), Sieht DLSS Leistung (1080p-->4K) noch immer eine Schippe besser aus als FSR2 in seiner besten Qualitätsstufe.

Also JA FSR3 sollt hier schon ordentlich nachlegen. Und ich sage nochmals Intel hat mit XeSS jetzt schon eine bessere Software Lösung als FSR2.0 und XeSS wird auch in immer mehr Titel implementiert.
Ok, aber woran willst du die Optik Vergleichen?
Da gibt es ja noch keine 1:1 Vergleiche, daher ist das nur deine Meinung, was die Schippe angeht.

Wenn ich mich an ein Display ohne HDR10+ hinsetze, ist der auch Kaput und hat ein grauen Schleier und weniger Immersion.
Es ist schwierig etwas zu beurteilen, dass man nicht sehen kann ohne ein Ordentliches Wiedergabe Gerät. ;)

Edit: OMG = OWG
 
Zuletzt bearbeitet :
Ich glaube ich lese nicht richtig! Wie kann man so festgefahren sein!

Doch es gibt mittlerweile eine Menge Möglichkeiten um 1:1 Vergleiche zu machen, wo man mit einer Nvidia GPU Nativ, DLSS, FSR und XeSS selbst vergleichen kann. Bei AMD fällt DLSS zwar weg, man hat dennoch den Vergleich zu XeSS.

Zudem gibt es Channels wie Digital Foundry welche sich auf solche Analysen spezialisiert haben. Und alle, wirklich alle, sind sich einig, dass FSR2 bis Dato immer den letzten Platz belegt.

Ganz übel finde ich es z.b. bei GoW, wo man Anfangs FSR1 hatte, was gute Resultate brachte, dann aber FSR2 implementiert hat, welches deutlich schlechtere Resultate bringt, allerdings auch FSR1 entfernt. Also die Situation verschlechtert hat.

Und dann das Wiedergabegerät herausgraben... Ich habe einen LG 32Zoll 4K IPS Bildschirm, welcher eine sehr gute Darstellung hat und einen LG CX 55Zoll zur Verfügung. Gebe zu, dass ich es auf dem TV noch nicht verglichen habe, es sollte dennoch logisch sein, dass je besser das Wiedergabegerät ist, desto stärken fallen die Qualitätsunterschiede auf.

Auch andere User hier, wie @Megaone brauchen sich bei den Wiedergabegeräten nicht zu verstecken.

Dann noch woran will ich die Optik vergleichen?
Ganz einfach: Flackern/Bildstabilität, Aliasing, Rekonstruktion von filigranen Details, Artefakte, natürlich aus Ghosting... Alles Sachen, welche man Objektiv beurteilen kann.

Es hat ja nix mit Artwork, also Kunst zu tun, was sehr Subjektiv ist.
Subjektiv ist auch die Bildschärfe, weshalb ich das hier ganz raus gelassen habe. FSR1 hat die Tendenz sehr stark nach zu schärfen. Viele mögen dies, ich mag lieber ein "weicheres" Bild. Das ist also sehr Subjektiv und von User zu User abhängig. Glücklicherweise hat man meist einen Schärferegler in den Games, wo sich jeder austoben kann. Bei AMD kann man sogar per Treiber nachschärfen... (Habe noch keine solche Funktion in den Nvidia Treibern gefunden)

Somit denke ich auch, dass meine Post das Thema Upscaler doch sehr Objektiv darstellen und ich versucht habe jede Richtung zu betrachten. In meine Post, wer sie sie auf richtig gelesen hat, stellt fest, dass ich AMD und Intel lobe und Nvidia auch nicht bei allem blind Zustimme. Denn was Nvidia Ethisch betreibt ist alles andere als Korrekt, sie tun dies aber weil sie es können. Das kann sich aber auch wieder ändern.

Vor Ryzen, gab es von Intel fast nur Spot für AMD und sie diktierten den Markt. Mittlerweile bekommen sie so langsam auch wieder dir Füße auf den Boden und werden "sozialer".
Im Gegensatz, scheint AMD seit Zen3 in eine User unfreundliche Richtung ab zu heben. So schnell kann sie das Verhältnis wechseln.

Und genau so eine Situation würde ich mir im GPU Bereich auch wünschen. Mit RDNA2 war AMD schon sehr nah dran. RDNA3 ist aber nicht so toll geworden wie es sich alle wünschten... also wird sich nix ändern.
 
Ich glaube ich lese nicht richtig! Wie kann man so festgefahren sein!

Doch es gibt mittlerweile eine Menge Möglichkeiten um 1:1 Vergleiche zu machen, wo man mit einer Nvidia GPU Nativ, DLSS, FSR und XeSS selbst vergleichen kann. Bei AMD fällt DLSS zwar weg, man hat dennoch den Vergleich zu XeSS.

Zudem gibt es Channels wie Digital Foundry welche sich auf solche Analysen spezialisiert haben. Und alle, wirklich alle, sind sich einig, dass FSR2 bis Dato immer den letzten Platz belegt.

Ganz übel finde ich es z.b. bei GoW, wo man Anfangs FSR1 hatte, was gute Resultate brachte, dann aber FSR2 implementiert hat, welches deutlich schlechtere Resultate bringt, allerdings auch FSR1 entfernt. Also die Situation verschlechtert hat.

Und dann das Wiedergabegerät herausgraben... Ich habe einen LG 32Zoll 4K IPS Bildschirm, welcher eine sehr gute Darstellung hat und einen LG CX 55Zoll zur Verfügung. Gebe zu, dass ich es auf dem TV noch nicht verglichen habe, es sollte dennoch logisch sein, dass je besser das Wiedergabegerät ist, desto stärken fallen die Qualitätsunterschiede auf.

Auch andere User hier, wie @Megaone brauchen sich bei den Wiedergabegeräten nicht zu verstecken.

Dann noch woran will ich die Optik vergleichen?
Ganz einfach: Flackern/Bildstabilität, Aliasing, Rekonstruktion von filigranen Details, Artefakte, natürlich aus Ghosting... Alles Sachen, welche man Objektiv beurteilen kann.

Es hat ja nix mit Artwork, also Kunst zu tun, was sehr Subjektiv ist.
Subjektiv ist auch die Bildschärfe, weshalb ich das hier ganz raus gelassen habe. FSR1 hat die Tendenz sehr stark nach zu schärfen. Viele mögen dies, ich mag lieber ein "weicheres" Bild. Das ist also sehr Subjektiv und von User zu User abhängig. Glücklicherweise hat man meist einen Schärferegler in den Games, wo sich jeder austoben kann. Bei AMD kann man sogar per Treiber nachschärfen... (Habe noch keine solche Funktion in den Nvidia Treibern gefunden)

Somit denke ich auch, dass meine Post das Thema Upscaler doch sehr Objektiv darstellen und ich versucht habe jede Richtung zu betrachten. In meine Post, wer sie sie auf richtig gelesen hat, stellt fest, dass ich AMD und Intel lobe und Nvidia auch nicht bei allem blind Zustimme. Denn was Nvidia Ethisch betreibt ist alles andere als Korrekt, sie tun dies aber weil sie es können. Das kann sich aber auch wieder ändern.

Vor Ryzen, gab es von Intel fast nur Spot für AMD und sie diktierten den Markt. Mittlerweile bekommen sie so langsam auch wieder dir Füße auf den Boden und werden "sozialer".
Im Gegensatz, scheint AMD seit Zen3 in eine User unfreundliche Richtung ab zu heben. So schnell kann sie das Verhältnis wechseln.

Und genau so eine Situation würde ich mir im GPU Bereich auch wünschen. Mit RDNA2 war AMD schon sehr nah dran. RDNA3 ist aber nicht so toll geworden wie es sich alle wünschten... also wird sich nix ändern.
Die ganze Diskussion ist doch müssig. Wirklich alle Tester kommen einstimmig zum Ergebnis das FSR im Vergleich am schlechtesten abschneidet. Und das hat nun wirklich nichts mit Bashing zu tun.

Wobei wir vielleicht, ich weiss es nicht, bei der Hardwareunterstützung sind.
 
Stimmt wenn wir von der HW-Unterstützung reden finde ich eben den Ansatz von Intel klasse. Wird von jedem System Unterstützt, wenn man aber eine Intel GPU nutzt, bekommt man die Kirsche auf den Kuchen.

Vielleicht aber mal wieder ganz On-Topic:

Das ganze Thema erinnert mich etwas an die Kepler Zeit. Die GTX680 gab es mit 2 oder 4 GB VRam.
Ich hatte die 2GB Version (sogar 2 im SLI) und in der gebotenen Leistung, sogar mit SLI nie Probleme. Aber auch hier kamen schon Aufschreie, 2GB reichen niemals...
Dann wurden extrem Situationen erzeugt um die Macht der 4GB Variante zu Zeigen.
Mit den Resultaten (nagelt mich nicht an den genauen Werten fest, es sollt die Situation verdeutlichen):
-2GB --> 3-5fps
-4GB --> um die 16fps
Ja die 4GB Karte bringt in dieser Situation ein vielfaches an Leistung nur sind 16fps nicht spielbar. Result --> beides ist nicht spielbar!

Das einzige Spiel was mich hier im Moment grübeln lässt, ist Diablo 4

Die Ultra Texturen sind Match und rechtfertigen niemals den hohen VRam verbrauch. Die High Texturen sind sehr viel schlechter. Die Konsolen haben Texturen, welche sich zwischen der beiden PC Einstellungen ansiedelt und die laufen mit dem beschränkten Ram/VRam auch sauber.

Mit meinen 12GB VRam merke ich keine Drops mit den Ultra Texturen, dennoch scheint hier etwas Gewaltig schief zu laufen. Von der reinen GPU Leistung ist das Spiel anspruchslos.

Ich hoffe Blizzard bringt hier noch Verbesserungen.
 
Ich hoffe Blizzard bringt hier noch Verbesserungen.
D4 würde ich als Langzeitprojekt sehen, und es wurde ja allenthalben für seinen gut spielbaren Releasezustand gelobt.
Ich denke Blizz wird, wo auch immer nötig nach bessern.
Würde ich mir als Besitzer von D4 nichts draus machen. Ich habs imo nicht, habe nur die Beta gespielt, und die lief in meinen
Augen wirklich ordentlich.
 
Oben Unten