Gibt AMD den Kampf bei RDNA 4 gegen NVIDIA im High-End-Bereich auf? Jede Menge Gerüchte und jeder hat eine Meinung

Warum gibt dann net der stinkreiche Küchenchef mal ein paar Brotkrumen ab?
Marge 70% und ähnliche großkotzige Dinge liest man immer gern.

Das motiviert die Kunden, ... man will ja Dazu gehören.
 
Ok, irgendwann müssen die Lager leer werden, der Verkauf läuft ja bei Hardware insgesamt schleppend dieses Jahr.
 
(x) wenn man sich der Meinung von Wolfgang(CB) anschliesst, ... ist 4k-Nativ auch tot, weil FSR2 oft besser ist als TAA
Genau diese ständig wiederholte Aussage auf CB, dieses so sehr zu generelle Wort "besser" kann ich im Zusammenhang mit DLSS / FSR einfach nicht mehr hören. Und jedes mal, bei jedem Test auf CB nutzen die da wieder dieses nichts-sagende "besser". Nennt doch das Kind mal beim Namen! Was ist besser? Mehr Bildruhe, weniger Flimmern, glatteres AA? Oder ist besser = grüner = farbiger = blumiger? Oder gibt es mehr Details als überhaupt möglich? Oder was für Stuss noch? Nennt das Kind beim Namen! Besser ist so eine non sense Aussage.

Besser wird das Bild NIE. Nichts und niemand kann etwas "besser" machen, als von den Designern ursprünglich kreiert. Nativ ist und bleibt das beste, ever. Man kann Bildruhe rein bringen, that's it.

DLSS / FSR schmieren, ghosten, lassen Details verschwinden weil die Auflösung *niedriger* ist, etc. Nennt das Kind beim Namen und lasst diesen "besser" Schwachsinn.

Und jeder weiss genau, weshalb DLSS / FSR immer wichtiger werden : weil Nvidia das so sehr anpreist und *verkauft* und weil die Game Entwickler sich darauf verlassen. Pfeiff auf Optimierung, kauf ne 4090 und stell DLSS ein, wenn du 60 FPS willst. All die aktuellen Games laufen mit voller Pracht erst in 5 Jahren bei der grossen Masse, weil sie zu hungrig und mies optimiert sind.

CB soll mal ganz genau vergleichen was die da verzapfen und dann *treffende* Worte wählen und dieses flache "besser" mal sein lassen. Die Leute lesen und glauben diesen Mist noch.
 
@ Topic: wenn es so wäre, ein riesen Desaster, den Markt ohne Konkurrenz Nvidia zu überlassen. Jeder weiss ganz genau, wohin das führen würde.
 
Besser wird das Bild NIE. Nichts und niemand kann etwas "besser" machen, als von den Designern ursprünglich kreiert. Nativ ist und bleibt das beste, ever. Man kann Bildruhe rein bringen, that's it.

DLSS / FSR schmieren, ghosten, lassen Details verschwinden weil die Auflösung *niedriger* ist, etc. Nennt das Kind beim Namen und lasst diesen "besser" Schwachsinn.
Bei FSR mag das sicher sein, bei DLSS 2+ nicht immer. Blurring bei schnellen Moves, ok. Kann mal passieren. Aber generell ist das Bild oft flimmerfreier, knackiger und auch oft genug "detailreicher" als natives UHD. Dazu kommen meist die besseren Latenzen. Mit detailreich meine ich eine angelernte KI, die sogar noch auf große Entfernung Balkongeländer, Dachzinnen und anderen Popel sauber rekonstruiert, der mit nativ schon fehlt.
 
kauf ne 4090 und stell DLSS ein, wenn du 60 FPS willst
Nee, DLSS und frame generation braucht man nur für 90 oder 120 fps. :)
DLSS 2+/3 sorgt dafür, dass kleine Karten überhaupt noch ruckelfreie Bilder darstellen können, und das auch noch ohne Qualitätsverlust.
Ernsthaft? Nvidia sorgt also mit sinnlosen Grafikfeatures dafür, dass AMD nicht mehr hinterherkommt? Spiel z.B. Cyberpunk mal mit und ohne RT-Reflexionen, dann siehst du dass gerade in den Bereichen die Spiele realitätsnaher machen, AMD aufholen muss, um nicht ganz den Anschluss zu verlieren.
 
Wenn man sich so die diversen Hardware-Foren durchliest, sehen doch viele AMD doch nur als Preisdrücker für die eigentlich gewünschten Nvidia-Karten.
Daran wird sich auch so schnell nichts ändern.
Da müsste AMD schon mal 1-2 Generationen lang das bessere Produkt bieten, und nicht nur das bessere P/L Verhältnis. Und an der Front hat AMD mit RDNA3 leider einen Schritt nach hinten gemacht., nachdem sie mit RDNA2 sehr nah dran waren
 
Bei NV ist auch net Alles Sahne, ... rbar gibts nur per Inspektor und wenn man Pech hat funzts net oder kommt sich neuerdings mit ds in die Quere.

Für schnelle Shooter(COD) ist RDNA2+3 nach wie vor ideal.
 
Bei FSR mag das sicher sein, bei DLSS 2+ nicht immer. Blurring bei schnellen Moves, ok. Kann mal passieren. Aber generell ist das Bild oft flimmerfreier, knackiger und auch oft genug "detailreicher" als natives UHD. Dazu kommen meist die besseren Latenzen. Mit detailreich meine ich eine angelernte KI, die sogar noch auf große Entfernung Balkongeländer, Dachzinnen und anderen Popel sauber rekonstruiert, der mit nativ schon fehlt.
Danke, so sollte es geschrieben werden, was genau verbessert wird - nicht dieses pumpe "besser".

Wenn DLSS so kleine Dinge wie entfernte Geländer darstellen kann, dann sollte es die Engine nativ genau so können. Schliesslich sind es letztlich Pixel, und die sind eifach da. Wenn es nativ nicht da ist, dann ist das eine Sache der Engine oder der Settings. Das geht auch ohne DLSS wenn es sauber gemacht ist.

Für meinen Teil, was ich spiele, habe ich noch nie, kein einziges Beispiel, bei dem DLSS mehr Details auf den Screen bracht als nativ, nie. DLSS war immer ausnahmslos weniger scharf. Ich vergleiche Screenshots Pixel-genau und vergrössert. Nie in Bewegung in-Game.

Dito mit DSR vs. DLDSR. Nvidia sagt da, DLDSR 2.25x ist "besser" als DSR 4x. Plump "besser".
Ich hab keinen einzigen Fall gesehen, bei dem DLDSR gleich viel Details hatte wie DSR, nie. Immer haben Details gefehlt, wenn man Screenshots vergleicht. Immer war die KI Variante schuld an verloren gegangen Details.

Keine Ahnung obs einfach Zufall ist, dass all meine Games nicht "tauglich" sind für die KI. Aber per Definition kann etwas einfach nicht "besser" sein, das gar nicht da ist (= tiefere Auflösung) und dazu "erfunden" wird. Meine Meinung. Ich schau da einfach penibel genau hin. Ja im Game in Bewegung sieht man vieles nicht, und man nimmt die höhere FPS gerne mit. Aber ich habe in-game gemerkt, dass DLSS verwaschen hat, und in Reaktion darauf detaillierte Analyse mit Screenshots hat es dann bestätigt. Seither schau ich genau hin und ich sehe den Unterschied leider. Schön für alle die es nicht sehen und davon profitieren können.
 
TAA verwischt den Hintergrund stärker als die neuen Upsampler.
... man kann natürlich bei AMD mit RIS ein paar Texturen "zurückholen"
 
Bei NV ist auch net Alles Sahne, ... rbar gibts nur per Inspektor und wenn man Pech hat funzts net oder kommt sich neuerdings mit ds in die Quere.

Für schnelle Shooter ist RDNA2+3 nach wie vor ideal.

RBar ist bei NV wohl nur proforma. Stand heute sind es vielleicht 20 Games in welchen vom Treiber aus RBar aktiviert wird. Weshalb? Hat NV keine Lust die Profile zu testen, optimieren, pflegen? Funktioniert es nicht? Oder nicht richtig? 🤔 Weiss das jemand?

Edit : oder profitieren NV Karten nicht davon? Meint das NV zumindest es sei der Fall?
 
RBar ist bei NV wohl nur proforma. Stand heute sind es vielleicht 20 Games in welchen vom Treiber aus RBar aktiviert wird. Weshalb? Hat NV keine Lust die Profile zu testen, optimieren, pflegen? Funktioniert es nicht? Oder nicht richtig? 🤔 Weiss das jemand?
Also im CB-Forum @BlackFireHawk probierts von sich aus und gewinnt dadurch doch Hier+Da gut minFps.
... schau mal in den RC-Thread

Das er extra die ds-Dateien ersetzen mußte ist natürlich aufwendig (bei jedem Spielstart)
die original ds- Dateien beißen sich mit rBar
 
kann etwas einfach nicht "besser" sein, das gar nicht da ist (= tiefere Auflösung) und dazu "erfunden" wir
Doch, das kann es. Feinste Hintergrunddetails werden teilweise dazuberechnet, die es im Originalbild gar nicht gibt. Das mag manch einem nicht gefallen. Verschmiert ist da nichts mehr, schlechter als das Original auch nicht, dank einstellbarem DLSS-Schärfefilter oft klarer.
Gerade bei DLSS3 gegenüber FSR2 kann Nvidia "besser" ruhigen Gewissens behaupten, weil es sichtbar besser ist. Einige wenige Spiele ausgenommen, versteht sich.
 
Wenn der Hintergrund z.T. gar keine Geometrie sondern nur ein dummes Bild ist, wo TAA drüberwischt ist Vieles möglich.

Schon wg. Steamdeck und Co. würde man sich ordentliche Geometrie-LOD´s bis 720p wünschen, ums in FHD@Upsampler zu spielen.
Aus meiner Sicht gibts auch vorbildliche Games: ... normalerweiser darfs net schlechter aussehen als in der AMD-Demo
(in der AMD-demo gibts übrigens standardmäßig nen Scharferegler, der gehört auch in alle Games)
 

Anhänge

  • W3@1080pFSR2_chill57fps_START.jpg
    W3@1080pFSR2_chill57fps_START.jpg
    575,5 KB · Aufrufe : 9
  • CP2077@1080p-FSR2quality_chill57fps.jpg
    CP2077@1080p-FSR2quality_chill57fps.jpg
    355,9 KB · Aufrufe : 10
  • Exoprimal1080p@FSR2quality_chill57fps.jpg
    Exoprimal1080p@FSR2quality_chill57fps.jpg
    379 KB · Aufrufe : 7
  • AMD-Sample-1080p@FSR2.2quality.jpg
    [email protected]
    948,9 KB · Aufrufe : 7
Zuletzt bearbeitet :
Nee, DLSS und frame generation braucht man nur für 90 oder 120 fps. :)
DLSS 2+/3 sorgt dafür, dass kleine Karten überhaupt noch ruckelfreie Bilder darstellen können, und das auch noch ohne Qualitätsverlust.
Ernsthaft? Nvidia sorgt also mit sinnlosen Grafikfeatures dafür, dass AMD nicht mehr hinterherkommt? Spiel z.B. Cyberpunk mal mit und ohne RT-Reflexionen, dann siehst du dass gerade in den Bereichen die Spiele realitätsnaher machen, AMD aufholen muss, um nicht ganz den Anschluss zu verlieren.
Absolut, der FPS Gewinn ist ein Segen, wenn man es braucht, da sag ich nix dazu. Ich hab Mühe damit, dass DLSS angeblich das Bild "besser" macht, was einfach nicht immer der Fall ist. Und noch mehr Mühe hab ich damit, dass man das den Leuten so verkauft, um schlecht optimierte Spiele durch zu bringen. Mach DLSS rein, passt schon, dann hast du deine FPS und noch ein "besseres" Bild dazu.

Und ich gehöre nicht zu den Leuten, die sagen, kein Mensch braucht RT. Ist jedem seine eigene Wahl. Mir gefällts und ich nutz es. Es ist Fortschritt und es braucht halt Power.
 
Also im CB-Forum @BlackFireHawk probierts von sich aus und gewinnt dadurch doch Hier+Da gut minFps.
... schau mal in den RC-Thread

Das er extra die ds-Dateien ersetzen mußte ist natürlich aufwendig (bei jedem Spielstart)
die original ds- Dateien beißen sich mit rBar
DS ist noch eine andere Geschichte, scheint bei dem Game irgendwie noch gar nicht richtig implementiert.

Die Frage ist, weshalb nutzt NV RBar so gut wie nie, offiziell?
 
Wie lange macht man schon Werbung mit RTX I/O ?
(hats ja selbst "erfunden")


Schon dumm das nur ne billige PS5 so richtig funzt.
(ne NV-GPU ist moooore als ne PS)

bezgl. rBar hat evtl. der Salesmanager gar kein Interesse
the more you buy the more you save
--> wenn die minFps net reichen muss was neues Großes her
 
Zuletzt bearbeitet :
Doch, das kann es. Feinste Hintergrunddetails werden teilweise dazuberechnet, die es im Originalbild gar nicht gibt. Das mag manch einem nicht gefallen. Verschmiert ist da nichts mehr, schlechter als das Original auch nicht, dank einstellbarem DLSS-Schärfefilter oft klarer.
Gerade bei DLSS3 gegenüber FSR2 kann Nvidia "besser" ruhigen Gewissens behaupten, weil es sichtbar besser ist. Einige wenige Spiele ausgenommen, versteht sich.
Neues dazu erfinden oder generieren ist weder nativ-entsprechend, schon gar nicht "besser" als das Original, weil es eben nicht der Feder der Designer entstammt, sondern erfunden = unwahr ist.

Wie gesagt, persönlich hab ich bisher nur die Bildruhe als positiv empfunden. Wenn die Entwickler AA richtig implementieren würden, ginge das auch ohne.
Alles andere war optisch ein Rückschitt und deshalb nutz ich Upsampling konsequent nicht.
Ausnahme : DSR + DLSS, aber das braucht etwa native Power plus minus.
 
Wie lange macht man schon Werbung mit RTX I/O ?
(hats ja selbst "erfunden")


Schon dumm das nur ne billige PS5 so richtig funzt.
(ne NV-GPU ist moooore als ne PS)

bezgl. rBar hat evtl. der Salesmanager gar kein Interesse
the more you buy the more you save
--> wenn die minFps net reichen muss was neues Großes her
Haha, ja das sieht man bei all den schlechten Konsolen - Ports, auf der alten ollen PS5 läufts, aufm PC nicht mehr.

Der Salesmanager sollte vielleicht wissen, dass man mit besseren MinFPS auch mit Einsteiger- und Mid Range Karten besser dasteht als die Konkurrenz, und somit besser verkaufen kann 😉

Ich kann mir das nur erklären, dass RBar bei NV einfach nichts durchwegs gutes und messbares bringt, sonst würde man es zeigen und an die Glocke hängen.
 
Oben Unten