Gibt AMD den Kampf bei RDNA 4 gegen NVIDIA im High-End-Bereich auf? Jede Menge Gerüchte und jeder hat eine Meinung

Mit schwacher CPU würde ich bei ner NV-Graka immer mal rBar testen.
(Das kann dann schon helfen, gegen den DX12-Overhead oder zumindestens etwas entlasten)

weiss jetzt gar net, wie es mal mit der UE5-engine so wird:
Remnant2-minFps.JPG


Wenn manche Studios mit Schärfe voll aufgedreht als default ausliefern , finde ich Das auch sehr störend.
TPU z.Bsp. stellt bei Bildvgl. dann immer was Sinnvolles ein.

By default each upscaling and anti-aliasing solution is using the highest sharpening value of 10, which can look very oversharpened even at high resolutions, such as 4K, and during this round of testing, we used a balanced value of 5 for the TAA, DLSS, DLAA, XeSS and FSR sharpening filters. The inclusion of a separate sharpening filter for each upscaling and temporal anti-aliasing solution is a great option to have, especially when the sharpening itself is well implemented without causing any negative side effects or artifacts during gameplay.

 
Zuletzt bearbeitet :
Schon dumm das nur ne billige PS5 so richtig funzt.

Mein Nachbar spielt Hogwarts Legacy mit seiner PS5 auf einem 4k Bildschirm.
Läuft zwar flüssig; dennoch sind die Details (zum Bsp. Haare) nicht gerade der
Oberhammer. Sieht aus wie hin geklebt...
Schön,dass es funzt, vor allem für den Preis von etwas über 400 Euro.

Eine hochwertige GPU bekommt das aber sicherlich etwas besser auf den Bildschirm.
 
Es ging um R+C bezgl. ds.

Die GPU in der PS5 kostet vllt. anteilig 149€.
Was hätte man damit auf dem PC?
 
Neues dazu erfinden oder generieren ist weder nativ-entsprechend, schon gar nicht "besser" als das Original, weil es eben nicht der Feder der Designer entstammt, sondern erfunden = unwahr ist.
"Dazu erfinden" ist eigentlich falsch formuliert und hat zu unsinnigen Diskussionen geführt. Die KI erfindet nichts dazu. Sie zeichnet nur beispielsweise etwas, was pixelig, schlecht erkennbar nach Geländer aussieht markanter, so dass man sieht dass es ein Geländer ist. Die KI weiss nur, wie eine Struktur genauer aussieht als sie üblicherweise berechnet wird und kann sie darum besser darstellen als es die normale Berechnung kann.

Die KI weiss aber nicht, was etwas ist und erfindet auch nichts dazu was nicht da ist. Es werden keine zusätzlichen Elemente in die Landschaft eingefügt die es nach Gamelogik nicht gibt. Die Kritik die man dauernd hört setzt somit am falschen Ort an. Die KI erfindet nichts dazu. Dazu kann das Bild durchaus besser gemacht werden als es nach nativer Berechnung ist.

Eine native Berechnung gibt es eigentlich auch nicht. Schon seit 2 Jahrzehnten gibt es je nach Grafikkarte ganz verschiedene Berechnungsmethoden für Antialiasing und die Anisotrope Filterung. Dazu gibt es verschiedene Befehlssätze wie DX11/12 die je nach Grafikkarte und Treiber unterschiedlich umgesetzt werden. Dadurch wird ein Bild je nach Grafikkarte, Treiber und Einstellungen unterschiedlich berechnet. Wenn man sich einmal etwas genauer damit befasst, merk man, dass die üblichen Streitargumente da nur ein bisschen an der Oberfläche kratzen und es meist um vorgefertigte Meinungen geht die verfochten werden. Da finde ich es gut, wenn jeder wirklich selbst testet welche Einstellungen bei ihm welche Auswirkungen haben. Was bei jemandem gut funktioniert muss auf einem anderen PC nicht das selbe auslösen.

Ich verlinke da mal einen alten Artikel der die Technik ganz gut erklärt. Da ist natürlich einiges nicht mehr aktuell, aber es gibt doch ein Verständnis was da so dahinter steckt.
 
Doch!
In nem BF5-Screenshot gabs mal 1-2 Lampen mehr auf der Leine über der Straße.(die es original net gibt)

Was evtl. besser rekonstruiert wird ist schlampige Schrift auf Objekten, die vorher mit TAA verwischt wurde.
(vermutlich war die Schrift dann in der Textur)
Das sind immer Kleinigkeiten wo 100-fach gezoomed wird um den Kauf zu rechtfertigen.
(Wers braucht, darf gerne dafür extra löhnen)
 
Zuletzt bearbeitet :
Neues dazu erfinden oder generieren ist weder nativ-entsprechend, schon gar nicht "besser" als das Original, weil es eben nicht der Feder der Designer entstammt, sondern erfunden = unwahr ist.
Ne, eben nicht. Das Problem beim Rendern ist, dass du am Schluss nur ein paar Millionen Pixel hast, die jeweils den gesamten Inhalt eines Ausschnitts der Welt mit einer Farbe abdecken sollen. (bei einem FOV von 90° und Full HD Auflösung ist der Ausschnitt eines Pixels etwa 3x3 Winkelminuten gross)

Sobald ein Detail klein und weit genug weg von der Kamera ist, wird es keinen ganzen Pixel mehr breit/hoch sein. Ab diesem Punkt ist es mit nativem Rendern nur noch Glückssache, ob für den Pixel jetzt das Kabel oder der Himmel dahinter gesampelt wird. Und wenn die Kamera ein paar Zentimeter bewegt wird, taucht das Detail plötzlich wieder auf oder verschwindet wieder. Gegen den Effekt wird schon seit Jahrzehnten mit verschiedenen Anti-Aliasing Methoden angekämpft.
Und eine dieser Methoden ist dann halt auch der DL Ansatz, bei dem (Achtung: gefährliche Vereinfachung) die KI "ahnt", dass dort eigentlich ein dunkelgrauer Pixel hingehört, auch wenn beim eigentlichen Sampling das Himmelblau getroffen wurde.

Nur weil etwas na(t)iv gerendert wurde, heisst das noch lange nicht, dass es so vom Designer gewünscht ist.
 
Dann geh doch einfach zu MS +Gamepass.
falls die Games auf der X-Box X auch reichen

Dann wären die Kosten für die Games erstmal gleich, wie auf dem PC.
 
Wenn das so kommen würde, wäre das echt nicht gut. Jede Firma braucht Konkurrenz. Auch wenn es nur AMD ist, die ja nicht besonders für high end Gruß bekannt sind.
@Serandi, wusste garnicht das du auch hier unterwegs bist :)
 
Um mal die N4x-Einschränkung von AMD etwas zu relativieren:
spekulierte 120CU´s wären immer noch mehr als 96 bei der XTX
(bei vermutlich höherem Takt und besserer Auslastung gänge vllt. >30% more Fps)

Leonidas(3dC) hält dann auch monolithisch für sinnvoll, vermeidet 10% höhere Latenzen zu den MCD-Caches.
Hoffen wir mal, das die Ingenieure das letzte Wort haben und net der spitze Bleistift.
 
Zuletzt bearbeitet :
Wenn DLSS so kleine Dinge wie entfernte Geländer darstellen kann, dann sollte es die Engine nativ genau so können. Schliesslich sind es letztlich Pixel, und die sind eifach da. Wenn es nativ nicht da ist, dann ist das eine Sache der Engine oder der Settings. Das geht auch ohne DLSS wenn es sauber gemacht ist.
Nein, denn DLSS 2 hat de Fakto MEHR Informationen zur Darstellung als Native. Bei DLSS 2 (und auch bei FSR2) wird jedes Frame um Subpixel (also um einen Offset der kleiner ist, als ein Pixel) versetzt gerendert. Dadurch sind feinste Details die beim einen Frame fehlen, weil sie nicht aufs Raster treffen, beim nächsten oder übernächsten Frame dann eben doch enthalten. Und DLSS / FSR rechnet diese Details damit wieder rein.

Die Verfahren nutzen also die Informationen aus mehreren aufeinander gerenderten Frames um ein insgesamt detaillierteres Bild zu erzeugen.

Die KI wird nicht genutzt um Details dazuzuerfinden, sondern diese Informationen möglichst korrekt und artefaktfrei zu verrechnen. Da Bilder nicht stillstehen, ist genau das die Herausforderung, nicht die fehlenden Details.

Damit ist DLSS 2/ FSR 2 - wenn sie optimal implementiert sind - tatsächlich und ganz objektiv BESSER als native.
 
Zuletzt bearbeitet :
Dann geh doch einfach zu MS +Gamepass.
falls die Games auf der X-Box X auch reichen

Dann wären die Kosten für die Games erstmal gleich, wie auf dem PC.
Gamepass kann je nach Spielegeschmack durchaus ein lohnenswertes Angebot sein. Ich kenne die Auswahl auf XBox nicht, aber PC Gamepass würde maximal 25% meiner 2023er Spiele abdecken.

Aber auch Gamepass ändert nichts an der Tatsache, dass "Konsole = 500€ / PC > 1000€" eine Milchmädchenrechnung ist.
 
Wer eeh 200-300€ im Quartal für Games+GPU beiseite legt, wird wohl wg. 50€ Preisunterschied von GPU-Modellen auch net
nach Luft schnappen.
 
@Andy197
Ja aber noch nicht so lange 😁👋
 
Naja wir werden ja sehen was kommt... am Ende möchte ich aber eines festhalten.
Vernünftige Mittelklasse GPUs samt guten Games sind mir allemal lieber als eine "breite Auswahl" an High End GPUS samt Entwicklungs Perlen aller Golum und was es da in den letzten Monaten noch so alles in Hülle und Fülle gab :poop:
So schlecht bin ich ja damals mit der 5700XT auch nicht gefahren und auch auf einem Steamdeck kann man (ich) gut zocken ;)
 
Die Gerüchte werden immer wilder, lohnt sich eigentlich derzeit nicht darauf einzugehen.
(wie Leo im 3dC ganz richtig sagt, Keiner weiss wieviel Nr. bei N4x ausprobiert und verworfen werden, ... N45 statt N41 etc.?)
 
Bin gespannt, ob der 12V-2x6 es dann letztendlich wirklich dauerhaft behebt!
 
Es gibt eine interessante Theorie, dass AMD möglicherweise zwei kleinere Chips zu einer leistungsstarken GPU kombinieren könnte, anstatt eine große RDNA 4-Grafikkarte anzubieten, wie es von Wccftech (die den oben genannten Tweet entdeckt haben) kolportiert wurde.

WCCF hat auch das hier geschrieben:
The Navi 31 GPU configuration shown here features two GCD's (Graphics Core Die) and a single MCD (Multi-Cache Die). Each GCD has 3 Shader Engines (6 in total) and each Shader Engine has 2 Shader Arrays (2 per SE / 6 per GCD / 12 in total).
Quelle: https://wccftech.com/amd-radeon-rx-...360-cores-256-bit-memory-more-infinity-cache/

Das sind doch schon längst 2 Core DIE, natürlich wird RDNA 4 auch ein Chiplet Design bekommen, evt. dann mit 4 Core DIEs und Infinity Architektur, wie die großen EPYC CPUs. ;)

Woher kommt den diese Vergesslichkeit, das ist nicht nur hier, sondern Allgemein geht gerade viel vorhandenes Wissen verloren...?
 
Allgemein geht gerade viel vorhandenes wissen Verloren...

In diesem Fall schreibt man eigentlich: ...geht Wissen verloren.
Soviel zum Thema Rechtschreibung und Wissen.

Sorry,aber den konnte ich mir nicht verkneifen :)
Nichts für Ungut.
 
In diesem Fall schreibt man eigentlich: ...geht Wissen verloren.
Soviel zum Thema Rechtschreibung und Wissen.

Sorry,aber den konnte ich mir nicht verkneifen :)
Nichts für Ungut.
Ok, aber ich rede hier von geschriebenem wissen (wie Bücher) und damit geht vorhandenes wissen verloren, obwohl man es nur Nachlesen müsste.
Wollen, ist wohl eher das was fehlt. :)
 
Oben Unten