Gibt AMD den Kampf bei RDNA 4 gegen NVIDIA im High-End-Bereich auf? Jede Menge Gerüchte und jeder hat eine Meinung

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.820
Bewertungspunkte
8.831
Punkte
1
Standort
Redaktion
Es verstehe sich von selbst, dass dieses Gerücht mit besonderer Skepsis betrachtet werden sollte, da diese GPUs der nächsten Generation nicht nur noch in weiter Ferne liegen (sie sollten erst nächstes Jahr auf den Markt kommen), sondern auch ein echter Augenöffner sein könnten. Kurz gesagt, es wäre ein gravierender Schritt (und Einschnitt) für AMD, auf (read full article...)
 
Das ist kompletter Unfug. Ist halt eine unrecherchierte PCGH-News. MLID hat auch nicht immer Recht.

TSMC hat Probleme beim Packaging komplexer GPUs mit HBM-Speicher, die monolithischen Ada-Chips können hingegen viele Packager verarbeiten. Fakt ist, dass NV bis auf die 4090 kompletten Overstock bei den GPUs hat und die AIC bei fertigen Kareten auch. Zu viele Karten, zu wenige Käufer. So einfach ist das. :)
 
zu RDNA4:
Wenn AMD vernünftig ist, wirds bis 2028 kein Pathtracing geben, ... braucht die Klientel einfach net und (x)
may be mit der PS6 dann Sonderwünsche von Sony

(x) wenn man sich der Meinung von Wolfgang(CB) anschliesst, ... ist 4k-Nativ auch tot, weil FSR2 oft besser ist als TAA
ergo würde aktuell ne GRE bzw. Nachfolger(RX8700xt) rein von der Rohleistung her reichen

Den meisten Fortschritt erwarte ich mir eeh von GDDR7, = kühler+sparsamer, may be sogar "ungerade" 3GB-Module@192bit.
Beim Chipdesign mal abwarten obs MCD bleibt oder doch monolithisch wird wg. der besseren Latenzen.
(für Enthusiasten könnte man allemal noch nen 3d-Cache draufpacken)
 

Anhänge

  • 7900-gre-4k-fsr.jpg
    7900-gre-4k-fsr.jpg
    160,2 KB · Aufrufe : 7
Zuletzt bearbeitet :
nach dem aktuellen ai-fokus von nvidia würde es mich nicht wundern, wenn die selber gar keine karten mehr bauen für gamer nächste generation ... dann hat sich die diskussion um "high end" sowieso erledigt.
 
Warum sollte NV keine Grafikkarten mehr bauen? Die ganzen Gamer nehmen sich viel zu wichtig, denn es gibt auch noch die gute alte Workstation und Firmen, die massenweise solche teuren Beschleuniger kaufen, weil KI nun mal nicht alles ist. Die Gaming-Karten sind doch beschnittene Versionen und eh nur technische Resteverwertung, dafür aber in Stückzahlen. Crap fällt immer an. :D
 
Wenn man mal den Ursprung der Quelle betrachtet, den Twitter/X ACC von Kepler L2 sollte man diese Information grundsätzlich skeptisch sehen.

Er hat vor RDNA3 Release mehrere Gerüchte gestreut die sich als Unwahr heraus gestellt haben.
Prominentestes Beispiel war die Geschichte mit dem Shader Perfetch von RDNA 3, wo AMD selbst ihn dann korrigiert hat.
 
"Es gibt eine interessante Theorie, dass AMD möglicherweise zwei kleinere Chips zu einer leistungsstarken GPU kombinieren könnte, anstatt eine große RDNA 4-Grafikkarte anzubieten, wie es von Wccftech (die den oben genannten Tweet entdeckt haben) kolportiert wurde."

Und genau das wird es auch sein.
Denn umsonst ist AMD auch nicht auf das Chiplet Design und dessen Möglichkeiten gewechselt, nur der Kostensenkung wegen.
 
2x GCD = ungeahnte Latenzen?
Da wäre ich mal gespannt.

Ob man extra nen seeeehr kleinen Chip für Idle/Videos only draufpacken könnte, ... may be.
(zum Stromsparen)
 
Wenn man sich so die diversen Hardware-Foren durchliest, sehen doch viele AMD doch nur als Preisdrücker für die eigentlich gewünschten Nvidia-Karten. Sollte AMD wirklich wie z.B. bei der 5000er-Serie auf Highend verzichten, wird man dann schon sehen, wie Nvidia dann die Preise in dem Segment ohne Mitbewerber gestaltet. Billiger wird es dann sicher nicht werden.
Und ob Intel wirklich anstrebt oben mitzuspielen muss man auch erst mal abwarten. Die angesprochene Resteverwertung gibt es ja zur Zeit nicht bei Intel. Die Intel-Beschleunigerkarten sind ja keine GPUs. Zudem konnte man auch schon lesen, dass die GPU-Sparte auf dem Prüfstand sein soll.
Was auch immer an dem Gerücht dran sein sollte.

Cunhell
 
Nichts ist mir lieber, als Gerüchte über schlechte Erwartungen. Ich lasse mich gerne positiv überraschen. Gibt nur schlechte Laune, wenn man das Gejodel zu ernst nimmt. Wo bleibt eigentlich FSR3?
 
Und ob Intel wirklich anstrebt oben mitzuspielen muss man auch erst mal abwarten.
Intel+AMD müssen vor Allem über Notebooks und APU´s nachdenken.

PC´s haben nach m.E. irgendwie ne sinnvolle Obergrenze erreicht.
(da kann eigentlich nur noch spezieller Kram wie Pathtracing noch Enthusiastenzeugs verkaufen an 1% Käufer)

Bevor man net weiss, was Sony für die PS6 haben will, weiss man auch net wo die Games bzgl. Optik hingehen.

Hast Du jemals dran geglaubt? :D
Jo, mit 2x Zwischenframes, ... da hat man dann immer 300Fps auf der Uhr.

Das es interne Versuche gibt, glaube ich schon, sonst hätte man net in der W11-Dev das HAGS für AMD aktiviert.
 
Zuletzt bearbeitet :
Schade!!
Hab mich schon drauf eingestellt, dass AMD mal mit einer möglichen RX 8900 XTX gefreut, die meine RTX 4090 ersetzen soll.

Die Hoffnung stirbt nun aber allmählich 😆
 
ne 8990 falls denn 2-4 GCD´s harmonieren
4x 8700xt wäre schon ziemlich bigger, may be 4x150W zzgl. 100W für SOC+Vram
 
Dat wäre mir echt Latte.
Hauptsache die perform noch besser und ist min. genau so effizient
 
Jo, aufm Benchtable geht schon Was!
 
Ich habe Euch doch schon paarmal erklärt, dass selbst bei den OC-Karten für die Hersteller kaum mehr als 10% übrig bleiben. Und der Handel? Nimm mal eine der ganz billigen RTX 4060, da beginnt die harte Verlustzone schon unterhalb 270 Euro.
 
Oben Unten