AMD Radeon RX 7900XT - Mögliche Platine und neue Erkenntnisse | Exklusiv

Naja, für mich ist AMD eigentlich im Grakabereich eine einzige Enttäuschung und sie hinken ewig hinterher
Na, das ist aber jetzt ein wenig übertrieben. RT-mäßig - ja, da AMD noch Aufholbedarf, aber FSR 2.0 dürfte da schon gut was machen.
Aber sonst ist AMD mit RDNA2 absolut auf Augenhöhe mit nVidia, P/L-technisch sogar leicht vorne.
 
Na, das ist aber jetzt ein wenig übertrieben. RT-mäßig - ja, da AMD noch Aufholbedarf, aber FSR 2.0 dürfte da schon gut was machen.
Aber sonst ist AMD mit RDNA2 absolut auf Augenhöhe mit nVidia, P/L-technisch sogar leicht vorne.
Ich will das eigentlich nicht diskutieren, darum habe ich explizit von "für mich" gesprochen". Solche Diskussionen werden ohne Not sehr schnell sehr emotional geführt.

Ich bin ehrlicherweise bekennender AMD Fan und alle Rechner, sowohl Privat als Geschäftlich sind ausschließlich mit AMD CPU`s ausgestattet. Und wie schon geschrieben, würde ich auch gern AMD Grakas kaufen, aber NVDIA hat hier für mich eindeutig das bessere, wenn auch deutlich teurere Gesamtpaket. Und das schon seit Jahren.

Ich lasse mich gern beim nächsten Release überraschen. Fakt ist aber, das ich aufgrund der Erfahrungen erstmal eine 4090 kaufen werde ohne auf AMD zu warten. Falls AMD ein großer Wurf gelungen ist, kommt sie in den Zweitrechner. Ich bin jedenfalls gespannt.
 
AMD kommt wohl mit AMD Referenz Design im 2,5 Slot Format
und einer Total Board Power von max. 340 Watt maximal, so meine Vermutung.
Ist nur meine These, keine Gewissheit.

Aber wenn die Boardpartner max. 450 Watt
und selbst Igor sagt gar einiges darunter, könnt´s hinkommen mit AMD Ref. Karten
 
Ich finde das Design nicht uninteressant, und da sich viele ein Preislimit setzen, wird letztlich wohl nicht die Frage sein, wer per se die absolute schnellste Karte baut, sondern bei wem ich beispielsweise für 1000 oder 1400 Euro mehr Leistung bekomme. - natürlich im gemessen am persönlichen Anforderungsprofil.
 
Ich finde das Design nicht uninteressant, und da sich viele ein Preislimit setzen, wird letztlich wohl nicht die Frage sein, wer per se die absolute schnellste Karte baut, sondern bei wem ich beispielsweise für 1000 oder 1400 Euro mehr Leistung bekomme. - natürlich im gemessen am persönlichen Anforderungsprofil.
Genau das ist das Thema. AMD war bei bei niedrigen Auflösungen ohne irgendwelchen Firlefanz eindeutig schneller als NVDIA. Ist halt immer, die Frage was man möchte.
 
Wären 24GB Vram nicht (wieder) aufgrund der eingeschätzt zu geringen Leistung (schlussfolgernd auf der aktuellen Generation) etwas übertrieben oder sehe ich das falsch?
Meine 6800XT war bereits mit 12GB Daten bei 4K bei ca. 30Fps überfordert, meine 3080 mit weniger als 10GB teilweise und eine 3090Ti scheint bei 8K auch nicht mehr als 18GB bei ca. 30Fps zu benötigen...
 
Die 3090/ti ist eigentlich eine Workstationkarte, da macht sich der große RAM dann richtig bemerkbar. Fürs Gaming reicht auch eine 3080ti dicke, die ist nur wenig langsamer, aber auch nur noch wenig günstiger. Also kann man auch 100 EUR mehr investieren und das doppelte RAM mitnehmen, schaden kann es nix.
 
NV's Falle ist das schleichende Runtertakten nach Erwärmung der VRM, weil auch deren Verluste im Budget signifikant sind.
Danke für den Stoss in die richtige Richtung, alles auf dem Radar, Faktor Zeit habe ich vergessen. *Schande über mein Haupt*

Und ATX 3.0, selten so einen Dünnschiss gelesen. Dagegen helfen auch keine Shunts sondern zweckmäßige Schaltungsdesigns und gute Filter (siehe Zeichnung). Da reicht auch ein simpler LC-Pass 1. Ordnung :D
Ich befürchte, dass es kein rein elektrotechnisches Problem mehr sein wird. Die haben sich ja die "Lizenz für Spikes" in Stein gemeisselt über die Spec 3.0. Wer weiss, ob das nicht Teil der Firmware wird, um FPS und Perzentile gezielt zu pushen...? Würden wir auf dem Oszi schön staunen 🙈
 
Naja, für mich ist AMD eigentlich im Grakabereich eine einzige Enttäuschung und sie hinken ewig hinterher und haben erst mit den letzten FSR Versionen wieder was an Boden gewonnen.
Zum Glück für den Fortschritt gibt es Konkurrenz, sonst würde sich der Marktleader auf den Lorbeeren ausruhen. Intel wurde ja auch erst von Ryzen aus'm Dornröschenschlaf getreten und hat immer noch verschlafene Augen im Server-Bereich.

Seit RDNA2 tun sie das nicht mehr. Solche Krücken wie DLSS und FSR werden ja auch nur gebraucht, weil die RT-Leistung bei beiden nicht ausreicht.
Nicht nur RT, auch Bildruhe, und last but not least miese Entwickler optimieren nicht mehr und sagen mach' halt DLSS/FSR rein.

DLSS kommt für mich eh nur in Kombination mit DSR in Frage. Das Bild wird mir sonst zu schlecht gegenüber nativ.
 
Genau da ist der Punkt, das 4-Fache an Leistung was die neue Gen. noch nicht haben wird
Doch das hat sie, nur hat es noch Niemand versucht.

Das 4 Fache gilt ja nur mit 8k statt 4k also nur die Auflösung höher LxB (länge mal breite).
Ohne Filter geht etwas mehr.

Custom_Port_Royal.jpg
 
Die 3090/ti ist eigentlich eine Workstationkarte, da macht sich der große RAM dann richtig bemerkbar. Fürs Gaming reicht auch eine 3080ti dicke, die ist nur wenig langsamer, aber auch nur noch wenig günstiger. Also kann man auch 100 EUR mehr investieren und das doppelte RAM mitnehmen, schaden kann es nix.
In der Tat, nur wird doch erst die übernächste Gen. annähernd das Potenzial haben alles in 4K/8K samt RT flüssig genug darzustellen damit sich beim Gaming soviel VRam auszahlt oder?
Workstation ist natürlich ein anderes Thema (y)
 
In der Tat, nur wird doch erst die übernächste Gen. annähernd das Potenzial haben alles in 4K/8K samt RT flüssig genug darzustellen damit sich beim Gaming soviel VRam auszahlt oder?
Workstation ist natürlich ein anderes Thema (y)
Was bringt dir der Tiger im Tank, wenn der Esel am Steuer sitzt ?

8K + HDR2 (12Bit) + 120Hz + 4:4:4 + Dolby Sound = Erlebnis, anstatt Ergebnis !
 
Die 3090/ti ist eigentlich eine Workstationkarte, da macht sich der große RAM dann richtig bemerkbar. Fürs Gaming reicht auch eine 3080ti dicke, die ist nur wenig langsamer, aber auch nur noch wenig günstiger. Also kann man auch 100 EUR mehr investieren und das doppelte RAM mitnehmen, schaden kann es nix.
Kann man so oder so sehen. Alyx hat auf meiner Steinzeit-Oculus Rift Gestern in Ultra Details 11.5 GB Ram auf der 3080 ti reserviert. Was in jedem Fall reicht, sind die 16 GB von AMD, aber eine 3080ti mit 4K könnte schon das eine oder andere mal knapp werden. Das 24GB zumindest bei der 3000 Serie völlig overdosed sind, steht aber ausser Frage.
 
Zuletzt bearbeitet :
In der Tat, nur wird doch erst die übernächste Gen. annähernd das Potenzial haben alles in 4K/8K samt RT flüssig genug darzustellen damit sich beim Gaming soviel VRam auszahlt oder?
Workstation ist natürlich ein anderes Thema (y)
Haben ist immer besser als brauchen. Und für die kommende Generation bleibt das Thema Ram erstmal abzuwarten. Nicht jeder Konsument ist so crazy wie ich, und kauft sich immer die neueste und beste Graka. Will heissen, nicht wenige wollen z.b eine 3080/3080TI über mehrere Jahre, respektive Generationen nutzen. Da sind 12GB zumindest Grenzwertig. Von 10GB mal ganz zu schweigen.
 
8K Display bedeutet ja nicht zwangsläufig auch 8K Renderauflösung. Wenn die 8K Performance nicht ausreicht kann man doch jederzeit DLSS/FSR 2.0/FSR oder auch gewöhnliches TAA dazu schalten.

Das Problem ist bei den TVs jedoch die Schnittstelle. 8K bedeutet maximal 60 fps und selbst das geht nur mit DSC.
Für Monitor kommt DP 2.0 aber denen fehlt wiederrum die Größe womit 8K wieder sinnlos wird und bis ein neuer HDMI Standard kommt word noch einige Zeit vergehen. Waren HDMI 2.1 doch schon grenzwertig vor allem was längere Kabeln angeht.
 
8K Display bedeutet ja nicht zwangsläufig auch 8K Renderauflösung. Wenn die 8K Performance nicht ausreicht kann man doch jederzeit DLSS/FSR 2.0/FSR oder auch gewöhnliches TAA dazu schalten.

Das Problem ist bei den TVs jedoch die Schnittstelle. 8K bedeutet maximal 60 fps und selbst das geht nur mit DSC.
Für Monitor kommt DP 2.0 aber denen fehlt wiederrum die Größe womit 8K wieder sinnlos wird und bis ein neuer HDMI Standard kommt word noch einige Zeit vergehen. Waren HDMI 2.1 doch schon grenzwertig vor allem was längere Kabeln angeht.
Ja, so wie ich es gemacht habe 86FPS mit 8K in SOTTR. FSR 2.0

Es gibt noch die Möglichkeit von Display Port, davon kann man auch zwei verlegen und Anschließen wenn es der Monitor unterstützt.
Also 120Hz, native.
Mit ZwischenBildBerechnungen bis zu 1200Hz... $€
 
Tja aber dann hat man wieder das Problem, dass man nur Monitore verwenden kann und keine TVs.
Und wozu 8K bei einem 30" Monitor? Mit einem 65" TV sieht das schon anders aus.
 
Oben Unten