Du verwendest einen veralteten Browser. Es ist möglich, dass diese oder andere Internetseiten nicht korrekt angezeigt werden. Du solltest ein Update durchführen oder einen alternativen Browser verwenden.
AMD Radeon RX 7900XT - Mögliche Platine und neue Erkenntnisse | Exklusiv
Na, das ist aber jetzt ein wenig übertrieben. RT-mäßig - ja, da AMD noch Aufholbedarf, aber FSR 2.0 dürfte da schon gut was machen.
Aber sonst ist AMD mit RDNA2 absolut auf Augenhöhe mit nVidia, P/L-technisch sogar leicht vorne.
Na, das ist aber jetzt ein wenig übertrieben. RT-mäßig - ja, da AMD noch Aufholbedarf, aber FSR 2.0 dürfte da schon gut was machen.
Aber sonst ist AMD mit RDNA2 absolut auf Augenhöhe mit nVidia, P/L-technisch sogar leicht vorne.
Ich will das eigentlich nicht diskutieren, darum habe ich explizit von "für mich" gesprochen". Solche Diskussionen werden ohne Not sehr schnell sehr emotional geführt.
Ich bin ehrlicherweise bekennender AMD Fan und alle Rechner, sowohl Privat als Geschäftlich sind ausschließlich mit AMD CPU`s ausgestattet. Und wie schon geschrieben, würde ich auch gern AMD Grakas kaufen, aber NVDIA hat hier für mich eindeutig das bessere, wenn auch deutlich teurere Gesamtpaket. Und das schon seit Jahren.
Ich lasse mich gern beim nächsten Release überraschen. Fakt ist aber, das ich aufgrund der Erfahrungen erstmal eine 4090 kaufen werde ohne auf AMD zu warten. Falls AMD ein großer Wurf gelungen ist, kommt sie in den Zweitrechner. Ich bin jedenfalls gespannt.
AMD kommt wohl mit AMD Referenz Design im 2,5 Slot Format
und einer Total Board Power von max. 340 Watt maximal, so meine Vermutung.
Ist nur meine These, keine Gewissheit.
Aber wenn die Boardpartner max. 450 Watt
und selbst Igor sagt gar einiges darunter, könnt´s hinkommen mit AMD Ref. Karten
Ich finde das Design nicht uninteressant, und da sich viele ein Preislimit setzen, wird letztlich wohl nicht die Frage sein, wer per se die absolute schnellste Karte baut, sondern bei wem ich beispielsweise für 1000 oder 1400 Euro mehr Leistung bekomme. - natürlich im gemessen am persönlichen Anforderungsprofil.
Ich finde das Design nicht uninteressant, und da sich viele ein Preislimit setzen, wird letztlich wohl nicht die Frage sein, wer per se die absolute schnellste Karte baut, sondern bei wem ich beispielsweise für 1000 oder 1400 Euro mehr Leistung bekomme. - natürlich im gemessen am persönlichen Anforderungsprofil.
Genau das ist das Thema. AMD war bei bei niedrigen Auflösungen ohne irgendwelchen Firlefanz eindeutig schneller als NVDIA. Ist halt immer, die Frage was man möchte.
Wären 24GB Vram nicht (wieder) aufgrund der eingeschätzt zu geringen Leistung (schlussfolgernd auf der aktuellen Generation) etwas übertrieben oder sehe ich das falsch?
Meine 6800XT war bereits mit 12GB Daten bei 4K bei ca. 30Fps überfordert, meine 3080 mit weniger als 10GB teilweise und eine 3090Ti scheint bei 8K auch nicht mehr als 18GB bei ca. 30Fps zu benötigen...
Die 3090/ti ist eigentlich eine Workstationkarte, da macht sich der große RAM dann richtig bemerkbar. Fürs Gaming reicht auch eine 3080ti dicke, die ist nur wenig langsamer, aber auch nur noch wenig günstiger. Also kann man auch 100 EUR mehr investieren und das doppelte RAM mitnehmen, schaden kann es nix.
Und ATX 3.0, selten so einen Dünnschiss gelesen. Dagegen helfen auch keine Shunts sondern zweckmäßige Schaltungsdesigns und gute Filter (siehe Zeichnung). Da reicht auch ein simpler LC-Pass 1. Ordnung
Ich befürchte, dass es kein rein elektrotechnisches Problem mehr sein wird. Die haben sich ja die "Lizenz für Spikes" in Stein gemeisselt über die Spec 3.0. Wer weiss, ob das nicht Teil der Firmware wird, um FPS und Perzentile gezielt zu pushen...? Würden wir auf dem Oszi schön staunen
Naja, für mich ist AMD eigentlich im Grakabereich eine einzige Enttäuschung und sie hinken ewig hinterher und haben erst mit den letzten FSR Versionen wieder was an Boden gewonnen.
Zum Glück für den Fortschritt gibt es Konkurrenz, sonst würde sich der Marktleader auf den Lorbeeren ausruhen. Intel wurde ja auch erst von Ryzen aus'm Dornröschenschlaf getreten und hat immer noch verschlafene Augen im Server-Bereich.
Die 3090/ti ist eigentlich eine Workstationkarte, da macht sich der große RAM dann richtig bemerkbar. Fürs Gaming reicht auch eine 3080ti dicke, die ist nur wenig langsamer, aber auch nur noch wenig günstiger. Also kann man auch 100 EUR mehr investieren und das doppelte RAM mitnehmen, schaden kann es nix.
In der Tat, nur wird doch erst die übernächste Gen. annähernd das Potenzial haben alles in 4K/8K samt RT flüssig genug darzustellen damit sich beim Gaming soviel VRam auszahlt oder?
Workstation ist natürlich ein anderes Thema
In der Tat, nur wird doch erst die übernächste Gen. annähernd das Potenzial haben alles in 4K/8K samt RT flüssig genug darzustellen damit sich beim Gaming soviel VRam auszahlt oder?
Workstation ist natürlich ein anderes Thema
Die 3090/ti ist eigentlich eine Workstationkarte, da macht sich der große RAM dann richtig bemerkbar. Fürs Gaming reicht auch eine 3080ti dicke, die ist nur wenig langsamer, aber auch nur noch wenig günstiger. Also kann man auch 100 EUR mehr investieren und das doppelte RAM mitnehmen, schaden kann es nix.
Kann man so oder so sehen. Alyx hat auf meiner Steinzeit-Oculus Rift Gestern in Ultra Details 11.5 GB Ram auf der 3080 ti reserviert. Was in jedem Fall reicht, sind die 16 GB von AMD, aber eine 3080ti mit 4K könnte schon das eine oder andere mal knapp werden. Das 24GB zumindest bei der 3000 Serie völlig overdosed sind, steht aber ausser Frage.
In der Tat, nur wird doch erst die übernächste Gen. annähernd das Potenzial haben alles in 4K/8K samt RT flüssig genug darzustellen damit sich beim Gaming soviel VRam auszahlt oder?
Workstation ist natürlich ein anderes Thema
Haben ist immer besser als brauchen. Und für die kommende Generation bleibt das Thema Ram erstmal abzuwarten. Nicht jeder Konsument ist so crazy wie ich, und kauft sich immer die neueste und beste Graka. Will heissen, nicht wenige wollen z.b eine 3080/3080TI über mehrere Jahre, respektive Generationen nutzen. Da sind 12GB zumindest Grenzwertig. Von 10GB mal ganz zu schweigen.
8K Display bedeutet ja nicht zwangsläufig auch 8K Renderauflösung. Wenn die 8K Performance nicht ausreicht kann man doch jederzeit DLSS/FSR 2.0/FSR oder auch gewöhnliches TAA dazu schalten.
Das Problem ist bei den TVs jedoch die Schnittstelle. 8K bedeutet maximal 60 fps und selbst das geht nur mit DSC.
Für Monitor kommt DP 2.0 aber denen fehlt wiederrum die Größe womit 8K wieder sinnlos wird und bis ein neuer HDMI Standard kommt word noch einige Zeit vergehen. Waren HDMI 2.1 doch schon grenzwertig vor allem was längere Kabeln angeht.
8K Display bedeutet ja nicht zwangsläufig auch 8K Renderauflösung. Wenn die 8K Performance nicht ausreicht kann man doch jederzeit DLSS/FSR 2.0/FSR oder auch gewöhnliches TAA dazu schalten.
Das Problem ist bei den TVs jedoch die Schnittstelle. 8K bedeutet maximal 60 fps und selbst das geht nur mit DSC.
Für Monitor kommt DP 2.0 aber denen fehlt wiederrum die Größe womit 8K wieder sinnlos wird und bis ein neuer HDMI Standard kommt word noch einige Zeit vergehen. Waren HDMI 2.1 doch schon grenzwertig vor allem was längere Kabeln angeht.
Ja, so wie ich es gemacht habe 86FPS mit 8K in SOTTR. FSR 2.0
Es gibt noch die Möglichkeit von Display Port, davon kann man auch zwei verlegen und Anschließen wenn es der Monitor unterstützt.
Also 120Hz, native.
Mit ZwischenBildBerechnungen bis zu 1200Hz... $€
Tja aber dann hat man wieder das Problem, dass man nur Monitore verwenden kann und keine TVs.
Und wozu 8K bei einem 30" Monitor? Mit einem 65" TV sieht das schon anders aus.