AMD komplettiert mit der Radeon RX 7800XT und 7700XT das Lineup, NVIDIA chillt und Intel sucht noch - Eure Meinung gegen meine

btw.
Unterhalb von N32 wirds auch wieder interessant: ... versandkostenfrei

7600@229€.JPG

Das ist ggü. der 6600@198€ schon den kleinen Aufpreis wert.
 
In FHD nur die Kleinen anschauen, die Großen sind im CPU-Limit:
Starfield@1080p_minFps.JPG

und bei HUB mit nem R 2600x ein paar Optimierungsvorschläge

Starfield-HUB@R2600x.jpg

FSR2 Quality ala CB wäre dann 67%, ... bei Bedarf.

Starfield soll sich ab 60fps rund anfühlen und mit Freesync sind sicher auch 50 minFps zu verknusen.
 
6800@439€.jpg
 
Starfield scheint in erster Linie RAM Bandwidth limitiert zu sein.

Bei Zen 4 dürfte nicht sonderlich mehr als DDR5 6000er gehen, solang Teiler 1:3 verweilen soll. Ob sich ein Decoupling lohnt um Bandbreite vs. Latency zu tauschen, könnte speziell bei dem Titel auch interessant sein.

Intel System an der Kotzgrenze wäre interessant, im Direktvergleich ;)
 
Zuletzt bearbeitet :
Bei Actionspielen sieht das schnell anders aus und selbst Hogwarts Legacy braucht mehr als 8GB vRAM um die schönen Umgebungen ruckelfrei in 1080p zu erzeugen (man erwartet einfach filmähnliche Optik bei so einem Spiel).
Dazu hätte ich mal eine Frage, weil bald der Kauf einer neuen Grafikkarte ansteht. Genaugenommen 2, einmal für WQHD, einmal für Full HD.

Ich habe versucht herauszufinden, wieviel vRAM jeweils sinnvoll und einigermaßen zukunftssicher ist für beide Auflösungen und bin auf so unterschiedliche Aussagen gestoßen, dass ich mehr Meinungen einholen muss.
Manchmal liest man, 8GB ist für Full HD völlig ausreichend, weil reservierter Speicher nicht gleich benutzter Speicher ist und die 8 GB (noch) nicht erreicht werden, egal wie hoch die Einstellungen sind.
Und dann eben solche Aussagen wie von Yumiko, die man aber auch woanders liest, dass es halt jetzt schon bei manchen Spielen Ruckler gibt, weil der Speicher nicht ausreicht.
Bei WQHD diesselbe Problematik, nur eine Stufe höher.

Kann mir jemand erklären, warum die Aussagen zu ausreichendem vRAM so unterschiedlich sind? Habe keine Lust, viel Geld auszugeben und mich nachher zu ärgern.
 
8gb würde ich nicht mehr kaufen, ab 12gb finde ich es schon ok. Bis jetzt ist mir nur TLoU und D4 welche hier drüber gehen ohne dass die Optik entsprechend ist, hier ist es für mich ein schlechte optimierung und bei TLoU wurde ja schon ne menge nach optimiert…
 
Dazu hätte ich mal eine Frage, weil bald der Kauf einer neuen Grafikkarte ansteht. Genaugenommen 2, einmal für WQHD, einmal für Full HD.

Ich habe versucht herauszufinden, wieviel vRAM jeweils sinnvoll und einigermaßen zukunftssicher ist für beide Auflösungen und bin auf so unterschiedliche Aussagen gestoßen, dass ich mehr Meinungen einholen muss.
Manchmal liest man, 8GB ist für Full HD völlig ausreichend, weil reservierter Speicher nicht gleich benutzter Speicher ist und die 8 GB (noch) nicht erreicht werden, egal wie hoch die Einstellungen sind.
Und dann eben solche Aussagen wie von Yumiko, die man aber auch woanders liest, dass es halt jetzt schon bei manchen Spielen Ruckler gibt, weil der Speicher nicht ausreicht.
Bei WQHD diesselbe Problematik, nur eine Stufe höher.

Kann mir jemand erklären, warum die Aussagen zu ausreichendem vRAM so unterschiedlich sind? Habe keine Lust, viel Geld auszugeben und mich nachher zu ärgern.
Die Auflösung macht gar nicht sooo viel aus. Wenn Spiele nur 4k Texturen haben, wird es bei 8GB vRAM eng. Da akuelle Konsolen 12GB für Texturen veranschlagen können, wird bei Multiplatformtiteln (bei denen keine PS4 oder XBox One mehr unterstützt werden) immer häufiger nur 4k Texturen beigelegt.
Da kommt der Engpass her - die Konsolen sind erheblich weiter als der durchschnittliche Spiele-PC (und Spiele-Laptop sowieso).
Bei PC-only Spielen wird eher auf sowas geachtet, die kennen ja die Massen an 3GB/4GB vRAM Spieler, daher tritt es noch nicht so in den Vordergrund. Da es erheblich mehr Konsolenspieler als PC-Spieler gibt und dort entsprechend mehr Geld gemacht wird (Raubkopien sind da fast unbekannt) gilt das Augenmerk den Konsolen (siehe auch FSR vs DLSS/XeSS Verbreitung).

Zum Ruckeln (technisch): Wir kennen ja alle die Kennzahlen für PCIe der GraKas zum Datennachladen. Allerdings liegen die nachzuladenen Texturen (die reinen Objektdaten sind eher vernachlässigbar) gepackt vor und müssen noch für die GPU entpackt werden. Die PS5 hat einen eigenen Chip, der die Daten in Echtzeit direkt ins (v)RAM weitergibt (daher kommt die auch auf reale 8-9GB/s Nachladegeschwindigkeit). Beim PC (und teilweise auch XBox) wird häufig im Haupt-RAM entpackt (von der CPU!) und dann ans vRAM weitergegeben. Das macht deutlich, warum beim Nachladen es extrem stocken kann.

TL;DR: Die Erhöhung der Auflösung macht wenig aus (vielleicht 1GB), die Texturen sind der große Brocken und diese gibt es vermehrt nur in 4k dabei.

Edit: Eine 16GB 6800XT geht schon mal für 449€ über den Ladentisch, RX6800 (auch 16GB) habe ich schon zweimal für 399€ gesehen. Wenn man also finanziell nicht stark eingeschränkt ist (dann hat man idR eh keine so schnelle CPU) bekommt man ordentliche 1440p gpus.
 
Zuletzt bearbeitet :
Würde auch keine Grafikkarte mehr mit weniger als 10/12 GB kaufen.
 
Die Auflösung macht gar nicht soo viel aus. Wenn Spiele nur 4k Texturen haben, wird es bei 8GB vRAM eng. Da akuelle Konsolen 12GB für Texturen veranschlagen können, wird bei Multiplatformtiteln (bei denen es keine PS4 oder XBox One mehr unterstützt werden) immer häufiger nur 4k Texturen beigelegt.
Da kommt der Engpass her - die Konsolen sind erheblich weiter als der durchschnittliche Spiele-PC (und Spiele-Laptop sowieso).
Bei PC-only Spielen wird eher auf sowas geachtet, die kennen ja die Massen an 3GB/4GB vRAM Spieler, daher tritt es noch nicht so in den Vordergrund. Da es erheblich mehr Konsolenspieler als PC-Spieler gibt und dort entsprechend mehr Geld gemacht wird (Raubkopien sind da fast unbekannt) gilt das Augenmerk den Konsolen (siehe auch FSR vs DLSS/XeSS Verbreitung).

Zum Ruckeln (technisch): wir kennen ja alle die Kennzahlen für PCIe der GraKas. Allerdings liegen die nachzuladenen Texturen (die reien Objektdaten sind eher vernachlässigbar) gepackt vor und müssen noch fpr die GPU entpackt werden. Die PS5 hat einenen eigenen Chip, der die Daten in Echtzeit direkt ins (v)RAM weitergibt (daher kommt die auch auf reale 8-9GB/s Nachladegeschwindigkeit). Beim PC (und teilweise auch XBox) wird häufig im Haupt-RAM entpackt (von der CPU!) und dann ans vRAM weitergegeben. Das macht deutlich, warum beim Nachladen es extrem stocken kann.

TL;DR: Die Erhöhung der Auflösung macht wenig aus (vielleicht 1GB), die Texturen sind der große Brocken und diese gibt es vermehrt nur in 4k dabei.

Edit: Eine 16GB 6800XT geht schon mal für 449€ über den Ladentisch, RX6800 (auch 16GB) habe ich schon zweimal für 399€ gesehen. Wenn man also finanziell nicht stark eingeschränkt ist (dann hat man idR eh keine so schnelle CPU) bekommt man ordentliche 1440p gpus.
Wow, warum liest man solche einleuchtenden Erklärungen nicht anderswo?

Jetzt erschließt sich mir, warum der Speicherbedarf mit der Auflösung nicht sonderlich skaliert; Wenn die Texturen teilweise unabhängig der Auflösung die gleichen sind, ist das logisch.
Deine Erklärung mit dem Ruckeln macht mir auch verständlich, warum es da Unterschiede bei den Systemen gibt, also ob Intel/Radeon, Ryzen/Radeon, Intel/NVidia usw. da dann ja sowohl vRam Bandbreite und Geschwindigkeit, als auch CPU (PCI-E Anbindung) und RAM eine Rolle spielen.

Die 6800xt hab ich für 1440p auch ins Auge gefasst, da finde ich was passendes.
Sorgen macht mir der 1080p-Rechner. Eine Karte zu finden, die 12GB hat und nicht unnötig viel Leistung, die ich bezahlen muss und nicht brauche (60+ fps bei 1080p und max Details ist ausreichend für mein Alter), ist irgendwie schwieriger.

Nochmal danke, Yumiko, du hast mir sehr weitergeholfen.
 
Wow, warum liest man solche einleuchtenden Erklärungen nicht anderswo?

Jetzt erschließt sich mir, warum der Speicherbedarf mit der Auflösung nicht sonderlich skaliert; Wenn die Texturen teilweise unabhängig der Auflösung die gleichen sind, ist das logisch.
Deine Erklärung mit dem Ruckeln macht mir auch verständlich, warum es da Unterschiede bei den Systemen gibt, also ob Intel/Radeon, Ryzen/Radeon, Intel/NVidia usw. da dann ja sowohl vRam Bandbreite und Geschwindigkeit, als auch CPU (PCI-E Anbindung) und RAM eine Rolle spielen.

Die 6800xt hab ich für 1440p auch ins Auge gefasst, da finde ich was passendes.
Sorgen macht mir der 1080p-Rechner. Eine Karte zu finden, die 12GB hat und nicht unnötig viel Leistung, die ich bezahlen muss und nicht brauche (60+ fps bei 1080p und max Details ist ausreichend für mein Alter), ist irgendwie schwieriger.

Nochmal danke, Yumiko, du hast mir sehr weitergeholfen.
Für FullHD greifst zur 6700XT
Ein wenig Angepasst und die gesammelt Karte verbraucht deutlich unter 200Watt bei rund 350EU.
 
Ich würde die Aussage von Igor nochmal aufgreifen, siehe unten. Kann es sein, dass ggf. doch noch eine RX 7600 XT bzw. RX 7700 mit 10 bzw. 12 GB erscheint?

" Ich will Euch heute mal etwas aus der Reserve locken, denn nebenher muss ich mich ja auch noch sehr intenisv mit Dingen beschäftigen, über die man noch nicht mal schreiben darf, dass es sie gibt und auch nicht, dass man überlegt, wie man das eigene Tun diesbezüglich am besten umschreibt, ohne gleich jemandem damit weh zu tun. Also lasse ich es lieber. Aber wir erwarten, hier hat sich AMD ja klar geäußert, demnächst noch die letzten beiden Nachzügler aus dem Radeon-RDNA3-Portfolio.

Dann ist auch da Schluss. Ich weiß, dass ich nichts weiß und werde mich deshalb zu vorgegebenen Wissenslücken auch nicht prophetisch oder eulenhaft äußern."
 
Es gibt keinen neuen Chips (Asics) mehr für RDNA3, neue Kartenmodelle wurden nicht ausgeschlossen
 
War auf CB zu lesen, dass Powercolor 7600XT Varianten mit 10 und 12GB in der Datenbank hat/hätte.

Würde dann ja auf 160bit oder 192bit Speicherinterface hindeuten.
 
Die Frage ist ob AMD sich eine weitere Fragmentierung leisten kann/will
 
Oben Unten