AMD füllt die Lücke und lässt auch noch das Einhorn frei: Radeon RX 7800XT und RX 7700XT flankiert mit FSR3

Ich denke, dass es auch nach wie vor eher ein Ding in den Köpfen der Kunden ist, beeinflusst vom Marketing usw.
Mehr Pixel = besseres Bild, was man grundsätzlich ja auch pauschal unterschreiben kann, Im Bereich Video und Foto sogar ganz sicher, wobei in Bereichen der bewegten Bilder nach wie vor eher selten 4k Technik zur Aufzeichnung verwendet wird, das meiste läuft da immer noch in FHD und wird dann am Nachbearbeitet und an den Endgeräten upgescaled.
Bei Games sind auch immer noch die meisten Games in 1080p oder max 1440p programmiert.
Auch da ist es dann eine Hochrechnung mittels Hardware, die massig Leistung kostet, in der nativen Programmierungsauflösung sehen diese Games aber halt immer noch am Besten aus.

Ich sehe auch absolut keinen Vorteil im Gaming in den höheren Auflösungen als gelegentliches Freizeitvergnügen.
Ich bin kein Freund von Konsolen und Zocken am TV, und am Schreibtisch mit dem kurzen Sitzabstand ist für mich mehr als 27" auch eher unangenehm.

Bei 27" und FHD war ich auch anfangs unsicher, hat sich aber als völlig unbegründet herausgestellt, mein Sohn zockt 1440p auf 27" ich 1080p auf 27" und ehrlich gesagt, mag ich die Optik in 1080p deutlich lieber.

Aber das ist eine persönliche Empfindenssache , aber da immer noch die Mehrheit auf 1080p zockt, spricht doch eine deutliche Sprache.
 
Schöne Idee, die Tassen und Aquarium aufklebe Thermometer kenn ich auch noch. :)

4K HDR Video:

Made in Switzerland
 
Schöne Idee, die Tassen und Aquarium aufklebe Thermometer kenn ich auch noch. :)

4K HDR Video:

Made in Switzerland
Ja gut, Video, dafür brauchts keine Fette Grafikkarte, das kann jeder gute Fernseher mit dem Upscaling Prozessor.
Die zu berechnende Datenmenge eines 4k oder 8k Videos ist keine Aufgabe, bei Games in 4k sieht das Ganze schon ganz anders aus.
 
Ja gut, Video, dafür brauchts keine Fette Grafikkarte, das kann jeder gute Fernseher mit dem Upscaling Prozessor.
Die zu berechnende Datenmenge eines 4k oder 8k Videos ist keine Aufgabe, bei Games in 4k sieht das Ganze schon ganz anders aus.
Ja, wobei das Quell Material inzwischen schon sehr Hochwertig ist.
Wenn die 8K Auflösung nicht Ausgereizt werden kann, nimmt HDR gerne die vorhandene Bandbreite mit.

Ich bin mehr der Entertainment Typ, also mehr Abstand und Farben.
 
Die Preise sind einfach unverschämt, besonders bei der kleinen Karte. Nur mit 12GB wird man demnächst genauso dumm dastehen, wie mit 8GB heute. Die Konsolen gehen auf 16GB GPU Speicher und daran orientieren sich die Spieleentwickler. Die Ruckelorgien mit 12GB aufm PC können beginnen...

Und die TDP ist ja wieder eine Katastrophe. Kann man nur hoffen, daß die weit jenseits des Sweetspots geprügelt wurden um gegen Nvidia besser dazustehen. Dann bissle runtertakten und undervolten, sollte <200W ohne nennenswerte Performancenachteile machbar sein. Wenn nicht, dann gute Nacht und Tschüß
 
Mal sehen wann der FSR3 Patch kommt.

Version 1.21 ist es aktuell:

FORSPOKEN BENCHMARK
Benchmark-Zeitpunkt: 27.08.2023 19:32

Durchschnittliche Bildwiederholrate: 071
Max. Bildwiederholrate: 093
Min. Bildwiederholrate: 048
Ladezeit:
Szene1: 003.145Sek.
Szene2: 006.208Sek.
Szene3: 008.728Sek.
Szene4: 007.186Sek.
Szene5: 005.157Sek.
Szene6: 005.025Sek.
Szene7: 005.928Sek.
Insgesamt: 041.377Sek.

GPU: AMD Radeon RX 6950 XT
Driver: 23.10.29.01-230814a-395045C-AMD-Software-Adrenalin-Edition

Auflösung: 3840x2160
Anzeigemodus: Rahmenloses Fenster
Voreinstellungen zur Bildqualität: ANGEPASST

Bildeinstellungen:
AMD FidelityFX Super Resolution 2: AUSGEGLICHEN
Modellspeicher: HOCH
Modell-Detaillierungsgrad: HOCH
Texturenspeicher: ULTRA
Texturenfilter: HOCH
Reflexionen: HOCH
Bewegungsunschärfe: AN
Schärfentiefe: AN
Nebelqualität: STANDARD
Wolkenqualität: HOCH
Schattenqualität: HOCH
Raytracing für Schatten: AN
Umgebungsverdeckung (AO): STANDARD
Raytracing für Umgebungsverdeckung: AN
Antialiasing: TEMPORALE KANTENGLÄTTUNG
Asynchrone Shader: AN
Shading mit variabler Rate (VRS): AUS

© 2023 SQUARE ENIX CO., LTD. All Rights Reserved.
 
Ja, ich auch, aber nicht wenn ich mal zocke, beim Fernseher etc sieht das anders aus, da genieße ich auch ein erstklassiges OLED Bild mit HDR10+, Dolby Vision und HDR Technicolor, da bietet der Metz Topas OLED 65" für jeden erdenklichen Inhalt die passende Variante.
HDR beim Gaming wiederum finde ich oft kontraproduktiv.
Selbst wenn ich über die Roku 4k Box streame, habe ich ein top Bild.
 
Die Preise sind einfach unverschämt, besonders bei der kleinen Karte. Nur mit 12GB wird man demnächst genauso dumm dastehen, wie mit 8GB heute. Die Konsolen gehen auf 16GB GPU Speicher und daran orientieren sich die Spieleentwickler. Die Ruckelorgien mit 12GB aufm PC können beginnen...

Und die TDP ist ja wieder eine Katastrophe. Kann man nur hoffen, daß die weit jenseits des Sweetspots geprügelt wurden um gegen Nvidia besser dazustehen. Dann bissle runtertakten und undervolten, sollte <200W ohne nennenswerte Performancenachteile machbar sein. Wenn nicht, dann gute Nacht und Tschüß
Deshalb habe ich jetzt direkt zur einzigen 1080p gaming Karte mit 16GB gegriffen und die 4060ti 16GB gekauft, hab's nicht bereut.
 
Sind wir doch Mal ehrlich: Erst wenn diese Techniken in die Treiber gepackt werden und dadurch bei allen Games verfügbar sind macht das ganze Sinn. Wenn die Hersteller diese Techniken in ein paar Spiele packen weil sie den spiele Entwicklern gutes Geld zahlen, bringt uns das eigentlich gar nichts. Wer kauft sich eine Nvidia Karte weil Cyberpunk darauf gut läuft? Man will doch eine gute Performance in allen Spielen.. der Release ist genau so präzise wie der von CS2. Ein Release wird heutzutage einfach aufgeschoben. Nichts ist mehr verlässlich. Ich hoffe das ändert sich demnächst wieder
 
Wer kauft sich eine Nvidia Karte weil Cyberpunk darauf gut läuft?
Ich nicht, aber viele machen genau das. FSR 3 erhält zumindest die Hoffnung aufrecht, dass Interesse besteht die Gamer weiterhin mit guter Leistungsfähigkeit zu versorgen. Inwieweit diese Technik in die Treiber implemntiert werden kann steht in den Sternen. AMD möchte aber dieses feature unabhängig vom Grafikchip zur Verfügung stellen. Das ist im Gegensatz zu Nvidia sehr löblich, da Nvidia bis heute stein und bein schwört, dass Frame Generation lediglich auf den 4000er-Chips läuft. Mal gucken wie lange noch... :D
 
Meine hoch geschätzte 6800XT nitro+ wird in Kürze drei Jahre alt. Und wenn ich mir RDNA3 und Ada anschaue muss ich sagen: bis auf eine Ausnahme, nämlich die 4090, ist die aktuelle Generation im Vergleich zum Vorgänger eine Enttäuschung auf ganzer Linie. Ich sehe bei keinem einzigen Chip die Notwendigkeit zu aufzurüsten. Und warum?
Der direkte Nachfolger 7800XT sollte schneller sein, wird er aber nicht. Schließlich ist nicht mehr die 80er, sondern die fragwürdige 70er der Gegner. Dann kann Team rot im highend Team grün nicht mehr das Wasser reichen. Und will es auch in der Folgegeneration nicht. Und was ist im Lager von NV zu beobachten? Ein Leistungsmonster in Form der 4090. Darunter: eine 4080 für abnorm viel Geld für die gebotene Leistung, gerade im Vergleich zur 4090. Nimmt man die Soldaten dahinter mit in den Fokus, ergibt sich eine noch nie dagewesene Leistungsspreizung mit einer Preispolitik, die man sich früher vielleicht nach dem 8. Bier und 10. Schnaps ausdenken konnte.
Die Leidtragenden sind die Gamer in Zeiten der KI, bei der die Preise für Firmen fast zweitrangig erscheinen, aber Hänschen und Paule eben viele Monate mehr sparen müssen um sich ein Mittelklassebrötchen leisten zu können.

Ein Zeichen auf der Gamescom wäre gewesen: Faire Preise für die Zocker. Die neue Mittelklasse kostet jetzt also locker 500 Euro; fast das doppelte als vor 7 Jahren noch. Wer mag, kann da mal die Inflation errechnen. Die ist noch schlimmer als in den letzten zwei Jahren in Deutschland. Ernüchternd, traurig, der Ausblick ist leider düster. Ich hoffe, man kommt wieder zur Vernunft.
Die 7700 und 7800 sind ja Oberklasse (1440p).
Die 7600 ist Mittelklasse (1080p)
Die 7900 ist Enthusiastklasse (4k).
 
Ich denke, dass es auch nach wie vor eher ein Ding in den Köpfen der Kunden ist, beeinflusst vom Marketing usw.
Mehr Pixel = besseres Bild, was man grundsätzlich ja auch pauschal unterschreiben kann, Im Bereich Video und Foto sogar ganz sicher, wobei in Bereichen der bewegten Bilder nach wie vor eher selten 4k Technik zur Aufzeichnung verwendet wird, das meiste läuft da immer noch in FHD und wird dann am Nachbearbeitet und an den Endgeräten upgescaled.
Bei Games sind auch immer noch die meisten Games in 1080p oder max 1440p programmiert.
Auch da ist es dann eine Hochrechnung mittels Hardware, die massig Leistung kostet, in der nativen Programmierungsauflösung sehen diese Games aber halt immer noch am Besten aus.
Bei Konsolen wird idR für 4k programmiert, daher auch der große Texturspeicher >12GB dort und das beschleunigte Datennachladen.
Die aktuellen Multiplatformtitel haben es dann schwer auf dem PC, problemlos geht das nur bei der Oberklasse. Kein Wunder also, dass der PC als Spieleplatform so stark unter den Konsolen gerutscht ist - die Preise stimmen nicht mit dem überein was die Kunden sehen - ihren 4k TV bespielt eine 400€ Konsole ganz prima und ein 1000€ Komplett-PC gar nicht gut.
Marketing ja, aber der Kunde sieht am Ende auch wenn es Probleme gibt und für ihn das P/L nicht stimmt.

Edit (Quelle www.game.de):
Anzahl Konsolenspieler in DE 2018 bis 2022: 13,4 hoch auf 18,9 millionen
Anzahl PC-Spieler in DE 2018 bis 2022: 16,7 runter auf 12,9 millionen
Wir haben also inzwischen ca. 50% mehr Konsolenspieler als PC-Spieler - die Preisspirale der GraKas liegt auch in diesem Zeitraum.
 
Zuletzt bearbeitet :
Das hast du gut auf den Punkt gebracht (y)
 
... in der nativen Programmierungsauflösung sehen diese Games aber halt immer noch am Besten aus.

Was soll das denn sein: eine "native Programmierauflösung"?

Ein kurzer Blick z. B. in die Dokumentation von Vulkan bestätigt meine Vermutung, dass man bei der Programmierung von 3D-Anwendungen vor allem mit Vektoren und mit normalisierten Koordinaten (siehe z. B. Seite 91 ff) arbeitet. Und nachdem man so ein Bild abstrakt im normierten Raum "beschrieben" hat, wird es anschließend auf die jeweilige Auflösung gerendet.

Und damit geht dann natürlich mit höherer Auflösung auch eine höhere Bildqualität einher.

Ich persönlich z. B. habe seit fast drei Jahren nur noch 4K-Schirme, einen 65"-Fernseher (mit 120Hz), und einen 27"-Monitor. Da lässt sich ja ganz leicht ausprobieren, wie das in Full-HD aussieht, denn das geht verlustfrei über Halbierung (bzw. Vierteln) der Auflösung. Wie das "am Besten" aussehen soll, erschließt sich mir aber nicht!

Ich sehe auch absolut keinen Vorteil im Gaming in den höheren Auflösungen als gelegentliches Freizeitvergnügen.
Ich bin kein Freund von Konsolen und Zocken am TV, und am Schreibtisch mit dem kurzen Sitzabstand ist für mich mehr als 27" auch eher unangenehm.

Na ja, der Vorteil lässt sich schon ganz gut beschreiben: es sieht halt einfach viel besser aus... :D

Effekte und hohe Auflösung ersetzen natürlich keine fehlende Spielidee, damit bin ich vollkommen einverstanden. Trotzdem gibt es halt auch Spiele, die haben ein tolles Gameplay UND laufen gut auf 4K, vielleicht sogar mit HDR. Meine beiden Use-Cases sind die Rennsimulation "Assetto Corsa Competizione" und der "Microsoft Flugsimulator". Wenn ich ein Nachtrennen auf "Mount Panorama" fahre, der Hintermann drängt von hinten und leuchtet mit seinen Scheinwerfern grell im Rückspiegel, während ich die lange Gerade den Berg hinunterfahre mit Blick auf leuchtende Stadt, das sieht halt neben allem Realismus in der Fahrphysik und der Action im Renngeschehen auch überwältigend gut aus! Warum sollte ich darauf verzichten?

Ähnliches könnte ich vom Flugsimulator erzählen, wo ich schon öfter mit offenem Mund über irgendwelche Landschaften geflogen bin, die unfassbar gut und dank 4K detailliert aussehen.

Das hat alles mit Immersion zu tun.

Schau dir z. B. mal das hier an. Der Kerl betreibt ein Triple-Screen-Setup mit 3 4K-Monitoren. Damit sieht man dann auch, was neben einem passiert. Und spul man nach vorne, wie fantastisch das Nachts aussieht.

In diesem Kontext wäre ich AMD dann auch unendlich dankbar, wenn mir FSR3 auch meine 3090FE, die im Zweit-PC steckt, in die Lage versetzen würde, sowas wie Frame-Generation im Flugsimulator zu machen, denn dann könnte ich dort die Details noch weiter raufsetzen.

Aber das ist eine persönliche Empfindenssache , aber da immer noch die Mehrheit auf 1080p zockt, spricht doch eine deutliche Sprache.

Das ist halt Bestandshardware, die selten ausgetauscht wird, und wo dann bei jungen Leuten auch einfach das Geld fehlt. Jedenfalls bin ich ziemlich sicher: die Anzahl derer, die auf Full-HD spielen, weil sie das besser finden als 1440 oder 4K ist eher übersichtlich.
 
Zuletzt bearbeitet :
Na ja, ohne das ich auch nur einen einzigen Kommentar gelesen habe, mal meine 50 Cent zur RX 7800XT, FSR 3 und HyperRX

HyperRX

Das konnte man bisher quasi manuell schon einstellen. Wobei ich Radeon Boost für eine völlig unnötige Technologie halte. Das in Zusammenhang mit Upscaling ist mehr als fragwürdig.

AntiLag kann man machen, funktioniert leider nicht so gut wie Reflex. Thema Eingriff von außen vs. über das Spiel von innen. Dazu hatte ich bereits einige Artikel geschrieben.

RX 7800XT/7700XT

Wenn ich mir die Folien von AMD anschaue, siehe Vergleich zur RX 5700XT, dann frag ich mich: Wo ist der Vergleich zur 6700XT/6800XT?

Meine Vermutung: Die neuen Karten sind nur bedingt schneller als die Vorgänger. Wenn überhaupt, dann sollte es in Bezug auf DXR einen Verbesserung geben. Rasterleistung eher unentschieden.

Bitte versteht das jetzt richtig, denn das heißt nicht, dass die Karten grundsätzlich schlecht sind. Es bleibt nur die Frage: Gibt es eine Leistungssteigerung - oder nur eine effizientere Nachfolgerin?

Schwierig!

FSR 3

Das Thema schlechthin. Zum Launch kann ich euch leider keinen Artikel liefern. Ich bin aktuell beruflich voll im Stress und zusätzlich noch im Ausland unterwegs, daher kommt das Thema später.

Interessant ist aber, dass AMD FSR 3 für älter GPUs zugänglich macht. Sogar für NVIDIAs vernachlässigte 2000er/3000er Generationen. Frame Generation für alle! Auch der treiberbasierte Ansatz quasi alle DX11/DX12 mittels FG zu beschleunigen - wird NVIDIA unter Druck setzen. Gut so!

Jetzt zum ABBA… wann kommt FSR 3? 202X oder wenn NVIDIA DLSS 5.6.3 veröffentlicht? 🤪Was kann FSR 3 im direkten Vergleich zu DLSS 3?

Gespannt ich bin…
 
Ja, ich auch, aber nicht wenn ich mal zocke, beim Fernseher etc sieht das anders aus, da genieße ich auch ein erstklassiges OLED Bild mit HDR10+, Dolby Vision und HDR Technicolor, da bietet der Metz Topas OLED 65" für jeden erdenklichen Inhalt die passende Variante.
HDR beim Gaming wiederum finde ich oft kontraproduktiv.
Selbst wenn ich über die Roku 4k Box streame, habe ich ein top Bild.
Ok, 65" sind dann schon etwas zu Groß für 2,20m Abstand.
Ich habe mich bewusst für den 43" entschieden, da er auch 144Hz kann bei 4K (4096x2160) mit HDR10+ und die Farben sowie die Helligkeit Zertifiziert sind.

In wie fern findest du es Kontraproduktive?
Immerhin Implementieren es die Spiele Entwickler auch in die Spiele Engine.
Das ist also kein Hokuspokus, sondern sehr Ernst gemeint von der Film & Spiele Industrie.
 
Jetzt zum ABBA… wann kommt FSR 3? 202X oder wenn NVIDIA DLSS 5.6.3 veröffentlicht?
Ohne genau zu schauen ob (vermutlich) irgendwer das schon geschrieben hat, auf der Gamescom wurde gesagt das "early fall" "just a few weeks ahead" für Forspoken und Immortals of Atheum FSR3 und FMF kommen soll.
Der Treiber mit FMF für DX11 und DX12 soll Q1 2024 kommen.
Sonst sind noch 10 weitere Spiele und Unreal Engine support ohne Datum genannt worden.
 
Ich würde mir am liebsten Cyberschrank im direkten Vergleich anschauen…
 
Naja, man sollte schon ein paar objektive Kriterien anlegen. Wenn der Massenmarkt FHD daddelt, ist das sicher nicht nur "Einsteiger". Mit RT on und outmaxed @120FPS kannst du mit sog. Einsteigerkarten auch in FHD nix reißen. Der bloße Fokus auf Auflösung hilft nicht weiter.
 
Oben Unten