AMD Radeon RX 7900XTX und RX 7900XT im Test - Ein riesiger Schritt nach vorn und einer zur Seite

Tatsächlich hat AMD jetzt in Dead Island 2 das gewohnte niveau nicht mehr 20% hinter der 3080 nur mehr 5% mit dem neuen Treiber. Warum CB testet ohne finalem Treiber.......weiß keiner.
 
Als Hogwarts Legacy rauskam hat FSR auch harte Fehler produziert - so wurden die Texturen der Straßen immer erst richtig ausgegeben, wenn man gerade drüberlief. Vorher war das grauer Matsch. Das war nach einem kleinen Update komplett behoben. Insgesamt erlebe ich die Treiber-Optimierungen bei AMD als ziemlichen Gewinn über die Lebensspanne der Karten. Von der Oberfläche müssen wir garnicht anfangen.
Freu mich schon auf die DOS-Ansicht, wenn ich die 4080 in Betrieb nehme :rolleyes:
 
Is kein DOS.
Sieht für mich nach Windows Xp aus. Wobei mich die Optik weniger nerft, als die Bedenkzeit, die ich stellenweise bei den 3D Einstellungen habe.
 
Freu mich schon auf die DOS-Ansicht, wenn ich die 4080 in Betrieb nehme :rolleyes:
Was stellst du in den Nvidia-Einstellungen schon groß ein, ab und zu GSync ausstellen für Benchmarks und noch schauen, ob RBAR aktiviert ist, sonst mache ich da nix. Das Overlay vielleicht aktivieren in Experience, sonst wird da auch nichts benötigt, den Rest stellt man im Spiel ein, PL über Inno3d Tuneit oder über eine der anderen kleinen Nvidia Apps. Der msi Afterburner ist mit zu aufgeblasen, mit dem Server der ständig im Hintergrund läuft.
 
Zuletzt bearbeitet :
Framelimit ☝️
 
Achso, das stelle ich nur bei fordernden Spielen im Spiel ein damit's noch ruhiger läuft.
 
Nach den Erfahrungen, die andere in New World oder D4 gemacht haben, hab ich standardmäßig 120 im Treiber aktiviert. Je nach Game bin ich Ingame dann nochmal auf 75-90 runter gegangen.
 
Kommt ja immer drauf an, Hogwarts lief mit 75 fps smooth, bei Assassin's Creed Titeln habe ich das Gefühl mindestens 90 fps oder besser über 100 müssen sein.
 
Bin natürlich kein insider so wie @Igor Wallossek aber ich könnte mir vorstellen, dass bei AMD irgendwas richtig schief gelaufen ist. Die können doch nicht NVIDIA über n halbes Jahr lang machen lassen was die wollen und sich nen Großteil potentieller Verkäufe abluxxen lassen, weil sie nix gegen die 4070 und 4060ti anzubieten haben. Was is da los?

Um das Ding nochmal kurz aufzugreifen:

Zunächst denke ich, dass der Leistungssprung der neuen Generation von Nvidia-Chips AMD schon ein wenig kalt erwischt hat. Aber nicht in dem Sinne, dass AMD vorhatte oder gar glaubte, mit der eigenen neuen Generation vor Nvidia zu liegen. Es ist eher die Größe des Abstands, der überraschte. Und Nvidia war sich seiner Sache wohl auch nicht so sicher, sonst hätten sie die Modelle 4080 und 4090 nicht in einem so bekloppten Bereich geprügelt, wo die Karten bei wirklich minimalem Performancegewinn deutlich mehr Strom verbrauchen.

AMD hat bei der neuen Chipgeneration nicht einfach eine Evolution des Vorhandenen betrieben. Sie haben mit dem Chiplets ein ganz neues Konzept bei GPUs zur Marktreife gebracht, und das ist schon eher eine echte Revolution. Die Früchte davon können aber noch nicht geerntet werden, denn das ist die erste Version dieses Konzepts, die zunächst überhaupt mal funktioniert. Darinnen stecken aber so viele Möglichkeiten, die sich erst in den nächsten Generationen zu echten Vorteilen bei der Weiterentwicklung, den Produktionskosten und der Performance entwickeln werden.

Daher blicke ich angesichts der verwendeten Chiplet-Technik ehrfürchtig, und angesichts der noch eher dürftigen Performance gnädig auf die 7000er-Reihe. Ich hoffe guten Mutes auf die nächsten Generation(en). Bis dahin kann ich gut mit meiner 3090 und 4090 "überwintern" und werde zwischendurch AMD mit einem Wechsel auf AM5 sponsern.
 
AMD hatte glück das Nvidia bei Ampere keine plätze bei TSMC bekam.^^ Weil selbst mit Fertigungsvorpsrung schafften sie nur den gleichstand der nun wieder hinüber ist da Nvidia einfach besser ist auf gleichem node. :) Wobei ich hätte auch mehr erwartet bei RDNA 3 High End, oder eher das Nvidia eher überrashct hat mit dem sprung. Aber Nvidia und 2 Nodesprünge hätte man kommen sehen sollen.

Ich spondere amd auch mit am 4^^. Cpus sind ja spitze. Die erste 4070 ist nun bei 599.

Aber habe heute den Test bei CB zum Laptop mit RDNA3 Midrange Gpu gelesen. Wenn sich davon was ableiten lässt hat AMD ein problem. Denn mehr als bessere effizienz liefert die nicht und vram waren sie auch sparsam. Obwohl sie 10gb und 12gb geliefert haben mit Rdna 2 in Laptops. Irgendiwe fühlt es sich an wie ich will gar nicht mehr konkurrieren mit nvidia nur noch hohe marge mitnehmen.^^ zumindest ein teaser der 7800 er wäre cool gewesen zum release der 4070.
 
Ich denke dass das Problem einfach ist das Nvidia schon viel zu lange ander Spitze der Verkäufe steht und dadurch auch ein deutlich größeres Forschungsbudget haben als AMD.
Und so ein Überraschungscoup, wie damals bei den Chips gegen Intel.. danach sieht es leider absolut gar nicht aus.
Sie können höchstens versuchen durch das Chipletdesign deutlich Kosten einzusparen um dann die Grafikkarten deutlich preiswerter anbieten zu können. Ich denke mehr geht einfach aktuell nicht.
 
Amd war doch eh gut im Aufwärtstrend seit Ryzen u. Polaris, der erste Chipletwurf ist halt nicht das Gelbe vom Ei aber wenn sie in Zukunft wieder so runde Designs wie RDNA2 abliefern ist das schon ok. AMD hat natürlich wie alle begrenzte Ressourcen, vor allem im Vergleich zu den direkten Konkurrenten und die Konsolen spielen auch noch mit rein und solange das so bleibt muss man die natürlich auch bei fast jeder Entwicklung mitberücksichtigen was sicher auch immer Schatten und Licht bringt....
 
Welcher trend ? deren markanteile schwinden seit polaris höchstens. bzw waren dort noch auf 20% warum wohl? weil man über den preis kam :)

aber ich sprach nur vom gpu sektor mir ist klar ds amd im allgemeinen gut liegt.
 
aktuelle Gerüchteküche:
Screenshot (4).png

Meh 7800Xt 285 Watt? Zwischen 3070 und 4070TI? Da sonst 7900Xt Obsolet? Überzeugt mich nicht falls es so kommt.

7700XT = rtx 4070. 12gb? ja ne dann bleib ich bei der 4070. Gib der 7700Xt 16gb :D

7800 ohne XT wäre interessant oder kommt die erst als refresh, wer weis.

Der Rest schrott 8gb ausschussware.
 
aktuelle Gerüchteküche:
Anhang anzeigen 25143

Meh 7800Xt 285 Watt? Zwischen 3070 und 4070TI? Da sonst 7900Xt Obsolet? Überzeugt mich nicht falls es so kommt.

7700XT = rtx 4070. 12gb? ja ne dann bleib ich bei der 4070. Gib der 7700Xt 16gb :D

7800 ohne XT wäre interessant oder kommt die erst als refresh, wer weis.

Der Rest schrott 8gb ausschussware.
Man passt sich an NVIDIA an.🤮
 
Boah die sollen endlich die 7800xt rausbringen, damit ich die Benchmark Ergebnisse sehen / einschätzen kann, um mir dann endlich ne 7900xt zu holen ^^
 
Da es is die 6950 letzten schon für 629€ gab fände ich 699 € pervers. Hmm
 
Oben Unten