News AMD kontert mit der Radeon RX 6900XT, 6800X und 6800 Nvidias GeForce RTX 3070, 3080 und 3090

Hab mich schon beim erscheinen der RTX3080 entschieden seit langem mal wieder einen reinen AMD PC zu bauen. Nun zu lesen, dass man dabei noch mal 5-10% mehr Leistung bekommt, macht mich ja gleich noch neugieriger und euphorischer
 
Auch hier nochmal: Hut ab vor dieser Leistung. Den Vorsprung von Nvidia aufzuholen - zumindest in der Rasterleistung - war eine Herkulesaufgabe (y) Man darf ja auch nicht vergessen, dass sich Nvidia niemals so ausgeruht hat wie Intel, die haben immer versucht, die bestmögliche Leistung abzuliefern. Jetzt ist aber auch klar, warum die 3080 "nur" $699 kostet.
 
Bin mit meiner Nitro ja eigentlich vollauf zufrieden und der alte 7700K reicht für meine Strategietitel auch noch problemlos aus, aber...
es juckt mich so derbe an Stellen, an denen ich nicht mal kratzen kann...
Verstand sagt nö, Rest sagt "shut up and take my money", ich will wieder basteln und dann kommt noch die Ankündigung mit dem Smart Memory Access, so dass ich wohl doch mal *alles* auf Vordermann bringen werde.
Here goes my christmas bonus :rolleyes:
 
- RAGE Mode scheint nichts weiter als eine Fusion von dem heutigen "Overclock GPU" und "Overclock VRAM" - O.K. 🤷‍♂️
- Beim Smart Access Memory schließe ich mich der Frage von der8auer (bei der Folie zu AMD SAM) mal an, ob der VRAM auch als schnellen Arbeitsspeicher verwendet werden kann. Ansonsten von mir die Frage, ob das mit der Ladeverschnellerung der PS5 zutun hat. Juckt mich nicht weiter.
- 6800XT ist mal richtig nice!
- 6900XT vs. 3090 mit RAGE Mode und Smart Access Memory! Die 6900XT dürfte nochmals selektierter sein (pro OC/Güte). Aber da sehe ich die Kotzgrenze schon näher als bei der 6800XT. Prozentual also etwas geringeres OC als die 6800XT? 2-10% mehr als Stock dafür beim Verbrauch am Anschlag?
- FidelityFX wirkt auf mich "aufgewertet". Juckt mich aber genauso wenig wie DLSS (auch dank der Kreuzzüge der nvidiaischen Ultras 🙄)
- RT wurde dezent angedeutet. Das was ich an RT sah, schien ebenso dezent im Einsatz (das mag ich lieber, als wenn jeder Pixel, ganz nach Internetmanier, die Marktschreierkunst veranstaltet).
- Laut Abspann liefen die Tests mit dem 5900X und im Zeitraum 18-21.10.2020. Wenn ich nichts übersah, dann war es immer die Version 20.45-201013N. Der Performance-Treiber (+10%) kam doch erst am 22.10 oder? Das kann doch bestimmt jemand aufklären :) ... Edit: Ooookay, nun hats bei mir Klick gemacht. AMD ist kein Boardpartner. Das wird der Performance-Treiber gewesen sein. Schade :p

Also ich glaube, ich werde mir dieses Jahr ein alten Traum erfüllen \o/
 
Zuletzt bearbeitet :
Ich hatte Euch sicher nicht zu viel versprochen - der Herbst (und Winter) wird heiß, auch an der Steckdose. Die aktuelle Präsentation ist beendet und ich habe für Euch die wichtigsten Folien noch einmal als Galerie zusammengefasst. Da AMD leider nur einige handverlesene Redaktionen mit Material versorgt hat, muss dies nun nachträglich geschehen, da bitte ich um Verständnis. Für viel Text reicht es heute Abend auf Grund der aktuellen Test-Situation dann natürlich nicht mehr, aber ich denke mal, die Slides sind selbsterklärend genug.

>>> Hier geht es zu den Folien <<<
danke reicht doch :)
 
- RT wurde dezent angedeutet. Das was ich an RT sah, schien ebenso dezent im Einsatz (das mag ich lieber, als wenn jeder Pixel, ganz nach Internetmanier, die Marktschreierkunst veranstaltet).
Ich denke mal, das läuft auch noch nicht so performant, weswegen es bei einer Andeutung blieb. Bis zum release werden die sicher noch ordentlich zu tüfteln haben, ebenso beim CAS um an DLSS ranzukommen. Immerhin muss AMD da von 0 auf 100 ohne den Zwischenschritt von 1.0 (was ja wohl noch nicht so ausgereift war) gehen zu können.
 
Wann kommen denn die unabhängigen Tests sowie die Tests der Custom Modelle ?
Dürfen wir damit vor dem 18.11. (stimmt das ?) rechnen oder erst nach "Verkaufsstart"?
Ich hatte meine ASUS TUF am Releasetag blind geordert, da mit die 24 GB Speicher fürs Rendern wichtig sind und die Titan für mich vom P/L her keine Option war. Allerdings natürlich ohne ausführliche Tests sowie das -. zu dem Zeitpunkt noch unbekannte POSCAP/MLCC Problem - realisiert zu haben.
Dies werde ich diesmal anders machen. Wobei ich schon zugeben muss: lediglich 80 Euro mehr für 16 GB klingt schon verlockend - RTX mal außen vor.
 
Und die Benchmarks der 68-/6900XT waren auch u.a. mit diesem Ragemode - das ist OC und da wirds interessant was aus den 300W wird.
Also Ball Flach halten und abwarten. Es wird jetzt erst richtig interessant! ;)
Aus den 300 werden 320, wie hochgerechnet. Ich sauge mir das nicht aus den Fingern. Bei mir in den Leaks war es eine Boardpartnerkarte an der Kotzgrenze. Da reichen im Rage Mode auch 320 nicht. :D
 
Das mit der RX 6900XT habe ich nicht erwartet, aber auch diese Grafikkarte hat AMD heute vorgestellt, sauber.
Für mich bedeutet es jetzt 8 Wochen recherchieren, akribisch alles vergleichen und dann zuschlagen. 🍾
 
Kommt es nur mir so vor oder werden die Preise noch fallen ? Gerade die 6800 hätte ich eher mit 549€ gerechnet.
 
In einer Sache bin ich mir noch nicht sicher, wieviel an Performance macht das jetzt aus in Kombination mit einem Zen3 Prozessor , bzw. sind die Werte nur mit einem AMD Zen 3 erreichbar. Halte es für möglich das die RX6800XT von einem Zen 3 profitiert , aber evt. nicht von einem jetzigen Intel bzw. kommender Intel Gen.
 
Bei 16 GB Speicher halte ich PCIE 4 für nachrangig. Bis die breite Masse der Spiele das ausnutzt gehen noch einige Jahre durchs Land - mindestens wenn man die "upcoming" Konsolengeneration mal als "Quasistandard" heranzieht. Das AMD die 16 GB aber quer durch alle Karten durchzieht, Respekt ! Letztlich ist die Frage inwieweit AMD - bei angenommen gutem P/L - einen Performancegewinn in Kombination mit der Rüssel 5er Serie weit raushängen lässt. Man könnte sich damit ggf. Intel-System Besitzer verprellen. Und die machen nach der aktuellen Erhebung (Steam) ja immer noch 75 % aus. Das ist ja nicht nichts, nicht wahr, nicht ? (Terence Hill, Zwei Supertypen in Rio)
 
Bei 16 GB Speicher halte ich PCIE 4 für nachrangig.

Naja, Egal wieviel Speicher man hat, die Daten müssen immer erst mal in die GPU. Und wenn man in einem OpenWorld Spiel in eine neue Gegend kommt, werden immer neue Daten nachgeladen.

Es wirkt sich also schon aus.

Einerseits unbedingt mehr Speicher zu haben, weil man ja wenig Nachladeruckler will, dann aber auf PCIE 4 zu verzichten, weil einen die Nachladeruckler nicht stören ist leicht ... widersprüchlich :)
 
Wegen PCIE 4.0 oder weil AM4 generell die "besseren" Prozessoroptionen mit dem Rüssel 5000 hat ?
Deswegen und wegen "Smart Access Memory":
RX-6000_Page_19.jpg
 
In einer Sache bin ich mir noch nicht sicher, wieviel an Performance macht das jetzt aus in Kombination mit einem Zen3 Prozessor , bzw. sind die Werte nur mit einem AMD Zen 3 erreichbar. Halte es für möglich das die RX6800XT von einem Zen 3 profitiert , aber evt. nicht von einem jetzigen Intel bzw. kommender Intel Gen.
Genau die Frage stelle ich mir auch. Erreichen die neuen GPU das vorgestellte Leistungslevel auch mit einer blauen CPU oder nem älteren Ryzen ?
 
[...]
- Beim Smart Access Memory schließe ich mich der Frage von der8auer (bei der Folie zu AMD SAM) mal an, ob der VRAM auch als schnellen Arbeitsspeicher verwendet werden kann. Ansonsten von mir die Frage, ob das mit der Ladeverschnellerung der PS5 zutun hat. Juckt mich nicht weiter.
[...]
Ja, genau das kann er, siehe dazu ggf. das andere neue AMD-Video bei youtube.

Ich denke, was wir hier sehen, sind die Früchte von AMD' [Edith: HUMA, Heterogenous] Unified Memory Architecture (/Uniform Memory Access) in schon seit Jahren absehbarer Form (klingt jetzt vielleicht etwas eingebildet, aber ich warte da tatsächlich seit Jahren drauf, nur dass ich ursprünglich auf die Einführung mit HBM und Interposer gehofft hatte).

Überraschend ist für mich ist jedenfalls einzig, daß das zuerst im Consumer-Bereich zu sehen ist.

Ich hatte eigentlich auf Datacenter-Hardware mit GPU+CPU-chiplets sowie HBM2 oder 3 auf einem Interposer gewartet bzw. gewettet.

Genau da soll das m.E. jedenfalls in der Perspektive hin (alleine schon, um die Daten nicht bewegen zu müssen – Datenverschiebung über Bussysteme ist im HPC (teilweise, energetisch und Latenzen) richtig teuer und macht mittlerweile einen Großteil, manchmal den Löwenanteil aus).
 
Zuletzt bearbeitet :
Oben Unten