News AMD kontert mit der Radeon RX 6900XT, 6800X und 6800 Nvidias GeForce RTX 3070, 3080 und 3090

Was denken denn die Herren hier ? Würden die Ergebniss mit einem 10900K gegen eine 3080 genauso ausfallen oder meint ihr die Ergebnisse sind so nur mit einem Zen3 erreichbar. Würde ja dann bedeuten das man gezwungenermaßen einen Zen 3 kaufen muss um in den Genuss der vollen Leistung der Karte zu kommen.
Ich denke, abseits der Folien für die 6900 mit Smart Memory Access würde das dort extrem ähnlich ausfallen – alle anderen Folien sind ja ohne dieses vorerst "exclusive" Feature gebencht. Prinzipiell aber sollte iwann hoffentlich jeder PCIe4-angebundene Prozessor mindestens eine Chance auf Nutzung von Smart Memory Access haben AFAICS – jedenfalls sofern er sich halbwegs freiwillig hUMA/HSA (heterogenous Unified Memory Access/heterogenous System Architecture) unterwirft.
 
Zuletzt bearbeitet :
Bin gespannt ob die 6900 die 3090 wirklich so weghämmert wie auf den Slides ;)!
 
@olligo Was ist denn für dich "weghämmern" ? Zusammen mit Smart Access Memory und Rage Mode liegt sie im mittel 3% über der 3090, ohne die beiden Features wird sie eher 3-4% darunter liegen.
 
Das klingt ja alles erstmal ganz vielversprechend.

Gut für den Kunden, dass er auch in dieser Leistungsklasse wieder die Wahl hat.

Es bleibt jedoch abzuwarten bis unabhängige Tests veröffentlicht wurden. Spontan stelle ich mir einige Fragen:

1. Die Benchmarks der Radeon RX 6800 wurden inklusive dem neuen Feature „Smart Access Memory“ durchgeführt, zumindest bei der 6900Xt auch mit Overclocking "Rage", bei der 6800 und 6800Xt auch?

2. Netzteilempfehlungen: 650W, 750W, 850W

3. TBP 250W, 300W, 300W

4. keinerlei Angaben zur Lautstärke

5. keinerlei Angaben zu Raytracingleistung

6. Nur schwammige Angaben zu DLSS Alternative

7. Leistungseinbuße OHNE Smart Access Memory und Rage 2% bis 13 %


Das bedeutet für mich als Kunden:

Um die volle Leistung abzurufen benötige ich zwingend eine Zen3-CPU.
Mein Mainboard wird kein BIOS-Update für die neue Prozessorgeneration bekommen, also neues Mainboard.
Habe zur Zeit eine Nvidia 2070 Super (vorher Vega 56), mein Netzteil liefert 550 W (BeQuiet), also neues Netzteil.

Ohne Zen3 habe ich einen Leistungsverlust der 6000er Serie von gemittelt 7-8%. Dann ist die Leistung nicht mehr wirklich weit von einer 3070 weg.

Eine 3070 wäre für mich mit 220W TBP für den UVP von 499,00 sofort ohne weitere Upgrades nutzbar.

Für die 6000er AMD-Serie wären das Mainboard + CPU + Netzteil zusätzliche Kosten (so ca. 700 bis 750 Euro zusammen).

Die einzig wirklich interessante Karte aufgrund der Preisgestaltung ist die 6800XT (650 Euro).

Demnach würde ein Umrüsten auf die 6000er AMD Serie ca. 1.400 Euro kosten, statt 500 Euro bei der 3070.

Das ist schonmal ein Preisabstand, der für mich uninteressant ist, obwohl die Leistung dann etwas besser als bei einer 3070, allerdings bei wesentlich höherem Verbrauch und Kosten wäre.
Da keine Angaben zur Lautstärke sowie Raytracing gemacht wurden und ich bezüglich der Lautstärke Vega-geschädigt bin kommt das noch erschwerend hinzu. Interessant ist auch die Frage, ob die TBP mit oder ohne das Rage-Feature gemessen wurde.

Bei anderen Grundvoraussetzungen sieht die Rechnung natürlich anders aus.

Nunja, so wie es sich zur Zeit darstellt, werde ich wohl 2 Jahre auf die nächste Generation CPU/Mainboard/RAM/Grafikkarte warten.
mein gott, was konstruierst du dir da zurecht, damit es als gerechtfertigt aussehen zu lassen, ehr eine 3070 zu nehmen?!
und das ganze um die evtl (!) 7-8% weniger leistung ohne 'amd-spezialtechnik' so in den konsequenzen aufzubasen, das es nicht lohnt.

wir haben jetzt doch erst nur die 'werbeveranstalltung' von amd gesehen, warten wir mal ab was dann in den unabhängigen test's eht.

preislich jedenfalls bestätigt sich meine vermutung, das nvidia mehr wusste
und es bestätigt sich für mich, warum nvidia seine neuen karten leistungsmässig so dermaßen an die kotzgrenze gebracht hat.
 
Zur Chipsatzfrage wegen SAM (Smart Access Memory) aus dieser AMD Pressemitteilungen:

An exclusive feature of systems with AMD Ryzen™ 5000 Series processors, AMD B550 and X570 motherboards and Radeon™ RX 6000 Series graphics cards.

Na zum Glück auch der B550, muss ich das Tomahawk nicht umtauschen. Muss jetzt aber bis mindestens Ende November im Schrank reifen, bis ich alles zusammen habe.
 
Zuletzt bearbeitet :
Zur Chipsatzfrage wegen SAM (Smart Access Memory) aus dieser AMD Pressemitteilungen:

An exclusive feature of systems with AMD Ryzen™ 5000 Series processors, AMD B550 and X570 motherboards and Radeon™ RX 6000 Series graphics cards.

Na zum Glück auch der B550, muss ich das Tomahawk nicht umtauschen. Muss jetzt aber bis mindestens Ende November im Schrank reifen, bis ich alles zusammen habe.
ich würde nie ernsthaft erwarten, das chipsätze die älter als 5xx sind neueste speziellere techniken der zukünftigen grakarten unterstützen.
die 470er sind ja selbst für ryzen 2xxx schon etwas 'hinterher' in einigen techniken, auch wenn sie grundsätzlich trotzdem funktionieren bessere powerstates der 5xx zb und PCIE-4 unterstützung.
 
ich würde nie ernsthaft erwarten, das chipsätze die älter als 5xx sind neueste speziellere techniken der zukünftigen grakarten unterstützen.
die 470er sind ja selbst für ryzen 2xxx schon etwas 'hinterher' in einigen techniken, auch wenn sie grundsätzlich trotzdem funktionieren bessere powerstates der 5xx zb und PCIE-4 unterstützung.
Es ging mir eher darum, dass es hier und da schon gemutmaßt wird das nur der x570 SAM kann
 
AMD hat (wenn die Angaben stimmen) eine verdammt gute Leistung erbracht!

Sowohl Intel als auch NVidia haben seit fast einem Jahrzent immer nur die gleiche Architektur geboosted. Hier und da mal bissel erweitert, aber der Kern ist immer der gleiche geblieben (sammt Hardware BUGs und Sicherheitslücken). AMD hat da das einzig richtige gemacht: totale Neuentwicklung!

Finanziel sicher ein extremes Risiko. Es hat lange gebraucht und warscheinlich viele schlaflose Nächte ;). Aber hier und heute hat es sich schon ausgezahlt. Egal, ob sie nun hier und da 10% über oder unter der Leistung von Intel oder NVidia liegen. Sie sind gegen beide Konkurenz fähig! Und das ist gut so. Auch für Intel und NVidia Fans ... denn es beginnt wieder ein echter Kampf auf Augenhöhe. Beim Preis, bei den Features, bei der Leistung!

Ich hoffe nur, dass all die GPU + CPU Spielerein nicht nur auf 6xxx+5xxx Combos laufen sondern auch auf den 3xxx Modellen. Low Latenzy etc mein ich. Denn das allein würde schon einiges Geld sparen, wenn man keinen teuren G-Sync Monitor kaufen muß ;).
3900xt (5900xt) + 6800xt + FreeSync Monitor >>>>>> I9 + 3080 + G-Sync beim Preis ... absoluter Gewinn für AMD :D.

PS: persönlich hab ich mal wieder Pech :(. Hab nen BeSilence 630w Gold Netzteil ... und die wollen 650w *heul* ... aber mit leicht konservativen Settings sollte es gehen ;).
 
Zuletzt bearbeitet :
@Taxxor
SAM wurde nur für den einzelnen Vergleichstest zum Feature selbst herangezogen, bei all dem anderen Rest nicht. Siehe Fußnoten.
D.h also, die jenigen die Zen3 verwenden, werden noch die zusätzliche Leistung oben drauf erhalten, da das gezeigte eben ohne ist.
Zudem takten die Customs nochmal eine ganze Ecke höher, während NV nahezu an der Kotzgrenze ab Werk operiert.

Anders gesagt: AMD hat NICHT den "Intel" raushängen lassen und Keyfeatures einfach mit in die Balken einpflegen lassen, sondern nackt ohne diese, ein fairer Vergleich also. Im Schnitt bringt SAM für den Zen3 Nutzer 7% Leistung vom gezeigten bei der Ref. oben drauf...
Customs mit mehr Takt noch nicht einbezogen.
 
Zuletzt bearbeitet :
Und bei der 6800 war nur Smart Access on und kein Rage Modus. Und bei der 6800XT weder das eine noch das andere, laut Folien. Und wenn man sich die Folie ansieht wo eben noch mal die Leistung von Smart Access und Rage in Kombi ansieht. Und auf den Roten Balken achtet, sieht man, dass die 6800XT auch ohne SmartAccess und Rage mal schneller, mal gleich auf und mal langsamer ist als die RTX3080. Also bleibt es dabei. Die Karten sind auch ohne Smart Access und Rage mal schneller mal langsamer als das jeweilige Gegenstück. Somit hat man keine Nachteile, wenn man keine neueste AMD CPU + MB hat. Denn man ist auch ohne nicht langsamer als nVidia. Aber geht halt weiter davon aus, dass euch AMD ärgern will und euch dazu zwingen wird CPU+MB+GPU zu kaufen.
Als nächstes wird dann der Preis wieder kritisiert, ach halt wurde es ja auch schon. Weil AMD darf ja weder mehr Kosten noch darf AMD überhaupt Geld verlangen für ihre Produkte.
Das einzige was etwas negativ ist, sind die 3 Wochen die man jetzt noch immer warten muss, bis es unabhängige Tests gibt und eben auch die Karten bestellbar sind. Aber alles andere war im Rahmen dessen, was man von einer Präsentation erwarten kann.

Eins fällt mir noch ein, dass auf RT nicht genauer eingegangen wurde, stört einige. Mich eher nicht. Aus 2 Gründen:
1. Da AMD wohl dieselbe Hardware für RT nutzen wird wie für alles andere (bisher gibt es keine Hinweise auf extra Kerne etc. für RT) ist die Leistung schwächer als bei nVidia mit ihren extra RT Kernen.
2. Es ist halt für AMD scheinbar nicht das "Killerfeature", sondern halt eins von vielen. Somit benötigt es keiner großen Aufmerksamkeit. Da sind halt andere Dinge schon wichtiger, wie der InfinityCache.
das stimmt zwar allet zwar für die 6800xt das die auch ohne das gedöns getestet wurden. jedoch wurde die 6900xt mit den techniken präsentiert und eine folie wie man die 6800xt aufrechnen kann. damit kann man rückschlüße ziehen um wieviel langsamer die 6900xt ohne diese techniken wäre und um wieviel schneller die 6800xt wäre und es ratsam ist diese techniken einzusetzen und komplett auf amd zu setzen.
 
Lass einfach mal den Taskmanager neben deinen Games laufen. Dann siehst du, wann die Grafikkarte und wann die CPU praktisch bei 100% klebt und somit limitiert.
Ähm ich glaube nicht, dass das zielführend ist...
Es reicht ja schon wenn ein Kern bei 100% ist bei der immer noch dürftigen Mehrkernoptimierung heutiger Spiele.
Auch spielt das Timing eine große Rolle: Wenn immer wieder kleine Workloads kommen hat ein besserer Prozessor diese schneller abgearbeitet und es kommt zu weniger Latenz und mehr FPS ohne dass die CPU ausgelastet scheint.
Auch die GPU kann mit einem "schlechteren" Prozessor bei 99% verweilen. Stichwort Frametimes, zählt auch hier nicht nur die durchschnittliche Auslastung über eine Sekunde.
 
Ja besitzen sie. Aber halt in der normalen CU integriert, sprich im schlimmsten Fall kann man dann nur das eine oder das andere berechnen zur selben Zeit. Da ist nVidia mit den extra RT Kernen schon im Vorteil, denn dort "blockiert" die RT Berechnung nicht die normalen Shadereinheiten.
Ähmm... Nicht wirklich.

Eine CU bei AMD kann aktuell bis zu 2 Threads zur gleichen Zeit aus führen - in der modernen WGP bei RNDA - sind es wie zu GCN-Zeit 4 Threads!
Dem entsprechend hat AMD auch das Verhältnis CU zu TMU gewählt: 1:4. Auf eine CU kommen 4 TMUs. Sprich eine CU kann 4 Texel oder nun eben 4 "Rays" anfordern.
Auch bei AMD können FP32-Berechnungen, INT32-Berechnungen, RT sowie Texel-Anforderung zur gleichen Zeit stattfinden.

Die Aufgaben der RT-Cores übernehmen die TMUs.
RT-Cores sind -siehe Folien zu der RTX2x00-Serie- vereinfacht gesagt, "Fixed-Function-Units" die einen sehr effizienten Algorithmus abbilden, mit dem man den BVH-Tree durchsucht. Diese Funktionen machen nichts anderes, als den BVH-Tree zu durchforsten. Diese Suche ist sehr aufwändig, weil bei einer komplexen Szene eine Vielzahl an Verknüpfungen durchsucht werden müssen.

AMD erweitert nun ihre TMUs um eine weitere Funktion, nämlich eine "Fixed-Function-Unit", nur dass diese nicht separat ausgeführt, sondern in die TMU eingegossen wird. Die TMU bei AMD kann entweder eine Texturabfrage oder eine BVH-Abfrage beantworten und dessen Wert zurück geben.

Shader sind kleine Programme die aufgerufen werden und dann ihre Berechnungen ausführen, das können FP32, INT32, Texel oder eben RT-Berechnungen sein. Dieser Ablauf im Shader ist SERIELL NICHT PARALLEL! Siehe dazu das vereinfachte Fluss-Diagramm im Turing-Paper.

Im Shader-Programm können aufgrund der seriellen Ausführung - bis auf wenige Ausnahmen - keine voneinander Abhängigen Schritte parallel ausgeführt werden. Hier bedeutet es: Sobald der Shader ein Ergebnis aus dem BVH-Baum braucht um weiter zu rechnen, wartet der Shader bis er das Ergebnis aus dem BVH-Baum hat und rechnet erst dann weiter.
Während der Shader auf sein Ergebnis aus dem RT-Aufruf wartet, wird er als "wartend" markiert und andere Shader auf der CU - nun WGP - können dann die restlichen Vec32, SALUs sowie eben auch TMUs nutzen.
Sprich: Der Shader an sich ist in seinem Programmablauf an die imperativen sowie seriellen Paradigmen gefesselt, die CU selbst nicht!

Die CU/SM berechnet den Effekt, während des Effektes kommt es dann zu einer BVH-Abfrage, diese BVH-Abfrage wird dann an den RT-Core oder an die TMU gestellt - hier müssen "Millionen" an Pixel der Szene durchforstet werden, deswegen auch eine "Fixed-Function-Unit". Die CU macht im Endeffekt das gleiche wie die SM bei NVIDIA bei der RT-Berechnung, nur dass eben kein RT-Core den Suchbaum durchstöbert, sondern die TMU. Sobald der Eintrag aus dem BVH-Baum zurückgegeben wird, kann die CU dann weiter rechnen oder eben die SM.

AMDs-Ansatz nutzt aus, dass während einer Berechnung im Shader entweder eine Textur-Anfrage oder eine BVH-Anfrage kommen kann, beides gleichzeitig aus derselben CU ist wegen des imperativen Ablauf von Shadern höchst unwahrscheinlich. Jeder Pixel ist sein eigener Thread in diesem Fall, innerhalb des Pixels wird nicht noch mal parallelisiert.

Der größte Irrtum, der hier - aber auch im Internet - verbreitet ist, dass die "RT-Effekte" bei NVIDIA auf den RT-Cores berechnet werden, das ist aber falsch. Die Effekte an sich werden auch bei NVIDIA in der SM berechnet, das hat NVIDIA auch selbst recht klar kommuniziert.

©Teralios
Ich hoffe mal, das ich jetzt alles richtig wiedergegeben habe. Im groben sollte es aber so stimmen.

Falls es jmd. genauer wissen sollte, bitte korrigieren / erweitern.
 
Also doch ein Ryzen 5800 kaufen.
Msi 570x und 3600MHz ram ist ja schon vorhanden.
Mein Netzteil: Corsair HX 850w ist allerdings schon ca. 10 Jahre alt , sollte das mal getauscht werden ? Wenn ja gegen was ?
 
Ich gebe zu Bedenken, dass es sich hier um PR-Folien handelt. Was zählt, ist auf dem Platz :)

Danke, wollte ich auch gerade schreiben nachdem ich mir hier alles durchgelesen habe. Bei der Nvidia Präsentation haben alle geschriehen "wArTeT dOcH mAl TeStS ab", "dAs sInD aLlEs sElEkTiErTe BeNcHmArKs". und jetzt steht hier zu 90% "krass genauso schnell wie Nvidia", als ob AMD seine Ergebnisse nicht auch selektiert. Warum wird hier mit zweierlei Maß gemessen?

Über Raytracingperformance wird in der Präsentation kein Wort verloren, und etwas wie DLSS, was man selbst bei der RT Performance bei Nvidia benötigt um vernünftige Bildraten zu bekommen, wurde nur grob umrissen, nichts handfestes.

Klar mag letzteres für manche egal sein, dennoch finde ich die Betrachtung bei vielen gerade nicht wirklich objektiv.


Finds gut dass AMD aufgeschlossen hat, kann für die nächste Generation nur von Vorteil sein, wenn alle wieder aus den vollen Schöpfen müssen.
 
Bezüglich dem SAM und Rage Modus sollte man natürlich auch bedenken, dass nur SAM Zen3 und einen 500er Chipsatz erfordert. Die GPU mit dem Rage Modus übertakten hat nichts mit dem Chipsatz zu tun. Insofern verliert man mit einer zu Zen3 gleich schnellen Intel Plattform vielleicht 1-2% Leistung, mehr wird SAM nicht ausmachen.
AMD hat finde ich ein durchaus überzeugendes Produkt gelauncht. Da kommt wohl ordentlich Leben in den GPU Markt, und das freut uns Kunden doch...
Ich bin auch auf die kleineren GPUs gespannt und auf die Mobile Modelle. Da wird man dann sehen, welche Architektur die effizientere ist. Bin gespannt, wie sie das dann mit dem Infinity Cache machen.

P.S.: In den Benches war doch BF V drin. War das ohne RT? Ich hätte gedacht, das ist mit RT, entsprechend sieht man ja grob, wo AMD bezüglich RT steht (zumindest in dem Spiel).
 
@Taxxor
SAM wurde nur für den einzelnen Vergleichstest zum Feature selbst herangezogen, bei all dem anderen Rest nicht. Siehe Fußnoten.


Anders gesagt: AMD hat NICHT den "Intel" raushängen lassen und Keyfeatures einfach mit in die Balken einpflegen lassen, sondern nackt ohne diese, ein fairer Vergleich also
Ist das so?
Screenshot 2020-10-29 083113.png

Und da du die Fußnoten erwähnst, die sehen so aus:
Screenshot 2020-10-29 083211.png


Die 6800XT ist die einzige Karte die ohne die beiden Features getestet wurde, was mir recht ist, denn das wäre sowieso meine Wahl und diese dann mit Power Limit + UV auf ~260W runterbringen^^
 
Zuletzt bearbeitet :
und jetzt steht hier zu 90% "krass genauso schnell wie Nvidia", als ob AMD seine Ergebnisse nicht auch selektiert. Warum wird hier mit zweierlei Maß gemessen?
Weil seit Zen, also in der Präsentation von Zen1, Zen+, 5700XT, Zen2, 5500XT und 5600XT in den eigenen Zahlen immer ziemlich gleichauf mit dem lag, was die unabhängigen Tests gezeigt haben, im Gegensatz zu Nvidia mit ihrem "twice as fast as 2080"

Die 5700XT wurde in der Präsentation mit den 10 Spielen von AMD z.B. mit im Mittel +5,8% in 1440p gegenüber der 2070 gezeigt.
Bei Computerbase lag sie dann 7% vorne.
 
Oben Unten