News AMD Radeon RX 6700XT 12GB vs. NVIDIA RTX 3060 12GB – Warum DLSS für NVIDIA so wichtig ist – Performance-Prognose | Update

Ihr redet aneinander vorbei:
Speicherbandbreite des RAMs ist nicht zwingend die gesamte Speicherbandbreite. Allerdings kann es echt lustig werden wenn man versucht alles Caches einzurechnen. Deswegen wird oft nur die Bandbreite vom RAM angegeben und zwar ohne den Zusatz, dass diese nur für den RAM gilt

Man kann über die Definition streiten. Es bringt einem aber nicht weiter.

Fakt ist: AMD und Nvidia sind unterschiedliche Wege gegangen die man nicht so einfach vergleichen kann. Was man nun besser findet, darüber kann man streiten.

Ich z.B. mag beim GDR6X den geringeren Störabstand (sieht zumindest auf den Augendiagrammen so aus) und die hohen Temperaturen nicht. An der Version mit dem Cache mag ich nicht, dass der bei einem Miss nichts bringt.
 
Die theoretische Bandbreite der BigNavis ist sogar deutlich höher als die vom GDDR 6X.
Ich zitier mich mal selbst, ich bleibe dabei. Das ist keine Falschaussage sondern treffend formuliert. Die theoretische Bandbreite der BN Karten ist höher.

Das jetzt alles noch im Klein, Klein zu zerlegen macht wenig Sinn wie @Deridex schon sagt. Beides hat Vor und Nachteile.

Das der Cache ein Allheilmittel ist habe ich nie behauptet. Wir weischen hier schon wieder völlig vom Ursprungsthema ab.
Ich sehe derzeit kaum ein Szenario wo die geringere Bandbreite die AMD Karten ausbremst, das würde man an mangelnder Auslastung des Chips eigentlich erkennen. Den fehlende Bandbreite heißt nichts anderes als dass die Daten nicht ausreichend schnell geliefert werden um den Chip permanent an der maximalen Auslastung zu halten. Selbst mit einer recht geringen Hitrate im Cache reicht die Bandbreite in der Regel aus, der Chip benötigt auch einfach weniger Bandbreite weil nicht soviele Shader ausgelastet werden müssen. Das die NV Karten in UHD stark sind liegt auch primär an der Arch des Chips als an der Speicheranbindung.
 
Man kann natürlich auch die Bandbreite zwischen der GPU SU und dem Level 1 Cache (den alle GPUs haben) irgendwie rein-rechnen. Wenn man möchte. Aber das hat nichts mit dem zu tun, was man gemeinhin als (Speicher-)Bandbreite bei Grafikkarten bezeichnet.

Ihr verdreht die Realität. Wie es manche immer wieder gerne tun. Ich frage mich, wieso manche Menschen es nötig haben, in diesen Foren Propaganda zu betreiben. Wenn jetzt wieder kommt, ich mache doch auch: Nein. Ich stelle nur falsche Aussagen richtig. Oder seht ihr mich irgendwo DLSS und RT hochjubeln? Also.

Wenn ihr jetzt meint, man könne die IC-Vorteile irgendwie zur Speicherbandbreite hinzuzählen, dann sag ich: Wunderbar. Dann können wir ja auch DLSS zur Framerate dazuzählen und müssen das in den Benchmarks nicht mehr trennen.
 
Joh von Falschaussage zu Propaganda, das wird ja immer besser. Du übst dich mal wieder in Bescheidenheit, auf der Basis diskutiere ich gar nicht weiter sry.
 
Joh von Falschaussage zu Propaganda, das wird ja immer besser. Du übst dich mal wieder in Bescheidenheit, auf der Basis diskutiere ich gar nicht weiter sry.
Ich muss ggü. Dir Abbitte leisten. Ich hab eben Deine Posting durchgesehen und Du hast vollkommen recht. Du bist mir beim Durchsehen in keinster Weise negativ aufgefallen, ich muss Dich da in die falsche Schublade zu bestimmten anderen Usern gesteckt haben. Sorry dafür.

(Ich denke, ich weiß woher das kommt, aber man soll keine alten Kamellen aufwärmen).
 
Zuletzt bearbeitet von einem Moderator :
Posts komplett durchlesen hilft allgemein sehr wenn man darauf antworten will.
 
Ich meinte nicht die Postings in diesem Thread, sondern alle seine Postings der letzten Monate.
 
Nein. Du musst den Satz nur richtig lesen. Bei welcher BigNavi-KARTE ist die Speicher-Bandbreite höher als bei einer KARTE mit GDDR6. Ich habe lediglich das, was Gurdi offenbar gemeint hat, nochmal korrekt neu formuliert und warte auf eine Antwort.

Cache ist gut, und BigNavi hat da einen echt guten Trade-Off gemacht. Schneller und großer Cache statt GDDR-Bandbreite. Das funktioniert richtig gut, kostet aber eben Platz auf dem Chip.

NVidia hat den Platz anders eingesetzt. Alles zusammen geht vermutlich nicht so ohne weiteres. Wie immer, ist alles irgendwo ein Trade-Off. Und daran ist nichts schlechtes.

Ich will nur eine Falschaussage richtig stellen, und schon kommt Du um die Ecke und machst schon wieder einen Herstellerkrieg daraus. Das ist so langweilig.
Eine 2080ti ist mit dem breiterem Interface in neueren Titeln klar langsamer als eine RX6800 (RT mal aussen vor) und egal in welcher Auflösung, dass sogar in einem Vorzeigeartikel wie Shadow oft he Tombraider der ja faktisch auf Nvidia optimiert ist. Wie passt denn sowas zu deiner Richtigstellung?

GDDR6 nimmst du da als Gößenordung für ein Bandbreitenmodell, frag dich mal die Speichermodule an die IFC angebunden werden und ja das ist GDDR6? Die IFC dient dabei als schneller Puffer und das Ganze ist nicht trennbar, sondern 256bit + der Bandbreite des Cache, weil er die Data Hitrate des gesamten Interface steigert und die Missrate senkt. AMD spart dabei knapp 10% der Energiekosten eines 384bit SI ein. Beschäftige dich doch einfach mal damit. Das Speicherinterface ist derzeit nämlich gar kein limitierender Faktor, sondern der Datenzugriff auf Rohdaten bzw. das Vorhalten. Es geht grundsätzlich darum eine bestimmte Clusterfehlertrefferrate gering zu halten, bzw. sie nicht unter eine bestimmte Schwelle fallen zu lassen, was bei Vega noch ein Problem war. Zudem hat AMD wohl die Replikationsebenen verringert (Cachzeilen). Genau dieses CU/L1/L2/L3 Modell sorgt für höhere Trefferraten im CU Cluster und steigert so die Leistung, behebt damit ein Bandbreitenproblem und verursacht es nicht. Vermutlich müssten sie bei noch mehr CUs auch das IFC+SI Modell erweitern. Derzeit ist es von der Anzahl der Einheiten optimal ausgelegt und tendiert bei einer Hitrate von 58-85% (Takt der IFC) zu einer guten Energierersparnis, was bei denen ja immer ein Problem war (GCN).

Und was den Rest angeht, eher nicht. Du scheinst von jedem Post der nicht deinem "Grundlagenwissen" entspricht und Nvidia nicht immer vorne sieht -> angetriggert zu sein. Warum auch immer. Das ist ganz allein dein Problem.

Nur so, kostet das Cachemodell auf Nvidia auch Platz auf dem Die, genauso wie bei AMD. Eher haben die mit 7nm einen Vorteil und scheinen ihn auch auszunutzen. Würde mich also nicht wundern, wenn es Nvidia unter 5nm nicht genauso macht und das Design ala Cachemodell grundlegend überarbeitet.
 
Zuletzt bearbeitet von einem Moderator :
Eine 2080ti ist mit dem breiterem Interface in neueren Titeln klar langsamer als eine RX6800 (RT mal aussen vor) und egal in welcher Auflösung, dass sogar in einem Vorzeigeartikel wie Shadow oft he Tombraider der ja faktisch auf Nvidia optimiert ist. Wie passt denn sowas zu deiner Richtigstellung?
Scherzkeks. Eine Radeon VII hat noch VIEL mehr Speicherbandbreite und ist VIEL langsamer.

Ich habe nie gesagt, dass Speicherbandbreite ALLEINE alle Probleme lösen kann.

Wie kommst Du nur auf den Trichter? Es ist bei ansonsten vergleichbar leistungsfähigem Kern (und das ist Ampere und RDNA2 ganz offensichtlich) eben ein Flaschenhals beim Rendern, dessen Effekt man möglichst gering halten will. Und dabei hat AMD und NVidia einen unterschiedlichen Weg gewählt. Beide Wege haben Vor- und Nachteile.

Aber in Deiner blinden einseitigen Sicht siehst Du immer nur einen Angriff auf Deinen heiligen Gral. Langweilig.
 
Naja, also Speicherbandbreite und HBM(2) ist auch so eine nette Rechnerei...

Das Busbreite bei Ampere und RDNA2 allein sagt übrigens noch nicht viel aus, außer dass ich weiß, wie viele Controller genutzt werden. Das ist eine Facette, aber nicht die einzige :D
 
Oben Unten