News AMD Radeon RX 6700XT 12GB vs. NVIDIA RTX 3060 12GB – Warum DLSS für NVIDIA so wichtig ist – Performance-Prognose | Update

Min-FPS ist gemauso wenig wie Max-FPS die allein seligmachende Zahl. Ja, Einbrüche sind unschön, aber es kommt auf die Situation und Häufigkeit an.
Min Fps ist eigentlich der wichtigste Wert, denn genau die merkt man im Spielfluss negativ.
 
Vielleicht sollte man sie eher beim Speicherausbau limitiert betrachten und dann braucht es ein Bios A und B.

6700xt=12GiB
6700=6GiB

Allein der Ausbau würde die Verwendbarkeit der Karte und damit auch das Leistungspotential beschneiden, am Takt oder anderen Eigenschaften muss sich nicht viel ändern (Binning für OC Varianten mal aussen vor). Wäre für AMD ein Leichtes dann statt 2GiB nur 1GiB Module zu verwenden, das Layout bleibt gleich.:)

Erste sind z.Z. eher knapp am Markt.

DLSS oder DirectML ist ein nutzbares Feature, was immer noch Qualität kostet (egal ob es "ähnlich" gut aussieht wie nativ). Wer es anschalten mag soll es tun, aber es handelt sich um eine AA Variante und bleibt nun mal AA, das gehört (imo) nicht in allgemeine Leistungsvergleiche, eher wenn man die (Bild-) Qualität vergleicht.

Leistungszuwäche brachten alte Varianten auch schon mit (FXAA->SSAA).
 
Zuletzt bearbeitet von einem Moderator :
Min Fps ist eigentlich der wichtigste Wert, denn genau die merkt man im Spielfluss negativ.
Nein. Denn es kann sein, dass man nur kurz einmal einen Hitch hat, und schon ist der Min-FPS absolut im Keller. Ohne dass es einen nennenswerten Einfluss auf das gesamte Spielerlebnis hat.

Die MinFPS über ein 99% Percentil sagt schon etwas mehr aus, aber auch das kann in die Irre führen.

Wenn überhaupt, dann ist die Avg FPS zusammen mit einem Frametime-Graph über eine nennenswert große Zeitspanne und Szenenvielfalt aussagekräftig.
 
Zuletzt bearbeitet von einem Moderator :
Nein. Denn es kann sein, dass man nur kurt einmal einen Hitch hat, und schon ist der Min-FPS absolut im Keller. Ohne dass es einen nennenswerten Einfluss auf das gesamte Spielerlebnis hat.

Die MinFPS über ein 99% Percentil sagt schon etwas mehr aus, aber auch das kann in die Irre führen.

Wenn überhaupt, dann ist die Avg FPS zusammen mit einem Frametime-Graph über eine nennenswerte große Zeitspanne und Szenenvielfalt aussagekräftig.

Da muss ich Dir recht geben, obwohl gerade auch kleine Ruckler und FPS-Einbrüche bei Anwendungen wie VR (was auch sonst? ;-) ), heftig auf den Magen schlagen, im wahrsten Sinne des Wortes. DSSL ist bei VR ja noch kein Thema, auch nicht RT, aber dafür eben diese Ruckler.

Daher will ich hier noch einmal die Speicheranbindung in den Ring werfen. Was nützen mir 16 GB VRAM, wenn die kleinere Bandbreite in VR-4K für Stottern sorgt. Die einschlägigen Tests zeigen: ZB eine 3080 mit 10GB läuft da meist besser als die 6800 XT mit 16GB. Eventuelle Treiberprobleme und die sonstige Architektur mal außen vor.
Daher: Nicht nur auf die reine Speichergröße schauen (wie die Meisten hier sicherlich eh wissen).

PS: Ich hatte nach nunmehr fast einem halben Jahr und täglicher Suche noch immer kein Glück eine bezahlbare 3080 zu bekommen und es wird immer schlimmer statt besser (falls jemand seine loswerden will...). Daher sehe ich persönlich die vielen neuen kleinen Kartenmodelle mit gemischten Gefühlen... Spätestens Igor hat uns ja gezeigt, dass nicht nur die Grafikchips, sondern auch einfache elektrische Bauteile knapp sind... Immer mehr unterschiedliche Modelle, immer weniger Bauteile auch für die begehrten 3070/3080. Das ist aber natürlich eine zugegeben sehr egoistische Sichtweise.
 
Wäre aber mal nen Grund ne teurere OC Karte zu kaufen wenn man wirklich nen besser gebinntes die bekommt. Die 6700 finde ich ziemlich arg beschnitten, 20% plus wahrscheinlich noch langsamere Taktfrequenz. Wenn dann noch eine Frequenzobergrenze wie bei der 5600XT dazu kommt, ist da ne ganze GPU Klasse zwischen den non XT und den XT OC Karten. Dann wird sie auch noch 5700 statt 5600XT genannt damit man einen höheren Preis "rechtfertigen" kann.
 
Das sind technische Gründe. Die Breite des Speicherinterfaces gibt die Speichermenge vor, genauer, die Schrittweite.

Die 3060 könnte man auch mit 6GB bauen, aber das ist zu wenig. Und der nächst größere Schritt ist eben schon 12GB.

Bei der 3070 ist 8GB der kleinstmögliche Ausbau, die nächst größere Stufe wären dann schon 16 GB.
Wenn es beim Bus mit 256 bit bleibt, nicht auszudenken wie lange die 3070 ti mit 16 GB zu Apothekenpreisen gehandelt werden wird. :cry:
 
Daher will ich hier noch einmal die Speicheranbindung in den Ring werfen. Was nützen mir 16 GB VRAM, wenn die kleinere Bandbreite in VR-4K für Stottern sorgt. Die einschlägigen Tests zeigen: ZB eine 3080 mit 10GB läuft da meist besser als die 6800 XT mit 16GB.
Welche sollen das sein? Es gibt sogar Spiele da lässt eine 6800xt die 3080 mit ihrem breiten Interface richtig alt ausehen, die zuweilen bis 120W mehr verbraucht. Und genau deshalb ist es so bemerkenswert.


Nvidia spart sich egal wo am Speicher kaputt und verbraucht auch noch mehr. Eher "ruckelt" ein Powerlimit, als ein x breites SI. Für mich haben viele der Tester verlernt sich damit überhaupt auseinander zu setzen. Da kann man nur froh sein das es einen Igor gibt.

Und genau deshalb gibt es DLSS, sparen und dem Anwender weiß machen die Quali ist doch gleich, die Karten würden sonst noch viel mehr verpulvern. RT wäre ohne DLSS auf Middleware überhaupt nicht lauffähig und das hat auch etwas mit dem Speicherausbau zu tun.

Falls du dich fragst warum VR auf Nvidia weniger ruckelt (liegt das überhaupt nicht an dem breiterem SI), sondern ist es genauso wie DLSS eine Option die die Latenz erhöht, nämlich Motion Smoothing. Kannst dir ja gerne anlesen was das ist. Auch das ist eine Interpolation mit der "künstlich" die Framerate oben gehalten wird, was auch im Cinemabereich verpöhnt ist, weil es das Ausgangsmaterial (des Entwicklers, des Filmemachers) verändert.
 
Zuletzt bearbeitet von einem Moderator :
Falls du dich fragst warum VR auf Nvidia weniger ruckelt (liegt das überhaupt nicht an dem breiterem SI), sondern ist es genauso wie DLSS eine Option die die Latenz erhöht, nämlich Motion Smoothing. Kannst dir ja gerne anlesen was das ist. Auch das ist eine Interpolation mit der "künstlich" die Framerate oben gehalten wird, was auch im Cinemabereich verpöhnt ist, weil es das Ausgangsmaterial (des Entwicklers, des Filmemachers) verändert.
Inwiefern das? Ich habe bei Minecraft auf der Vive Cosmos 15 FPS - Auf einer 2080 Ti. Natürlich mit Shader. Da Microshaft mich nicht die Bedrock Edition nutzen lässt habe ich das Spiel mittlerweile beerdigt. No Mans Sky zum Beispiel läuft selbst auf einer 5700 XT mit 90 FPs. Seltsamerweise läuft das Spiel auf AMD besser. Ich merke aber keinen großen Unterschied. Auch bei VR-"Klassikern" wie Alyx, dem Spiel ist es völlig egal ob AMD oder NVIDIA, 90 FPS liegen an mit unfassbar sauberen Frametimes. Das ist eher eine Frage der Optimierung.
 
Welche sollen das sein? Es gibt sogar Spiele da lässt eine 6800xt die 3080 mit ihrem breiten Interface richtig alt ausehen, die zuweilen bis 120W mehr verbraucht. Und genau deshalb ist es so bemerkenswert.


Nvidia spart sich egal wo am Speicher kaputt und verbraucht auch noch mehr. Eher "ruckelt" ein Powerlimit, als ein x breites SI. Für mich haben viele der Tester verlernt sich damit überhaupt auseinander zu setzen. Da kann man nur froh sein das es einen Igor gibt.

Und genau deshalb gibt es DLSS, sparen und dem Anwender weiß machen die Quali ist doch gleich, die Karten würden sonst noch viel mehr verpulvern. RT wäre ohne DLSS auf Middleware überhaupt nicht lauffähig und das hat auch etwas mit dem Speicherausbau zu tun.

Falls du dich fragst warum VR auf Nvidia weniger ruckelt (liegt das überhaupt nicht an dem breiterem SI), sondern ist es genauso wie DLSS eine Option die die Latenz erhöht, nämlich Motion Smoothing. Kannst dir ja gerne anlesen was das ist. Auch das ist eine Interpolation mit der "künstlich" die Framerate oben gehalten wird, was auch im Cinemabereich verpöhnt ist, weil es das Ausgangsmaterial (des Entwicklers, des Filmemachers) verändert.

Hallo, falls Dich das Thema interessiert, werf doch mal einen Blick in diesen hervorragenden VR Test zwischen einer 3080 und einer 6800xt.


Ich wollte mitnichten wieder den leidigen AMD vs NVIDIA Krieg aufleben lassen, sondern beziehe mich auf eben solche Tests wie den verlinkten.
Natürlich sind die Unterschiede extrem klein und alle diese Karten sind absolut ausreichend bis teilweise sogar übertrieben für VR Games, die zwar in 4k bei 80-120Hz laufen müssen, aber dafür meist (noch!) eine recht einfache Grafik aufweisen. Motion Smoothing und Co. kann hier mittlerweile sehr gut vor allem bei deutlich leistungsschwächeren Karten unterstützen, da hat sich in den letzten Jahren viel getan, jedoch reichen synthetische Frames IMHO trotzdem niemals an das Original heran. Für alle Nicht-VR Gamer: Während bei traditionellen Flat-Games kleine Ruckler, Hänger oder FPS-Schwankungen meist nicht einmal auffallen, merkt ein empfindlicher Mensch das in VR sofort und wird im schlimmsten Fall "Seekrank".


Und genau hier zeigt es sich sehr schön, dass man sich nicht nur an der Speichermenge "kaputtsparen" kann (wenn man bei immerhin 10GB überhaupt von "kaputt" sprechen möchte), sondern ebenso gut auch an der Speicherbandbreite und -Geschwindigkeit. Wenn man sich den verlinkten Test anschaut sieht man sehr schön, bei ansonsten so gut wie ebenbürtigen Grafikkarten, die (etwas) schlechteren Frametime und Framedrops bei der 6800 xt (in Rot), die nach meinem Verständniss durch die Speicherbandbreite entstehen. Cache ist eben kein Wundermittel.


Noch mal: Beide Karten sind absolut super, und solange die VR Spiele nicht aufwändiger werden, ist das alles "Jammern auf hohem Niveau"!


Exemplarisch aus diesem Test (@Niftu Cal) HL Alyx:
HL-Alyx-2.png
 
Zuletzt bearbeitet :
Also Ruckler am Speicherinterface auszumachen halte ich auch für sehr gewagt. Ein breites Interface glättet sicher die Frametimes, ein kleines erzeugt aber keine massiven Ausreißer nach unten sondern macht die Avg. ungleichmäßiger. Hier ist die Leistungssteuerung viel entscheidender, sowie mangel am Vram oder aber die CPU/Engine. Die theoretische Bandbreite der BigNavis ist sogar deutlich höher als die vom GDDR 6X.

@Stadtreiter Ich sehe in der Frametimeanalyse glattere Frametimes bei der Radeon und zwar sogar sehr deutlich.
 
Zuletzt bearbeitet :
@Gurdi Da hast Du recht, und trotzdem läuft das Spiel (bei Ultra und 200% Supersampling wohlgemerkt!) insgesamt etwas "unruhiger" und "zappeliger" in VR. Hier wurde dafür der Wert der "Unconstrained Frames" aufgezeigt, der im Groben die Anzahl an synthetischen Frames oder gar echten Framedrops pro Zeiteinheit berücksichtigt. Klügere Leute als ich behaupten das läge daran, dass die 6800xt die Frames in diesen Fällen eben nicht rechtzeitig bereitstellen kann (90Hz bei diesem getesteten Headset).

Natürlich ist das hauptsächlich ein Problem in VR, jedoch zeigen ja auch Flat-Games Tests, dass die 6800xt in niedrigeren Auflösungen teilweise die 3080 deutlich überholt, aber in 4K anfängt leicht zu "schwächeln". Wie gesagt, "Jammern auf hohem Niveau".
 
Zuletzt bearbeitet :
VR ist allgemein recht komplex zu bewerten, da Bilder doppelt erzeugt werden wenn diese nicht schnell genug dargestellt werden.
Hinzu kommt der Time Warp. Wenn ich mir den AllOver anschaue von Babeltech kann ich da keine genrelle Schwäche erkennen die das Si betrifft. Im allgemeinen performen beide Karten sehr ähnlich. Ältere Titel in der UE Engine liegen und lagen den Radeons noch nie, da ist aber Nvidia auch mit finanziell beteiligt das sollte nicht verwundern dass man da ein Auge drauf hat. AMD hat lange gebraucht um seine Defizite in der Eingine nun mit DX12 zu beseitigen.
 
@Gurdi Völlig richtig. Keine Frage hat AMD extrem aufgeholt und ist absolut auf Augenhöhe mit NVIDIA. Großartig, dass man jetzt zumindest theoretisch die breitere Auswahl hätte als Spieler. Theoretisch.
Ich hatte mich nur daran gestört, dass hier so oft die "viel zu kleine" Speichermenge bei der 3080 bekrittelt wurde, da es doch durchaus noch andere nicht unwichtigen Kriterien gibt.
 
Da bin ich ja bei dir, man sollte das Thema Vram aber auch nicht unbedingt auf heute beziehen sondern eher auf den Werterhalt der Karte sowie deren effektive Nutzungsdauer. Hinzu kommt das baseits von Benchmarks viel Vram das Spielerlebnis verbessert weil Übergänge in der Spielwelt smoother ablaufen und auch Texturschwund erfasst kein Benchmark.
 
Die theoretische Bandbreite der BigNavis ist sogar deutlich höher als die vom GDDR 6X.
Wie kann man die Bandbreite einer Architektur mit der von RAM-Modulen vergleichen?

Die Speicherbandbreite ist für ein konkretes Modell definiert und es ist das Produkt aus Takt, Bitbreite und übertragenen Bits pro Takt.

Und bei welcher BigNavi ist diese Bandbreite höher als bei einer Karte mit GDDR6x Modulen?
 
Das hat etwas mit dem Cachemodell zu tun, nicht der reinen Bitbreite und da ist AMD doppelt so schnell wie ein 512bit SI. Man müsste sich damit nur beschäftigen.

Mit dem ersten Satz deines Post stellst du übrigens deinen Letzten selbst in Frage. Verhaspelt?

Die Cachegrößen hatten schon immer Einfluss auf die Bandbreite, dass ist seit Existenz einer GPU so.

Stadtreiter's VR-Bsp war einfach schlecht gewählt, weil Nvidia Bilder interpoliert, was AMD nicht macht (weil sie es bisher nicht unterstützen).

Ich habe keine Ahnung warum du meint das 16Kanäle bei 64bit pro Taktzyklus zu langsam sein sollen, man sollte diese Bandbreite erstmal ausnutzen. Was sie vermutlich bisher gar nicht machen weil die Hrate für Gaming erst bei 58% liegt. Logisch damit ergibt sich nämlich ein erheblich gesteigerter Efffizienzvorteil (Faktor 2,4), was sie dann an ihren GPUs verpulvern können.
 
Der Infinity Cache soll 2 TB/s schaffen, das ist aber sehr situationsabhängig. Er trägt auf jeden Fall dazu bei. Mich wundert es echt dass sie die 6900 mit 256-Bit rausgebracht haben, bei AMD hätte ich hier 384-Bit erwartet. GDDR6 ist da sogar besser, der GDDR6X macht die Verfügbarkeit ja auch nicht sonderlich besser. Ich komme übrigens mit einer 352-Bit-Karte und 14 Gbps-GDDR6 auf satte 720 GB/s - Fast 3080-Niveau. So langsam ist der jetzt auch nicht, den schnelleren 16er kann man wiederum besser hochtakten und an einem 384-Bit-Interface käme der wohl über die 3080 hinweg.

Was ich spannend finde ist dass die 6700 wohl auch den Cache hat, das wird sehr interessant. Ebenso die Frage ob die 6700 XT sich auch so stark übertakten lässt. Das mit dem Interface ist schade, aber war wohl notwendig um die Karte von den Topmodellen abzugrenzen. Darüber hinaus würde noch mehr Speicher den Preis noch weiter erhöhen. Es ist schon fast lachhaft wenn man bedenkt dass NVIDIA bei der maßlos teuren 3070 nur 8 GB vom 14 Gbps einsetzt, beim eigenen kleineren Modell aber immerhin 12 GB drauf hat.
 
Mit dem ersten Satz deines Post stellst du übrigens deinen Letzten selbst in Frage. Verhaspelt?
Nein. Du musst den Satz nur richtig lesen. Bei welcher BigNavi-KARTE ist die Speicher-Bandbreite höher als bei einer KARTE mit GDDR6. Ich habe lediglich das, was Gurdi offenbar gemeint hat, nochmal korrekt neu formuliert und warte auf eine Antwort.

Cache ist gut, und BigNavi hat da einen echt guten Trade-Off gemacht. Schneller und großer Cache statt GDDR-Bandbreite. Das funktioniert richtig gut, kostet aber eben Platz auf dem Chip.

NVidia hat den Platz anders eingesetzt. Alles zusammen geht vermutlich nicht so ohne weiteres. Wie immer, ist alles irgendwo ein Trade-Off. Und daran ist nichts schlechtes.

Ich will nur eine Falschaussage richtig stellen, und schon kommt Du um die Ecke und machst schon wieder einen Herstellerkrieg daraus. Das ist so langweilig.
 
Ich will nur eine Falschaussage richtig stellen, und schon kommt Du um die Ecke und machst schon wieder einen Herstellerkrieg daraus. Das ist so langweilig.
Junge da holst du ja direkt mal wieder weit aus, was bitte soll denn an meinem Post eine "Falschaussage"gewesen sein?

Durch das vorhalten im Cache wird eine effektiv höhere Bandbreite erzielt, diese lässt sich aber nicht exakt taxieren da man den Wert ledliglich mitteln kann und abhängig von Einflussfaktoren ist. Die absolut wissenschaftlich korrekte Aussage wäre dann in dem Fall:
Die minimale Bandbreite der RX 6800+ beträgt 512Gbps und maximal etwa 1,8Tbps.
In der Regel liegt auf Basis der Hitrate die Speichertransferrate bei rund ~1,2Tbps.

Die Bandbreite war bisher bei mir mit den Karten auch noch nie sichtbar ein Problem.
 
Junge da holst du ja direkt mal wieder weit aus, was bitte soll denn an meinem Post eine "Falschaussage"gewesen sein?
Dass es eine BigNavi Karte gäbe, die eine höhere Speicherbandbreite als eine Karte mit GDDR6x hat. Oder hat Du dazu ein Beispiel? Ich kenne keine.

Also entweder irre ich mich, oder es war eine Falschaussage von Dir. Ist ja nicht schlimm. Kommt vor.

Den Cache mit der Speicherbandbreite zu vermischen ist einfach technisch nicht korrekt. Es sind zwei verschiedene Dinge. Und das weißt Du.

Der Cache von BigNavi ist geil, er sorgt dafür, dass die Karten bei FHD und zum Teil in WQHD den Speicherbandbreitenvorteil der Ampere Karten ausgleichen kann und sie manchmal auch klar dominiert. Das stellt niemand in Abrede. Es ist dennoch nicht Speicherbandbreite, Punkt.

Und es ist auch nicht für alle Fälle die beste Lösung. Auch das weißt Du.
 
Zuletzt bearbeitet von einem Moderator :
Oben Unten