Reviews AMD Radeon RX 6600 XT mit 8 Lanes am PCIe 3.0 und ohne Resizeable BAR – Traum oder Albtraum für Aufrüster?

Die Darstellung der CPU-Leistungsaufnahme nach Games aufgeschlüsselt ist mal richtig lecker. Top Arbeit! (y)
Danke :)

3090 dann dort die bessere Wahl? Liegt das an den 24GB Speicher?
Die Raster Leistung ist ja eigentlich als "ähnlich" einzustufen.
Nein, die bricht in UHD überproportional ein. Ich habe an der A6000 teilweise 2x UHD dran, da schafft die 6900XT in den 3D Previews gerade noch mal 60 bis 70%, oft sogar weniger. Da reicht der Infinity Cache einfach nicht mehr aus. :(
 
Will mir da jemand noch einen Viertjob verpassen? :D
 
Aber wenn du RT einschaltest bist du halt bei 50 Frames vs 25 Frames.
Und wenn du DLSS dazu schaltest bist du bei 80 Frames vs 25 Frames.
Doppelt und dreimal so schnell? Die Benchmarks hätte ich gerne gesehen. Link?

Wie Transform&Lighting seinerzeit kommt es jedenfalls nicht an und war in ersten Spielen auch noch schlecht implementiert. Mittlerweile sind wir bei v2.3 im Softwarebereich (wie viele sind das, von 1.0 gesehen?) und Version v2.0 was die Hardware angeht. Soviel Zeit sollte man Mitbewerbern für Versionsupdates auch lassen.

Revolution sieht zumindest anders aus, weil für den bisher reinen Anteil an Raytracingeffekten, ein größerer Anteil an Geometrie entfernt werden muss. Letztlich bleibt es so eine Mogelpackung und ist trotzdem kaum spielbar. Raytracing ist eben nicht nur allein RTX, wird in Foren gerne vergessen (Übertreibungen machen es besser). Man sieht es ja besonders an Vulkan, wie AMD dort vorbeizieht. Optimierungen auf bestimmte Iterationen sind nie ein guter Vergleich. Nvidia waren zuerst auf dem Markt, was aber nicht heißt, sie sind und bleiben besser. Ganz und gar nicht und wie die Vergangenheit schon beweist. Die wissen vor allem wie man mit gezieltem Marketing Geld verdient.

Falls es Sie interessiert, ich habe kein einziges Spiel das Gameworks RTX unterstützt und dann bleibt auch DLSS ziemlich obsolet.

Hier ein ganz interessanter Link, vor allem was RDNA2 betrifft:
Wenngleich der Preis hier nicht das Thema ist und AMD durchweg eine solide Karte für ein Midrange System auf den Markt wirft, bleibt der Preismakel von einem MRSP, der 50-60 Euro über einer 3060 liegt bei ca. 15 % Mehrleistung fragwürdig.
Es gibt keine einzige Karte zur UVP zu kaufen und die 3060 oder 3060ti bleiben derzeit deutlich teurer. Hoffen wir mal, die 6600XT als mögliche Aufrüsterkarte fällt nicht den Minern zum Opfer, sie lag noch vor kurzer Zeit bei 410-510 Euro.

Nein, die bricht in UHD überproportional ein. Ich habe an der A6000 teilweise 2x UHD dran, da schafft die 6900XT in den 3D Previews gerade noch mal 60 bis 70%, oft sogar weniger. Da reicht der Infinity Cache einfach nicht mehr aus. :(
Der ist im direkten Vergleich der effektiven Bandbreite (6900xt to 3900) 1,5 mal so schnell wie das SI der 3090 und reicht nicht? Eher sollte man ihn nutzen, und um diesen allein geht es gar nicht, sondern das L1 to L2 to L3 Modell.

Meiner Meinung nach wird die Zukunft nicht von speziellen Effekten bestimmt, sondern von effizienten Cachemodellen und da ist Nvidia bisher nicht besonders fortschrittlich.
 
Zuletzt bearbeitet von einem Moderator :
Mal etwas weiter in die Zukunft gedacht, wird sich mit direct storage +SamplerFeedback einiges bei der Vram-Nutzung ändern.
Insofern ist ne 3080Ti sinnvoller als ne 3090.
Die 6900 sollte mit 16GB auch gut reichen.
dito 6600xt vs 3060

Was Vram-Takt+ Busbandbreite als Nadelöhr angeht, sind bei den 6900ern die XTXH zu bevorzugen, weil ein Flashen auf das 18Gbps-Bios funzt.
Damit kommt man auf ähnliche Vram-Takte wie ne oced 6600xt, wo anscheinend oft 2300 drin ist.(x)
fclk+soc muss man selbst testen, was dann passend= nicht bremsend, erforderlich ist, ...lässt sich aber auch erhöhen!

(x) L!ME mit seiner 6900XTU kommt sogar auf 2410 Fast Timing 2 bei leicht erhöhter Vram-Spannung
(hellm machts per MPT möglich = nice)

Die Vermutung, das ne 6900@stock vom kleinen IF-cache in 4k ausgebemst wird, trifft nach m.E. nur teilweise zu.
Eher ist die Ref im Powerlimit, ...sonst wären bei open Powerlimit net so gute TSE-Scores mit 6900oced drin.
(war in nem anderen Thread von lowrider gut demonstriert)
 

Anhänge

Zuletzt bearbeitet :
Was Vram-Takt+ Busbandbreite als Nadelöhr angeht, sind bei den 6900ern die XTXH zu bevorzugen, weil ein Flashen auf das 18Gbps-Bios funzt.
Hö...hab ich was verpasst?Normale Ref.6900XT(mit XTX Chip) kann nun auf XTX(H) geflasht werden?

gruß
 
Hab mir das Video angesehen es dann kam mir eine Frage auf, aber dazu am Ende mehr - zuerst die Infos:

Ich habe anhand des Flex VRB-20 Vertical Riser Bracket im Define 7, meine Asus TUF RTX 3070 vertikal eingebaut.
Da die Riser-Halterung kein PCIe 4.0 bzw. nur 3.0 unterstützt, musste ich im Bios des Gigabyte X570 Elite von 4 auf 3 umstellen.

Komplette Hardware, siehe Signatur.

Jetzt frage ich mich, gibt es bzw. habe ich nun auch Leistungseinbußen durch das Riser Bracket bzw. eben die Umschaltung auf PCIe 3.0?

Hat jemand Erfahrungen? Merci.
 
Kurze Antwort:Nein,weil die 3070 dann immer noch mit PCIe 3.0 16x angebunden ist und nicht wie die 6600XT mit PCIe 3.0 8x;)
 
ah o.k...also alles wie gehabt.Thx für die Info

gruß
 
Doppelt und dreimal so schnell? Die Benchmarks hätte ich gerne gesehen. Link?
Gern, Hardware Unboxed, Youtube. War im hinteren Drittel des Videos zum Test der 6600XT. Minute 16.
Da ich nicht sicher bin ob es erlaubt ist einen YT Link eines anderen hier zu verlinken lasse ich es.
Ist aber 0 Problem das auf YT finden, falls es nicht klappt schick mir ne PM.

Hier die Ergebnisse:

Jeweils die Min-FPS, (bei Durchschnitts FPS sieht das Verhältnis nicht anders aus, eher sogar noch besser gen Nvidia) 1080p, incl. RT:
3060TI vs 6600XT

Cyberpunk:
54 vs 27 frames
bzw.
72 vs 27 frames bei aktiviertem DLSS
mit DLSS ist die 3060 also sogar sogar mehr als 2,5 fach schneller. Ohne DLSS doppelt so schnell.

DoomEternal:
122 vs 51 frames
bzw.
177 vs 51 frames bei aktiviertem DLSS

MetroExodus, RT High (bei Ultra wird die Diskrepanz größer)
103 vs 55 frames
bzw.
131 vs 55 frames bei aktiviertem DLSS.

ResidentEvil Village:
97 vs 59 frames

WatchDogs Legion: RT High
62 vs 26 Frames
bzw.
80 vs 26 frames bei aktiviertem DLSS
 
Wieder ein sehr schöner und aufschlußreicher Test :). Igor machts halt doch am gründlichsten.

Wobei der eigendliche "Sieger" war für mich die 6800 ;). Wie sie teils bis zu 1 Watt/Frame weniger verbaucht wie ihre Konkurenten, das hat mich beeindruckt. Wo bei mich erstaunt hat, das die 6800 sogar "sparsammer" wie die 6700 bei Watt/Frame ist.

Für mich heißt das schlicht: mit FPS-Limiter auf 60 wird sie weniger heiß wie alle anderen ;).

ABER ... jetzt das große Manko aller derzeitigen GPUs ... whyn wenn eh nur zu Scalper Preisen verfügbar wenn überhaupt?
Hab mich innerlich nu schon auf 7700/7800 bzw 4060/4070/4080 eingestellet :(. Die 7600 fällt da raus, weil es (so wie es derzeit ausschaut) nur eine RDNA2-Recycling zu schein ist. Und wer will schon RDNA2 wenn er RDNA3 haben kann? :)

Wo mit meine 970 dann ihre 8 Jahre bekommt. Tapfer tapfer. Und weit über jede Garantie hinweg ;).
 
@Schakar ne 7700 hab ich noch da ;) Bin gespannt ob AMD die nächste Gen so benennt und wenn ja wer versucht die alten HD Karten zu verkaufen.

@WedgeAntilles dafür das es die erste Gen RT ist recht gut, da waren die 2x00 Karten auch in etwa dort.
DLSS ist zwar nett, aber muss vom Spiel unterstützt werden. FSR wäre da deutlich unabhängiger.
Aber da es eh keine Karten gibt ist es recht egal....
 
// persönlich subjektive Meinung !!!

RT und 4+K sind eh nur poserei.

Hab noch kein Spiel gesehen, bei dem RT wirklich einen Mehrwert gebracht hätte. Und bei 4K werden die Menüs oft so klein, dass keine mehr was lesen kann. Das Plus an mehr Pixel verbessert die Bildqualität oft nur marginal. Und um die Lesbarkeit wieder her zu stellen bräuchte ich einen 4 mal so großen Monitor ... was nur zu Nackenschmerzen fürt^^.

DLSS ist eh eigendlich ein Witz. Ich berechne ein Low Res Bild, verschmiere und verfälsche es um es dann hoch zu rechnen in eine Fake-4K Bild? Ne danke, da nem ich lieber das Orginal WQHD ohne rumgematsche ;).

4K ist der gleiche Blödsinn wie Autos mit 150++ PS. Technisch machbar und liest sich gut ... aber echter MEHR Wert entsteht nicht. Denn selbst die 150 PS braucht man nur, wenn man mit Ladung und mehr als einer Person fährt oder mal nen Anhänger zieht.
Außer man fährt so nen nutzlos SuV Stadt-PANZER, bei dem "S" nicht für "Sport" und "u" nicht für "utility" steht weil er eh NIE nen Feldweg sehen wird. 2 bis 4 Tonnen Hirnlos Masse fürs Ego.

// persönlich subjektive Meinung ENDE
 
Schakar, Entschuldigung, aber Sie sind bei DLSS und deren Qualität / Funktionsweise leider nicht up to date.
Ja, DLSS 1.0 war bescheiden - aber inzwischen sieht das Bild mit DLSS oft BESSER aus als ohne DLSS. Und das bei +50% mehr Frames.

Bei RT empfehle ich Spiele wie MetroExodus, Control oder Cyberpunk auszuprobieren. Ist das ein Unterschied wie Tag und Nacht? Nein.
Aber die Grafik gewinnt durch RT. Teils merklich, teils auch recht subtil, wo man gar nicht so exakt sagen kann was jetzt besser geworden ist.

Bei vielen älteren Titeln - z.B. wurde RT in TombRaider ja sehr gehypt, vor 3? Jahren oder wann das war - haben Sie völlig recht. Der einzige Unterschied den man dabei sah, war der Einbruch des Framecounters.

Ob einem die Einbußen die RT mit sich bringt den Zugewinn wert ist steht auf einem anderen Blatt. Cyberpunk verliert massig Frames beim aktivieren von RT. Ja, RT macht das Spiel schöner - aber wenn man z.B. noch eine 2070 hat ist es sehr fragwürdig, ob man noch "genug" FPS hat. Trotz DLSS.
Da ist es nachvollziehbar zu sagen: Der Zugewinn der Grafik durch RT ist die große Einbuße nicht wert, ich deaktivere RT.

Ihre Meinung sei Ihnen selbstverständlich unbenommen.
Aber Ihre pauschalen Aussagen zu DLSS und RT zeigt leider, dass Sie auf dem Stand von vor 2-3 Jahren sind.
Geben Sie den neuen Technologien eine Chance - nur weil es vor 2-3 Jahren wirklich wenig sinnvoll war, bedeutet das nicht, dass es dort keine Weiterentwicklung gegeben hat. Lassen Sie sich von Ihren ersten schlechten Erfahrungen nicht verleiten, beides abzuschreiben :)


Edit: Ich bin übrigens noch wie Sie auf einer 970 unterwegs - und kenne RT / DLSS daher nur vom Freundeskreis.
Hatte vor diese Generation aufzurüsten, aber bei den Preisen habe ich dankend abgelehnt. Und warte jetzt auf Ende 2022 / Anfang 2023.
 
@WedgeAntilles ich denke Sie haben mich da nicht ganz verstanden.
Unter "Mehrwert" versteh ich einen echten Gewinn für ein Spiel, der über reines "hüpsch" hinaus geht. Zu mal einige der Spiele (explizid Cyberpunk) ganz andere Probleme hat. Da hilft RT in keinster weise ;).
Ein Auto mit gebrochener Achse bleibt Schrott egal wie hoch poliert der Lack ist ^^.

Ein anderes Beispiel wäre das Low-Texture Blockbaukasten Minecraft. Ganz erlich? Es hat RT ... aber wirklich schöner wäre es durch ganz andere Mechaniken geworden *g*.

Gibt da einige sehr schönes Videos von Linus, in denen er vom absoluten Leien bis zu Profi Gamer vor 2 PCs setzt mit dem gleichen Spiel. Einmal RT on, einmal RT off. Und bis auf Anthony (ein absoluter Profi änlich Igor) war es eher Zufall, ob sie es richtig geraten haben oder nicht. Einfach, weil die Effekte so minimal waren.

Sicher, die Qualität von DLSS 2.0 ist gut.
Alters bedingt sind meine Augen jedoch schlicht nicht gut genug, um mit 4K mithalten zu können. Die Schrift wird schlicht ZU klein.
Und wer kein 4K nutzten kann (wie ich) ... der braucht kein DLSS ;). Denn bei 1440p oder weniger sind die GPUs schnell genug, um auch ohne ihre 60 FPS stabiel hin zu bekommen.

Daher ja, wer auf seinem 200 Zoll Heimkino in 4 oder 8K zocken möchte, dem bringt es was. Bei normalen Monitoren zwischen zwischen 26'' und 32'' oberhalb von 1440p werden die einzelnen Pixel soooo klein, dass es mehr hindert als hilft. Da möcht ich persönlich nicht einmal ne simple E-Mail mehr schreiben dann.
 
war es eher Zufall, ob sie es richtig geraten haben

Zugegebener Maßen sind heutige Grafiken in Spielen von zumeist sehr guter Qualität.

Aber es macht für viele von uns grafisch noch einmal einen gigantischen Schritt.
Verschiedene Oberflächen welche in ihren Reflektionen die Umgebung mit einbeziehen.

Es wirkt eindeutig feiner und realistischer.
Ich sehe diesen Unterschied sowohl auf meinem kleinen 23er Dell (HD) als auch auf einem 43 Zoll 4K Bildschirm.

Ich bin zwar auch nicht mehr der Jüngste,mit Brille geht dann doch noch schon etwas!

Als ausgebildeter Photograf schaue ich mir Bilder vielleicht auch etwas genauer an,als der
Durchschnitt der Bevölkerung.
Ob dieses Feature einem der Aufpreis wert ist,kann jeder selbst entscheiden....
Hängt natürlich auch von den bevorzugten Spielen ab...
Es gibt auf alle Fälle genug Auswahl für beide Varianten.

Zu den Preisen sage ich erst einmal nichts mehr...;)
 
Ja es giebt Spiele mit RT mehrwert, ich fand Controll mit den Spiegelungen toll. Das hat aber auch meine AMD Karte gut geschaft.
COD MW ist das RT auch nur zu erahnen ( aber eigentlich sieht man nix ). COD CW ist schon ganz nett mit RT.
In BF V ist es bää.
 
Als ausgebildeter Photograf schaue ich mir Bilder vielleicht auch etwas genauer an,als der
Da liegt der Hase begraben ;).

Igor oder Anthony, die 100% wissen, wo sie drauf zu achten aben merken es.
Ein Photograf, der es gewont ist, jedes Pixel eines Digital Photos zu kontrolieren hat auch ein sehr geschultes Auge.

Control würde ich bedingt zustimmen. Der "game flow" ist langsam genug, um auf so etwas wie Spiegelungen zu achten. Und es bringt Atmosphäre. Aller dings kenn ich nur die üblichen Videos dazu mit RT on/off Vergleichen. Ka, ob das Spiel buggy ist oder wie gut die Storry bzw sonstige Umsetzung ist.

Bei Metro Exodus seh ich persönlich null Unterschied ob da RTX off/high/ultra geschaltet ist. Maximal die Spiegelungen vieleicht. Aber einen "Mehrwert" kann ich nicht entdecken.

Von daher sind für mich persönlich andere Punkte viel wichtiger bei einer GPU.
- Rohleistung (klar)
- Speicherbestückung (alles unter 8GB ist für echte Gamer heute nix mehr ;). Selbst 12 für top GPUs ist eigendlich zu wenig. Bedenk ich die bald 8 Jahre meiner 970 ... 16GB ist quasi ein MUSS. Oder glaubt hier jemand, dass 8GB in 8 Jahren noch reichen? :D )
- FPS/Watt (weshalb mich die 6800 so überrascht hat)
- Preis/FPS (Scalper Preise auch wieder ein no go, UVP +-10% max)
- Hitzeentwicklung bei Idel und normal Zocken (Dachgeschoss wird auch so schon heiß genug)
- Maximaler Verbrauch (alles über 300 Watt is mir total wumpe, besser noch unter 250 Watt)
- Lautstärke (ne Karte, die im Idel oder bei Youtube permanent Pfeift/Rauscht führt nur zum Tinitus und Kopfschmerzen)
- 1440p Leistung (1080p wird eh überall übertroffen, 4k+ spielt wie beschrieben keine Rolle)
- RT nur als Dreingaben, ganz ohne ist halt nicht mehr Stand der Technik
- AMD/Intel/Nvidia? total egal ^^.

Und wenn ich das alles ein beziehe wird das Feld der Kandidaten sehr eng.
6800(xt), 3080 hat nur 10GB, 3080ti 12gb(schon eng bei 8 Jahres Plan).
6900 oder 3090 sind Preislich (UVP) absolut uninteresant.

Alles in allem hat /subjektive FÜR MICH /subjektive halt AMD mit der 6800 eigendlich das perfekte Angebot (WENN man sie zu UVP bekommen würde).
 
Oben Unten