AMD komplettiert mit der Radeon RX 7800XT und 7700XT das Lineup, NVIDIA chillt und Intel sucht noch - Eure Meinung gegen meine

Erst einmal abwarten, wie sich die 7800XT einordnet in den Tests.
Bin mit meiner 6800XT noch zufrieden unter 1440P.
 
Display Port 2.1 ?

Läuft...
 
Na dann viel Spaß bei 4K/10Bit Farbtiefe und 267 Hertz mit diesen Karten....


Die Kabel sollten auch nicht zu lang sein ;)
Genau genommen sind es 4K/12Bit Farbtiefe bei 144Hz (HDMI 2.1)
Somit ist das die offizielle Bestätigung für 8K @ 120Hz. :)
 
Erst einmal abwarten, wie sich die 7800XT einordnet in den Tests.
Bin mit meiner 6800XT noch zufrieden unter 1440P.
Stoß irgendwie auch nie an die Grenzen meiner RX6800. Ich mein, wenn ich's drauf anlegen will schmeiß ich Cyberpunk oder das "neue" Witcher auf alles voll an und freu mich über <30FPS... naja.

Innen paar Jahren kriegt man volles RT bei ner 300€-Karte. Bis dahin wird hier nimmer aufgerüstet. ^^
 
Nvidia und AMD bedienen eigentlich nur noch vordergründig den Gamermarkt. Vielleicht aus Publicity-Gründen. In Wirklichkeit ziehen sie langsam aber sicher um ins KI Geschäft. Dann gibt es ja noch das Konsolengeschäft und PC Gaming wird immer mehr zur Nische...wir hoffen mal das sich dieses Horrorszenario nicht bewahrheiten wird.
Und Intel würde auch gerne im KI Bereich absahnen, kommt aber erst so langsam auf Touren. Abgesehen davon finde ich es auch irgendwie schade, daß Intel ihren Xeon Phi Ansatz in dem Bereich ganz fallengelassen haben.
 
Dann müsste aber Navi33 deutlich sparsamer sein. Ist er aber nicht. Ich vermute eher, es ist eine Kombination aus kleinem Infinity-Cache, nicht wirklich nutzbaren Dual-Issue Shadern, falscher Auslegung (im Vergleich zur Konkurrenz zu klein) und natürlich auch Multi-Chip. Wobei ich vermute, dass Letzteres gar nicht so viel ausmacht.

Wobei man dazu sagen muss: Das sind die Karten, mit denen AMD dann auch testet. Es kann auch mit älteren noch funktionieren, muss aber nicht (oder die können Bildfehler machen).
N33 ist in 6 nm gefertigt, vergiss das bitte nicht in deiner Argumentation. N31 hat ca. 6-fache Rohleistung (FP32 FLOPS), aber bekommt nur 2,5-fachen Leistungszuwachs auf die Straße. Das muss ja auch irgendwo liegen bleiben. Frontend? Backend?
 
Wer (z.B. als Aufrüster) auf 16x Anbindung Wert legt muss bei AMD ab der 6700 schauen, hat immerhin auch 10 GB Speicher. Leider gibt es davon nur wenige Modelle und selten richtige Preiskracher.
 
(Absichtlich etwas provozierend geschrieben)
High-Res Monitor sind jetzt mehr als 20 Jahre alt, auch wenn 2003 der IBM T220/221 mit 3840×2400 (WQUXGA) dem Rest der Entwicklung weit voraus war. 4k ist damit eigentlich ein uralter Hut, der nur zwischendurch in den Schublade verschwunden ist. Trotzdem braucht man im Jahr 2023 immer noch eine 1.000€+ GPU um damit überhaupt ohne Tricks wie DLSS oder Upscaling vernünftig zocken zu können. Wenn man so tricksen muss kann man gleich zur Konsole greifen und hat den Vorteil ohne OLED gutes HDR zubekommen, was eh wichtiger ist.
Abgesehen davon ist diese Generation vergleichen mit der UVP eine Frechheit und zumindest 2020 war eine 3070 zur UVP zubekommen.
Dass es 3 Jahre später für den selben Preis nicht mehr Leistung gibt lässt sich kaum sinnvoll physikalische, sondern nur betriebswirtschaftlich erklären.
Ich beobachte weiter das Selbstschaufeln des Grabs und belasse es dabei.
 
Ich habe ne sehr gute wassergekühlte 2080 Ti, rennt wie die Sau, läuft nicht nur. Und zwar auch mit den neuen Games. Mein 1440p Monitor bleibt noch ne ganze Weile, da macht es für mich einfach keinen Sinn aufzurüsten. Bei den Preisen auch keinen Spaß.
Könnte auch nur ne 4090 reinstopfen, alles andere wird kaum so lange halten wie meine jetzige Karte, selbst bei der 4080 ist der Speicher eher knapp bemessen.
 
N33 ist in 6 nm gefertigt, vergiss das bitte nicht in deiner Argumentation. N31 hat ca. 6-fache Rohleistung (FP32 FLOPS), aber bekommt nur 2,5-fachen Leistungszuwachs auf die Straße. Das muss ja auch irgendwo liegen bleiben. Frontend? Backend?

Wo hast du die FP32-Werte her?

Edit:

N31 XL hat im Vgl. zu N33 XL
2,5-Fache Compute Units/Shader Units/RT-Accel/KI-Accel;
2-fachen RAM (gleiches Tempo)

ABER

1,58-fache TBP
 
Zuletzt bearbeitet :
Ich habe ins Intel Lager gewechselt, nach 12 Jahren AMD.
Treiber find ich mittlerweile ok.
Mir tut es die Intel
 
Abgesehen davon ist diese Generation vergleichen mit der UVP eine Frechheit und zumindest 2020 war eine 3070 zur UVP zubekommen.
Dass es 3 Jahre später für den selben Preis nicht mehr Leistung gibt lässt sich kaum sinnvoll physikalische, sondern nur betriebswirtschaftlich erklären.
Ich beobachte weiter das Selbstschaufeln des Grabs und belasse es dabei.
Bei der 3070 ist auch schwierig, weil die 4060 son "kleiner Versager" ist.
Wenn Du aber die 3080 heranziehst, dann bekommst Du heute die gleiche Leistung (WQHD 4070) bei deutlich reduziertem Stromverbrauch für erklecklich weniger Geld.
3080: 700€ + ca. 15% Inflation = rd. 800€ heute.
4070: 660€, also rd. 140€ günstiger - weniger Verbrauch - DLSS3
 
Um es einmal auf den Punkt zu bringen, ich war von der RX7xxx Serie eher enttäuscht, wirkliche Sprünge in Leistung und Effizienz haben bei den meisten Modellen nicht stattgefunden.
Dann das vollmundige Versprechen "RX 7800XT durchschnittlich 60FPS mehr als eine 4070 in 1440p".
Leider nicht ganz der Fall.

Laut aller aktuellen Tests liegt die RX7800XT absolut gleichauf mit der 4070ti, die auch namentlich der Konkurrent wäre.
Die 4070ti wiederum liegt in 1440p etwa 10-40 FPS vor ihrer kleinen Schwester, ergo kann auch die RX7800XT keine durchschnittlich 60FPS vor der 4070 liegen.
Ab trotzdem Chapeau AMD, sich mit der 4070 zu messen ist eher unpassend, aber wenn man eine Schlägerei sicher gewinnen will, sucht man sich halt kleinere und schwächere Gegner aus.

Nichts desto trotz ist sie RX7800XT offensichtlich eine sehr gelungene Karte, analog zur 7900GRE.
Die Leistung stimmt und verglichen mit der 4070ti auch der Preis.
Realistisch wird die 7800XT um 700€ landen je nach Modell, vor allem wenn die Performance so eintritt.
Eine 4070ti liegt mindestens 100€ darüber und bietet nur 12GB Speicher.
Dafür liegt die 4070ti in der Effizienz etwas Besser mit ca. 20 Watt weniger, sofern es bei der 7800XT bei wirklich nur 300Watt Boardpower bleibt, was ich bei einzelnen Custom Designs nicht annehme.
Bleibt aber noch die Frage wie sich AMD gegen DLSS3.5 schlagen kann und da sehe ich erst einmal schwarz. Wie immer wenn es bei AMD und das Thema Software und Treiber geht.
Was die 7700XT angeht, die wird mit knapp unter 600€ sicher wieder ein Schnäppchen, aber sie wird sich in der Leistung irgendwo knapp Oberhalb der 4060ti und unterhalb der 4070 bewegen.
Der Vorteil hier, sie bietet 16GB , während die 4070 nur 12GB bietet.

Die 7700XT ist aus meiner Sicht völlig daneben, denn sie richtete sich eher an 1080p Gamer und maximal leichtes 1440p

Mit knapp 450-550€ und 250Watt Boardpower mindestens, Leistung zwischen 4060ti und 4070 ist sie völlig überflüssig.
Im Vergleich zur 4060ti 16 GB ist sie teurer und maximal ineffizient, denn sie wird mindestens 80-90 Watt mehr ziehen, auch wenn sie minimal schneller sein wird
Im Vergleich zur 4070 ist sie ebenfalls nicht brauchbar, weil sie langsamer sein wird, nur unwesentlich günstiger, oder gleichauf im Preis, aber auch hier liegen gute 50Watt Leistungsaufnahme zwischen den Beiden.

Und sorry AMD, 65-100 Watt mehr im 1080p Bereich ist unter aller Kanone.

Fazit, die 7800XT ist neben der 7900GRE aus meiner Sicht die bisher einzige wirklich gelungene 7xxx Karte, die 7700XT hingegen ist aus meiner Sicht eine Totgeburt, weil hier klar Nvidia mit der 4060ti 16GB ab 480€ und die 4070 ab 600€ die Nase vorn hat.

Für 1080P Gaming ist die 4060ti 16GB der absolute Sweetspot, sie erreicht hohe zweistellige bis sehr gute dreistellige FPS Werte in 1080p Ultra Games, bietet 16GB Speicher und kostet unter 500€.
Und das Ganze bei 150- max 170 Watt total.
Für 600€ und 200 Watt und ebenfalls 12 GB bekommt man eine 4070, die sehr wahrscheinlich nochmal deutlich mehr leistet als eine RX7700XT.

Insofern Gratulation zur 7800XT, gelungen, Beileid zur 7700XT Griff ins Klo.
Zwei Releases und gleich zwei so grundsätzlich unterschiedliche Karten, die eine Schnell, effizient und günstig, das was man sich von der 7xxx Serie erwartet hätte, die andere haben wohl die Azubis erstes Lehrjahr machen dürfen.
Für mich als 1080p Gelegenheitsgamer ist die 4060Ti 16 GB letztlich die beste Lösung geblieben, das Sync mit dem 27" 1080p 144 Hz LG kann sie in Ultra Einstellungen in den meisten Games voll ausreizen, im Schnitt liegen überall um die 100 FPS im Schnitt an und das bei max 165 Watt, ein Warten auf eine 7700XT hätte sich also nicht gelohnt.
Was die 4060ti am Ende so gut macht, ist das DLSS das ich auf AUTO laufen habe und was immer hervorragende Ergebnisse liefert
 
N33 ist in 6 nm gefertigt, vergiss das bitte nicht in deiner Argumentation. N31 hat ca. 6-fache Rohleistung (FP32 FLOPS), aber bekommt nur 2,5-fachen Leistungszuwachs auf die Straße. Das muss ja auch irgendwo liegen bleiben. Frontend? Backend?
Wie kommst du auf 6x FP32? Navi33 (7600) hat 21,75 TFLOPS, Navi31 (7900XTX) 61.42 TFLOPS. Also nicht mal Faktor 3 bei etwas mehr als 2x TBP. Die N6 Fertigung kostet etwas, aber bei so einem kleinen Chip vermutlich nicht groß relevant (im Vergleich zu anderen Themen).
Wie gesagt: Viel kommt da von den Dual Issue Shadern, die im Gaming kaum genutzt werden können und als "Ballast" mit geschleift werden (siehe Ampere, da hatte NVidia das ja auch). Und vom halbierten Cache. Das war ja mit einer der Gründe, warum RDNA2 so effizient war. Alles Wichtige lag im Cache und musste nicht energieaufwändig vom Ram geholt werden. Jetzt hat man den quasi halbiert (bei 256 Bit SI nur noch 64MB) und damit müssen wieder mehr Infos vom Ram geholt werden. Das reduziert die Effizienzsteigerung durch die bessere Fertigung. Bei Navi23 war der Cache damals schon deutlich reduziert, daher hat Navi33 da auch keine Reduktion hinnehmen müssen und kommt eben auch mit nur N6 Fertigung marginal besser weg.
Um es einmal auf den Punkt zu bringen, ich war von der RX7xxx Serie eher enttäuscht, wirkliche Sprünge in Leistung und Effizienz haben bei den meisten Modellen nicht stattgefunden.
Dann das vollmundige Versprechen "RX 7800XT durchschnittlich 60FPS mehr als eine 4070 in 1440p".
Leider nicht ganz der Fall.

Laut aller aktuellen Tests liegt die RX7800XT absolut gleichauf mit der 4070ti, die auch namentlich der Konkurrent wäre.
Die 4070ti wiederum liegt in 1440p etwa 10-40 FPS vor ihrer kleinen Schwester, ergo kann auch die RX7800XT keine durchschnittlich 60FPS vor der 4070 liegen.
Ab trotzdem Chapeau AMD, sich mit der 4070 zu messen ist eher unpassend, aber wenn man eine Schlägerei sicher gewinnen will, sucht man sich halt kleinere und schwächere Gegner aus.
Äh, ich bin verwirrt. Zum einen: Wo hat AMD behauptet, man wäre 60FPS schneller als eine 4070? Ich habe lediglich was gefunden von: "Die Karte schafft in QHD stabil 60FPS bei x Spielen". Aber weit und breit kein Vergleich mit einer NVidia Karte.
Zum anderen: Wo zu Geier soll es von einer noch nicht gelaunchten Karte schon Tests geben? Alle "Tests", die es bisher von der Karte gibt, sind irgendwelche Fakes, wo man maximal versucht, mit einer 7900er und angepasstem Takt die 7800XT zu emulieren. Aber das ist schlicht Quatsch!

Was stimmt: Nur wenige Modelle der RDNA3 Generation sind schneller als die Vorgänger. Eigentlich nur die 7900XT(X). Und die Effizienz hat nur marginal zugelegt während NVidia einen deutlichen Effizienzsprung hatte. Das liegt unter anderem daran, dass RDNA3 in einigen Punkten ähnlich zu Ampere ist und daher auch die Probleme von Ampere hat. Zusätzlich war Ampere dann noch in einer Fertigung, die deutlich schlechter als bei RDNA2 war. Damit war bei NVidia die Ausgangsbasis deutlich niedriger wodurch der Sprung deutlich größer ist.
 
Zuletzt bearbeitet :
21,5 FP16 ;-) Kleiner Unterschied...

 
Wie kommst du auf 6x FP32? Navi33 (7600) hat 21,75 TFLOPS, Navi31 (7900XTX) 61.42 TFLOPS. Also nicht mal Faktor 3 bei etwas mehr als 2x TBP. Die N6 Fertigung kostet etwas, aber bei so einem kleinen Chip vermutlich nicht groß relevant (im Vergleich zu anderen Themen).
Wie gesagt: Viel kommt da von den Dual Issue Shadern, die im Gaming kaum genutzt werden können und als "Ballast" mit geschleift werden (siehe Ampere, da hatte NVidia das ja auch). Und vom halbierten Cache. Das war ja mit einer der Gründe, warum RDNA2 so effizient war. Alles Wichtige lag im Cache und musste nicht energieaufwändig vom Ram geholt werden. Jetzt hat man den quasi halbiert (bei 256 Bit SI nur noch 64MB) und damit müssen wieder mehr Infos vom Ram geholt werden. Das reduziert die Effizienzsteigerung durch die bessere Fertigung. Bei Navi23 war der Cache damals schon deutlich reduziert, daher hat Navi33 da auch keine Reduktion hinnehmen müssen und kommt eben auch mit nur N6 Fertigung marginal besser weg.
Für 1080p ist die4060 richtig gut. Mit der Monitorgröße wuchs auch das Bedürfnis nach höherer Auflösung. Und ganz ehrlich. Unter WQHD geht dann bei mir nix mehr. Da wäre die 4070 meine erste Wahl, vielleicht auch eine gebraucht TI. Bei Mindstar bekommt man regelmäßig gute Angebote für unter 600 €. Mein einziger Kritikpunkt an Nvidia ist dieses leidige Thema mit der grenzwertigen RAM Ausstattung. Die wissen schon warum. Ich bin echt gespannt was AMD jetzt mit der 7800 xt abliefert. Vor allem FSR 3 iVm Hypr-X. Es wird ein spannender Herbst.
 
Oben Unten