AMD komplettiert mit der Radeon RX 7800XT und 7700XT das Lineup, NVIDIA chillt und Intel sucht noch - Eure Meinung gegen meine

Ganz ehrlich, ich würde in deinem Fall auf eine 6700XT setzen für ca. 340€, da hast du keine Nachteile der "kleinen" Karten und 4GB mehr VRAM. Grad für FHD tuts die 6700XT noch ziemlich gut.
Leider sitzt die Kohle nich so locker und ich wollte unsinnige Ausgaben in dem Bereich vermeiden, was meine ich in dem Zusammenhang mit Unsinnig ... aktuell dreht sich vieles um RTX und Pathtracing ... das spielt allerdings in meinem Budget Bereich aktuell absolut keine Rolle, bei mir gehts eher darum dass ich die neuen Games flüssig auf High zocken kann für die nächsten 3 Jahre (aktuell nur ne 1060 drin). Ne 6700XT is 100,- teurer als ne 6650XT und dass einzige was ich dabei Gewinne sind FPS welche ich warscheinlich nich benötige da selbst auf einer 6650XT Cyberpunk auf 100 FPS rennt ... dazu noch FSR 3 und ich bin glücklich ... diese 100,- mehr bringen mir keinen Technologischen Fortschritt, dass einzige sind die mehr an VRAM welche bei 1-2 mies Produzierten RAM Fressern auf High vlt. Texturnachlader bringen, dass ist es mir dann irgendwie nich wert, lieber in 2-3 Jahren ne Mittelfeld Karte holen und nen Euro mehr ausgeben und die neuen Technologien genießen als was Halbgares (denk ich mir zumindestens aktuell und dass ist auch dass Problem was ich bei der 200 - 350 Schiene aktuell sehe, man erkauft sich im 1080p Bereich paar mehr FPS welche man warscheinlich nichmal braucht weil die Buden eh schon ziemlich flüssig laufen ist aber von RT und Pathtracing noch Meilenweit entfernt). Wenn ich vlt ehrlich zu mir bin würde sogar ne 6600 reichen als Überbrückung für die nächste Generation aber dafür liegt die 6650XT zu nahe um das mehr an Leistung liegen zu lassen ... von der 6650XT liegt die 7600 jetz aber wieder inna nähe und so weiter und so weiter ^^ Frage is halt was man brauch.
 
@Booya
Dann würde ich wohl auf Angebote der RX6600 schielen, gabs doch auch für unter 200€ schon.
6650XT liegt doch immer wieder im Preisbereich der 7600, oder?
Und bei den kleinen hat man halt komplett PCIe 8x Anbindung.
Da würde sich das längere sparen auf die RX6700XT doch anbieten?

Dass die Preise in 2-3 Jahren "besser" sind, darauf würde ich nicht spekulieren.

Oder einfach aufm Gebrauchtmarkt schaun, ist auch nicht das verkehrteste ;)
 
@Booya
Dann würde ich wohl auf Angebote der RX6600 schielen, gabs doch auch für unter 200€ schon.
6650XT liegt doch immer wieder im Preisbereich der 7600, oder?
Und bei den kleinen hat man halt komplett PCIe 8x Anbindung.
Da würde sich das längere sparen auf die RX6700XT doch anbieten?

Dass die Preise in 2-3 Jahren "besser" sind, darauf würde ich nicht spekulieren.

Oder einfach aufm Gebrauchtmarkt schaun, ist auch nicht das verkehrteste ;)
Naja wie gesagt, richtig gute Custom mit der Red Devil 6650XT für 240,- ... billigste 7600 mit der Sapphire liegt bei 270-+ 10,- aber die Sapphire is auch nich dass beste Stück und tatsächlich macht die Registration und Game Aktivierung bei der Karte Probleme da das Tool sie nich als 7600 erkennt sondern nur als Generic AMD Card (aktuell gibts Starfield im Gamepacket Gratis dazu bei allen AMD Cards) Die Customs die also interessieren liegen dann bei 280-290 rum ... innerlich tendiere ich zur 6650XT, is ne schöne Karte, Verbrauch is geringer, FPS Stimmen und nen großen Technologischen Unterschied gibts nicht.
 
Für 240 mag die 6650XT in Ordnung gehen, aber ich würde nach wie vor zur 6700XT tendieren, dann halt gebraucht.
Keine x8 Anbindung und 4GB VRAM mehr.

Aber ist hier jetzt doch zu sehr OT.
 
Augenscheinlich finde ich das Lineup aus Radeon RX 7800XT und 7700XT gut. Keine 600 Euro und man sollte ohne jedwedes Problem in 1080P und 1440P wieder einige Jahre Zocken können. Meine aktuelle RTX3070 hat dagegen ein Vermögen gekostet, ist künstlich am Ram verknappt und wird wohl bald selbst bei 1080P in die Knie gehen. So "kurz" nach Anschaffung musste ich mir in all den Jahren keinen Kopf machen.

Zum Thema Marktentwicklung, sehe ich das genauso wie @echolot . Vermutlich wird der Gamermarkt immer mehr das Nachsehen haben. Zwei Indizien sind für mich das Thema NVIDIA/RAM (künstliche Begrenzung der Nutzungszeit) und der Hype um die CryptoCoins (da haben uns die Hersteller ja auch auf weiter Flur stehen lassen - Markt leer, denen egal wer die Karten kauft). Und statt Rohleistung wird in "Schummelei" wie DLSS und FSR3 investiert. Beides sind meiner Meinung nach Features, die man auch deutlich älteren Grafikkarten spendieren hätte können. Auch diese hätten einen Leistungsschub bekommen ohne mehr Rohleistung bieten zu können. Ich nehme AMD mal etwas heraus, denn FSR2 ist ja breit verwendbar und bei FSR3 stehe ich nicht ganz im Bilde, trotz der letzten Veröffentlichungen. Aber war da nicht die Rede von RDNA3 als Pflicht? Für den AMD Z1 Extreme wäre das natürlich ein "notwendiger" Segen, denn sonst könnte man die APU wohl kaum 2-3 Jahre sinnvoll nutzen als Gaminghandheld.
 
13,507 Mrd. Bruttoeinnahmen, davon 2,49 vom "Gaming" und 10,32 vom "Data Center"......
Danke fürs Raussuchen der Zahlen!
Was da noch hinzukommt: Unter "Gaming" verstecken sich auch KI-Anwendungen, da viele dafür einfach eine 4090 kaufen. Habe dazu einen sehr interessanten Vortrag auf einem großen europäischen Mikrobiologiekongress gesehen.
 
Naja, die 7700xt ist deutlich schneller, zieht aber auch mehr Strom als die 6700XT. Die 7800XT empfinde ich als Rückschritt - beschnitten in den CUs (jaja, Maximalausbau des Chips - trotzdem), die dürfte knapp über der 6800xt liegen, aber primär mit RT. Damit ist die 6800(xt)/6900xt immer noch locker zur aktuellen Generation konkurrenzfähig (von RT und den Enthusiast Karten mal abgesehen), insbesondere beim guten P/L Verhältnis momentan durch den Abverkauf.
Die Preise sind immerhin nicht schlimmer geworden zur Vorgängergeneration, da ist sich AMD treu geblieben - während Nvidia die Preise weiter erhöht hat.
Naja, das drumherum spricht eigentlich schon für RDNA3. Bessere Video Einheit, Matrix Einheiten,... Wenn der Preis passt, dann ist die 7800XT schon nicht so verkehrt. Nur der Verbrauch ist echt fragwürdig. Mal schauen, wie es dann in den Tests aussieht und wie die Karte sich preislich entwickelt. Bei AMD geht da ja in der Regel deutlich mehr als bei NVidia.
 
Etwas schneller, etwas effizienter hätte ich jetzt getippt...
In der Hardware scheint ja kaum eine grosse Überraschung versteckt (oder hat Igor eine angezogene Handbremse entdeckt?).
Allenfalls ist ja auf Seite Software/Treiber ein Fortschritt gelungen. Genug Zeit hatte man ja...
 
Ich nehme AMD mal etwas heraus, denn FSR2 ist ja breit verwendbar und bei FSR3 stehe ich nicht ganz im Bilde, trotz der letzten Veröffentlichungen. Aber war da nicht die Rede von RDNA3 als Pflicht? Für den AMD Z1 Extreme wäre das natürlich ein "notwendiger" Segen, denn sonst könnte man die APU wohl kaum 2-3 Jahre sinnvoll nutzen als Gaminghandheld.
FSR3 Upscaling ab RX590/GF10xx und FSR3 FrameGeneration ab RX5700 und GF20xx laut AMDs Webseite.
 
Ehrlich gesagt interessiert mich die aktuelle Generation gar nicht. Aber auch nur, weil ich beim Vorgänger die 6700 XT gekauft habe. Mir reicht sowas. Regler bedienen, gut ist. Zocke eh so wenig, dass sich selbst die 6700XT eigentlich nicht lohnt.

Beim aktuellen Portfolio ist kurioserweise die unvernünftigste Karte fast am "vernünftigsten", wenn sie es denn jemals war, nämlich die 4090. Alles danach ist eben quasi Schrott. 4080 vielleicht noch, wäre da nicht der Preis. Vom Preis her ist die 4090 natürlich bekloppt, aber High-End war schon immer teuer. Nur danach ist es halt echt kurios. Immerhin sind die Preise wegen erst völligst überzogenen Preisen wieder etwas gesunken, aber eben nur etwas. Und die "günstigen" Midrange-Dinger sind quasi null schneller als die Midrange der Vorgängergeneration und (!) so weit von der Architektur beschnitten, dass auch diese Modelle an Kotzgrenzen laufen müssen, d.h. auch viel verbrauchen. Das ist echt ein blöder Weg. AMD ist mit der 7000er Gen für mich eh völlig uninteressant, das ist aber ja auch nichts neues, AMD hat ja immer mal so Versuchsballone alle X Generationen. Und mit NVidia gleich ins VRAM-Limit bei aktuellen Titel zu gehen, ist auch inaktzeptabel.

Zum Glück zocke ich viel weniger als früher. Quasi gar nicht mehr. Sonst würde es mich glaube ich noch viel mehr aufstoßen. Schade drum. Aber mit KI wird einfach ein mega Reibach gemacht. Man kann froh sein, wenn die Hersteller durchs Gaming die Leute wenigstens markenfreundlich machen wollen, damit im Beruf o.ä. dann auf Hersteller xy gesetzt wird. 7800XT & Co sind für Aufrüster von Vorvorgängergenerationen & Co vielleicht dann doch noch interessant, aber das ist ja oft so. Ich habe immer mal wieder mehrere Generationen übersprungen, damit der Performancesprung überhaupt groß genug ist, damit es "sich lohnt". Ist ja immer eigene Präferenz, wann man das macht.
 
Etwas schneller, etwas effizienter hätte ich jetzt getippt...
In der Hardware scheint ja kaum eine grosse Überraschung versteckt (oder hat Igor eine angezogene Handbremse entdeckt?).
Allenfalls ist ja auf Seite Software/Treiber ein Fortschritt gelungen. Genug Zeit hatte man ja...
Ich würde in einem mittelgroßem Strahl brechen, wenn die 7800xt jetzt in Kombination mit FSR3 der 4070 / 4070ti die Show stehlen würde ... (glaube aber nicht wirklich dran)

Zeit genug hatten die ja, um ihren Murks aufzubohren und zu polieren. Die hohen TBP Werte der 7700xt und 7800xt könnten dafür sprechen, dass mit dem N32-60CU Vollausbau doch mehr geht als bei den N31 Dingern

Mal gucken, kann die MSI Gaming X Trio 4070 ja noch zurück geben im Zweifelsfall ^^
 
Das die neuen überhaupt kommen hat mich erstaunt. Gefühlt hat AMD ja einfach einen Mix aus 6000 und 7000 als ist so betrachtet, was auch nicht schlecht war. Eine 6950xt war hat von der Leistung her absolut gut platziert unter den 7000-er, die kleine 7000 hat eine Lücke gefüllt. Da der Unterscheid eh nicht der größte war wunderte ich mich eh wieso nicht einfach dei 6000 weiter genutzt werden.
 
Und dann gibt's natürlich noch "Ich bin aus dem dGPU Rat Race erst Mal ausgestiegen, und daddel erst Mal auf meiner Konsole". Denn trotz der etwas normaleren Preise für CPUs und RAM sind Karten mM nach immer noch viel zu teuer für das, was sie bieten. Konsolen sind ja wieder einigermaßen bezahlbar und gut erhältlich.
Ist natürlich eine ganz andere Sache, wenn man mit denen auch "Produktive" Sachen macht bzw machen will. Aber auch da muss das P/L Verhältnis noch besser werden, außer man braucht die GPU beruflich oder fürs große Hobby.
 
Die 7800XT wird nicht mal die 4070 Ti schlagen können und dabei mehr Energie verbraten. Mein Tipp. RDNA3 ist insgesamt eine Enttäuschung für mich. Das 6000er Lineup war deutlich runder und der Sprung insgesamt bedeutend größer.
Wir können nun spekulieren woran es nun liegt, aber ich denke es wird was mit dem data shifting auf den dice zu tun haben. Bewegung kostet nun mal Energie und längere Signallaufzeiten spielen da halt mit rein, daher tippe ich auf den multi chiplet Ansatz als Ursache für die geringere Effizienz bzw. die unterproportional gestiegene Effizienz.
Take my words...
 
Ich habe zu AMD erstellt:
Wenn man in Leistung und Markt hinterher hängt wäre es schön, wenn der Kompromiss aus Leistung/Speicher/Verbrauch/Preis signifikant attraktiver wäre als beim Marktführer. Vor allem in Mittel- und Einstiegsklasse (und darunter).
Sie müssen m.E. den attraktiveren Kompromiss im Einsteigersegment (und drum herum) anbieten. Das geht schon mit dem Spritverbrauch los - wer 200€ für eine neue GraKa ausgibt, der will keine weiteren 70€ für ein neues NT hinlegen.

Wenn sie sich in diesen Preisklassen nicht besser aufstellen, dann wird Intel ihnen diesen Bereich gerne streitig machen. NVIDIA lacht dann von oben, wie die Konkurrenz doch das Geschäft beleben kann.
 
Preis-Leistung ist ja son Thema.
Wenn ich denn beurteilen wollen würde ... ob sone Preis-Leistung (noch) stimmt, oder nicht ... dann isset vom Prinzip ja ganz einfach.
Also denk ich mir so ...

Ich nehm mal Nvidias 4080 ... das 40 ist dabei völlig wurscht, die 80 ist wichtig.
Dann brauch ich erstmal jede vergleichbaren 80er Karte aller Generationen.
Dazu brauch ich die besten PCs der jeweiligen Zeit, das jeweilige Betriebssystem und die 10 anspruchsvollsten Spiele einer jeweiligen Generation.
Dann lass ich alles durchlaufen in einer Auflösung, die der damaligen Zeit entsprach.
So bekäm ich dann für jede Generation ein FPS-Mittel über die jeweiligen 10 Spiele.
Stromaufnahme zu wissen wär auch nicht schlecht.

Dann die Preise der Karten zum jeweilgen Release, hau die Inflation drauf ... und erst dann hätte ich alle Daten zusammen um beurteilen zu können. ob ich heute mehr Leistung fürs Geld kriege oder nicht.

Die Daten hab ich nicht, daher kann ich da nix beurteilen.

EVGA hat ja was Grafikkarten anbelangt "in den Sack gehauen". U. A. hätte Nvidia ihre 3080 und 3090 so billig angeboten, dass EVGA teils 100e zuschießen musste, um ihre Karten an den Mann bringen zu können. Mag sein, dass EVGA einfach überteuert produziert hatte, aber Nvidia hatte das nicht dementiert.

Ich weiß nicht, was sone Graka in der Herstellung kostet ... ich kanns nicht beurteilen, ob ein Preis fair ist oder nicht.
 
"Mir doch egal, ich habe auch noch Brettspiele und ein reales Leben "

Zu gut um es nicht auszuwählen ^^
 
Ich habe zu AMD erstellt:

Sie müssen m.E. den attraktiveren Kompromiss im Einsteigersegment (und drum herum) anbieten. Das geht schon mit dem Spritverbrauch los - wer 200€ für eine neue GraKa ausgibt, der will keine weiteren 70€ für ein neues NT hinlegen.

Wenn sie sich in diesen Preisklassen nicht besser aufstellen, dann wird Intel ihnen diesen Bereich gerne streitig machen. NVIDIA lacht dann von oben, wie die Konkurrenz doch das Geschäft beleben kann.
Des hab ich auch ausgewählt. Wobei man auch ehrlich sagen muss, dass AMD das ja tut, allerdings unfreiwillig über die alte Gen. Die 12 & 16GB Karten sind noch gut und zukunftsfähig genug, um den aktuellen Karten den Rang abzulaufen, zumindest im PL. Weiterhin liefert AMD noch lange, lange gute Treiberupdates. Das ist ja anders als bei Nvidia.

Als Linux-Nutzer freue ich mich natürlich, dass Intel auch mitmischt. Nu hat man schon zwei mögliche Hersteller! Nvidia ist da eher raus, propietäre Treiber, um die sich die Korp nen Scheiß kümmert, sodass die Leistung mal wie unter Windows ist und mal doch massiv hinterherhinkt.

Dabei mag ich Intel als Firma eigentlich auch nicht besonders. Was die mit Retailern wie Dell damals veranstaltet haben, um die Konkurrenz auszuschalten, war schon irgendwo semikriminell. Naja. Die bei AMD sind sicherlich auch keine Schafe. Mäh.
 
Preis-Leistung ist ja son Thema.
Wenn ich denn beurteilen wollen würde ... ob sone Preis-Leistung (noch) stimmt, oder nicht ... dann isset vom Prinzip ja ganz einfach.
Also denk ich mir so ...

Ich nehm mal Nvidias 4080 ... das 40 ist dabei völlig wurscht, die 80 ist wichtig.
Dann brauch ich erstmal jede vergleichbaren 80er Karte aller Generationen.
Dazu brauch ich die besten PCs der jeweiligen Zeit, das jeweilige Betriebssystem und die 10 anspruchsvollsten Spiele einer jeweiligen Generation.
Dann lass ich alles durchlaufen in einer Auflösung, die der damaligen Zeit entsprach.
So bekäm ich dann für jede Generation ein FPS-Mittel über die jeweiligen 10 Spiele.
Stromaufnahme zu wissen wär auch nicht schlecht.

Dann die Preise der Karten zum jeweilgen Release, hau die Inflation drauf ... und erst dann hätte ich alle Daten zusammen um beurteilen zu können. ob ich heute mehr Leistung fürs Geld kriege oder nicht.

Die Daten hab ich nicht, daher kann ich da nix beurteilen.

EVGA hat ja was Grafikkarten anbelangt "in den Sack gehauen". U. A. hätte Nvidia ihre 3080 und 3090 so billig angeboten, dass EVGA teils 100e zuschießen musste, um ihre Karten an den Mann bringen zu können. Mag sein, dass EVGA einfach überteuert produziert hatte, aber Nvidia hatte das nicht dementiert.

Ich weiß nicht, was sone Graka in der Herstellung kostet ... ich kanns nicht beurteilen, ob ein Preis fair ist oder nicht.

@Igor Wallossek hat mal geschrieben (iirc im Herbst) dass eine 4090 vor Zoll noch dreistellig liegt.

und die Marge von NV allein war im 1. Quartal beim Gaming bei 38%. (AMD 17 oder 18% )
 
Beim aktuellen Portfolio ist kurioserweise die unvernünftigste Karte fast am "vernünftigsten", wenn sie es denn jemals war, nämlich die 4090.

4080 vielleicht noch, wäre da nicht der Preis. Vom Preis her ist die 4090 natürlich bekloppt, aber High-End war schon immer teuer. Nur danach ist es halt echt kurios. Immerhin sind die Preise wegen erst völligst überzogenen Preisen wieder etwas gesunken, aber eben nur etwas.

Wenn ich das Geld über hätte würde ich diese Jahr noch eine 4090 so um die 1500 € kaufen.
Ich bin auf jeden Fall gespannt wie der Markt sich in den nächsten 1 bis 3 Jahren entwickelt.
 
Oben Unten