AMD komplettiert mit der Radeon RX 7800XT und 7700XT das Lineup, NVIDIA chillt und Intel sucht noch - Eure Meinung gegen meine

21,5 FP16 ;-) Kleiner Unterschied...

Steht bei Computerbase falsch. Sieht man auch daran, dass die 6650XT die gleichen FP32 Werte hat, was aber wegen DualIssue nicht sein kann.
AMD gibt andere Werte an:
"Max. Rechenleistung mit einfacher Genauigkeit 21.75 TFLOPs"
Steht auch so auf TPU:

Ja, aber nicht Beschnitten auf 4 wie die 6400 und 6500. Die 8GB sollten(tm) aber reichen für das Einsatzgebiet, ist ja keine kastrierte Nvidia die permanent nachladen muss.
Da ist genauso wenig "beschnitten". Die 6400 und 6500 sind Navi24, der hat nur 4 Lanes. Das Ding ist eigentlich für ultrathin Notebooks gedacht. Und die darin verbauten Prozessoren bieten in der Regel nur 4 Lanes für die GPU. Entsprechend hat der Chip da nicht mehr, weil er für sein gedachtes Einsatzgebiet nicht mehr braucht.
Und das mit dem Nachladen bei NVidia Karten stimmt so auch nicht. NVidia hat ein etwas anderes Speichermanagement, wodurch man manchmal mit etwas weniger Ram gut klarkommt und manchmal dafür Texturen nachladen muss, was der User sehen kann. Je nach Situation kann man mit AMD oder mit NVidia besser fahren. Ich würde aber nicht sagen, dass pauschal irgendwer besser ist, weil es eben auch anders herum sein kann.
 
Zuletzt bearbeitet :
Leider baut Nvidia seinen Vorsprung aus und kann sich auf den Lorbeeren ausruhen. In RT und "Ihrem" DLSS alias FSR3 kommt AMD leider nicht angemessen hinterher. Sie hängen immernoch hinterher und der Abstand wird gefühlt größer. Und sollte es wirklich so sein dass AMD bei der nächsten Generation die großen Karten weg lässt, so ist das die quasi aufgabe jeglichen Führungsanspruches.
 
Nutzt dieses DLSS denn wirklich jemand der aktuelle Hardware hat?
 
Nutzt dieses DLSS denn wirklich jemand der aktuelle Hardware hat?
Habe ne 4080 und spiele 40k60 und ich bin jedes mal froh wenn ich DLSS2.3+ zur Verfügung habe. Es bringt mehr Leistungsreserven und sieht meistens besser aus als TAA oder andere AA Methoden.

Im Moment für mich eines der größten Argumente für Nvidia.
 
Dann das vollmundige Versprechen "RX 7800XT durchschnittlich 60FPS mehr als eine 4070 in 1440p".
Leider nicht ganz der Fall.
Wo hat das denn AMD "versprochen"???
Bitte irgendeine Quellenagabe - ich lese viele Meldungen und das hast du dir bestimmt selbst ausgedacht.
Nichts desto trotz ist sie RX7800XT offensichtlich eine sehr gelungene Karte, analog zur 7900GRE.
Nein, die 7900GRE hat geringere TDP und erheblich höhere Leistung.
Die 7800xt ist hoffnungslos über dem Speetspot übertaktet - durch die Reduzierung der CUs war das auch nicht anders möglich.
Die 7900GRE (etwa gleichauf zur 6950xt) hätte eine gute 7800xt(x) abgegeben.
Bleibt aber noch die Frage wie sich AMD gegen DLSS3.5 schlagen kann und da sehe ich erst einmal schwarz.
Solange Nvidia DLSS nicht auch auf AMD, Intel und Konsolen anbietet bleibt es eine kleine Niesche bei Spielen.
Bei Multiplatformtiteln muss also ohnehin FSR genommen werden, für zusätzliches DLSS wird Nvidia häufiger "Beratungsunterstützung" leisten müssen - wirtschaftlich ist das Einbauen ja nicht.
Die 7700XT ist aus meiner Sicht völlig daneben, denn sie richtete sich eher an 1080p Gamer und maximal leichtes 1440p
Diese ist doch gerade eine Überraschung - mit erheblich mehr CUs als der Vorgänger ist sie knapp an der 7800xt dran, nur effizienter getaktet.
Wenn sich ein guter Preis einpendelt, könnte es DIE Brot&Butter Grafikkarte werden ohne wirkliche Schwachstelle mit gutem P/L.
Insofern Gratulation zur 7800XT, gelungen, Beileid zur 7700XT Griff ins Klo.
Lustigerweise sehe ich es genau umgekehrt (s.o.). Am Ende muss es der Straßenpreis richten - wenn die zu nah beisammen bleiben bleibt die 16gb Karte natürlich attraktiver.
 
Nutzt dieses DLSS denn wirklich jemand der aktuelle Hardware hat?
Ja, die Rasterleistung der Nvidia Karten sind so schwach, dass die Upscaling für Actionspiele (hohe FPS) brauchen, insbesondere wenn es Karten mit vergleichsweise wenig RAM sind und durch Upscaling dort erwas eingespart werden kann (= stabilere Framerate).
Natürlich lohnt es sich mit einer 4090 in 1080p eher nicht, aber viele kaufen entweder eine "günstige" Karte oder sind im Enthusiast Bereich, wo hohe Auflösungen und FPS gefordert sind
 
Sie haben sie nicht gefunden, schon garnicht erst jetzt.

Nvida hat vor 6-8 Jahren auf der Aktionärskonferenz sinngemaß gesagt:
"Zukunftig wird Nvida sich auf den Profi Markt konzentireen und der Gamingmarkt wird mit Resterverwertung/den Abfallprodukten bediehnt, Gaming ist kein Wachstumsmarkt mehr und es lohnt nicht nur dafür Chips zu entwicklen."

Also Nvidia hat diese Cashcow bereits vor 8 Jahren "gefunden" und gezielt darauf hingearbeit.

Auch eine 4090 ist ja nur ein AD102 also schonmal nur der 2. größte Chip den Funktionen gestrichen wurden und dann nocht nichtmal der Vollausbau des AD102 sondern nur der Salvage.
Ich hab ja auch nicht gesagt: "Jetzt erst so passiert".
Das Nvidia diesen Markt mit Ansage entwickelt hat und seinen Fokus und seine Kapazitäten dahin gelenkt hat ist nachvollziehbar. Hätte auch schief gehen können, denn HPC und Deep Learning stand bei Intel und AMD ebenfalls auf der Roadmap. Und wo steht Knights Landing jetzt? Im Museum.
Aber: Erst mit Volta ist der Zweig HPC/Deep Learning im Chiplayout zuerst bedient worden. Und Nvidia hätte sich mit einem Ausbau der Tegra-Reihe auch gegen AMD für die Nächsten Konsolengenerationen aufstellen können. Ist eben eine unternehmerische Entscheidung gewesen.
Was durchaus dazu führen kann, das Nvidia langfristig sich dermaßen aufs Profisegment konzentriert, das die dort benötigten Chipfähigkeiten kein oder nur eine sehr geringe Schnittmenge mit der bei Gaming benötigten ist, so das Nvidia sich aus dem Gamingsegment komplett zurückzieht. Ähnlich wie bei Matrox Ende der 1990er...
Und Nvidia hatte sicherlich mit der Übernahme von 3dfx damals sicher auch einen anderen Fokus und Erwartungshaltung in der Geschäftsentwicklung bei Gaming.

Und den 2xfachen (kurzlebigen) Boom bei den Krytomininganwendungen hat man weder kommen sehen noch viel in die Entwicklung gesteckt.
Man hat die Effekte daraus dankenswerterweise mitgenommen, das mittlere Preisniveau in ihrer jeweiligen Klasse von Grafikkarten ist (nicht nur dadurch, aber auch) deutlich höher als davor.

Denn von einer GTX 480 für knapp 500,-€ im Jahr 2010 auf eine RTX 4090 für um die 1800€ UVP kommt man rechnerisch nie über die Inflationsrate der Jahre 2010 bis 2023 hin...
 
Zuletzt bearbeitet :
Laut aller aktuellen Tests liegt die RX7800XT absolut gleichauf mit der 4070ti, die auch namentlich der Konkurrent wäre.
Könntest du mir bitte einen Hinweis geben, wo es so einen unabhängigen aktuellen Test gibt?
Ich finde nur die AMD Benchmarks und obskure YouTube Videos, das hilft mir nicht weiter, um mir eine Meinung zu bilden.
 
Könntest du mir bitte einen Hinweis geben, wo es so einen unabhängigen aktuellen Test gibt?

Einen neutralen und aussagekräftigen Test, wirst Du hier bei Igor finden,sobald er es offiziell veröffentlichen darf ( 5/6 September).

Ganz nebenbei kann man bei unserem Forum bisher feststellen, dass es relativ gesehen gut doppelt so viele Rote mit grün-Farbenblindheit als Grüne mit rot-Farbenblindheit gibt :D
 
Zuletzt bearbeitet :
Farbenblindheit ist nicht gut. Entweder steht man an der Ampel bis zum St.Nimmerleinstag oder man rauscht in den nächsten Unfall :ROFLMAO:
Und ich dachte bisher immer es gibt eine Rot-Grün-Sehschwäche...🧐
Nur gut das Intel blau ist ;)
 
Nebenbei gibt es auch Gelb-Blau Farbenblindheit.
 
Uff, die Umfrage ist mit den Antwortoptionen sehr fustrierend. Beispiel:

Die Performance stimmt, aber der Preis passt nicht
Das P/L-Verhältnis stimmt nicht, ich könnte heulen
Der Performance-Zuwachs ist zu gering und der Preis zu hoch.
Die Performance ist enttäuschend und der dafür aufgerufene Preis zu hoch.


Was soll ich denn da jetzt ankreuzen?
 
Nutzt dieses DLSS denn wirklich jemand der aktuelle Hardware hat?
Es verbessert sogar (auf quality) die Grafik, da es feine Details besser rausarbeitet, die sonst gerne verschwinden. Z.B. Masten, Draht bei Zäunen usw.. Zudem steigert es schon massiv die fps....wenn es den richtig funktioniert.
 
Leider baut Nvidia seinen Vorsprung aus und kann sich auf den Lorbeeren ausruhen. In RT und "Ihrem" DLSS alias FSR3 kommt AMD leider nicht angemessen hinterher. Sie hängen immernoch hinterher und der Abstand wird gefühlt größer. Und sollte es wirklich so sein dass AMD bei der nächsten Generation die großen Karten weg lässt, so ist das die quasi aufgabe jeglichen Führungsanspruches.
Würde ich allerdings für schlauer halten als jetzt permanent mit Tricksereien und mehr Watt zu versuchen, da Anschluss zu halten.

Dann lieber bei den Einsteiger- und Mittelklassekarten an der Effizienz feilen, versuchen, sich neu zu ordnen und im Hintergrund etwas zu entwickeln, ähnlich wie damals bei den Zen-Prozis, wo dann AMD, nachdem die jahrelang völlig abgehängt waren, plötzlich auch wieder "ganz oben" mithalten konnten.

Mit der Brechstange lässt sich da halt nichts machen. Sehe allerdings auch keinen Grund, warum sowas wie FSR von AMD alleine entwickelt wird, schließlich können's alle nutzen. Da könnte es vielleicht ja auch sein, dass andere Firmen auf die Dauer mitspielen wollen.
 
Ganz nebenbei kann man bei unserem Forum bisher feststellen, dass es relativ gesehen gut doppelt so viele Rote mit grün-Farbenblindheit als Grüne mit rot-Farbenblindheit gibt :D
Verstehe den Satz nicht ganz. Eventuell kann Igor ja eine Umfrage dazu machen, dann wissen wir genaueres.
Ich habe AMD und NV Gpus im Einsatz und da ich nicht beliebig viel Geld habe, schaue ich sehr genau auf das P/L Verhältnis.
Leider ist die Treiber/Tools Unterstützung bei NV der Horror - bei AMD sind alle Funktionen (OC/UV/Steaming/Status etc.) perfekt im Adrenalin ganz ohne Account- und Onlinezwang.
 
Wenn man mal die reine Ausstattung der 7800XT gegen die 6800XT hält
Genau das sollte man aber nicht, da die RX 7800XT eigentlich eine RX 7800 ist und die RX 6800 als Vorgänger (mit ebenso 60 CUs) hat ;).

Natürlich hat das AMD/RTG Marketing mit der Namensgebung bei den RDNA3 Grafikkarten sich keine Gefallen getan sondern ziemlich versagt und das werden wohl leider auch die wenigsten Rezensenten aufgreifen und die Review dementsprechend anpassen.

An sich dürfte die RX 7800 XT bei dem Preis und wenn diese irgendwo zwischen RX 6900XT und RX 6950XT Leistungsniveau landen sollte für den Preis schon lohnend/anständig sein (m.M.n. nach die zweitbeste/-rundeste Karte im RDNA3 Portfolio nur noch getoppt von der RX 7900XT).

Insgesamt finde ich beide aktuellen Grafikkartengenerationen (Ada Lovelace von nVidia, wo nur die RTX 4090 erwähnenswert/löblich ausgefallen ist, aber auch RDNA3 von AMD/RTG), insbesondere im Vergleich zu den meist kaum schwächeren Vorgänger-Generationen, zum abhaken und bin gespannt was die RDNA4/5 und RTX 5000 (Blackwell?) Generationen bieten werden (weitere nahezu stagnierende Entwicklung ausser bei den Preisen oder wieder etwas spürbaren Fortschritt oder gar Mehrwert für die potentielle Kundschaft)?

So gesehen denke ich eher, dass Intel bei Battlemage - wenn sie den Marktstart der zweiten Arc Generation (Verfügbarkeit, Treiber und Preispositionierung) denn halbwegs gelungen über die Bühne bekommen - das größte Verbesserungspotential (natürlich weiterhin nur im Einsteiger- und Mittelklassebereich) vorhanden ist.
Wenn das bei Intel einigermaßen passen sollte, würde ich da noch am ehesten zugreifen (wobei ich aktuell noch für einige bis viele Jahre versorgt sein dürfte mit meiner RDNA2 Karte, insbesondere, falls FSR(3) sich weiterhin positiv entwickeln sollte), aber ich habe meine Zweifel, ob Intel mit Arc im mobilen dGPU-Bereich (mit hoffentlich besserer Effizienz) dann schon angreifen werden (können).
 
Oben Unten