News AMD kontert mit der Radeon RX 6900XT, 6800X und 6800 Nvidias GeForce RTX 3070, 3080 und 3090

@Dark_Knight

Dein Posting könnte glatt von mir sein, nur mit jeweils "NVidia" statt "AMD" :)

Schon sehr auffällig. Zumal Ghostriders Posting gar nicht so negativ war sondern nur etwas skeptisch und die Finger auf einige Wunden in der Präsentation gelegt hat.

Eine "Lederjacken" Präsentation nehmt ihr doch auch so herzhaft gerne auseinander. Bei AMD aber auf einmal so empfindlich...

jaja :)

Na, so spannende Zeiten gab es schon lange nicht mehr in der GPU Welt. Und beide Seiten schaufeln an ihren Schützengräben und wetzen die ihre Messer. Wenn es nicht so zum Lachen wäre, müsste man weinen.
 
Mich wundert enorm, dass es sehr wenige Leute gibt, die das wie ich in etwa so erwartet haben. Vielleicht gehofft oder gar gewünscht, aber erwartet? Sehr überschaubare Anzahl.
Aus meiner Sicht war schon beim Erscheinen der beiden 5700er Karten klar, dass AMD noch was in der Hinterhand hatte, allerdings wohl mit zwei Problemen: zu großer Chip und zu hohe Leistungsaufnahme, letzteres zumindest hinsichtlich des Vergleichs mit den Nvidias. Ersteres dürfte vermutlich arg schwierig zu kühlen gewesen sein.
Also hat AMD keine 5800 oder 5900 (oder gar 5950) rausgebracht, sondern sich gleich um die nächste Generation gekümmert. Guter Plan.
 
Also als so ein richtiger Deutscher, möchte ich jetzt auch mal auf hohem Niveau jammern: Konnten sich die beiden Hesteller hier nicht deutlicher voneinander absetzen? Wenn ich alle vermeintlichen Vor-und Nachteile gegeneinander abwäge, dann bleibt fast nichts mehr übrig, was mir die Entscheidung erleichtert, und beide Produkte verderben mir die Kauffreude mit irgendwelchen Makeln. Früher war alles besser, da gab es immer einen klaren Gewinner! Danke AMD, jetzt brichst du nach gefühlten Jahrzehnten das NV Monopol und ziehst nicht mal dran vorbei?
 
Das kommt aufs Einsatzgebiet an: als reine Spielekarte oder mehr?
 
Bei mir immer nur für VR ;-)

Sorry, das oben war eher als Satire gemeint. Das wirklich witzige ist allerdings, dass es bei mir gerade wirklich so aussieht.. "hätte NV nicht mehr Speicher bieten können? ... Hätte AMD nicht schon längst seinen Treibersupport aufpeppeln können?" ... usw. Ich mache mich hier also hauptsächlich über mich selber lustig und biete einen dritten Gegenpol zu den Rot\Grün Fanlagern.
 
@Derfnam
Das hab ich auch schon länger gesehen und auch mal geschrieben.
Schau dir Zen1 an,der Weg war da.....1000,2000er hatten Intel schon unter Druck gesetzt,es fehlte nur der Takt um vorbei zu ziehen.Die 3000er waren jetzt ein Zwischenschritt und mit den 5000er ist es vorbei mit Intel.
RX5000 ist Zen1/+ ,RX 6000 ist Ryzen 3000,mit RX7000 kommt auch bei Nvidia der große Knall.
 
Oh, ja, klar, wenn sich ein Bayer als richtiger Deutscher bezeichnet^^.
 
Habe erst jetzt auf Golem gelesen, dass eine DLSS Alternative ja erst später nachgereicht wird.
Und dann muss diese ja auch mit DLSS 2.0 mindestens gleichziehen.

Isr für mich schon ein ziemliches Brett, da ich DLSS als Game Changer betrachte.

Wie sieht ihr das?
 
Isr für mich schon ein ziemliches Brett, da ich DLSS als Game Changer betrachte.
Ich denke auch, dass DLSS Zukunft hat. Praktisch das selbe Bild bei viel geringerer Belastung nur durch schlauere Programmierung. Das ist die Richtung, in die man mehr investieren sollte. Die Entwicklung zu noch kleineren Strukturen und noch mehr Stromverbrauch lässt sich nicht immer weiter treiben. Vor allem bringt es nichts, wenn die Programmierer die neue Leistung rücksichtslos versauen. Es kann doch nicht sein, dass man alle 2 bis 3 Jahre wieder in eine neue Grafikkarte investieren muss um aktuelle Games spielen zu können.

Ich habe bereits vor 30 Jahren ein paar Games programmiert und dabei gelernt, wie viel Leistung man einsparen kann, wenn man will.
 
Mich wundert enorm, dass es sehr wenige Leute gibt, die das wie ich in etwa so erwartet haben. Vielleicht gehofft oder gar gewünscht, aber erwartet? Sehr überschaubare Anzahl.
"Erwarten" ist auch bissel schwer find ich nach all den Jahren. Bei fast jeder Generation hieß es mehr oder weniger: "AMD kann mithalten". Um dann doch von "ein klein wenig" bis "massive" hinter her zu hecheln.

"Gewünscht" oder "gehofft" ... klar, auf jeden Fall :). Monopole sind immer schlecht, Konkurenz belebt das Geschäft. Gewinner ist (sofern keine illegalen Absprachen getroffen werden) der Verbraucher. Und in dem Fall (6xxx) standen die Zeichen nicht schlecht, nach dem was AMD bei den CPUs gezaubert hat. Auch die pure Anzahl an "leaks" seitens NVidia und wie leise es seitens AMD war deuteten schon auf semi-Panik seitens NVidia hin.
/Aluhut /meinung Ich halte "Kimi"-irgendwas immer noch für Jensen "Leatherman" Huang ;).

Und wie ich schon sagte, hat in meinen Augen AMD bereits gewonnen. Egal ob da nu +-10% FPS mit/ohne RT raus springen. Allein die 6900xt ist ein A-Tritt gegen NVidia vom Preis (wtf -1/3 euros weniger *stinkefinger to NVidia*) und vom Verbrauch. Die -4gb VRam sind für Gamer wie mich unwichtig (für Semi-Pros nicht!!). 16GB (Verweis zu next gen Konsolen) war der magische Wert. Und wenn man auf die GB die Goldwage legt ... 3080 -6gb, 3070 -12gb ... zweiter Stinkefinger Richtung NVidia :).

PS: und wenn man ein komplett System nimmt I9+MoBo+NVidia+G-Sync Monitor gegen R9+MoBo+AMD+FreeSync Monitor ... hat AMD auf ganzer Linie verdammt gute Arbeit gemacht und mit abstand das beste Preis/Leistungs-Verhältniss nu.

Bei der Massenverteilung aka Versorgung am 9.Nov bleibt ab zu warten, ob AMD liefern kann oder in das selbe Fettnäpfchen tritt wie NVidia. Wenn ja: Stinkezeh (?? finger gehen aus) richtung NVidia .. wenn nein: ganz großes Kino *g* wird der Gewinn doch erheblich geschmälert - aber nicht komplett negiert! Maximal gleichstand dann. Denn es zu schaffen, von "billigmarkt Value" auf "gut" (5700xt GPU) auf "konkurenzfähig" in nur zwei Generationen ... Hut ab!
Bin NVidia "FanBoy". War fast immer zufrieden (grml 970 speicher) und mag die Einfachheit der Treiber (hatte nen Laptop mit AMD ... war nen grausamer Treiber). Aber mit 3xxx CPU 5xxx GPU und deren Nachfolger muß ich neidlos anerkennen: AMD hat's gerockt ;).
Auch und grade, weil alles auf dem AM4 läuft.

@Igor ... wenn du eine 6xxx testest, wäre es zu viel verlangt, wenn du prüfst, welche der neuen Treiber Funktionen ausschließlich mit 5xxx+6xxx laufen und welche vieleicht auch 3xxx+6xxx können (zum können gebracht werden können *g* besonders dieses "low letanzy" juckt mich)?
 
Zuletzt bearbeitet :
AMD stapelt meistens tief,- um ein Böses Erwachen bei Release zu vermeiden
Dies müsste @Igor Wallossek wohl wissen!

Denke bis zum Release kommen nochmals 3 bis maximal 5% an Mehrleistung an.
AMD arbeitet an der Fertigstellung des Final Treibers.
 
AMD stapelt meistens tief,- um ein Böses Erwachen bei Release zu vermeiden

Allenfalls in neuerer Zeit - der 8150 FX (Bulldozer), den ich unlängst verschenkt habe, und der AMD in den USA ein Strafverfahren wegen irreführender Werbung ("8" Kerne) eingebracht hat, scheint wohl ein Umdenken induziert zu haben.
 
Der Hype ist doch okay AMD hat ihren Abstand deutlich verkleinern können und teilweise gleichziehen können. Das die 3090 nur mit Tricks wenn überhaupt geschlagen wird ist eigentlich relativ... Gut manche Kaufen ne 200-300€ Karte weil AMD oder Nvidia Overall den Längsten Balken hat solls angeblich geben ^^ Gibt vllt ein gutes Gefühl :p

Aber ich für mein teil will mehr Leistung als meine 5700xt da reicht mir die 6800 xt .... DLSS und RT wayne .... ganz ehrlich PysiX und Hairworks ist ja auch son ding kein Hahn kräht mehr danach....
 

Ich denke auch, dass DLSS Zukunft hat. Praktisch das selbe Bild bei viel geringerer Belastung nur durch schlauere Programmierung. Das ist die Richtung, in die man mehr investieren sollte. Die Entwicklung zu noch kleineren Strukturen und noch mehr Stromverbrauch lässt sich nicht immer weiter treiben. Vor allem bringt es nichts, wenn die Programmierer die neue Leistung rücksichtslos versauen. Es kann doch nicht sein, dass man alle 2 bis 3 Jahre wieder in eine neue Grafikkarte investieren muss um aktuelle Games spielen zu können.

Ich habe bereits vor 30 Jahren ein paar Games programmiert und dabei gelernt, wie viel Leistung man einsparen kann, wenn man will.
Nur mal kurz für mich zum verständnis, weil DLSS mich null interessiert.. Muß DLSS vom Spieleprogrammierer in irgendeiner Form implementiert das es funktioniert ??
 
NV-HP:
DLSS nutzt die Vorteile der Supercomputer von NVIDIA, um das KI-Modell zu trainieren und zu verbessern. Die aktualisierten Modelle werden über Game-Ready-Treiber für deinen GeForce RTX-PC bereitgestellt. Tensor Cores nutzen dann die Teraflops an dedizierter KI-Leistung, um das DLSS-KI-Netz in Echtzeit auszuführen. Dadurch erhältst du die Leistungsfähigkeit des DLSS-Supercomputer-Netzwerks, mit dem du Leistung und Auflösung verbessern kannst.

Außerdem muss es vom Spieleentwickler implementiert werden
 
Nur so nebenbei: Bei einer Intel CPU hat man eigentlich immer auch ein Intel-MB.

Warum ist jetzt bei AMD ein Synergieeffekt so diskussionswürdig?
 
Verstehe ich auch nicht genau sowenig wie einen Zen3 zwang.... als ob die Karte nicht brauchbar wäre wegen paar % immer noch schneller als jede andere Karte auf dem Planeten außer der 3090 evtl.^^ Die Tester sind nur angeschiert die müssen nun Zen2 / Intel und Zen3 auf den karten Testen xD
 
Für mich wäre jetzt noch interessant, ob das SAM auch in TRX40 enthalten ist und mit den kommenden Threadrippern genutzt werden kann.
 
Oben Unten