News Neuigkeiten und Gerüchte zu RDNA2 (Sammelstrang)

Raytracing interessiert mich persönlich eher wenig und das wird auch in den nächsten 2 Grafikkartengenerationen massive Leistungseinbußen mit sich bringen. Insbesondere, wenn man dann wieder eine Technologie wie DLSS benötigt, um wieder spielbare Bildwiederholraten zu erhalten. Cyberpunk 2077 will gleich vier Raytracing Features bieten, das dürfte dann auch ein RTX3090 SLI-Gespann selbst mit DLSS ins schwitzen bringen. "Will it run CBP'77 with RT?" Maybe, Baby.

Ich finde es etwas schräg auf RT zu verzichten, weil man dafür im Gegenzug evtl. DLSS aktivieren müsste. Die Einbußen von DLSS muss man mit der Lupe suchen, wogegen die Vorteile von RT sofort auf der Hand liegen.

Aber jedem seine Prioritäten. Nur manchmal habe ich das Gefühl, die Prioritäten sind eher von Abneigung gegen bestimmte Anbieter geprägt und weniger durch einen ehrlichen Vergleich.
 
Die Einbußen von DLSS muss man mit der Lupe suchen, wogegen die Vorteile von RT sofort auf der Hand liegen.
Da gebe ich dir vollkommen recht. Habe DLSS jetzt nur bei Shadow of the Tomb Raider ausprobiert, da ich kein anderes Game besitze welches die Funktion unterstützt und war mehr als positiv überrascht. Blieb direkt an.
 
Unsägliche Stimme in diesen Videos. Nicht wirklich erträglich. Aber das ist nur meine persönliche Meinung.
Riesenchip mit "nur" 256 bit GDDR6 und/oder gleichzeitiger Anbindung von HBM2 plus geheime Sauce in Form von "Infinty Cache" direkt auf dem Die. Und inwiefern man den Einträgen für die Linuxtreiber und Big Sur glauben darf ist mal dahingestellt, da widerspricht sich immer so einiges. Verdammt hält AMD hier dicht, man fasst es nicht.
Erster Gedanke: Hä?! Warum plötzlich kein HBM mehr? Ist doch viel geiler als diese popeligen 256bit mit GDDR6?
Zweiter Gedanke: Sie haben Erfahrung mit HBM(2). nVidia ebenso. Komisch.
Dann: es wird gemunkelt(?), dass AMD auch ein >380bit Interface bei BigNavi getestet hätte und entschied sich für ein besseren Cache.
Mutmaßung von mir: RDNA/GCN hatte womöglich ein Designfehler, der mit einem breiteren Interface bzw. HBM versucht wurde auszugleichen. Fehler ist vllt. das falsche Wort. Man kann auch von "ein falschen Weg eingeschlagen" sprechen, der sich zu spät herauskristalisierte. Edit: RDNA mal gestrichen. Ich schätze, mit RDNA kamen die ersten vorsichtigen Gehversuche in eine andere Richtung.

(Ich schaue mal grad nicht nach dem Gemunkel. Gleich kein Saft mehr und eigentlich wollte ich heute Ubuntu auf mein Laptop klatschen, da die NVME, von INTEL!!!1!elf, den Geist aufgab -,-)
 
Ich finde es etwas schräg auf RT zu verzichten, weil man dafür im Gegenzug evtl. DLSS aktivieren müsste. Die Einbußen von DLSS muss man mit der Lupe suchen, wogegen die Vorteile von RT sofort auf der Hand liegen.

Aber jedem seine Prioritäten. Nur manchmal habe ich das Gefühl, die Prioritäten sind eher von Abneigung gegen bestimmte Anbieter geprägt und weniger durch einen ehrlichen Vergleich.
Habe RT noch nicht selbst bewundern können, kann also nur von Screenshots sprechen. Was ich bisher gesehen habe, hat mich aber nur halb überzeugt. Pathtracing und Global Illumination fand ich bisher immer sehr eindrucksvoll, Schatten manchmal schön, manchmal mit nur geringem Unterschied, und Reflexionen sehr gemischt. Letztere sehen mMn häufig genug aus, als hätte man versucht das Spiel auf Hochglanz zu polieren, da sich Sachen spiegeln, die sich in Realität nie so spiegeln würden (z.B. im Meer in Crysis Remastered). Manchmal sind die Reflexionen aber beeindruckend (z.B. Glasscheiben, Pfüzten (ja, die spiegeln besser als das Meer, weil keine Wellen)).

Zuneigung/Abneigung... So funktioniert die Welt, oder nicht? Auch bei GPU-Herstellern. Eigentlich basiert sogar fast jegliche Werbung darauf. Wer die rational beste Entscheidung treffen will, muss erst mal definieren, was das ist bzw. welche Prämissen dem zu Grunde liegen.
 
Manchmal frag ich mich auch ob volles Ray Tracing wirklich nötig und besser ist als gefaktes Raytracing und oder angepasstes Ray Tracing. Aber das liegt zu großen Teilen noch an den Entwicklern die dies besser implementieren müssen. Man kann nicht alles Raytracen. Eine Glasscheibe oder Pfütze die wie ein Spiegel wirkt ist eher abschreckend als „gutes“ Beispiel. Das mag geil aussehen aber ist eigentlich genauso eine falsche Reflection. Hoffe man weiß was ich meine.
 
Ich gehöre eben zu denjenigen, denen mehr Leistung wichtiger ist, als die "neuesten" und "tollsten" Features, die am Ende das mehr an Leistung bei der neuen GPU Generation wieder auffressen. Und solange ein Featureset wie RT nicht überall genutzt werden kann, da es extra von den Entwicklern erst implementiert werden muss (was ja gar nicht so einfach ist, wie es nVidia auf der Gamescon damals behauptet hat "It just works's"), kann ich darauf verzichten.

Und mit meinem Post das etwas auf keinen Fall ein Standard werden darf, bezog es sich einzig auf Features die proprietär sind und somit nicht allen zur Verfügung stehen. Nicht mit einer Technik wie RT an sich.

Und das wird eben auch RT bei AMD beinhalten, was schön ist, dass es da ist. Es aber definitiv aus bleiben wird, solange es die Leistung der Karte verringert. Denn so toll kann sich das Bild das auf den Monitor gezaubert wird gar nicht verbessern, dass es nie wieder ohne gehen würde.

Auf der anderen Seite soll es jeder nutzen, der es eben für sich selber als ein Muss empfindet. Und wenn es für denjenigen das Spielgefühl verbessert ist das doch super. Schade nur, dass man in der letzten GPU Generation von nVidia dafür einen fetten Aufschlag zahlen musste. Das es besser geht, zeigt ja nVidia zumindest bis zur 3080 in der neuen Generation.
 
Für mich hat sich RT überigens erst dann richtig durchgesetzt, wenn die Titel von Ubisoft diese Funktionen unterstützen. Gefühlt habe ich seit einem Jahr 70% meiner Gamingzeit für Farcry, Anno und AC aufgebraucht. Bei den anderen Titeln habe ich dann auch mal DLSS 2.0 und RT genossen, aber die Spiele an sich konnten mich nicht langfristig fesseln. Um aufs Thema RDNA 2 zu kommen, die Rohleistung ist für mich am wichtigsten, danach kommt ein DLSS equivalent und dann erst Raytracing. 4k, 120fps (mit reduzierten Details) ist aktuell mein Wunsch :love:
(Und natürlich HDMI 2.1 Support sowie problemloser FreeSync Premium Support - das sollte aber ja hoffentlich selbstverständlich bei der neuen Gen sein)
 
4k, 120fps (mit reduzierten Details) ist aktuell mein Wunsch

Kann ich sehr gut nachvollziehen.
Meiner is 1440p mit 100 festgetackerten FPS. Also nach Möglichkeit immer über 100 fps, für das fps lock.
Da kann man im Fall der Fälle auch mal n Tick die Details für runterdrehen, wenn's nicht groß auffällt. :)
 
 
@Grestorn
Seit Nvidia damals ihren Partnern im Rahmen des GeForce Partner Program (GPP) verboten hatte, ihre Grafikkarten unter dem selben Gamingbrand (bspw. Asus mit ROG) wie die AMD Konkurrenz anzubieten, weil ihre Kunden eine GeForce mit einer Radeon verwechseln könnten, man könnte es auch anders formulieren, dass sie ihre eigenen Kunden für zu dumm halten um die beiden zu unterscheiden, bin ich in der Tat nicht mehr so gut auf Nvidia zu sprechen. Man war doch schon auf Platz 1, da hatte man doch solche Maßnahmen nicht nötig.

Wie dem auch sei, ich hasse den Laden nicht, aber in den nächsten Jahren muss AMD schon derbe verkacken, damit ich wieder eine grüne Grafikkarte in meinen PC einbaue.

Und ich halte RT einfach technisch für zu anspruchsvoll an die Hardware, darum ist DLSS nötig. Das wird bei AMD genau so sein, sie werden ihrerseits eine Scalingtechnologie brauchen, um RT spielbar darstellen zu können.

Bei 8K Auflösung das gleiche: Das geht zwar auch mit DisplayPort 1.4, aber nur mit Farbkompression.

Ich sehe das mit DLSS ungefähr so: Ich habe lieber einen 3L Sechszylinder, als einen 1,6L Turbozwerg (DLSS), selbst wenn der kleine sogar ein wenig mehr Leistung bietet und der vielleicht sogar weniger säuft. Aber dafür funktioniert der Turbo nur auf ausgewählten Straßen, daher fühlt sich der 3L für mich einfach "ehrlicher" an, denn die Leistung steht auf jeder Straße zur Verfügung.
 
Es wird wohl doch langsam spannend...
Hier der Link direkt:

Allerdings: was wenn sie das nur gemacht haben um NV zu verunsichern? Und Leaks auf eine falsche Fährte zu bringen? Muss man auch mal drüber nachdenken.
 
Es bleibt spannend.

Zu rt nochmals.

Alle Spiele die ich habe können alle kein RT. Entweder sind sie zu alt oder sind online Games. Da schaltet man es eh ab.

Spannend wird sein wie AMD es implementiert hat und wie viel Performance es frisst.

Für mich aktuell kein kauf Argumentation. Ende des Monats wissen wir mehr. Mal sehen was die Twitter leaker noch so raus hauen
 
Interessant ab Minute 2:30. Vorher spricht er übers Backen. Aber das ist notwendig!
Geht um L1 Cache...und der Einsatz in GPUs.

 
@DHAmoKK

Also bestätigst Du, dass Du auf Grund eines Marketingstunts, über den sich sicher streiten lässt (wie sie aber ständig vorkommen und von denen AMD auch schon nicht wenige hingelegt hat) eine Abneigung entwickelt hast, die Deinen objektiven Blick verstellt.

Nun, ich will das gar nicht ändern. Am Ende ist es ja gut, dass AMD so viele Fans hat. Nichts wäre schlimmer, als wenn AMD vom Markt verschwinden würde.

Man muss aber dennoch nicht um Teufel komm raus alles schlecht machen, was von NVidia kommt, und das machen bestimmte Leute ständig, als ob sie den Menschen, die etwas offener sind, um jeden Preis klar machen, wie unwissend sie doch sind und wie falsch sie liegen.

Solche Aussagen sind aber dann, wenn man sich aus eigener Anschauung nicht ein eigenes Bild gemacht hat, immer etwas ... schräg.
 
@Grestorn
Es macht hier meines Wissens niemand auf Teufel komm raus alles schlecht, was von NVidia kommt.
Bei dir klingt das so, als wäre der objektive Blick der, der alles ausblendet, bis auf die reinen Leistungsdaten. Das ist er nicht.

Gerade in letzter Zeit werden alle drei, AMD, Intel und NVidia, für jeden Fehltritt ordentlich kritisiert, und das ist mMn. auch sehr gut so.
 
@DHAmoKK

Also bestätigst Du, dass Du auf Grund eines Marketingstunts, über den sich sicher streiten lässt (wie sie aber ständig vorkommen und von denen AMD auch schon nicht wenige hingelegt hat) eine Abneigung entwickelt hast, die Deinen objektiven Blick verstellt.

Nun, ich will das gar nicht ändern. Am Ende ist es ja gut, dass AMD so viele Fans hat. Nichts wäre schlimmer, als wenn AMD vom Markt verschwinden würde.

Man muss aber dennoch nicht um Teufel komm raus alles schlecht machen, was von NVidia kommt, und das machen bestimmte Leute ständig, als ob sie den Menschen, die etwas offener sind, um jeden Preis klar machen, wie unwissend sie doch sind und wie falsch sie liegen.

Solche Aussagen sind aber dann, wenn man sich aus eigener Anschauung nicht ein eigenes Bild gemacht hat, immer etwas ... schräg.
Da stimme ich zu 100% zu und das gilt natürlich auch für alle Unternehmen, nicht nur für Nvidia. Im Umkehrschluss bedeutet das aber auch, dass man seinen favorisierten Hersteller nicht bis in den Tod verteidigen und zu jeder Gelegenheit in den Himmel heben muss. Jedem steht schließlich seine eigene Meinung zu und Andere zu denunzieren, weil sie anderer Meinung sind, ist eine ziemlich hässliche Eigenschaft. Das ist natürlich auf die Allgemeinheit bezogen und gilt jetzt nicht im Speziellen dir!

Grüße
 
Also bestätigst Du, dass Du auf Grund eines Marketingstunts, über den sich sicher streiten lässt (wie sie aber ständig vorkommen und von denen AMD auch schon nicht wenige hingelegt hat) eine Abneigung entwickelt hast, die Deinen objektiven Blick verstellt.

das hat doch nichts mit einer abneigung gegen hersteller xy zu tun. es ist doch schlussendlich nur der eigene (nicht-)kauf der in diesem fall nvidia aufzeigen kann, dass man solche aktionen nicht ok findet.

ist halt wie bei abstimmungen/wahlen wo man auch mal idealistisch seine ideale vertreten sollte, auch wenns dann halt 10% weniger leistung oder mehr stromverbrauch bedeutet.

auch für mich müsste amd derbe verkacken, damit ich die nächste neukarte nicht von ihnen kaufe. das aktuelle amd steht in vielen belangen eher für das, was ich richtig finde und deshalb unterstütze ich den hersteller wenn ich kann.


objektiv ist vieles, aber sicher nie nur ein blickwinkel.
wenn mir öko wichtig ist, kaufe ich objektiv die beste perf/watt karte, wenn preis wichtig ist, die perf/€ karte und wenn mir moralische werte eichtig sind, gibts halt die karte von der firma die am ehesten meinen werten entspricht.
völlig unterschiedlich und doch alles objektiv.
 
Jedem steht schließlich seine eigene Meinung zu und Andere zu denunzieren, weil sie anderer Meinung sind, ist eine ziemlich hässliche Eigenschaft. Das ist natürlich auf die Allgemeinheit bezogen und gilt jetzt nicht im Speziellen dir!

Ich glaube nicht, dass ich jemandens Meinung denunziere. Du wirst mich auch nie erleben, dass ich irgendwie abfällig über AMD rede, weil ich das für nutzlos und unangebracht empfinde. Und wie gesagt, ich meine es durchaus ehrlich, wenn ich AMD das überleben wünsche. Meinen kleinen Anteil dazu habe ich ja auch geleistet (es lässt sich nicht rational erklären, sich einen 3950x zu kaufen, zumal der in Spielen definitiv nicht die beste Wahl ist, aber ich finde das Teil einfach geil und ich finde es geil, wie sich AMD wieder nach vorne gekämpft hat).
 
Mich würde mal interessieren welchen Marketing Stunt AMD hingelegt haben soll, der in dieselbe Kerbe wie GPP geschlagen hat? Weil mir ist keiner bekannt aus der Kategorie von AMD. Aber vielleicht habe ich den ja nicht mit bekommen.
 
Ich glaube nicht, dass ich jemandens Meinung denunziere.
Das machst du, wenn du eine andere Meinungen mit "Verschwörungstheorie" und "faseln" abqualifizieren willst. Man kann die Theorie von "Moores Law is dead" durchaus skeptisch sehen, bisher liegt er damit aber zumindest nicht grundsätzlich falsch: der Nachschub ist sehr begrenzt und die Preise sind stark gestiegen, Karten für 699 € sind kaum zu bekommen. Ob das jetzt Jensens Masterplan ist oder nicht, für den potentiellen Käufer ist das keine gute Situation.
 
Oben Unten