News AMD kontert mit der Radeon RX 6900XT, 6800X und 6800 Nvidias GeForce RTX 3070, 3080 und 3090

Die Tester sind nur angeschiert die müssen nun Zen2 / Intel und Zen3 auf den karten Testen xD
Glaub ich nicht wirklich. So wie das in der Presentation aussah, konnt man die feature einfach ausschalten. Damit weiß man, wie viel % sie jeweils bringen. Das dann einfach auf die Anderen CPUs umlegen.

Um das Maximum raus zu holen wird man aber wohl eine Ryzen 5x00 CPU brauchen :(.
 
@Derfnam
Das hab ich auch schon länger gesehen und auch mal geschrieben.
Schau dir Zen1 an,der Weg war da.....1000,2000er hatten Intel schon unter Druck gesetzt,es fehlte nur der Takt um vorbei zu ziehen.Die 3000er waren jetzt ein Zwischenschritt und mit den 5000er ist es vorbei mit Intel.
RX5000 ist Zen1/+ ,RX 6000 ist Ryzen 3000,mit RX7000 kommt auch bei Nvidia der große Knall.

Seh ich fast genauso. Der Unterschied ist nur das Intel sich vorher schon ein Bein gestellt hat... UND dann danach nicht mehr wusste wie man aufsteht.

Dieses Problem seh ich bei Nvidia weniger gegeben. Die sind immer noch gut dabei und haben einige Vorteile gegenüber AMD. Selbst wenn RX7000 „sehr viel“ besser werden würde als Nvidias nächste Karten würde man immer noch mehr als genügend andere Vorteile bieten können. Ray Tracing scheint Nvidia klar besser zu sein zb. Für Creator ist man immer noch besser. Dann kommt noch RTX IO. Das sollte man nicht vergessen. Für mich DAS Feature überhaupt das völlig vernachlässigt wird, ka warum. Auch wenn ich nicht glaub das es so gut wird wie behauptet (besser als die PS Lösung die darauf ziehlt das man wirklich 100 mal schneller Daten von der SSD in den Speicher streamt). Und dann kann Nvidia auch noch nen kleineren Node verwenden mit der nächsten Gen. Anders als momentan wo man AMD den Vorzug geben musste (reine Vermutung von mir, auch wegen der Konsolen unter anderem).

Also Nvidia ist da halt schon anders aufgestellt als Intel momentan. Auch wenn Nvidia auch einfach sehr gut Verkaufen kann so denke ich dennoch auch das deren Produkte durchaus gut sind... Leider. Der Preis ist nur oft nicht gerechtfertigt. Eine 2080TI war niemals 1200+ Euro wert. Genauso weniger ist die 3090 1500+ Euro wert. Sieht man schon allein an der RX6900 (die übrigens genauso etwas übertrieben Teuer ist, keine Frage, aber nicht so viel wie Nvidias Preis Vorstellung)
 
Glaub ich nicht wirklich. So wie das in der Presentation aussah, konnt man die feature einfach ausschalten. Damit weiß man, wie viel % sie jeweils bringen. Das dann einfach auf die Anderen CPUs umlegen.

Um das Maximum raus zu holen wird man aber wohl eine Ryzen 5x00 CPU brauchen :(.
Das ist ganz einfach als Bonus anzusehen. Wenn Du nen neuen PC baust und dir überlegst ob Du den alten Ryzen 3000 kaufen sollst oder den neuen 5000 der halt mehr kostet dann hast Du nun nen weiteren Grund diesen 5000 zu kaufen. Das ist alles. Es ist nicht dazu gedacht das Du nun deine 3000er CPU verkaufst und dir ne neue CPU kaufst. Wenn Du das machst dann ist es dir eh egal. Und ansonsten sinds ein paar Prozent die du liegen lässt, dafür sparst Du aber auch gleich mal 100-200 Euro an der CPU.
 
Muß DLSS vom Spieleprogrammierer in irgendeiner Form implementiert das es funktioniert ??
DLSS ist tief in der Grafikprogrammierung der Games verknüpft. Ich kann dir nicht genau sagen, wie Games dafür programmiert werden müssen, aber ich habe mal versucht etwas heraus zu finden, was hinter den Webreargumenten versteckt ist.

Es wird ein Bild erstellt, das aber nur die halbe oder einen Drittel der vollen Auflösung hat. Die fehlenden Pixelwerden dann nach eine von Nvidia vortrainierten Algoritmus ergänzt.
(ich musste meinen Text nochmals ändern, da ich es nicht richtig dargestellt hatte)

Die Methode wie das Bild berechnet wird ist viel komplexer. Der gesammte Berechnungsaufwand ist aber kleiner, als wenn man für jedes neue Bild jeden Bildpunkt nochmals von Grund auf neu berechnen muss.
 
Zuletzt bearbeitet :
Gute Präsentation von AMD, ich hoffe die Tests werden diesen Eindruck validieren. Dann kann jeder für sich entscheiden ob er zu AMD oder zu Nvidia greift. Da kommt es ja dann auf die eigenen Präferenzen an. Für mich zum Beispiel ist eine vernünftige Leistung in 2K , bei den von mir genutzten Spielen wichtig. RT steht eher hinten an. Für mich ein ganz wichtiges Kriterium dagegen die Verfügbarkeit von verschiedenen Herstellern. Mir nützt die beste Karte nichts bei Zero Verfügbarkeit...;)
 
Zuletzt bearbeitet :
.
 
Zuletzt bearbeitet von einem Moderator :
Von AMD wurden doch aber auch nur deren eigene Karte und keine Strix bzw. Trio X genommen.
Je nach Bench steht schon dran, dass "Rage"-Mode und "SAM" aktiviert waren. Page_19 und Page_32 haben "rein zufällig" auch keine Angabe mehr zum "Board Power". Das taucht nur in der ersten Folie auf.

Das ist vermutlich kein Zufall, wenn es auf der ersten Folie noch steht, auf der wohl nicht übertaktet wurde, und dann bei den späteren Folien fehlt.
Nunja, der Rage-Modus ist kaum "übertakten". Da werden das Power-Target und die Lüfterkurve angehoben. Das ist die Definition. Dafür bedarf es keiner Boardpartnerkarte. Bei NVidia machen das halt die Boardpartnerkarten - oder der User @Home, der sein Powertarget anhebt.

Müssen wir uns 1-2 Wochen gedulden bis @Igor Wallossek dann hoffentlich Äpfel mit Äpfeln vergleicht. 😉
Oder Salat mit Tomaten... wie auch immer man die beiden interpretieren will. ^^
Ich bin auf jeden Fall auf die Vergleichsbenchmarks gespannt und hoffe auf ein möglichst knappes Rennen.
 
DLSS ist immer noch viel zu wenig verbreitet, um ein echter Gamechanger zu sein.
Aber wie schon anderswo geschrieben: wer viel Wert auf Raytracing und DLSS legt, der kauft eben eine Nvidiakarte.
Und dann kommt ja auch irgendwann "Super Resolution"...
 
Hallo,

erkennt jemand den Plot aus dieser Marketingfolie von MSI oder gehört der zu einer noch nicht veröffentlichten AMD Karte?
[edit]
Für mich schaut das nach einer wirklich guten Backplate aus.
[/edit]

LG




Igor_MSI.png
 
Irgendwie wird die von mir wahrnehmbare Stimmung im Netz immer seltsamer.

AMD S.A.M. bringt vllt. 5% Leistung und es wird tatsächlich wegen der Exklusivität kritisiert und weil sie es in ihren eigenen Benchmarks verwendet haben. Das Selbe haben wir bei Nvidia mit DLSS. Das Selbe haben wir bei RT beider Lager. Bei dem Einen, weil es besser läuft und bei dem Anderen, weil es schlechter läuft. Bei dem Einen wird die Exklusivität mal ignoriert und mal Kritisiert. Bei dem Anderen wird die Verwendung des offenen Standards mal ignoriert und tatsächlich auch mal kritisiert. Ist das P/L Verhältnis zugunsten des Girokontos, wirds kritisiert. Ist der Preis weit höher als bei der Konkurenz, spräche nur Neid. Edit: sogar der Aufwand, der seitens der Herstellen betrieben wird, um das letzte Quentchen Leistung herauszuholen, wird schon kritisiert.

Schön war die Zeit als ATI, NVIDIA, AMD und Intel noch für Innovationen und für die gegenseitige Konkurenz geachtet wurden. Heute zanken sich sogar schon die Redakteure offen im eigenen bzw. fremden Foren anderer Redaktionen. Eine Zeitung stelle ich mir gerade friedlicher vor.

Ich frage mich, ob es nur mir so geht oder ob es ... öh, einfach an der dunklen Jahreszeit liegt. Gerne per PN.

(Meine aktuelle Beobachtung und individuelle Meinung - die ist nicht allgemeingültig! Die Begriffe AMD S.A.M., DLSS oder RT sind mir völlig wurscht. Ich spreche niemanden bewusst an und da steht nichts zwischen den Zeilen. Kein Trollversuch!)
 
Das Schöne an SAM ist ja, dass es einem nicht weg läuft. Wenn man derzeit auf einem aktuellen B550/X570 Board sitzt, hat man je nach Vorgängerkarte einen deutlichen Leistungsschub, auch ohne SAM (in meinem Fall Vega 64 -> RX6800XT/6900XT(??) = ca. 2-fache Leistung). Später, in 1-2 Jahren können sich die Leute dann noch mal günstig einen Ryzen 5000 abgreifen und erhalten nicht nur die deutlich erhöhte Singlethread Leistung, die ja immer noch sehr gefragt ist in Spielen, sondern zusätzlich auch noch SAM und holt noch ein paar einstellige Prozentpunkte aus der Karte heraus, das dürfte der Karte zu etwas mehr Langlebigkeit verhelfen.

Das einzige, was der Karte zukünftig dann wohl das Genick brechen wird, wird RT sein. Aber da ergeht es den aktuellen Nvidia Karten nicht anders. Bei der Präsentation jedenfalls sah es bei Riftbreaker durchaus nett aus, im direkten Vergleich sogar eindrucksvoll, aber wenn ich ehrlich sein soll, habe ich so etwas auch schon mit dynamischer Beleuchtung gesehen, nicht ganz in der Qualität, aber ja. Und gegen Nvidias DLSS, wird AMD dann wohl mit VRS auskommen müssen.
 
Hallo,

erkennt jemand den Plot aus dieser Marketingfolie von MSI oder gehört der zu einer noch nicht veröffentlichten AMD Karte?
[edit]
Für mich schaut das nach einer wirklich guten Backplate aus.
[/edit]

LG




Anhang anzeigen 6793
Der Plot ist aus einer meiner Messungen, aber es war eine stinknormale RX 5600. Lohnen tut sich das Zeug aber durchaus.
 
Irgendwie wird die von mir wahrnehmbare Stimmung im Netz immer seltsamer.
Richtig erkannt.
Es wird immer extremer. Bei allem. Das wird durch die Art, wie "social media" funktioniert verstärkt: Jemand mit vielen "Followern" hat Recht. Wer was anderes sagt, hat Unrecht. Was zählt sind "Likes".
Wie bekommt man viel Zustimmung: Durch Polarisierung. Gib den Leuten etwas, was einfach ist. Das muss nicht richtig sein, eine reine Glaubensphrase reicht und die Leute werden richtig schön militant.
Das ist einfach für den einfachen Geist: Man ist dafür oder dagegen. Es gibt keine anstrengenden eigenen Überlegungen, denn das Ergebnis ist vorgegeben. Und wer etwas anderes sagt und nicht zur Mehrheit oder zumindest zur eigenen Glaubensrichtung gehört, der muss per Definition falsch liegen. Oder gleich "dumm" sein. Und da man allen zeigen will, dass man selbst ja nicht dumm ist, wird derjenige öffentlich niedergemacht. Das bringt dann wieder soziale Anerkennung im eigenen Dunstkreis - auch durch Likes...

Und wenn man dann zur Objektivität mahnt, bzw bei einseitigen Postings auch "des Teufels Advokat" spielt, wird man niedergeknüppelt.
Da bleibt nur noch eines zur Aufheiterung: Zum Glück ist das nur ein Forum... Leider benehmen sich zunehmend die Menschen auch im echten Leben maximal dumm und niemand gewährt ihnen mehr Einhalt. :-(

Bei den genannten Technologien ist auch nicht alles auf der gleichen Stufe.
DLSS ist eine Bildverbesserung, die darauf beruht Details zu erraten. Und das "professionelle Raten" wird auf einem Supercomputer trainiert.
Letztendlich ist das eine Variante von: "Für echtes Rendering auf 4k reicht die Rechenleistung nicht, also berechnen wir weniger und raten das, was fehlt"
Toll ist anders, auch wenn es hübsch aussieht.
DLSS ist wohl grob vergleichbar mit AMDs neuem "Superresolution". Das ist nicht exakt das Gleiche, soll jedoch ähnliche Effekte bringen.

Das erinnert mich an frühere Bildverschlimmbesserungen, um mehr Leistung zu erreichen. z.B. Kantenglättung nur bei bestimmten Winkeln, etc. Das gab es früher schon und war da bereits ziemlich blöd, da jeder Hersteller eine andere "Optimierung" gefunden hat, die dann eben mehr oder weniger Leistung kostete und die Bildqualität ebenfalls mehr oder weniger gut war. Natürlich sagte jeder Hersteller, dass seine Lösung die beste war. ;)
Und wie damals wird man wieder überprüfen müssen, wann welche Technologie wo hilft und wo schadet, wer mehr Rechenleistung in mehr Bildqualität steckt und wer Qualität durch Quantität (Frameraten) tauscht. DLSS und Superresolution sind hierbei natürlich beide gleich zu behandeln.
Ich habe ein paar Beispiele für DLSS gesehen, die recht beeindruckend wareb. Und trotzdem ist das nichts, was ich haben möchte. Geratene Details anhand von irgendwelchen neuronalen Netzen, Mustererkennungen, etc möchte ich eigentlich nicht. Eine Grafikkarte sollte genau den Bildinhalt berechnen, der per Algorithmus und Texturen definiert wird. Reproduzierbar pixelidentisch.
Dabei ist mir klar, dass es für ein dummes Computerspiel irrelevant ist, ob sich kleine Details dann mit einem Treiberupdate verändern (neue Berechnungen auf dem Supercomputer können besagen, dass mit der höchsten Wahrscheinlichkeit nach einem neuen Algorithmus etwas anderes zu sehen ist...) Mir scheckt einfach dieses "Raten" nicht. Und da ist mir vollkommen egal, welcher Hersteller nun rät und ob er das mit einem Supercomputer unterstützt, mit einem Wachsmalstift oder einfach random Unfug einfügt. Das ist ähnlich wie "Schönheits-OPs": Die Filmstars werden dadurch auch nicht jünger, sie sehen nur anders aus.

RT: Nunja, letztendlich zählt wohl das, was in DirectX implementiert ist, solange keine "hauseigene Implementierung" versucht wurde. Raytraycing in Vulkan geht ja offensichtlich auch; offensichtlich auch recht performant. Nur eben nicht so wirklich standardisiert, wie ich es bisher verstanden habe.
Solange DirectX verwendet wird, haben AMD und NVidia die gleiche Ausgangsposition: Eine definierte Schnittstelle und damit wird gearbeitet. Das ist GPU-Hersteller unspezifisch und somit "fair". Ob NVidia seine Implementation nun RTX anstelle von DXR nennt, ist dabei relativ egal, solange DXR genutzt wird. Das ist vergleichbar mit den unterschiedlichen Bezeichnungen der Recheneinheiten innerhalb der GPUs. Was für den einen CU, ... mir ist der Marketingname egal, solange es das berechnet, was es soll. ^^

SAM bezieht sich, zumindest durch die Art, wie es jetzt präsentiert wurde, nicht mehr nur auf die Grafikkarte oder den Treiber oder einen optimierten Renderpfad. Plötzlich wird andere Hardware als Voraussetzung angesehen.
Und da zwischen CPU und GPU stink normaler PCIe ist, also keine proprietäre Verbindung, die etwas besonderes könnte, wenn man eine andere CPU hat, zudem auch kein neuer Befehlssatz in den CPUs angekündigt wurde, fällt es mir gerade SEHR schwer zu glauben, dass es diese suggerierte Hardwareabhängigkeit gibt. Und auch wenn es sie gibt: Dann werde ich das prinzipiell nicht gut finden.
Und auch wenn das irgendwem, der super harmoniebedürftig ist, nicht passt: Das ist meine Ansicht, die ich argumentativ untermauern kann. Historisch und objektiv.
Abweichende Meinungen finde ich nicht schlimm, solange diese sachlich bleiben.

Und solange keine Graka lieferbar wird, warte ich ab, schaue nach Benchmarks und wenn dann beide lieferbar werden, schlage ich bei der Karte zu, die mir zu dem gegebenen Zeitpunkt die beste Wahl erscheint. Und egal welche das ist, es wird sicherlich irgendwo wer im Forum als Beweis nehmen, dass er Recht hatte. Auch wenn das keine Rolle spielt. ;)

Mir sind die Namen der Technologien Wurscht, mir sind die Namen der Hersteller Wurscht, mir ist auch der Name meines OS Wurscht.
Ideal wäre für mich zur Zeit eine Graka, die eine fehlerfreie Bildqualität liefert, auch unter Last nicht laut ist und auf 4k in jeder Situation alles flüssig darstellen kann.
Da darf dann auch gerne "Höpdendöp" als GPU-Hersteller draufstehen, es ist mir sowas von egal, hauptsache das Teil funktioniert wie es soll.
 
Ich bin gespannt auf die ersten unabhängigen Benchmarks und ob die RT-Leistung wirklich so viel niedriger ist als bei den RTX 30... Vielleicht erwartet uns da ja noch eine kleine Überraschung.
 
Wie auch immer das Rennen um die Krone dieses Jahr ausfällt, muss man festhalten - es gibt ein Rennen - das hatten wir schon lange nicht mehr und das kann dem Kunden nur gut tun.

Ich bin noch nicht auf 4k unterwegs, wenn dann werd ich entspannt Titel wie TR SOTR auf TV über HDMI und Pad am TV-UHD genießen, ansonsten läuft alles auf WQHD - die neuesten bereitgestellten Benches sehen ganz in Ordnung aus - ... ggü. meiner RX580 eh.

Ich bin heute an einer 3080 Trio gescheitert (nicht bekommen) und habe dann selbst gemerkt, wie ich mich verhielt, als ich "in dem Rennen" war - als könnte man nicht einfach mal 1-3 Monate abwarten?! ...
 
Geratene Details anhand von irgendwelchen neuronalen Netzen, Mustererkennungen, etc möchte ich eigentlich nicht.
Ich habe das einmal versucht etwas zu verstehen, was bei DLSS wirklich gemacht wird. Dafür habe ich etwas weiter auf der Webseite von Nvidia gestöbert. Nur anhand der Werbung missversteht man es leider. Das neuronale Netzwerk errät keine Details.

Es wird für erst Bild ein kleineres Bild mit der halben oder einem Drittel der Auflösung normal erstellt. Die fehlenden Pixelwerden dann nach eine von Nvidia vortrainierten Algoritmus ergänzt.
(ich musste meinen Text nochmals ändern, da ich es nicht richtig dargestellt hatte)
Die fehlenden Details sind also nicht erfunden. Es werden nur fehlende Pixel ergänzt und nicht zusätzliche Details eingefügt.

Welche Funktion die Online-KI genau übernimmt, habe ich leider nicht heraus gefunden. Wie ich es verstanden habe, werden sehr viele 16K-Bilder eines Games ausgewertet. Durch die Erfahrung aus diesem Bilderberg kann dann der Prozess wie die aktuellen Bilder aus dem 16K-Bild erzeugt werden, verbessert werden.

Es kann nicht sein, dass für ein aktuelles Bild während der Berechnung online nach fehlenden Pixeln gefragt und diese mit KI berechnet werden. Dafür reicht weder die Zeit bis das Bild fertig sein muss, noch die Datenrate, noch die Leistung des Servers von Nvidia.
 
Zuletzt bearbeitet :
Ich habe das einmal versucht etwas zu verstehen, was bei DLSS wirklich gemacht wird. Dafür habe ich etwas weiter auf der Webseite von Nvidia gestöbert. Nur anhand der Werbung missversteht man es leider. Das neuronale Netzwerk errät keine Details.

Es wird immer wieder mal ein sehr hoch auflösendes Bild erzeugt (16K). Dann wird geschaut, welche Bildteile sich bewegen und das als Vektordaten abgespeichert. Dann wird für jedes Bild erst ein kleineres Bild mit der halben oder einem Drittel der Auflösung normal erstellt. Aus diesem Bild, den Vektordaten und dem hochauflösenden Bild wird dann das aktuelle Bild erzeugt. Die fehlenden Details sind also nicht erfunden sondern kommen aus dem letzten 16K-Bild.

Welche Funktion die Online-KI genau übernimmt, habe ich leider nicht heraus gefunden. Wie ich es verstanden habe, werden sehr viele 16K-Bilder eines Games ausgewertet. Durch die Erfahrung aus diesem Bilderberg kann dann der Prozess wie die aktuellen Bilder aus dem 16K-Bild erzeugt werden, verbessert werden.

Es kann nicht sein, dass für ein aktuelles Bild während der Berechnung online nach fehlenden Pixeln gefragt und diese mit KI berechnet werden. Dafür reicht weder die Zeit bis das Bild fertig sein muss, noch die Datenrate, noch die Leistung des Servers von Nvidia.
dlss _ Es werden die bereiche erkannt an den user nicht drauf achtet, also sachen im Hintergrund meistens und die mit einer KI von einer niedrigeren auflösung hochgerechnet auf 8k . der rest der der user sieht bleibt in der hohen auflösung
 
Funkt für DLSS die Karte eigentlich die ganze Zeit nach Hause oder wie funktioniert das?
 
DLSS ist eine Bildverbesserung, die darauf beruht Details zu erraten. Und das "professionelle Raten" wird auf einem Supercomputer trainiert.
Letztendlich ist das eine Variante von: "Für echtes Rendering auf 4k reicht die Rechenleistung nicht, also berechnen wir weniger und raten das, was fehlt"
Toll ist anders, auch wenn es hübsch aussieht.

Erst fängt Dein Text so gut an, und dann das.

Du bist genauso "dagegen" wie die anderen, ohne Dich objektiv mit der Technologie zu beschäftigen. Schade.

@Gregor Kacknoob

Toller Text. Kann ich nur unterschreiben. Und zwar komplett.
 
Oben Unten