News 3DMark in Ultra-HD - Benchmarks der RX 6800XT mit und ohne Raytracing aufgetaucht

Tensor und AI halte ich für extrem wichtig, gerade wenn man arbeiten will. Das, was OptiX gerade schafft, haben die CPUs in den letzten Jahren nicht geschafft: komplexes Rendern in einer angemessenen Zeit. Da kann man auch CUDA auf der GPU und vor allem auch OpenCL glatt in die Tonne treten. Dazu NvEnc... Es ist nicht alles RT, was Ampere ausmacht. Trotz aller Euphorie über die schnelle Rasterization der RX 6800XT.
Spielt halt für den geneigten Gamer nur eine untergeordnete Rolle, aber ist sicherlich ein Argument für den ProSumer. Die greifen dann aber auch direkt zur 90er.
 
RT ist der (einzige) Weg zu fotorealistischer Grafik - wer das nicht will, bittesehr. Ich will das, zumindest irgendwann. Das kommt aber nicht von jetzt auf gleich sondern muss entwickelt und darüber hinaus auch finanziert werden. Das muss natürlich keiner selbst mitmachen, aber umgekehrt sollte man die early adopter nicht verteufeln, die den Weg ebnen.

Zum Thema physx, Gsync und jetzt eben RT und DLSS: immerhin ist Nvidia (gut, bei PhysX waren es andere) da mit neuen Ideen voran gegangen. Man sollte nicht vergessen, dass es solche Konzepte vorher schlicht GAR NICHT in Consumer-Hardware und entsprechend in Spielen gab. Die Pendants wie FreeSync und jetzt eben bei RT waren dann Antworten des Marktes. Dass übrigens jemand seine Innovationen und die Investitionen dahinter SCHÜTZEN und maximal zu GELD machen will, ist übrigens nicht verwerflich, sondern ist der Hauptabtrieb um da heute überhaupt Zeit und Ressourcen reinstecken zu wollen und zukünftig zu KÖNNEN!

Bei Intel und AMD ist’s gerade mal umgekehrt gelaufen und AMD war Innovationstreiber und die anderen müssen jetzt aufholen. Ist doch prima.

Das sind alles Beispiele, die sehr schön zeigen wie Innovation und Wettbewerb funktionieren. Ich hätte bitte gerne beides, danke. Und dazu gehören (idealerweise zufriedene) Kunden aller Marktteilnehmer.

Also mal alle die hier so vehement contra A wettern oder pro B jubeln: einfach bitte mal den Ball etwas flacher halten, entspannt durch die Hose atmen und mal objektiv die Produkte anschauen, vergleichen und dann gerne auch ganz subjektiv anhand eigener Vorlieben entscheiden, was es werden soll. Wenn denn verfügbar. ;) Über den objektiven Teil kann man sich dann hier gepflegt austoben aber verwechselt das bitte nicht mit dem subjektiven Teil - den kann man gerne gesittet mitteilen aber nicht versuchen anderen aufzuzwingen, schon gar nicht mit pauschalen Rundumschlägen mit Zielrichtung unter die Gürtellinie. Das macht doch dann bitte andernorts.

Ich bin übrigens im Herzen grundsätzlich aus vielen Gründen - objektive wie subjektive - grafikkartenmäßig (!) ;) eher ein grüner als ein roter. Aber emotional aktuell so sickig auf Nvidia, dass ich grds. gerne zu AMD wechsele, wenn denn die Performance min. auf oder über der 3080 liegt - sollte es sogar etwas geben, was über die 3090 kommt (selbst ohne RT), bin ich bei Nvidia definitiv erstmal weg. Aber ich will ja auch nur spielen - was contentcreator wollen oder brauchen, ist mir völlig wumpe. Und wenn sich da der Markt aufteilt, Hurra! Dedizierte Hardware für einen bestimmten Einsatzzweck war schon immer besser als genetischer Einheitsbrei für alle(s).
 
Stimmt,
es stellt sich mir aber die Frage, wenn ich die Nvidia Karten bis einschließlich hoch zur 3090 habe, die um wichtige Funktionen aus dem "Business environment" kastriert sind, inwieweit ich dies dann jenseits von der "A" Serie (Quadro "Nachfolger") und bei aktuell nicht existentem - treibermäßigem - "Titan" Äquivalent überhaupt nutzen kann / darf, oder ob es da zumindest Workarounds am Horizont gibt.
 
Zuletzt bearbeitet :
Glaube nicht, dass die aktuell Gefahr laufen, groß kastriert zu werden. Nvidia wird jede Möglichkeit, die Tensor- und RT-Cores nutzen zu können, mitnehmen. Zumindest solche, für die niemand bereit ist deutlich mehr Kohle auszugeben. Was anderes ist dann eben professionelle (!) Bild- und Filmbearbeitung, das wird sicherlich extra kosten, denn damit wird ja auch wiederum gutes Geld verdient.

Und um halbwegs die Brücke zurück zum Topic zu schlagen: ich gehe davon aus, das findige Entwickler die guten Sachen - die der Mainstream brauchen kann! - auch für Radeons nutzbar machen. Schon deshalb wird da nvidia nicht zurück können, sondern eher mit weiteren Features vorangehen. So zumindest meine Vermutung - das entsprechende Environment mit SDKs, Trainings usw. haben sie ja wenn ich mich richtig erinnere schon ca. 2016 geschaffen und seitdem immer weiter entwickelt.
 
Zuletzt bearbeitet :
Tensor und AI halte ich für extrem wichtig, gerade wenn man arbeiten will. Das, was OptiX gerade schafft, haben die CPUs in den letzten Jahren nicht geschafft: komplexes Rendern in einer angemessenen Zeit. Da kann man auch CUDA auf der GPU und vor allem auch OpenCL glatt in die Tonne treten. Dazu NvEnc... Es ist nicht alles RT, was Ampere ausmacht. Trotz aller Euphorie über die schnelle Rasterization der RX 6800XT.
Die Frage ist halt, wie wichtig sowas für eine GAMING Grafikkarte ist. Ich würde ZUM ZOCKEN eine Grafikkarte bevorzugen, die nicht besonders gut irgendwelche wissenschaftlichen Berechnungen durchführen kann, wenn sie dafür etwas günstiger wäre. Gibt ja extra Quadros und Teslas für professionelles Computing.

Grüße!
 
Genau das!
 
Die Frage ist halt, wie wichtig sowas für eine GAMING Grafikkarte ist. Ich würde ZUM ZOCKEN eine Grafikkarte bevorzugen, die nicht besonders gut irgendwelche wissenschaftlichen Berechnungen durchführen kann, wenn sie dafür etwas günstiger wäre. Gibt ja extra Quadros und Teslas für professionelles Computing.

Grüße!
gibt auch genug Leute die das nutzen wollen und sich bei weitem keine Quadro gescheige denn Tesla leisten können

und wenn du Graks bevorzugst die super für Gaming und schlecht für Compute sind, warum hast du dann ne Vega?


und RDNA2 hat übrigens auch Int8 und Int4 für AI an Board
 
Zuletzt bearbeitet :
gibt auch genug Leute die das nutzen wollen und sich bei weitem keine Quadro gescheige denn Tesla leisten können

und wenn du Graks bevorzugst die super für Gaming und schlecht für Compute sind, warum hast du dann ne Vega?
Und das ist Grund genug, die regulären Gaming-Grafikkarten generell mit Kosten erhöhenden Technologien auszustatten, die Kevin-Klaus für Fortnite gar nicht braucht, denn Papa zahlt es ja eh?

Ich habe eine Vega gekauft, weil sie in Spielen schneller ist als eine GTX 1080 und zum Zeitpunkt der Anschaffung preiswerter war als ebendiese. Zusätzlich hat Nvidia damals noch kein Freesync unterstützt und die AMD Treiber sind halt 1000 mal moderner und umfangreicher als dieses an Windows 98 anmutende Menu von Nvidia ^^

BTW: Aktuell habe ich eine RTX 2060S verbaut, weil ich mich für DLSS und Raytracing interessiert habe✌️

Grüße!
 
gibt auch genug Leute die das nutzen wollen und sich bei weitem keine Quadro gescheige denn Tesla leisten können
Man höre und staune, in vielen Unis und Firmen waren aktuell 2080TIs in Massen für DL/ML eingesetzt, weil sie einfach vom P/L Verhältnis mit 11GB vor Ampere günstiger waren. Nun wird die 3090 ein Renner, 24 GB für ML/DL ist ein Traum, und das für 1499 €. Wenn sie nur mal lieferbar wären. Meine ersten Tests zeigten, daß eine Asus 3090 TUF OC mit ML/DL schneller sind als eine RTX Titan für fast das doppelte.
 
Und das ist Grund genug, die regulären Gaming-Grafikkarten generell mit Kosten erhöhenden Technologien auszustatten, die Kevin-Klaus für Fortnite gar nicht braucht, denn Papa zahlt es ja eh?

Ich habe eine Vega gekauft, weil sie in Spielen schneller ist als eine GTX 1080 und zum Zeitpunkt der Anschaffung preiswerter war als ebendiese. Zusätzlich hat Nvidia damals noch kein Freesync unterstützt und die AMD Treiber sind halt 1000 mal moderner und umfangreicher als dieses an Windows 98 anmutende Menu von Nvidia ^^

BTW: Aktuell habe ich eine RTX 2060S verbaut, weil ich mich für DLSS und Raytracing interessiert habe✌️

Grüße!
nur blöd das Fortnite DLSS hat 😜

ach komm, du hast die Vega doch schon seit Ewigkeiten in der Sig ... damals war die nicht schneller eher auf selbem Niveau bei wesentlich höherem Verbrauch

aber Preis haste recht die waren günstiger


Freesync OK aber das mit den Treibern is für mich kein Argument .. wie oft geht man da rein? 1 mal in Jahr?

da find ich es bei Nvidia sogar besser (bis auf die responsivness) ... das ist wenigstens übersichtlich

wenn ich im AMD Treiber was ändern will muss ich erst ewig rumsuchen weil alles in irgenwelche Untermenüs verschachtelt ist


uhhh

"Oh interesting. Just got given actual results of RX 6800 XT benchmarks in games. I guess that'll be in a video later."

 
Freesync OK aber das mit den Treibern is für mich kein Argument .. wie oft geht man da rein? 1 mal in Jahr?
Bei AMD schon recht häufig.
Du richtest dir zum Beispiel Chill bei manchen Games ein oder Radeon Sharpening in unterschiedlicher Abstufung.
Zudem hast du den Wattman wo man häufig rein geht oder die Monitore lassen sich auch deutlich komfortabler damit steuern als im NV Panel.

Das Overlay sollte man sich auch einrichten es funktioniert nämlich im Gegensatz zum Afterburner immer, auch in Anwendungen wie Forza z.B. zudem lässt es sich sehr komfortabel an und abschalten in einer Anwendung.

Du kannst ja sogar eigene OC Profile für jedes Spiel hinterlegen, also beispielsweise in einem recht langsamen Game auf maximalen Undervolt setzen und im anderen maximale OC.

Das ist nicht zu vergleichen mit dem NV Panel wo man maximal mal DSR zuschaltet und die AF Stufe anpasst.
 
Bei AMD schon recht häufig.
Du richtest dir zum Beispiel Chill bei manchen Games ein oder Radeon Sharpening in unterschiedlicher Abstufung.
Zudem hast du den Wattman wo man häufig rein geht oder die Monitore lassen sich auch deutlich komfortabler damit steuern als im NV Panel.

Das Overlay sollte man sich auch einrichten es funktioniert nämlich im Gegensatz zum Afterburner immer, auch in Anwendungen wie Forza z.B. zudem lässt es sich sehr komfortabel an und abschalten in einer Anwendung.

Du kannst ja sogar eigene OC Profile für jedes Spiel hinterlegen, also beispielsweise in einem recht langsamen Game auf maximalen Undervolt setzen und im anderen maximale OC.

Das ist nicht zu vergleichen mit dem NV Panel wo man maximal mal DSR zuschaltet und die AF Stufe anpasst.
sieht man mal wieder wie unterschiedlich die Anwender sind

ich geh dort nur rein um VSR zu aktivieren und 16x AF mit hoher Quali zu forcen

den Popobrenner hab ich lieber als den Wattman und anzeigen lass ich mir miest alles über HWInfo + RTSS

hatte bis jetzt auch noch keine Probleme in irgend nem Spiel
 
sieht man mal wieder wie unterschiedlich die Anwender sind

ich geh dort nur rein um VSR zu aktivieren und 16x AF mit hoher Quali zu forcen

...
Hehe viel mehr kannst du ja da auch nicht machen und wenn musst das Spiel oft neu starten. Im AMD Overlay stell ich mir ingame Sharpness und Farben etc on thy fly ein, was gerade bei den ganzen modernen TAA Gematsche sehr komfortabel ist. Das vermisse ich ungemein, seit die 2060S wieder eingebaut ist. Aber aktuell liegen in unserer Zockergemeinschaft wieder viele ältere Unreal- und Unity Games an, da läuft die Geforce einfach besser und braucht weniger Strom 👍🏻

Grüße!
 
Ich musste mal ne Nacht drüber schlafen, aber ich denke du bringst dich gerade in eine schwierige Situation. Auf der einen Seite bist du dir im Klaren was NDA sind hälst dich strikt daran. Auf der anderen Seiten nutzt du dein Quellen-Netzwerk um möglichst viel NDA-Informationen zu bekommen und zu veröffentlichen. Das war bisher eher zugunsten der NDA mit dem ein oder anderen Spekulatius der dir "zufliegt". War ne gelungene Berichterstattung. Aber jetzt eskaliert das ganze mit prozentgenauen Benchmarkzahlen die du auch aktiv anforderst. Ich hab dabei beim zuhören ein ungutes Gefühl und wirkt so ... unecht. Mir hat der alte Stiel besser gefallen.
 
Mir hat der alte Stiel besser gefallen.

Mir bliebe in diesem Fall gar nichts Anders übrig. Ich habe nur diesen einen Stiel - und zwar seit Geburt.

Grundsätzlich finde ich aber durchaus, dass hier eine gute Abwägung stattfindet vor dem Hintergrund der ansonsten
auf "klicks und likes" getriggerten YouTube Community.
 
Da ich von AMD (noch keine) NDAs zur Navi habe, kann ich auch nichts brechen. Das ist doch relativ eindeutig. Sobald ich eine Karte habe, kann ich nur andere Leaker zitieren. ich fordere es auch nicht an, sondern bekomme es auch so. Mehrfach und auch abweichend. Da muss man im Vorfeld erst einmal ganz lange testen, um die Plausibilität zu prüfen.

Erinnert Ihr Euch noch an Heise und die Muppet-Show zum NDA, wo jeder plötzlich zum Rechtsanwalt mutierte und das sogenannte Maulkorb-NDA kritisierte? Ich war der Erste, der es unterschrieben hatte, als Folge zu den Turing-Leaks damals. Und nun? Wir haben Ampere und ich müsste, wenn die Video-Farce bei Heise jemals einen echten Belang gehabt hätte, längst verurteilt worden sein. Bin ich aber nicht. Man muss nur alles mit dem nötigen Fingerspitzengefühl betrachten. Die Originaldaten hätten es zwar auch getan, würden aber zumindest die in Schwierigkeiten bringen, die bereits unter NDA stehen. So aber ist es eine wohlüberlegte und über Jahre hin fein ausgelotete Grauzone :)

Damals war der intelligente Schwarm NDA-Versteher und juristische Elite, heute sind alle Virologen. Glauben kann man davon immer noch keinem :D
 
Wenn sie liefern können könnte das leicht sein. NV wechselt ja wieder zu tsmc weil bei dem samsung 8nm prozess anscheinend nicht alles so rund gelaufen ist.
Dann kommen bestimmt wenn wieder kapazitäten bei Tsmc frei werden nach ampere von NV die super karten mit mehr speicher.
Und die lederjacke ist wieder zufrieden.:)

ja kannst gerne davon träumen so „bald“ wird das nix der 8nm von Samsung ist ein speziell für Nvidia erstellter Prozess. Das bedeutet ein wechsel auf TSMC 7nm ist nicht mal eben getan das ist Arbeit wie an nem refresh, da wird eher übernächstes Jahr werden.

Das könnte auch passen man Arbeitet gleich an nem redesign.
 
Oben Unten