Reviews Battlefield V im ersten Optik-Vergleich: RTX Off versus RTX On von Normal bis Ultra mit HiRes-Bildern und Video

Mitglied seit
Jun 1, 2018
Beiträge
2
Bewertungspunkte
0
Punkte
0
Intro-4-893x584.jpg


Yannick Guerrini submitted a new blog post
Arbeitsteilung ist eine schöne Sache, vor allem immer dann, wenn das eigene System erst manuell zum 1809-Update von Windows "überredet" werden muss und man leider nicht zu denen gehört, die mit Vorab-Keys gepampert wurden. Aber besser spät als nie und zusammen mit den Kollegen macht das Arbeiten und Spielen auch doppelt so viel Spaß. Das schreibt einer, der eh kaum noch Zeit zum wirklich genussvollen Spielen findet, leider.

Continue reading the Original Blog Post.
 
Zuletzt bearbeitet von einem Moderator :
Ich werds mal die Tage einfach selbst auf WQHD mal in Augenschein nehmen. =) Bin schon auf die Performanceeinbrüche gespannt, ob wenigsten standardmäßig da mehr als 60 FPS stehen mit RTX on.
 
Man sollte erstmal abwarten bis die RTX Stufen gefixt werden. Bringt sicher auch mehr Homogenität, weil die Power dafür vorhanden ist. Wie Dice zugab soll Ultra einfach nur darstellen was möglich wäre. Man soll absichtlich übertrieben haben. Weniger ist anscheinend mehr. Niedrig ist leider kaum von Screen-Space zu unterscheiden.

Trotz Auswahlmöglichkeit der jeweiligen Stufe bleibst je, von wo du wechselt im alten Preset hängen. Also kann Hoch und Mittel auch Ultra oder Niedrig sein, zeigt damit aber keine Wirkung.
 
Wie schauts eigendlich bzgl. RTX in BF V und SLI aus ? Gibts da Skalierung über die Einheiten auf beiden Karten im RT Bereich oder nicht?
 
Also mit WQHD und alles auf Ultra mit RTX On auch auf Ultra bin ich mit meiner 2080Ti FE bei <60 FPS. Mit RTX Low bei etwas darüber. Sieht aber teilweise Panne aus und gfx-Fehler im Wasser hat’s auch ab und und an. Dafür ist mir gerade das Spiel im Single Player gecrashed, jetzt erstmal inne Heia.
 
Gibts da RTX jetzt nur für Refektionen? Finde das schade. Beleuchtungstechnisch wäre es mir mehr wert.
 
Hmm wenn ich mir die Bilder oben anschaue frage ich mich nach dem Sinn von RTX?
Raytracing wird irgendwann die Entwickler entlasten, die setzen eine Lichtquelle, der Rest wird dann automatisch berechnet ("it just works"). Dazu müsste allerdings der Marktanteil Echtzeit-RT-fähiger Grafikkarten deutlich über 50% liegen, eher noch höher, damit die Spieleentwickler keine Kunden verlieren. Ehe das der Fall ist, müsste zweigleisig entwickelt werden, diese Kosten werden viele Studios wohl nicht tragen wollen, da muss Nvidia dann unterstützen, wenn sie RTX durchsetzen wollen.
 
Ich glaube es wird bei weitem mehr sein als nur zu sagen: Hier ist Lichtquelle A, RTX macht das schon für uns.
Dieses "it just works" ist absoluter Marketing Unsinn. RTX ist nur ein Werkzeug, wenn es denn irgendwann mal nicht 35-66% Leistung kostet, das einem unterstützen soll.
Es ist weder ein Allheilmittel, noch wird es den Programmierern die Arbeit komplett abnehmen.
 
Ich glaube es wird bei weitem mehr sein als nur zu sagen: Hier ist Lichtquelle A, RTX macht das schon für uns.
Dieses "it just works" ist absoluter Marketing Unsinn. RTX ist nur ein Werkzeug, wenn es denn irgendwann mal nicht 35-66% Leistung kostet, das einem unterstützen soll.
Es ist weder ein Allheilmittel, noch wird es den Programmierern die Arbeit komplett abnehmen.
Doch. RTX/ Raytracing macht genau das... Das du aus kuenstlerischen Aspekten nicht nur eine Lichtquelle nimmst, ist ein anderes Thema. Du musst nur noch die Lichtquellen und Eigenschaften der Objekte korrekt klassifizieren. Das reicht zu einem großen Teil aus, um, mit den korrekten Formeln, bessere Ergebnisse zu erzielen als mit der bisherigen Flickschusterei. Das ist gerade der Vorteil bei Raytracing. Ab einer bestimmten Performance ist es sogar so, das der Aufwand sinkt statt steigt. Weil Raytracing quasi die Eierlegende Wollmilchsau ist und eben vieles quasi von "Allein" passiert.

Raytracing kann auch andere Techniken wie Voxel und Rasterizer nutzen. Ebenfalls kein Thema.
 
Ich habe nicht vor RTX zu nutzen denn in 4k ist es nicht vernünftig nutzbar.
 
*noch
 
Klingt ja so, als wenn du Raytracing entwickelt hast @FfFCMAD .
Für mich klingt Raytracing wie alle anderen Techniken, APIs, Engines etc. Die man auch erst einmal handhaben muss, wo man sich einarbeiten muss und die man erst einmal vernünftig einbinden muss.
Da ist nichts wo man mal schnell in eine Codezeile schreibt: RTX mach mal.
Man sieht ja an BF5 sehr schön, das dies nichts ist was mal eben on the Fly eingebunden wird. Und schon gar nicht: "it just works".
Und was Raytracing alles nutzen könnnen wird, das muss sich erst noch zeigen.
Du schreibst nichts anderes was auf der Gamescon schon so schön per Marketing mitgeteilt wurde.

@Schrotti
Dann kaufst du die Karte einzig für die "normale" GPU Leistung. Ja spricht nichts dagegen. Wer eben so viel Geld ausgeben will, weil die Leistung es ihm wert ist, ist alles in Ordnung.


Fehlt nur noch, das den RTX Käufern auch noch dankbar sein soll, weil diese sich ja "Opfern" um die neue "Killertechnik" voran zu bringen. ;)
 
Wieso muss ich Raytracing entwickelt haben?

Deine Argumente sind keine. Hier in Battlefield ist Raytracing nur ein Aufsatz. Mehr nicht. Und Raytracing an sich ist ein so alter Hut, das gehoert eigentlich schon mit zum Grundwissen dazu, wenn man sich mit CGI beschaeftigt.

Im Endeffekt ist das Bauen von Maps wesentlich einfacher, wenn man Raytracing verwendet. Wer die notwendigen Kenntnisse zum Entwickeln hat, braucht sich um den eingesetzten Renderer bei Raytracing einfach weniger sorgen machen. Und ja, wenn die Formeln stimmen und die Objekte/ Meshes/ Brushes korrekt implementiert sind, ergibt sich der Rest durch Raytracing automatisch. Und im Endeffekt sinkt die Komplexitaet dabei, da man eben nicht wie wild rumbasteln und Frickeln muss, damit es so aussieht, wie es aussehen soll. Im allgemeinen sind die notwenigen Formeln uralt und bekannt. Schatten/ Beleuchtung/ Oberflaechen: Alles automatisch. Bei einem Rasterizer musste dafuer zig verschiedene Texturen bauen, Schatten frickeln und Pixelshader drueber klatschen.

Und gerade Pixelshader sind ein Problem: Viele Darstellungsfhler wuerden mit reinem Raytracing komplett verschwinden. Pixelshader verursachen oft Darstellungsfehler. Weil sie das Bild nachbearbeiten und nicht direkt beim Rendering des Bildes Einfluss nehmen.
 
PS: Darstellungsfehler und auch Probleme. Anti-Aliasing funktioniert mit Pixel-Shadern nur begrenzt, wenn bestimmte Techniken genutzt werden. Viele Spiele koennen heutzutage nur noch temporales Anti-Aliasing anwenden. So ein beispiel. Auch verschwindene Meshes hinter transparenten Objekten usw ist ein Problem, welches die aktuelle Technik mitbringt. Auch wenn einem das oft nicht gleich auffaellt.
 
DXR eignet sich nicht für Vollbildraytracing in Echtzeit. Microsoft ging immer nur davon aus, dass es bestimmte Szenenelemente abbildet (Beleuchtung, Reflektion, Schatten usw.) und größtenteils weiter auf Rasteriezation gesetzt wird.

RTX ist nicht allein DXR. RTX ist Nvidia Umsetzung von RT innerhalb Gameworks mit propritären Technologien wie Denoisertypen und AA Verfahren (Tensorcores). Mircosoft verlangt für DXR lediglich einen neueren HLSL Shadertyp (ray-generation-/closest-hit-/any-hit-/miss shader) der mit Root Table und Indexierung eigene Ressourcen verwalten kann.

AI oder KI braucht es dafür nicht. Das ist rein dedizierte Umsetzung von nVidia selbst. Bitte auseinander halten.
 
Also wer sich mit CGI beschäftigt kennt das alles schon. Gut mit CGI beschäftigen sich auch alle Entwicklerstudios, NICHT. Gerade kleine Indiestudios beschäftigen sich wohl eher gar nicht mit CGI, außer natürlich es ist der Hauptgeschäftsfeld. Ansonsten wird so etwas meist ausgelagert, wenn es überhaupt ins Spiel integriert wird. Außer bei so großen Studios wie z.B. Blizzard.

Und keiner hier sagt etwas gegen Raytracing. Sicher kann es vieles vereinfachen, wenn es richtig eingesetzt wird. Aber so alt RayTracing auch sein mag. Wenn man es als Entwicklerstudio bisher nicht genutzt hat, muss man es trotzdem erst einmal vernünftig implementieren. Also sich damit auch erst einmal beschäftigen, lernen was man damit alles machen kann und was nicht. Und vor allem erst einmal begreifen was es alles ersetzen kann.
Das du andere TEchniken, die man über Jahre sich angeeignet hat als Gefrickel bezeichnest, ist einfach nur falsch.

Aber glaube du nur weiter, das alles easy peasy integriert werden kann und "it just works" der Wahrheit entspricht. Das DICE als eines der größeren Studios es nicht einfach mal so integrieren kann, zeigt eigentlich halt deutlich genug, das zum einen mehr Arbeit hinter steckt als die Aussage von nVidia "it just works" und zum anderen Raytracing von Beginn an beim programmieren des Spiels eingeplant werden muss.

Und dann, wenn die Entwickler soweit alles vernünftig hinbekommen, dann könnte wirklich RT alles vereinfachen und nicht mehr bis zu 66% der Leistung der GPU kosten. Vielleicht sogar ein Leistungsplus erzeugen.
Ist aber alles bisher Zukunftsmusik.
 
Ich habe nichts anderes behauptet. Die Umstellung ist aber nicht so schwer, wie du sagst. Du musst die Spieleengine nicht großartig umfrickeln, wenn diese bereits auf vernuenftiger Basis steht. Es betrifft nur den Renderer. Undf der Renderer laesst sich bei den meisten Spielen austauschen. Das man da natuerlich die Engine noch optimieren kann, ist ein anderes Thema. Das kann sogar Unreal von 98. EInfach den Renderer tauschen >> Voila! Und es spielt keine Rolle, wie der Renderer Arbeitet. Hauptsache die ankommenden Befehle und Daten sind ausreichend fuer den Prozess. Dann haste DirectX9/ 10 SUpport fuer so ein altbackendes Spiel.

Und eine Mischung diverser Techniken ist nichts Neues. Auch ein alter Hut. Ein Beispiel, was mir spontan einfaellt ist Blood aus den Neunzigern. Mischt auch verschiedene Rendertechniken.

Und natuerlich ist das Rasterizing eine Frickelei. Da diese Technik prinzipiell gewisse Dinge nicht ohne Gefrickel darstellen kann. Und das frisst den Spielestudios Millionen an Entwicklungskosten. Beim Rasterizing musst du fast alles von Hand machen und quasi alles ist ein Workaround. Seit Anfang an. Vorteil ist die geringe Anforderung an die Performance im Gegensatz zu RT.
 
Was bitte ist für dich Gefrickel. Vielleicht solltest du das erst einmal erklären. Denn was für dich Gefrickel ist, ist für andere bestimmt etwas ganz anderes.
Und es kann ein alter Hut sein wie es will. Wenn du es bisher nicht benutzt hast, in keinem deiner programmierten Spiele, dann musst du es erst einbauen, erlernen, optimieren etc. Und das ist einfach nicht von jetzt auf gleich erledigt.
DICE zeigt dies doch eindrucksvoll, das dein einfach Render A gegen B zu tauschen eben NICHT funktioniert. Da kannst du noch tausend mal sagen das die einfach nur getauscht werden muss. Das ist absolut Falsch.
Andernfalls würde sich die Leistung der RTX 2080Ti nicht je nach Einstellung einfach mal um bis zu 66% verringern. Und Dice ist sicher keine kleine Klitsche wo nur Entwickler arbeiten, die wenig Ahnung haben.

Und jetzt kommst du wieder mit: Aber das stimmt nicht, es ist alles ganz einfach, weil ich das so sage (und nVidia).
 
Du erliegst hier dem Dunning Krueger Effekt...

Also, nocheinmal: Die Implementation ist nicht so schwer, wie du behauptest. Optimierungen sind eine Sache, das habe ich beschrieben.

Und komplett ersetzen wird Raytracing den Part aktuell und in Zukunft auch nicht, da Rasterizing auch Vorteile hat.

Und mit Frickeln meine ich ganz klar, das fast alles beim Rasterizing von Hand gebaut werden muss. Prominent sind Schatten. Reinste Flickschusterei und nicht im Ansatz realistisch. Dafuer geht aber die CPU komplett ein. Bei Raytracing geht es quasi von allein. Und ich weiß auch nciht was du mir mit dem Lernprozess etc sagen willst: Diese Berufe haben einen staendigen Lernprozess inbegriffen. Fuer die Schatten musst du theoretisch nur den OpenGL/ DirectX-Renderer ersetzen und schon haste dank Raytracing die Schatten automatisch. Der Spieleengine musste nur sagen, das sie die eigens gerenderten Schatten deaktivieren soll >> Voila. Mehr CPU-Leistung frei fuer Anderes und dazu noch realistischere Schatten als vorher.

Du verstehst einfach nicht, das die Komplexitaet sinkt. Niemand behauptet hier, das sich das SPiel durch RT von ganz alleine baut. Der Arbeitsaufwand wird jedoch sinken. Und das Battlefield hier nutzt RT nur als Gimmick. Das hat mir dem eigentlichem Nutzubngszenarion NICHTS ZU TUN!
 
Ich habe nichts anderes behauptet. Die Umstellung ist aber nicht so schwer, wie du sagst. Du musst die Spieleengine nicht großartig umfrickeln, wenn diese bereits auf vernuenftiger Basis steht. Es betrifft nur den Renderer. Undf der Renderer laesst sich bei den meisten Spielen austauschen. Das man da natuerlich die Engine noch optimieren kann, ist ein anderes Thema. Das kann sogar Unreal von 98. EInfach den Renderer tauschen >> Voila! Und es spielt keine Rolle, wie der Renderer Arbeitet. Hauptsache die ankommenden Befehle und Daten sind ausreichend fuer den Prozess. Dann haste DirectX9/ 10 SUpport fuer so ein altbackendes Spiel.

Und eine Mischung diverser Techniken ist nichts Neues. Auch ein alter Hut. Ein Beispiel, was mir spontan einfaellt ist Blood aus den Neunzigern. Mischt auch verschiedene Rendertechniken.

Und natuerlich ist das Rasterizing eine Frickelei. Da diese Technik prinzipiell gewisse Dinge nicht ohne Gefrickel darstellen kann. Und das frisst den Spielestudios Millionen an Entwicklungskosten. Beim Rasterizing musst du fast alles von Hand machen und quasi alles ist ein Workaround. Seit Anfang an. Vorteil ist die geringe Anforderung an die Performance im Gegensatz zu RT.
Wooh, Du bist der Erste der eine Lösung dafür gefunden hat, wie man alte Spiele ohne dazugehörige Softwarekompatibilität und Hardware (Shadertypen) auf die nächst höhere API-Ebene und Level kompiliert. Ich dachte hier ging es Nachhaltigkeit der eigenen Aussagen. Man kann den Renderer einfach so austauschen? Kannst Du mal kurz erklären wie so eine Pipeline überhaupt aussieht?

Und RT ist kein Gefrickel und keine händische Auswahl?
 
Oben Unten