News DICE patcht Battlefield V und verspricht deutlich höhere Bildraten für NVIDIA Turing

SkorpionBeatle

Mitglied
Mitglied seit
Nov 21, 2018
Beiträge
11
Bewertungspunkte
0
Punkte
2
Battlefield-V-1.jpg


SkorpionBeatle submitted a new blog post
DICE wird neben der morgen bevorstehenden Veröffentlichung von Battlefield V Tides of War Chapter I auch einen Patch zur Verbesserung der Performance von RTX Nutzern veröffentlichen, der die Performance bis zu 50% steigern soll.

Continue reading the Original Blog Post.
 
OMG, "double-speed cd rom drive", "soundblaster compatible sound card", "dedicated game card is highly recommended for joystick", wie sich die Zeiten ändern.
 
Das ist die Mechwarrior 2 Titanium Edition. Ich habe das Spiel GELIEBT!

Hab noch ein paar andere Schätzchen hier, zum Beispiel eine ungeöffnete Ultima Online Special Edition mit Stoffkarte und Preisschild (139 DM) - war mal für einen zweiten Account gedacht, den ich aber irgendwie nie angelegt hatte... ;)
 

Anhänge

  • 738EA7CF-1861-410E-A019-9B00C920C355.jpeg
    738EA7CF-1861-410E-A019-9B00C920C355.jpeg
    410,4 KB · Aufrufe : 1
Wat meinste wohl, warum ich so hibbelig bin? :D

Ich habe ALLE Titel aus dem Universum seit damals gedaddelt, auch in MWO viel zu viel Zeit und Kohle versenkt (150+ Mechs, 200m c-Bills auf der Bank und das war als ich vor wohl 2 Jahren aufgehört hab)... aber das aktuelle Battletech Strategiespiel fordert die Graka irgendwie ja nicht so richtig... ;)

Ach und die Bücher hab ich auch alle (bis zum Dark Age, das war nicht mehr so meins)... literarisch eher so unterste Schublade aber egal, bestimmt alle schon 3x gelesen, Nerd halt. :D
 
Genau das wurde vor kurzen noch auf schärfste dementiert von einigen Kritikern das DLSS u Raytracing in Battlefield zusammen nicht harmonieren mit der Engine von Dice

Und bäm Dice u Nvidia zünden den nächsten Turbo um die Performance zu pushen

https://www.dsogaming.com/news/deep-learning-super-sampling-dlss-is-coming-to-battlefield-5/

Das wird 2070,2080,2080Ti u Titan RTX auf ein höheres Level bringen u gleichzeitig die RTX 2060 in den spielbaren Bereich

DLSS war also von Anfang an konzeptioniert um Raytracing zu unterstützen.

Wenn das Training auf den Nvidia Servern abgeschlossen ist ,könnte ich mir durchaus vorstellen das 2080Ti u Titan RTX die 60 FPS halten können in 4k mit eingeschalteter RTX Option

einige haben es schon begriffen nur die Spötter noch nicht, das Raytracing damit im Mainstream angekommen ist, wenn die RTX 2060 das stemmt mit über 60 FPS in FHD

According to NVIDIA, the NVIDIA GeForce RTX 2060 is able to run Battlefield 5 with an average of 90fps with RTX disabled and with an average of 88fps with both RTX and DLSS enabled. ....

in our opinion, the combination of DLSS and RTX will be crucial in other games that use ray tracing for more complex effects, like Global Illumination, Shadows and Ambient Occlusion. In other words, DLSS+RTX could do – theoretically – wonders in games like Shadow of the Tomb Raider and Metro Exodus.

Und hier sprechen wir ja bisher nur von Games die schon in Entwicklung waren, und den Raytracing/DLSS Ansatz, quasi drauf gepatcht haben in letzter Minute...

Spannender wird es wenn das Konzept von Anfang an nativ damit plant, dann dürfte sich die Performance/Qualität nochmals deutlich verbessern
 
Zuletzt bearbeitet :
Geile Sache, hoffentlich ziehen viele Spieleentwickler mit und bauen das in ihre Spiele ein!
 
Kaum ist man mal 2 Tage nicht im Forum unterwegs, muss man gucken ob man hier nicht doch auf CB ist. o_O

Sorry @scully1234
Aber von den genannten Spielen die angeblich RT und DLSS unterstützen ist welches nochmal effektiv am Laufen mit den beiden oder einem der Features? Achja Stand jetzt BF5 mit RT und FFXV mit DLSS.
Was bringt mir eine Liste mit Spielen, die es irgendwann mal unterstützen werden (was ja ansich gut ist), man aber eben diese Spiele noch nicht als Referenz heranziehen kann? Genau, gar nichts.
Man wird hier von dir als auch von Besterino als was auch immer abgestempelt, nur weil man nicht nVidia und deren "Innovation" glorifiziert. Wie gesagt, man kommt sich hier vor wie auf CB.

Und ja Primitive Shader werden nirgends verwendet, da AMD hier wieder den Entwicklern die Wahl gelassen hat das Feature zu nutzen oder halt nicht. Und die Entwickler haben sich eben entschieden dieses Feature nicht zu nutzen. Shit Happens. Hätte nVidia genauso passieren können. Tat es nicht sondern einzig die Umsetzung war von Seiten nVidias einfach nicht vernünftig in Bezug darauf, deren Features früher den Entwicklern nahe zu bringen.
Aber wie deine Liste ja so schön zeigt, werden es ja mehr Spiele. Ist halt am Ende trotzdem die Frage ob es sich komplett durchsetzen wird, oder dasselbe Schicksal wie PhysX erleiden wird. Was ja zum Glück mittlerweile jede Karte beherrscht, auch wenn halt nicht in der Form wie nVidia das gerne hätte.

Aber interessant das du mehr irgendwelchen angeblichen Leaks vertraust und auch jetzt schon vor allen anderen weißt, wie gut oder schlecht Grafikkarte X von Hersteller B performen wird. Wo es nicht einmal seriöse Techseiten wissen. :D
 
Aber wie deine Liste ja so schön zeigt, werden es ja mehr Spiele. Ist halt am Ende trotzdem die Frage ob es sich komplett durchsetzen wird, oder dasselbe Schicksal wie PhysX erleiden wird. . :D

Welches "Schicksal" hat PhysX denn erlitten ,außer das es die weit verbreitetste Physik Bibliothek ist?

Du bist wohl nicht so ganz auf dem Laufenden wer so alles PhysX@ (Nvidia FLEX heisst das mittlerweile übrigens, u ist Teil der Gameworks Bibliothek u etlichen Gameengines Epic Games Unreal Engine ,Cry Engine, Unity Engine ecc pp) einsetzt

Übrigens gerade erst aktualisiert für den professionellen Einsatz in der Industrie


Wenn du ein Schicksal für ne Physik Engine suchst, dann frag dich lieber mal nach TressFX u dessen Verbleib

Aber wie du schon sagst Shit Happens

Kaum ist man mal 2 Tage nicht im Forum unterwegs, muss man gucken ob man hier nicht doch auf CB ist. o_O

Sorry @scully1234
Aber von den genannten Spielen die angeblich RT und DLSS unterstützen ist welches nochmal effektiv am Laufen mit den beiden oder einem der Features? Achja Stand jetzt BF5 mit RT und FFXV mit DLSS.
Was bringt mir eine Liste mit Spielen, die es irgendwann mal unterstützen werden (was ja ansich gut ist), man aber eben diese Spiele noch nicht als Referenz heranziehen kann? Gemau nix


Das sind schonmal 200% mehr wie AMD mit seinen primitiven Shadern nach 2 Jahren noch nicht hat, und du kannst zwar Tombraider u Metro ignorieren solange du magst , das wird den Umstand aber nicht schmälern das es in kürzester Zeit mehr werden, und die Liste wachsen wird...
 
Zuletzt bearbeitet :
Es wissen viele nicht wie es bei PhysX gelaufen ist. Bis Version 2.x brauchte man externe Daten und es konnte auf eine zusätzliche GPU ausgelagert werden. Die CPU Version war nicht brauchbar.

Ab Version 3.X wurde PhysX ganz ins Spiel mit intergriert und es benötigt keine zusätzlichen Daten vom Treiber mehr, zudem wurde die CPU Implentierung deutlich verbessert.

Seitdem wird es in etlichen Engines eingesetzt und sogar auf den Konsolen. Somit ist PhysX durchaus ein Erfolg.
 
Wie zum Start von jeder neuen Technik, sind es am Anfang nur wenige Titel, die das nutzen.

Ich persöhnlich bin der Meinung, dass mit Raytraycing tatsächlich eine tolle Sache ist. Allerdings denke ich, muss an der Implementierung in SW und HW noch massiv gearbeitet werden. Allerdings hätte man aus meiner Sicht, die Einführung geschickter anstellen können. Bei den Vergleichsbildern habe ich bei den Non-RT, - Bildern oft das Gefühl, das Reflektionen weggelassen werden.

BTW: Raytraycing ist nicht Nvidia-Only, sondern kann in Zukunft auch von AMD genutz werden, da es meines Wissens nach Teil von D X12 ist.
Was DLSS angeht, bin ich mir noch nicht sicher, was ich davon halten soll.

Was Physx angeht: Meines Wissens wird es zwar viel genutzt, allerdings oft nur die Version die von der CPU berechnet wird. Die GPU-Variante wird meines Wissens viel seltener verwendet.
 
GPU Accelerated PhysX ist de facto tot. Hatte neulich nochmal extra geschaut, das hat schon seit Jahren kein Spiel mehr gehabt. Bzw. war - keine Ahnung, ob sich daran ggf. nochmal was ändern könnte, jetzt wo NVIDIA das vor Kurzem Open Source gestellt hat.

Die CPU-Variante ist was anderes, die ist recht gut verbreitet.
 
BTW: Raytraycing ist nicht Nvidia-Only, sondern kann in Zukunft auch von AMD genutz werden, da es meines Wissens nach Teil von D X12 ist.
.
Da hast du du schon recht ,aber ohne eine Architektur .die das entsprechend beschleunigt ,ists eben Essig mit Echtzeit

Und auf herkömmlichen Shadern ging es auch schon vorgestern,gestern u heute auch ohne DX 12 Plugin, nur mutiert es da zur Render Diashow

Wenn AMD nicht bereits Anfang 2018 damit angefangen hat , eine Architektur mit Denoiser auf Tensor Core Basis zu entwicklen ,kannst du dir das nächstes Jahr u übernächstes vorerst abschminken . das schüttelt man nicht mal so eben aus dem Hemdsärmel ,schon gar nicht mit so geringen R&D Budget

Also bete mal lieber das sie gute Spione bei Nvidia sitzen hatten, denn sonst "wer zu spät kommt den ..."
 
Also wenn die Entwicklung einer GPU +/- 4 Jahre dauert und füR AMD ist RayTracing auch kein Neuland, kann ich mir vorstellen, dass AMD in diesem Zeitraum potente Grafikkarten bringen könnte, welche RT ausreichend beschleunigen können.

Bis dahin, wird sich RT eh noch nicht flächendenkend zum Einsatz kommen. Dies wird der Fall sein für die übernächste Konsolen Generation und das dauert halt noch so 8-10 Jahre. Bis dahin kann es nur Gimick bleiben, da ein Entwickler nicht auf die herkömmlichen Rendermethoden verzichten kann. Die Konsolen müssen auch versorgt werden und man kann es sich auch nicht erlauben hier nur Notlösungen zu präsentieren. Die User dort, wollen auch bessere Grafik.

Ich bleibe dabei dass es Mutig von Nvidia ist, den ersten Schritt zu machen und sie werden im PC Bereich hierdurch einen nicht zu unterschätzenden Vorteil in den nächsten Jahren haben. Die Vorteile sind aber nicht so gross, dass AMD einpacken kann, es besteht noch immer die Möglichkeit vom Aufholen.

Man sollte nicht vergessen, dass AMD bei den CPUs auch Tot war und sie mit Zen wieder gut mitmischen. Warum sollte dies nicht auch bei den Grafikkarten möglich sein? Im Gegenteil, durch den Zen erfolg, hat AMD jetzt mehr Möglichkeiten als zuvor.
 
Ich finde es immer wieder interessant, was prognostiziert wird, was AMD kann oder nicht kann. Wir wissen derzeit fast nichts darüber was Navi und die Nachfolger von Navi können. Also sollte man darüber auch nicht spekulieren oder gleich gar urteilen.
 
Zu Urteilen würde ich mir nicht erlauben, wenn man aber nicht mehr Spekulieren darf? Das ist doch auch langweilig.

Ich wünsche AMD jedenfalls das beste, auch dass Intel schnell mitmischen kann und dass Nvidia nichts auf die Idee kommt, sich auf ihrem Erfolg auszuruhen.

Im Gegensatz bei den CPUs, wo Intel Jahrelang auf Sparflamme lief, bringt Nvidia sogar ohne wirkliche Konkurrenz Inovationen. Ok sie verlangen halt immer mehr Geld dafür.

Intel blieb im Preis ziemlich Konstant, nur haben sie jetzt den Ernst der Lage noch nicht erkannt und anstatt mit dem 9900K AMD sofort zu kontern, verlangen sie entsprechend höhere Preise und können beim Preis/Leistungsverhältnis AMD noch immer nichts anhaben.
 
Man darf auch nicht vergessen, dass NVIDIA bei den Profis, also GPUs für Rechenzentren usw., viel verbreiterter sind. Ich zitier mal die c‘t: „...auf der aktuellen Top500-Liste steht es in puncto Rechenbeschleuniger 128:0 für NVIDIA versus AMD.“

Die Top500 sind natürlich nur ein Spezialfall, aber in den sonstigen RZs dürfte es mit den Quadros, Teslas usw. vergleichbar sein, bei den Cloud-Gaming Anbietern liest man z.B. aktuell auch ausschließlich nvidia (Quadros oder Tesla) als Grafikschleudern.

Ähnlich die anderen Bild-Profis wie Filmschaffende & Co. in den großen Studios, wo jede Sekunde Renderzeit bares Geld ist: da werkelt gerne das Flotteste und Zuverlässigste mit dem besten Support wo geht.

Von den Unis mal ganz zu schweigen, wo bei ML&DL eben die wissenschaftliche Community zählt und sich 11 Jahre CUDA-Support auch nicht über Nacht aufholen lassen.

Das sind Einnahmen, die natürlich bei der Entwicklung helfen und wo die Margen - mangels Konkurrenz - noch ordentlicher sein dürften.

Umso mehr dürfte es sich aber auch lohnen, dort als Konkurrenz fies reinzugrätschen. :D Wie gesagt, ich wünsch‘ es mir! :)
 
Ich finde es immer wieder interessant, was prognostiziert wird, was AMD kann oder nicht kann. Wir wissen derzeit fast nichts darüber was Navi und die Nachfolger von Navi können. Also sollte man darüber auch nicht spekulieren oder gleich gar urteilen.
wir wissen das Navi ein weiterer GCN Clown wird ,und das selbe gilt auch für Vega 2 punkt!

Zudem hat sich AMD schon dazu geäußert , und ein Statement abgegeben, allein daraus kannst du schließen das das morgen und übermorgen noch nix wird.

Zur Entwicklungszeit einer Architektur hat arcDaniel schon was gesagt , AMD muss also im best Case Anfang "2018" besser noch 2017 damit angefangen haben, dahingehend was einzuleiten in der Entwicklungsabteilung unm Ende 2020 oder 21 was zu präsentieren

Das baut man nicht mal so eben über Nacht im Hinterzimmer , Goggle hat für seine Tensor Core Logik 6 Jahre entwickelt ,Nvidia mit Turing seit etwa Release von Pascal...
Zudem entwickeln sie immer 2 Architekturen nahezu parallel, Volta u Turing haben sich also quasis ergänzt.

Für das Gerüst was hier jetzt mit Turing steht ,kannst du also seit etwa Kepler Generation mit R&D Einsatz rechnen, denn Volta war "Denoiser/RT 1.0"


Titan V ist doch VOLTA, und die nutzt halt die reinen Tensor Cores ohne Spezialisierte noch schneller schaltente Int4 RTCores + ihr 32bit (möglicherweiße zusätzlich 64bit???) Shader Array
 
Zuletzt bearbeitet :
@Besterino
Bei den Rechenzentren scheint Nvidia wirklich extrem präsent zu sein. Bei den Workstations ist zumindest in meinen Umfeld Nvidia und AMD präsent. Betrifft hier allerdings CAD und EDA-Software und nicht eines der "In-Themen" wie KI usw.

Edit: Und du hast recht: Ohne etwas Spekulation ist es langweilig.
 
Oben Unten