News DICE patcht Battlefield V und verspricht deutlich höhere Bildraten für NVIDIA Turing

SkorpionBeatle

Mitglied
Mitglied seit
Nov 21, 2018
Beiträge
11
Bewertungspunkte
0
Punkte
2
Battlefield-V-1.jpg


SkorpionBeatle submitted a new blog post
DICE wird neben der morgen bevorstehenden Veröffentlichung von Battlefield V Tides of War Chapter I auch einen Patch zur Verbesserung der Performance von RTX Nutzern veröffentlichen, der die Performance bis zu 50% steigern soll.

Continue reading the Original Blog Post.
 
wer mal wissen möchte wieviel Vram sich BF V maximal genehmigt in 8K, wenn Vram keine Rolle spielt ,hier ist die Antwort

17 GB und fluffige 60 frames

 
Zuletzt bearbeitet :
Die Entwickler bei Dice sind leider wie alle anderen: VRAM zukleistern so viel wie möglich. Eine Vernünftige Optimierung gibt es in dem Bereich leider eher nicht.
Gut wenn einem EA im Nacken sitzt als Publisher wird es schwer. Trotzdem sollte man wirklich mal wieder anfangen auch beim VRAM Verbrauch etwas mehr zu optimieren. Vor allem, wenn ein Hersteller wie nVidia eine RTX 2060 raushauen wird mit "nur" 6GB VRAM. Gerade wenn RT und DLSS eigentlich für mehr Performance sorgen, auch unter FHD, wäre es dann tödlich wenn Spiele sich unnötig im VRAM breit machen. Die Probleme die dann entstehen, kann kein Feature mehr beheben. :/
Ansonsten immer wieder spannend was alles möglich ist.
 
hast du mitbekommen das das 8k!!! ist, das 4 fache von 4k ?

Glaubst du das bekommst du mal einfach so oben drauf, ohne das sich da Systemressourcen genommen werden?:)

Außerdem genehmigen sich die Engines mittlerweile auch soviel wie die Hardware hergibt, und wenn die Titan RTX 24GB hat, ist es nur konsequent wenn sich das Game dessen bedient, und so weniger ins Streaming läuft



Die 2060 hat für ihr Umfeld in 2k genug Vram , erst recht wenn so Techniken wie DLSS eingesetzt werden, die dazu noch in niedrigerer Auflösung rendern, und das nur hochskallieren durch die Tensor Cores
 
Zuletzt bearbeitet :
Ja habe ich gelesen. Ändert aber halt leider nichts daran, das auch wenn viel in dem Fall VRAM vorhanden ist, eine optimierung zu weniger unnötigen Verbrauch eigentlich notwendig ist. 8k verbrauch aktuell 17GB des VRAMs. Aber wie lange geht das noch gut, wenn Spiele nicht lernen zu haushalten. Weil irgendwo stößt man sonst selbst bei 8k an die Grenzen. Auch wenn 8k bis jetzt Ultranische ist und es sicher noch lange bleiben wird.

Und nein die 2060 wird nicht genug VRAM haben. Vielleicht zum Marktstart noch. Aber 1 Jahr später (und die meisten Nutzer im Mittelklassebereich haben Karten eben meist solange drin bis die Leistung nicht mehr reicht zum flüssig spielen ohne zu viele Regler nach Links setzen zu müssen) wird es eben nicht reichen. Und DLSS kommt stand jetzt für nur 4k und vielleicht irgendwann mal für 2k, aber sicher nicht für FHD. Also wird die 2060 schneller als es einem lieb ist zwar genug Leistung bieten, aber der VRAM wird limitieren. Gerade weil eben die Entwickler nicht optimieren im Bereich VRAM Nutzung.
Das ist ja das was ich halt so unschön finde.

Und die Tensor Cores müssen erst einmal vernünftig von den meisten Entwicklern unterstützt werden. Es wird von vielen Turing und dessen Features fast vergöttert ohne das auch nur im Ansatz die neuen Wunderfeatures vernünftig implementiert sind.
Und das lässt 2 Schlüsse zu: 1. Die neuen Features sind nie und nimmer so einfach zu implementieren (was auch vernünftiges optimieren einschließt), wie das "It just work" propagierte Werbeblabla. 2. Steht es noch in den Sternen ob dies auch jemals wirklich geschieht.

Aber lustig ist es schon, wenn AMD neue Features wie Primitive Shaders oder ähnliches mit ihren Karten auf den Markt bringt, wird nur gesagt: Wozu brauch man das?
Bringt aber nVidia neue Features wie DLSS oder RT mit ihren neuen Karten, wird von vielen die theoretische Leistung schon als Fakt abgestempelt und als Must Have beziffert.

Wie gesagt, so lange die Entwickler sich nicht endlich mal bemühen mehr zu machen als nur das nötigste, solange bringen uns alle schönen Features, alle schöne Hardware leider fast gar nichts. Außer die Preise zu erhöhen und den willigen das Geld aus der Tasche zu ziehen.
 
Keine Ahnung was primitive Shader sind bzw. hätten bringen sollen, zumal AMD den Spaß ja schon wieder eingestellt hat. Aber die Theorie hinter DLSS und Raytracing habe ich kapiert, ebenso wie was das für die Praxis heißen _kann_ - die Technik bzw. die Theorie hinter beidem ist quasi schon „alt und erprobt“ - nur eben noch nicht im Gaming-Bereich eingesetzt worden. Dass sich das sinnvoll nutzen ließe, leuchtet mir einfach unmittelbar ein.

Daher kam auch das Kribbeln im Bauch, gerade in Verbindung mit einem Hersteller, der im Bereich Deep Learning schon von Anfang an ganz vorne auch bei der Forschung mitspielt (stellt regelmäßig Hardware an Forschungszentren wie auch z.B. das DFKI). Guck einfach mal, was von den Jungs und Mädels eingesetzt wird und wie NVIDIA sich seit Jahren engagiert in dem Feld. Wenn einer eine Chance hat, das hinzubekommen, gehörten die grünen Teufel eben definitiv dazu.

Das hat leider nichts mit irgend einem blinden Fanboytum zu tun, sondern ich habe zum Glück speziell bei diesen Themen etwas mehr Hintergrund als 08/15 Otto Normalo. Natürlich bleibt das in gewissen Rahmen immer noch Spekulation, wie es damit weitergeht, aber DL und speziell dafür angepasste Hardware sind schon ziemlich mächtig, gerade bei der Bildverarbeitung im weitesten Sinne. Da ist AMD einfach mal faktisch kaum visibel gewesen und hat im Prinzip erst vor kurzem verstanden, dass sie diese Art von „Next Gen GPU-Einsatz“ bisher völlig verschlafen haben.
 
Schön, das du die Theorie hinter der Technik verstehst. Ändert nichts daran, das eben die tollste Technik nichts bringt, wenn sie nicht eingebunden wird/werden kann.
z.B. Tensor Cores, so toll es sich anhört und so gut sie schon im Deeplearning und AI Bereich angewendet wird.
Was bringen diese auf einer Gamingkarte, wenn diese nirgends verwendung finden im Gamingbereich? Das ist ja das was bei AMD Karten immer bemängelt wird, das diese Features eingebaut haben, die ja gar nichts bei Spielen bringen. Jetzt bringt nVIdia das bei ihrer neuen Gamingkartengeneration und es wird als der neue heiße Scheiß gepriesen. So wie du RT und DLSS als heißer Scheiß anpreist.
Aber es ist einfach nur eine Anpreisung. Es gibt für beide Features weder eine adequate Anwendung bis jetzt und auch keine Verbesserung für den Nutzer der Grafikkarten. Und die beiden einzigen bis jetzt vorweisbaren Spiele überzeugen nicht wirklich in der Nutzung der Features. BF V nutzt nur einen Teil der RT Fähigkeiten und das nicht wirklich optimiert. Und DLSS in FF15 ist auch nur eine Alternative, die auch nicht wirklich besser ist als das bisher verwendete Featurepack.

Wenn wenigstens mehr Spiele die neuen Features sofort nutzen würden. Aber es dauert teils noch Monate bis die nächsten Spiele kommen, die die Feature nutzen (könnten). Und viele sind das nicht.
Hat auch nichts mit Fanboytum zu tun. Nur sollte man bei aller Kenntnis trotzdem kritisch bleiben. Solange es keine vernünftige Umsetzung in einem Großteil aktuellen Spiele gibt/geben wird. Ist es nichts weiter als ein Randfeature so wie es PhysX war. Und gerade wenn es wie DLSS nur ein proprietäres Feature ist, was nur denen zur Verfügung steht welche eine nVidia Karte haben und einen 4k Monitor, so lange ist es nichts was man bejubeln muss.
 
@Dark_Knight: Du bist halt der ewige NVIDIA-Nörgler, der immer wieder die gleichen Phrasen reproduziert. Das führt zu nichts, genauso wenig wie wenn ich versuche, Dir zu erklären, warum diese Features anders sind.

Und mit der Bemerkung, dass BF5 mit Raytracing auf Ultra auf WQHD deutlich geiler aussieht als ohne, auf ~70FPS läuft und einfach Laune macht, hör ich hier auch mal wieder auf. Zu den anderen Spielen, werden wir dann sehen, wenn sie rauskommen.
 
Äh was?
Sorry, du versuchst mir also zu erklären das RT und DLSS anders sind bzw. funktionieren als die bisherigen Features um Berechnungen an zu stellen für z.B. Licht, Kantenglättung etc.

Wer hätte es gedacht, das diese neuen Features anders arbeiten und im besten Fall eine bessere Performance bringen sollen.

Und da ist der Haken, was bringt es mir wenn ich Ohne RT in dem Fall zwar ein Bild habe was nicht ganz so geil Aussieht als mit RT on, aber ich ein wirklich flüssiges Spiel habe, weil eben die GPU besser ausgenutzt wird. Als RT on ein "geiles" Bild aber die Performance in den Keller geht und das Spiel je nach Auflösung nicht einmal ein flüssiges Spiel hinterlässt. 70FPS mögen für dich flüssig genug sein. Für andere ist es das nicht. Ebenso ist es halt unsinnig wenn man Feature A gegen B tauscht, dabei noch Performance einbüßt und die Karte dadurch weniger ihrer Power auf die Straße bringt.

RT und DLSS wurden angepriesen als ein Performance Booster der noch mehr aus der GPU rausholen kann. Im Moment und das ist es was mich persönlich so stört, hat man entweder eine Turing GPU die bis zu 30% schneller ist als ihr Vorgänger bei Pascal und nutzt weder RT und DLSS, bezahlt aber trotzdem den "Feature Aufschlag". Oder man hat eine Turing GPU mit RT oder DLSS die sogar Performance kostet oder nur eine weitere Art der Kantenglättung hergibt für only 4k, zahlt aber dafür den Featureaufschlag und hat weniger Leistung als ohne.

Und das du nichts mit Primitive Shadern anfangen kannst, obwohl du ja schon so lange dabei bist, zeigt halt, das dich gar nicht wirklich neue Features/Technologien interessieren, sondern nur Dinge die nVidia bringt. Mir aber Fanboytum zu unterstellen, schon etwas doof. :D

Ich hab z.B. gar nichts gegen die Features die nVidia bringt. Zumindest gegen RT hab ich nichts. DLSS finde ich mit dem geschlossenen System und das man sich wieder hier und da anmelden muss für und es auch nur für Auflösungen im 4k Bereich genutzt werden kann typisch nVidia und somit eher meh.
Und wenn man schon ein Feature wie RT bringt, dann sollte man auch Sorge tragen, das auch alle Entwickler genügend Zeit bekommen es zu lernen und ein zu bauen. Aber genau das ist eben wieder nicht geschehen. Nach dem Motto: Hier ist RT morgen veröffentlichen wir unsere Karten mit dem Feature, ihr habt bis gestern Zeit es ein zu bauen.
Diese Vorgehensweise ist gelinde gesagt BS. Dafür das nVidia angeblich schon 10 Jahre daran arbeitet, haben sie aber wohl ganz vergessen es den Entwicklern auch mit zu teilen. Hingerotzt und die Entwickler sollen damit jetzt was basteln.

Erkläre mir mal, was daran für uns Spieler einen Vorteil bieten soll? Wir haben 2 Spiele bis jetzt wo jedes nur eins der beiden neuen Hauptfeatures nutzt und das nicht einmal wirklich komplett. Und wenn man als Turingbesitzer weder das eine noch das andere spielt, zahlt man einen Aufschlag für Features die man nicht nutzen kann.

Wie so schön immer gesagt wird von den grünen Fanatikern: Was interessiert mich wie es in 6 Monaten aussieht, ich brauch/will die Leistung jetzt für das Spiel was ich jetzt spiele. ;)

Fakt ist und bleibt: Turing ist einfach eine einzige Katastrophe was Marktstart, Preise, Featurenutzung in Spielen, RMA usw. angeht. Wer das alles schön redet und Kritik als Phrasen abtut, der ist halt was er ist, ein Fan von nVidia. :)
 
@Dark_Knight: Ich setz dich mal auf ignore, ist besser so. Bist übrigens der erste, der das bei mir geschafft hat, alle Aktivitäten seit Anfang der 90er eingeschlossen.
 
Keine Ahnung was primitive Shader sind bzw. hätten bringen sollen, zumal AMD den Spaß ja schon wieder eingestellt hat. .

eingestellt? die Option war nie auch nur in einem praktischen Anwendungsszenario wirklich aktiv

Und das alleine unterscheidet schon DLSS u RTX von diesem

Nvidia hat bereits jetzt 3 Spiele auf dem Markt die mindestens eines der Feature supporten, und weitere werden folgen

Nur mal ein kleiner Auszug

Diese Spiele unterstützen Echtzeit-Raytracing:
  • Assetto Corsa Competizione (Racing)
  • Atomic Heart (First Person Shooter)
  • Battlefield 5 (First Person Shooter)
  • Control (Action Adventure)
  • Enlisted (First Person Shooter)
  • Justice (Online-Rollenspiel)
  • JX3 (Online-Rollenspiel)
  • Mechwarrior 5: Mercenaries (Action)
  • Metro Exodus (First Person Shooter)
  • Project DH (Online-Rollenspiel)
  • Shadow of the Tomb Raider (Action)
Diese Spiele unterstützen DLSS:
  • Ark: Survival Evolved (Survival Action)
  • Atomic Heart (First Person Shooter)
  • Dauntless (Action-Rollenspiel)
  • Final Fantasy XV (jap. Rollenspiel)
  • Fractured Lands (Survival Shooter)
  • Hitman 2 (Stealth Action)
  • Islands of Nyne (Battle Royal Action)
  • Justice (Online-Rollenspiel)
  • JX3 (Online-Rollenspiel)
  • Mechwarrior 5: Mercenaries (Action)
  • PUBG (Battle Royal Action)
  • Remnant: From the Ashes (Survival Action)
  • Serious Sam 4 (First Person Shooter)
  • Shadow of the Tomb Raider (Action)
  • The Forge Arena (5v5 Shooter)
  • We Happy Few (Action-Adventure)

Wie man da aus der Position heraus Nvidia überhaupt was vorwerfen will ,wie der Kollege oben, ist schon mehr als lachhaft, wenn die so gute liebe AMD Clicke mit primitven Shadern gar nix gerissen hat

Ewig nur rumweinen wenn Nvidia was eigenständiges auf die Beine stellt ,und sie das im Eigeninteresse selbst vermarkten, aber selbst gar nix fertig bringen, außer so sinnbefreites Marketing Bashing wie den Fixxer, oder poor Volta wo wir heute noch auf den passenden Gegenspieler für warten

Das Raytracing Leistung ohne Ende kostet . das war jedem normal denkenden , der sich mit der Technik beschäftigt auch so schon klar

Aber 3DFX hätte mit der 3D Grafik am Anfang auch keine 120Hz Monitore ausgelastet, und trotzdem hat es sich durchgesetzt, weil alle wussten das es der nächste große Schritt ist, so wie heute Echtzeitraytracing

Irgendwann u wo muss man eben damit Anfangen die Technik in den Markt zu werfen wenn sie bereit ist zu starten, und ich bin heilfroh das es Nvidia ist die das tun, denn andernfalls siehe Stream,Mantle,TressFX,primitive Shader usw usf
 
Zuletzt bearbeitet :
Ich hoffe inständig, dass AMD mal wieder ne richtig geile Gamer-Karte raushaut. Die Grünen sind schon zu lange unangefochten an der Spitze, das nervt. Ging mir auch so mit Intel in Sachen CPU, da haben sie ja endlich was Feines gezaubert. Da jetzt noch ein kleines Schippchen drauf beim Takt/IPC mit Ryzen 3 bzw. TR 3 und meine nächste CPU ist von AMD.

Bei den GPUs brauchte man sich viel zu lange nicht mit AMD beschäftigen, wenn man bei der Performance oben dabei sein wollte. Früher mochte ich AMD Grakas wegen der Treiber nicht so gern, aber das ist ja wohl deutlich besser geworden, was man so liest.

Ich drücke also weiterhin die Daumen.
 
Ich befürchte, dass AMD es mit Vega nicht bis an die Spitze schaffen wird, wenn man eine RTX 2080 einholen könnte, wäre das schon sehr stark.
 
Wenn man eine 12nm RTX 2080 einholt mit dem stärksten 7nm Chip ,steht man wieder da wo man vorher schon stand, denn Nvidia wird im nächsten Jahr auch auf 7nm gehen, sobald es wirtschaftlich vertretbar ist

Turing war von Anfang an eigentlich im 7nm Plan vorgesehen, nur kann man es sich beim derzeitigen Stand eben erlauben ,noch ne Generation in 16nm("12nm") aufzulegen u auf Besserung der Fertigung in 7nm zu warten. AMD kann das nicht, sie brauchen mit der ineffizienten GCN Architektur ,die sie weiter bis 2020 mit sich rumschleppen, dringend 7nm um noch Leistung zu gewinnen

Außerdem sind die Vega 20 @7nm Ergebnisse (spätere Vega II )schon veröffentlicht worden

https://hothardware.com/news/amd-vega-20-final-fantasy-xv-benchmark-leak

auch wenn jetzt wieder einer meint das ist ja eine professionelle Karte. Kann sich noch wer an die Vega Frontier erinnern? Da wurde das selbe behauptet u die Ergebnisse der Gamingkarte waren nahezu die selben Resultate.

Für einen Wundertreiber der aus GCN noch 20-30% mehr raus presst ist es zu spät ,denn die Architektur ist die selbe wie seit Jahren
 
Zuletzt bearbeitet :
Die Hoffnung stirbt zuletzt... ;) ...jedenfalls meine, dass da vielleicht doch noch was Gescheites kommt. So zwischen 2080 und der 2080Ti wäre ja schon was...
 
Zitat von @scully1234
Aber 3DFX hätte mit der 3D Grafik am Anfang auch keine 120Hz Monitore ausgelastet, und trotzdem hat es sich durchgesetzt, weil alle wussten das es der nächste große Schritt ist, so wie heute Echtzeitraytracing

Genau so ist es. Ich habe ich die Zeit mitgemacht, wo man die 3D Grafik nur wenige begeistert hat, weil sie halt bescheiden aussah und wahnsinnig Leistung kostete. Spiele mit Spirite Grafik schöner aussahen und heute betrachtet auch deutlich besser gealtert sind.

Mit einer Voodoo1 kaufe man sich eigentlich auch teil eine teure Tech-Demo...
Dennoch ohne die damaligen ersten 3D-Schitte in die Gaming-Welt, wären wir nicht da wo wir heute sind.

Die ersten RayTracing Schritte in Echtzeit sind nun gemacht, und es wird auch in diese Richtung weitergehen. Das hat viele Gründe, welche ich hier jetzt nicht Seitenweise aufzählen möchte. Es ist Mutig von Nvidia Chipfläsche für aus heutiger Sicht, eineeher Tech-Demo, als eine durchgehend praktikable Technik zu opfern, auf lange Sichte kann das ihnen aber ihre zukünftige Markposition stärken.
 
Zitat von @scully1234


Genau so ist es. Ich habe ich die Zeit mitgemacht, wo man die 3D Grafik nur wenige begeistert hat, weil sie halt bescheiden aussah und wahnsinnig Leistung kostete. .


Ich weiß es noch wie heute als man sich damals ne Voodoo Karte geleistet hast , für damalige Verhältnisse auch schon exorbitante Preise , (gut das Gehalt nach der Lehre konnte das schon etwas abmildern : -) ) gab es auch diese Diskussion der Inakzeptanz der 2D Fackelträger, und die des Neides ob teurer Computerperipherie geht ja gar bis zu den Ursprüngen zurück

Sozusagen ist das alles hier Business as usual , wie immer halt
 
Damals bei den ersten Beschleunigern gab es z.T. auch noch speziell angepasste Spiele dazu... glaub Mechwarrior 2 *seufz - kurze Memory Lane Pause* hatte ich mindestens 3x... einmal normal, einmal Matrox Mystique optimiert und einmal 3dfx optimiert... :D
 

Anhänge

  • 4D2F502B-7DDA-4B72-B855-6A13981F7827.jpeg
    4D2F502B-7DDA-4B72-B855-6A13981F7827.jpeg
    477,3 KB · Aufrufe : 3
Oben Unten