NVidia Nvidia äußert sich erstmals selbst zur Performance der GeForce RTX 2080

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.107
Bewertungspunkte
18.596
Punkte
114
Alter
59
Standort
Labor
Performance-1024x576.jpg


Igor Wallossek Neuen News-Beitrag vorschlagen
Noch müssen wir mit dem leben, was uns Nvidia im Rahmen des Editors Day selbst mitgeteilt hat, denn eigene Benchmarks habe ich leider noch nicht. Aber immerhin präsentierte Nvidia eine sicherlich interessante Folie, die es aber genau und emotionslos zu interpretieren gilt.

Nvidia testet alle Applikationen mit 3840 x 2160 Pixeln, also in Ultra-HD und dazu mit einem nicht näher bezeichneten Antialiasing, sowie HDR, wo es möglich ist. Der graue 100%-Balken steht dabei für die GeForce GTX 1080 FE.

Die olivgrünen Balken repräsentieren die neue GeForce RTX 2080, ganz offensichtlich mit den gleichen AA-Einstellungen wie die ältere Schwester. Dort, wo es bereits implementiert wurde, legt die RTX 2080 mit dem neuen DLSS (Deep Learning Super-Sampling) kräftig zu.



Im Mittel ergäbe sich anhand der präsentierten Balken in der gewählten Auflösung und den leider nicht näher bezeichneten AA-Einstellungen eine Leistungssteigerung um satte 50%, beim Einsatz von DLSS dann sogar eine Verdopplung.

Natürlich kann man davon ausgehen, dass Nvidia sich garantiert nicht die am schlechtesten laufenden Spiele herausgesucht hat. Trotzdem ist diese Leistungssteigerung, so sie denn zumindest ähnlich auch in anderen Settings verzeichnet werden kann, durchaus eine Hausnummer.

Leider sind reine Prozentbalken noch keine sichere Auskunftei für echte Spielbarkeit, aber zumindest gibt man noch eine weitere Folie frei, auf der die zehn ausgesuchten Spiele mit 60 FPS und z.T. auch deutlich mehr auf Ultra-HD laufen sollen.

Auch hier fehlen allerdings noch die Informationen zu den Einstellungen und dem verwendeten Testsystem, schade eigentlich. Rechnet man allerdings alle Features zusammen und schenkt Nvidias Aussagen Glauben, dann könnte sogar die GeForce RTX 2080 die erste wirklichen 4K-Grafikkarte werden (und nicht erst die RTX 2080 Ti), die ein Multi-GPU-Setting obsolet machen könnte.



Über das tatsächliche Gelingen werde ich natürlich erst nach einem ausführlichen Test urteilen können, denn Folien sind oft genug recht geduldig. Allerdings ist der erste Eindruck wirklich kein schlechter und wenn auch nur annährend auf der breiten Masse aller Spiele dann genau das ankommt, was versprochen wurde, dann kann man durchaus von einer echten, überdurchschnittlichen Leistungssteigerung sprechen.

Das wiederum dürfte, zusammen mit allen RTX-Features, dann doch ein Trostpflaster für den auf den ersten Blick doch etwas happigen Preis sein. Wenn es denn nachprüfbar exakt so ausfällt, wie angekündigt. Aber dafür haben wir ja später unsere Tests.

Da teasere ich natürlich ganz gern übrigens auch schon mal den Wasserkühlungstest als Follow-Up an, denn die ersten Fullcover-Kühler sind ja bereits auf dem Weg nach Europa.



[democracy id="7"]

[affbox geizhals_id="1870891" caseking_url="msi-geforce-rtx-2080-ti-gaming-x-trio-11264-mb-gddr6-gcmc-207"]

Den Originalbeitrag lesen
 
Zuletzt bearbeitet von einem Moderator :
Hab glaub noch nie zuvor so auf einen GPU Test gewartet wie jetzt gerade.

Der Performance-Schub relativiert sich aber schon, wenn man die 1080Ti in die Betrachtung einbezieht, wobei man umgekehrt auch wieder nicht weiß, wo die 2080ti landen soll.

Hach spannend! Kannst Du denn irgendwas teasers, wann so grob mit ersten Tests gerechnet werden kann (auch wenn Ihr Euch damit ggf. selbst schadet, weil ich dann nicht mehr so oft täglich bei Euch vorbeischaue...)? ;)
 
"Den auf den ersten Blick happigen Preis"....auf dem zweiten bis zehnten Blick ändert sich da überhaupt nichts dran. Die Karten sind durch die bank weg 200-400€ zu teuer (n).
 
Die KI DLSS Modi müssen erst auf Supercomputern antrainiert werden. Ob das den Entwicklern und Kunden gefällt, Cloudgaming oder was soll das werden? RTX it's a Service?

Im Durchschnitt 50% schneller mit DLSS und ohne? Vor allem eine 1080 in UHD als Vergleich hernehmen. Also eine v64 schafft auch 48-55fps in UHD+Freesync, dann wie nVidia das mit DLSS Filter Optimierungen handhabt, vielleicht sogar knapp 60fps.

Ehrlich, bei den Preisen enttäuschend. Irgendwie so schnell wie die 1080ti (war erwartbar), aber DLSS off und dann? Downsizing und Restriktion vom Feinsten mit der Bindung an Supercomputer? Mietet man die dann als Entwickler? Unter DX12 sollte es doch derartige Optimierungen durch den Hersteller gar nicht mehr geben.
 
@ferwen: lies nochmal, guck Bild. Im Durchschnitt 50% OHNE und verdoppelt MIT DLSS.
 
@ferwen: die vorab trainierten ML/DL Modelle sind dann wohl eher Teil des Spiels (also Lieferumfangs) und werden von der Graka mit ihren Tensor Cores dann „nur noch angewendet“.

Das Training der Modelle braucht ja noch ein Vielfaches der Rechenpower im Vergleich der späteren Anwendung (gleiche Prinzip wie bei den ganzen Anwendungen im autonomen Fahren: die Modelle sind an Board und werden nur noch mit den Live-Daten bespielt/angewendet). Die Verwendung der weiteren Live Daten für zusätzliche Trainingseinheiten geschieht dann ja auch wieder woanders im RZ.
 
Ist dieses DLSS nachträglich sehr schwierig zu implementieren? Falls das noch in GTA5, Watch Dogs 2, AC Origins/Odyssey, Witcher 3 und Rise of the Tomb Raider eingebaut wird, bestelle ich sofort eine 2080.
 
Zuletzt bearbeitet :
@ferwen: lies nochmal, guck Bild. Im Durchschnitt 50% OHNE und verdoppelt MIT DLSS.
Überlege doch mal was für Referenzdaten dass sind, die nV zum Vergleich heranzieht, Custom 1080 mit OC? vom Partner oder FE? Das ist schlicht die Referenz, 1080 und 1080ti rennen der aber weg mit 2,0 GHz und ob das auf TU möglich ist? Sie dir einfach die riesigen Kühlblöcke und übergroßen Layouts an.

Unter UHD sind 50% wenige FPS.

Ansonsten, ich hoffe du hast Recht, für Dich. Von 20-25% Drops ist ohne DLSS die Rede. Welches Spiel das bekommt legt wohl nV fest. Eine neue Popcornrunde für den Entwickler. Bist du dabei schön, controlled nV, ansonsten guckst du zu. Gaming Markenbindung ala nV, GPP hat nicht geklappt.

LUXX hat gesagt. :
Das Inferencing findet dann auf der Turing-Hardware im Gaming-Rechner statt und wird durch die Tensor Cores unterstützt. Die dazu notwendigen Daten werden per GeForce Experience an den Rechner übertragen und sind nur wenige Megabyte groß. Allerdings würde damit auch die Installation der GeForce Experience zusätzlich zum Treiber notwendig und zudem verlangt dieser nach einem Login und kann nicht mehr einfach so betrieben werden.
https://www.hardwareluxx.de/index.p...dlss-erlaeutert-und-erste-leistungsdaten.html
 
Zuletzt bearbeitet von einem Moderator :
Diese High End-Features kommen doch eh nur für AAA-Games in Betracht, die Entwickler haben große Budgets und können die Features eher einbauen als ein kleines Indiestudio, evtl. hilft Nvidia auch finanziell etwas nach.

Wie dieses DLSS und AI-Upscaling en detail funktionieren wissen wir ja auch noch nicht. Muss das für jedes Spiel neu traineirt werden oder reichen allgemein Spieledaten und ist es dann für die Entwickler nur noch ein Klick in der Engine (so einfach wird es natürlich nicht sein) und DLSS ist implemnetiert? Warten wir es ab. Turing bietet auf alle Fälle sehr viele spannende Features, meine Enttäuschung weicht, je mehr ich lese, so langsam aber sicher doch der Begeisterung.
 
Lies einfach unter dem Link, das ist Echtzeit. NVidia muss die KI antrainieren und wie sollen das die Entwickler machen wenn sie dein System nicht kennen. Die werden gerade entmündigt, aber vielleicht bekommt das hier keiner mit. Du musst ein Login durchführen wenn du mit DLSS spielen willst und das ganz sicher für jeden neuen Titel. NV sammelt Daten, schickt die an ihren Supercomputer und dann gibt es paar mb zurück. Was mit deinen Daten passsiert, k.A.. Eigen sich ja auch um später nV Werbung einzuspielen.
 
Für mich? Mir ist es völlig egal, ob die 2080Ti 400.-, 850.- oder 1300.- kostet, ich kann mir eh keine leisten und wollte das auch gar nicht. Es juckt mich ebenso kein bißchen, ob die schnellste Karte nun von nVidia ist oder AMD, weil ich eh nie mehr als grob 150.- für sowas hinlege und sowohl da als auch überhaupt interessiert mich das PLV. Hat - wie zuletzt geschehen - nVidia die Nase vorn, dann wird es so eine, hat - wie bei der davor - AMD die mir besser taugende Karte, dann ein von denen. Wegen solcher Lappalien mach ich mir sicher keinen Kopp. Das ganze Gedröhne hier und anderswo ist allerdings sehr unterhaltsam, vor allem, weil keiner irgendwas genaues weiß.
 
Die werden gerade entmündigt, aber vielleicht bekommt das hier keiner mit. Du musst ein Login durchführen wenn du mit DLSS spielen willst und das ganz sicher für jeden neuen Titel. NV sammelt Daten, schickt die an ihren Supercomputer und dann gibt es paar mb zurück.
Sorry, aber du malst hier ein worst case-Szenario an die Wand, ohne überhaupt zu wissen, ob das auch nur ansatzweise stimmt. Ich habe das so verstanden, dass der Nvidia Supercomputer mit massenhaft Bildern trainert wird und daraus einen AI-Algorithmus baut, der dann via Treiber oder Geforce Experience von den Tensorkernen genutzt werden kann, um Kanten zu glätten, offline.
 
Für mich hörte sich das an als wüsstest du es schon. Daher mein Einwurf. Ich denke die Aussagen zu DLSS aus dem Luxx sind authentisch, denn das versuchte nV schon. Datenkrake spielen mit Treiberlogin und ähnlichem (RTX it's a Service), anmelden wenn man downloaden will usw.. DLSS bekommst du nur wenn wir es wollen und damit höchste Spieleleistung unserer Plattform. Da weißt du nicht mehr, was auf dem Rechner passiert und woanders. Zudem wirst du völlig gläsern.

Was den Benchmark angeht, den EPIC soll man nicht für voll nehmen und daran hangeln sie sich lang, tot optimiert.:) Lieber die hellgrünen Balken weglassen. PCGH haben auch schon etwas verfasst (LOD, Texturen, Geometrie, Auflösung u. BF5 usw.). Mit der Gen gibt nV sich einen mit. Ich glaube die nächsten Tage werden spannend und für Entwickler werden das schwarze Tage, dass sieht sehr nach full controlled nV aus.

Sorry, aber du malst hier ein worst case-Szenario an die Wand, ohne überhaupt zu wissen, ob das auch nur ansatzweise stimmt. Ich habe das so verstanden, dass der Nvidia Supercomputer mit massenhaft Bildern trainert wird und daraus einen AI-Algorithmus baut, der dann via Treiber oder Geforce Experience von den Tensorkernen genutzt werden kann, um Kanten zu glätten, offline.
Und woher stammen die Daten? Von Nvidia? Die Entwickler setzen sich Wochen hin und füttern Super-Computer? Die übermittlen dir DLSS so wie du das brauchst, anhand deiner Einstellung/Auflösung usw., dann schickt dir der SC die Daten für die KI. Minimum musst du dich einmal anmelden für jedes Spiel. Sonst bräuchte man das doch gar nicht. Weißt du was eine Cloud ist? Da liegen deine Daten gespiegelt!
 
Zuletzt bearbeitet von einem Moderator :
Ok, die RTX 2080 FE ist ca. 50% flotter wie eine GTX 1080 FE, die GTX 1080ti FE ist ca. 30-35% flotter wie die GTX 1080, das würde heißen das die RTX 2080 ca. 10-20% flotter wie eine GTX 1080ti ist sowie deutlich flotter wenn das DLSS unterstützt wird. Was bleibt ist die Frage ob die 8GB Speicher relativ zeitnah in 4k zum Nadelöhr wird bzw. ob das der schnelle Speicher sowie das i.d.r. gute Speichermanagement von Nvidia ausgleicht. Nvidia hat die Preisgestaltung natürlich sehr geschickt gestrickt, zwischen ca. 900 und 1200 Euro ist der Unterschied zwischen RTX 2080 und RTX 2080ti mit deutlich mehr Shadern und Speicher auch verlockend - nur 1200 € für eine Grafikkarte ausgeben? Meine Frau killt mich ;) - 900€ ist schon für die Zeit die ich zum spielen finde zu viel. Aber wenn ich mal Zeit habe dann soll es ohne kompromisse sein. Hmm GTX 1080ti FE ging heute bei Ebay für 520€ weg, bessere customs bekommt man wohl für 600€ gebrauchg.. ahh ich werde noch kirre ;)
 
@HerrRossi :
So läuft es ja auch. Ferwen phantasiert im rot-glühenden Fieberwahn.

@ferwen: Deine Vergleiche zwischen super-übertakteter 1080Ti und Stock(!) 2080 FE hinken an so vielen Stellen, da weiß ich gar nicht, wo ich anfangen sollte...

NVidia glaube ich die Verdopplung der Frameraten so natürlich nicht.
Dafür müsste man mit viel Phantasie Extremfälle generieren - und ich gehe davon aus, dass dort bereits für diese tollen Zahlen Raytracing RTX-Pfade herangezogen wurden.

Wäre die 2080Ti tatsächlich IM SCHNITT um 50% schneller, als eine 1080Ti, wäre das gut. Sehr gut sogar.

Leider erwarte ich zur Zeit eher 20 bis 25 Prozent, was gerade bei dem Preis enttäuschend wäre, und nur bei merkwürdig optimierten Engines mehr.
Das wäre dann nur für Benchmarks nutzbar und für die meisten User irrelevant - abgesehen vom S*******vergleich, der auch bei OC die Hauptmotivation darstellt.

Meine Erwartungen halte ich für realistisch, habe allerdings auch nichts dagegen, wenn ich positiv überrascht würde.

Alles unter 20% Leistungsgewinn wäre m.E. sehr enttäuschend.
 
Geforce Experience muss installiert sein + Login + persönliche Daten an nVidia weitergeben.

Selbst wenn nVidia die geilste Karte für einen wirklich humanen Preis bringen würde. Das wäre der Knackpunkt wo ich definitiv nie mit Einverstanden sein würde.
Aber gerade die weitergabe von Daten würde an der europäischen Datenschutzbestimmung scheitern. Meine Daten müssten nämlich um nutzbar zu sein auf einem Server in der EU liegen. ;)
Aber selbst wenn das gegeben wäre. Ich will meine Daten einfach nicht an nV oder andere geben in dem Maße. Geht nämlich keinen was an, was sich auf meinem PC befindet oder welche Spiele ich am liebsten spiele.
 
Wenn du Luxx glaubst, dann lies es doch auch richtig:
Das Deep-Learning-Netzwerk wird also in der Cloud trainiert und nicht jedes Spiel muss für die Anwendung von DLSS auch explizit trainiert werden. Ist das Netzwerk auf einige Spiele trainiert worden, kann der Algorithmus auch auf anderen Spielen angewendet werden. Das Inferencing findet dann auf der Turing-Hardware im Gaming-Rechner statt und wird durch die Tensor Cores unterstützt. Die dazu notwendigen Daten werden per GeForce Experience an den Rechner übertragen und sind nur wenige Megabyte groß.

Da steht rein gar nichts davon, dass ich massenhaft Bilder zu Nvidia schicken muss, da steht auch nix von Datenkrake oder dass ich "gläsern" werde, weil ich mich für alle Spiele immer wieder neu anmelden muss, warum das für Entwickler schwarze Tage werden sollen, lässt sich aus dem Luxx-Artikel auch nicht ableiten. Ich achte ja auch auf meine Daten, habe weder Twitter noch Facebook, aber ich muss da auch nicht bei allem am ganz großen Rad drehen. Bei Geforce Experience muss man sich übrigens schon seit längerem einloggen.

@Dark_Knight welche Daten sammelt Geforce Experience eigentlich? Ich habe das bisher nur einmal kurz auf dem Rechner gehabt und dann wieder deinstalliert.
 
Mal schauen, was letztlich dabei rumkommt.

Der drastische Unterschied kann, unter Anderem, bereits von der deutlich höheren Memory Bandwidth kommen - allen voran, weil wir uns hier über 4K unterhalten und die 1080 dahingehend ggbf. ein wenig zu kastriert war. Abgsehen von den tatsächlich fehlenden PS auf Chipseite.

50% - 100% auf dem Papier klingt nett, muss sich in der Realität aber erst mal behaupten.

Ich tippe anfänglich mal auf 15~25% je nach Titel, mit der Tendenz zum klassichen AMD FineWine als Bonus.
 
Aber woher bekommen sie die Daten? Immerhin muss die KI ja erst einmal mit Daten gefüttert werden. Und alle Eventualitäten kann keiner voraus sehen. Also muss ja erst einmal das ganze auch mit Userdaten gefüttert werden. Und selbst wenn dies nur sagen wir in den ersten Tagen bei erscheinen eines Spiels ist. Es wird geschehen.
Und ich muss mich auch exklusiv für Geforce Experience anmelden, sonst kann ich das Feature nicht nutzen. Ein Feature, das aber die Karte teurer hat werden lassen und das ein Keyfeature der neuen Karte ist. Das ist ja als wenn MS sein DX12 nur exklusiv für ein bestimmtes Windows OS erlauben würde,.... oh wait. :LOL:

Somit kommt zu einer Bevormundung von Hardware Herstellern, Spiele Entwicklern/Publishern und der Presse, demnächst auch noch der Spieler hin zu. :D

Hand hoch wem es gefällt das man Features nur nutzen kann, wenn man sich Programme installiert, die einen im Zweifelsfall auch noch überwachen können und die dir Daten auf den Rechner installieren, die man selber nicht genau einsehen kann. :rolleyes:
 
Ich oute mich mal: ich hab ne 2080ti vorbestellt. Weil ich die präsi vom Jensen ganz gesehen hab, weil ich ein bisserl was von ML/DL verstehe und weil ich großen Spaß an einem möglichst guten und flüssigen Bild hab. Und ja, weil ich das Ding auch möglichst früh haben. Ich hab zurzeit ne 1080ti im einem Rechner und im anderen zwei TitanXp. Auch wenn man mir das nicht glaubt, aber ich bin kein Fanboy - hätte AMD zurzeit das Performance-Standing, dass NVIDIA sich erarbeitet hat (und das ist im ML/DL-Bereich mal echt ne Klasse für sich), hätte ich jetzt ne Rote vorbestellt. Ja, das hat alles nichts mehr mit Vernunft zu tun - macht aber nix, ist Hobby.

Bisher hat NVIDIA mich nicht verarscht, Performance stand im Consumerbereich m.E. in einem noch akzeptablen Verhältnis zum Preis. Hey, hätte meine 1080ti durchgemined wenn ich nicht zocke, hätte ich sie sogar wohl längst wieder raus gehabt.

Ist aber egal: ich werd’s im Real Life ausprobieren, meine Erfahrungen gedanklich mit den Tests abgleichen und mich entweder freuen oder ärgern... nur um am Ende bei nächster Gelegenheit wieder irgendeinen Stuss zu kaufen, den ich eigentlich nicht brauche... ;)

P.S.: die Daten bekommen sie spätestens vom ENTWICKLER, menschenskinners. Die ersten Bilder werden nicht erst erzeugt, wenn das Spiel im handel ist... da bauste z.B. Trainingsdaten für verschiedene Auflösungen vorab, lässt die GameEngine mal ein paar Millionen Bilder rendern und fertig ist die Laube.
 
Oben Unten