Reviews Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test - Gaming, Turing-Benchmarks und neue Erkenntnisse

PS: das in meinen Augen bzw. für mich interessanteste Setting wäre UWQHD+DLSS aber darauf werd ich wohl noch warten müssen.
DLSS wird es wohl nur für UHD geben, weil jede Auflösung separat auf dem Nvidia Supercomputer trainiert werden muss. Was ich bisher an DLSS-Screenshots aus FF15 gesehen habe, geht auch eher in Richtung "meh" :confused:
 
Auflösung steht ja da: UHD und es können nur die Games aus dem Parcours sein, sonst würde ein Vergleich ja keinen Sinn machen ;)

selbst in 1440p hat ne 2080 Ti schon mühe in RotTR über 60fps zu bleiben... spiegelt auch meine erfahrung mit meiner bis an die kante getakteten 1080 Ti wieder, komme da mit 1920*1200 und allen auf rechts inkl. max pure hair auch öfters mal unter 60fps in dem game... erinnert mich ein wenig an crysis, wo ja auch erst ein paar jahre später das game mit allen reglern auf rechts gespielt werden konnte... hier wars immerhin ein jahr(1080Ti) bis eine MAINSTREAM karte kam(die titans lasse ich jetzt mal bewusst aussen vor), die RotTR flüssig mit max settings wiedergeben konnte(und das auch nur in FHD). und erst die kommende generation wird RotTR flüssig mit allen auf rechts darstellen können... aber ist ok, ist halt ein eyecandy came :)
 
selbst in 1440p hat ne 2080 Ti schon mühe in RotTR über 60fps zu bleiben... spiegelt auch meine erfahrung mit meiner bis an die kante getakteten 1080 Ti wieder, komme da mit 1920*1200 und allen auf rechts inkl. max pure hair auch öfters mal unter 60fps in dem game... erinnert mich ein wenig an crysis, wo ja auch erst ein paar jahre später das game mit allen reglern auf rechts gespielt werden konnte... hier wars immerhin ein jahr(1080Ti) bis eine MAINSTREAM karte kam(die titans lasse ich jetzt mal bewusst aussen vor), die RotTR flüssig mit max settings wiedergeben konnte(und das auch nur in FHD). und erst die kommende generation wird RotTR flüssig mit allen auf rechts darstellen können... aber ist ok, ist halt ein eyecandy came :)

In Full HD mit Ultra und Haargedöns macht meine 980 Ti das mit. Halt nicht durchgehend mit 60fps aber richtige Ruckler hatte ich bisher nicht. Ist halt ne Strix OC und du hast noch ein paar Pixel mehr...
 
In Full HD mit Ultra und Haargedöns macht meine 980 Ti das mit. Halt nicht durchgehend mit 60fps aber richtige Ruckler hatte ich bisher nicht. Ist halt ne Strix OC und du hast noch ein paar Pixel mehr...

hast du im treiber alle AA und qualitäts modis auf max? :) mach das mal und willkommen bei dem dia-abend ;)
 
Naja wenn man will kann man jede Karte ins Limit drücken. Einigermaßen moderate Einstellungen und dann sollte dem 4k Spaß eigentlich nix im Wege stehen mit einer 2080TI. Einzig RT dürfte wohl die Ausnahme bleiben, da sehe ich selbst als Optimist kaum eine Chance auf 4k.
 
Wem die Leistung für 4k nicht reicht, hier das 1. Video mit NVLink (2x RTX 2080TI MSI Gaming X Trio) - mehr geht wirklich nicht ;)

 
Oh Mann. Ich frage nach, ob die CPU in 4k/UHD einen Unterschied macht und du antwortest jetzt mit einem Game in 1440p und gehst mit keinem Wort auf die CPU ein. Inwiefern hilft mir das jetzt bei meiner Frage, ob ein 8700k deutlich mehr fps als ein 2600x/2700x aus einer 2080 ti in 4k/UHD rausholt?
 
#128 - die Frage ob die CPU 8700k oder 2700x (2600x lasse ich mal außen vor, da habe ich bisher kaum Benchmarks gesehen) in 4k mehr oder weniger gut performt dürfte nicht ganz so leicht zu beantworten sein. Der 8700k hat die bessere Singlecore Leistung und in kleineren Auflösungen ist er oft vor dem 2700X. Werden jedoch alle Kerne ausgelastet, kann der 2700X seine stärken ausspielen. Letztlich sind beide CPU´s jedoch so stark das in 4k selbst die 2080TI fast immer der limitierende Faktor ist. In Sachen Frametimes/99percentile ist die Intel CPU meist auch einen Tick besser.

Ich denke bei einer 2080TI ist man mit beiden CPU´s gut aufgestellt. Selbst mein fast Antiker 4790k @ 4,6 Ghz schafft in so ziemlich jedem Spiel die 60 fps. Ob ich es mit der CPU schaffe die 2080TI in 4k ins CPU Limit (60fps/Vsync) zu boxen, wird sich in der Praxis zeigen. Ich denke aber das es langsam knapp wird und spätestens wenn die Spiele auf 6-8 Kerne setzen, wird wohl ein Upgrade fällig. Wer auf hohe FPS (deutlich über 60 fps) aus ist, muss sowieso in eine bessere CPU investieren...
 
Oh Mann. Ich frage nach, ob die CPU in 4k/UHD einen Unterschied macht und du antwortest jetzt mit einem Game in 1440p und gehst mit keinem Wort auf die CPU ein. Inwiefern hilft mir das jetzt bei meiner Frage, ob ein 8700k deutlich mehr fps als ein 2600x/2700x aus einer 2080 ti in 4k/UHD rausholt?

kurz: kommt auf das game an... games die mit multicore umgehen können sind die minimumframes auf nem 2700X besser als beim 8700k, der 2600X dürfte schlechter als der 8700k sein, da gleiche anzahl threads aber weniger takt.
 
#128 - die Frage ob die CPU 8700k oder 2700x (2600x lasse ich mal außen vor, da habe ich bisher kaum Benchmarks gesehen) in 4k mehr oder weniger gut performt dürfte nicht ganz so leicht zu beantworten sein.
Ja, in der Theorie lässt sich das nicht beantworten, das muss getestet werden. Bis auf den kurzen Videoschnipsel bei LTT hab ich bisher nirgends einen Test mit einem 2700x gesehen...

kurz: kommt auf das game an...
Da die Frage an Igor gerichtet war, sind die Games gemeint, die er hier im Parcours mit dem 6900K gebencht hat...
 
Es macht bei den gewählten Spielen keinen Unterschied, wenn beide CPUs (7700K und 6900K) auf gleichem Takt laufen - Messtoleranzen sind da höher. Aber ich merke mir mal vor, dass ich in Zukunft "verdächtige" Spiele mit AMD und Intel gegentesten werde. Bei solchen Karten wie der 2080 Ti macht alles unter WQHD sowieso keinen Sinn. Full-HD ist heute das, was früher mal 800 x 600 in CS war (am besten noch mit Wireframe-Cheat). :D
 
@Igor: Verstehe ich das richtig, dass damit dann auch bei WQHD oder 4K doch der Takt der CPU entscheidend ist, sagen wir mal bei mindestens 4 Kernen? Das wäre ja schon eine Erkenntnis, vor allem wenn man nicht übertaktet.
 
Das habe ich nicht gesagt. Aber 4 Kerne ohne HT bzw. 4 Threads (2/4) kann man z.B. mittlerweile galant begraben, egal wie hoch die takten.

Zumindest solange die GPU der limitierende Faktor ist - bei höheren Auflösungen und aktuellen CPUs ist das ja fast immer der Fall - kommt es wirklich aufs Spiel an. Aber es mag Spiele geben, wo Vieles über die CPU nebenher läuft oder wo eine gute GPU trotz UHD nicht der limitierende Faktor ist. Dann ja.

Ergo: man kann es NICHT eindeutig beantworten.

Edit:
In meinem aktuellen Gaming-Rig and der Wand hängt z.Z. ein wassergekühlter 7900X drin - brav auf 4.6 Ghz geprügelt und mit ordentlichem, schnellen RAM versehen. Er ist auch in IPC-empfindlichen Spielen nicht wirklich langsamer, aber dafür in allem, was multi-thredead läuft, einigermaßen gut vorn. Sogar in 4K. Ich mag die Z370-Plattform nicht wirklich. (Privatmeinung)
 
Was hätte sich nächste Generation in Sachen Raytracing geändert? Wenn man nicht irgendwann anfängt es auszuliefern, werden nie Spiele entwickelt werden, die dieses auch unterstützen. Nächste Generation hätte man 1 zu 1 den selben Kommentar gelesen, der selbe Kommentar wäre aber auch die Generation danach gekommen ... und in 10 Jahren hätten wir immer noch die selben Kommentare, wenn man versucht hätte Raytracing zu etablieren. Irgendwann muss der erste Schritt nun mal gemacht werden.

Ich finde lustig, wie hier irgendwie nur die wirklich rumweinen, die uns schon seit Wochen sagen, dass mit den Benches viel rumgeweine aufkommen wird ... Etwas ironisch.
Das fällt mir weniger negativ auf als die vielen (plattformunabhängigen) Beiträge, die in der Anfütterungsphase vor einem Launch nach "unabhängigen Tests von (ihrer Lieblingsplattform) XY" schreien.

Und im gleichen Zuge die "alles wie (ich[!!] es) erwartet (habe)"-Beiträge im Launchartikel. Bei den Blauen oft sogar die ersten paar Seiten lang, ein Beitrag wie der andere selbstbeweihräuchernd, wenige Minuten nach Fall der NDA, während ich es in gleicher Zeit nicht schaffe auch nur die erste Seite im Test hier zu lesen, geschweige denn ein Resumé zu ziehen.

Wenn es eine Funktion gäbe diese Teile auszublenden, ... dann würde ich sie benutzen.
 
Soah, der liebe Roman hat nun so einige Fragen beantwortet.
Volt-Mod ist nicht nur sehr umständlich sondern bringt auch so gut wie nix. Kühlung bringt was, aber so richtig viel erst bei extremen Minusgraden. Ist also nix für den Hausgebrauch.
 
RTX - the end of overclocking?
 
Nö. Warum? OC geht ja, nur eben nicht mehr so viel. Ich hatte zwar insgeheim auf 2.3 GHz gehofft, realistisch war das angesichts alleine der Chipgröße aber nicht.
 
War doch schon mit der 1080 ti schon?!
 
Oben Unten