Reviews Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test - Gaming, Turing-Benchmarks und neue Erkenntnisse

@retiarus Mich stört an dem Preis lediglich, dass NVIDIA die Preiserhöhung im Mainstreamsegment durchdrückt. Hätten sie halt all die RTX Features und blablablacores in eine eigene Serie gepackt oder bspw. Die Titan RTX Daraus gemacht, dann wäre der Preis auch irgendwie vertretbar. All die Jahre hat man für einen annähernd selben Preis eine ca. 30% Leistungsverbesserungen pro Serie bekommen. bspw. 1,3*GTX980 = GTX 1080 = GTX980ti (Werte Pi x Daumen)... Mit der RTX2080ti ggü. der GTX1080ti wird auf einmal für ca. 30% Mehr Leistung 70% Preisaufschlag verlangt? Sorry, aber da müssen Sie sich nicht wundern, dass so gut wie jeder große Hardwarereviewer eine negative Bewertung abgibt und NVIDIA damit konfrontiert die Kunden zu melken.
 
Können die AIB das Powerlimit nicht umgehen?
Nein, weil die Karte gar kein *sonst übliches/bekanntes* Powerlimit besitzt. Sondern ein Vcore Voltage Limit, das nVidia je nach Güte vorgibt. Du kannst gerne sowiel Wattage in + % draufprügeln wie Du willst. Interessiert nicht die Bohne. Zu hohe Spannung führt dann zu Artefakten.
 
Bin heute spät dran, den ganzen Tag unterwegs gewesen und konnte überall nur mal kurz reinschauen und werde mir diesen Test jetzt, nach dem ersten überfliegen, genüsslich und in aller Ruhe komplett durchlesen. Hat wer Kaffee?

#37 / 38 - bin auf den TomsHW Test der MSI Trio TI sehr gespannt und auch wie der vergleich zum Guru verläuft (z.B. OC Potenzial) - dort hält es sich arg in grenzen und 110% Powerlimit war da auch ein Thema. Man muss aber auch sagen das der Aufpreis überschaubar ist (1249,- zu 1319,- = 5,6%) Bei ein paar % mehr Leistung es schon fast ok, wenn man bedenkt das man für nen bischel über 30% Mehrleistung ggü. der 1080TI um die 600€ Aufpreis zahlt.

Ist der 7700K übertaktet? zumindest ein 4Kerner + 4HT der meinem 4790k @ 4,6 Ghz all core Leistungstechnisch nicht ganz so arg davon rennt.
(hoffe ja das meine CPU nicht allzu sehr ausbremst / 4k 60 fps)

Bei der MSI / der 3. Stecker - vielleicht wird dieser erforderlich wenn OC betrieben wird und VR Hardware an dem USB-C Anschluss (soll 35 Watt liefern) angeschlossen wird?

Bezüglich OC habe ich gesehen das man den RAM anscheinend oft um die 800 Mhz anheben kann (effektiv dann zusammen 15.600 Mhz) (Bsp. Zotac 2080TI AMP und MSI Trio TI) - bin gespannt ob es bei deinem Sample ebenfalls geht.

Ich hab meine Bestellung bei Computeruniverse aufrecht erhalten, wobei ich immer noch geringfügig Bauchweh habe. Meine Messlatte war mind. 30% mehr Leistung ggü. der 1080TI, das dass so eine Punktlandung wird... uff...

Wenn ich mir aber ansehe das genau die Spiele, die ich im Fokus habe in 4k deutlich besser wie eine 1080TI performen, dann versöhnt mich das etwas. Die MSI Trio TI wird dann ggf. nochmal ein paar % zulegen. TomsHW = FF15 mit DLSS deutlich über 50%, FarCry 5 +38%, Witcher 3 +42,8%, (Quelle PCGHKingdom Comes Deliverence +47%, Elex +43% jedoch bei sehr extremen Settings)

Das einzige was mir letztlich Sorge bereitet ist der 7nm Shrink - nur wie lange wird das dauern bis der kommt? wird NV da wirklich wieder so einen riesen Leistungssprung wie damals (980TI vs 1080TI) raus holen oder doch lieber die DIE´s verkleinern und die Kosten reduzieren. Sie haben ja aktuell keinen wirklichen Konkurrenzdruck...

++++++++

Edit 23:43: bin jetzt mit dem Lesen ganz gut voran gekommen. Bei genauerer Betrachtung ist jetzt auch klarer das man bei dem 1% bzw. Min FPS bei der 2080TI wirklich deutlich besser darsteht und auch oft die über 60 FPS erreicht. Für mich ein wichtiger Pluspunkt.

#45 Das die FE 1080 Ti nicht mit der FE 2080 TI vergleichbar ist, dem muss ich leider zustimmen. Der Unterschied wird dementsprechend geringer ausfallen wenn man der FE einer guten Custom gegenüber stellt. (statt ~ 10%+ werden es wohl nur 5% sein?!)
 
Zuletzt bearbeitet :
Schöner Test. Sehr ausführlich und umfangreich.

Aber es bleibt trotzdem bei dem was ich vorher schon wusste:
RT und DLSS nicht nutzbar, da noch gar nicht vernünftig in die Spiele implementiert, also ein Feature was 0 Relevanz stand jetzt spielt. Und dafür gibt man, wenn man vernünftig nachdenkt, kein Geld aus.
30-40% Mehrleistung für einen Aufpreis von über 400$ (UVP 1080Ti FE zur Einführung gegen UVP 2080Ti FE zur Einführung), steht in keiner Relation.
Auch die Begründung, dass man ja jetzt 4k/60fps wirklich vorhanden hat, ist einfach kein Argument für einen Aufpreis von 50%.
Aber das ist halt meine Meinung.

Ich finde es ein Unding, das der Kunde hier die Entwicklungskosten mittragen muss, ohne auch nur einen geringsten Nutzen daraus ziehen zu können aktuell. Bei AMDs Karten wurde seit Jahren rumgemotzt, wenn diese ihre Leistung nicht Instant bei Markteinführung auf die Strasse bringen, egal wie neu die implementierten Features waren. Bei nVidia ist es ja Technologie, die erst noch reifen muss und man müsse dafür Verständnis aufweisen. *hust* Doppelmoral *hust* (Igor ist damit nicht gemeint, bevor das hier wer unterstellt ;) ).
Aber wer dies halt bereit ist zu zahlen, der solle dies machen.

Was mir am Test aber etwas weniger gefällt, ist zum einen der Vergleich mit den FE Versionen der Pascal Generation, die weder OCed sind noch ihr komplettes Potential ausspielen können ohne OC, aufgrund ihrer Bauweise.
Hier wäre es definitiv richtiger gewesen die 2000er FE Modelle, die ja schon OC erhalten haben, gegen andere OC Modelle der 1000er Reihe zu stellen.
Und der Vergleich mit der Titan V ist zwar schön und gut, weil diese ebenso Tensor Cores hat. Aber die Titan V ist keine Gamingkarte. Somit ist die Aussage, das die 2080Ti zwar teuer sei, aber im Vergleich zur Titan V ja noch "relativ" günstig und man ja für die letzten % Mehrleistung eben immer tiefer in die Tasche greifen müsste einfach nicht richtig.

Der Preis ist und bleibt für die gebotene Leistung einfach zu hoch. Das war er schon bei Pascal so und ist es jetzt bei Turing auch wieder.
 
Bin gerade etwas enttäuscht von der Trio. Die braucht wirklich keinen 3. PCIe-Anschluss. Magere 110% Power Target landen am Ende genau dort, wo die FE landet. Alles auf Max. und die Karte läuft bei knapp 2 GHz ins totale Power Limit.

NV hat echt die Finger drauf


ahahaha, wirklich? da freuen sich die HC OCer ja sicherlich alle total :ROFLMAO: aber um so besser, bleibt der abstand so "klein" wie er jetzt ist zwischen den pascal TIs und den turings :sneaky:
 
Für mich ist das Ergebnis ok und im Rahmen des Erwarteten, vielleicht knapp darunter.

Auf WQHD kann man langsam ernsthaft über 120+Hz Monitore nachdenken und die 4K eben mit den 60Hz.

Ja, Raytracing und DLSS müssen erst noch zeigen, was sie können. Ich werde das vermutlich erst mit Mechwarrior 5 dann mal austesten (BattleTech Fanboi hier). Bis dahin sollte dann auch Microsoft mit DXR um die Ecke gekommen sein (und evtl. sogar erste Bugs eliminiert sein) und möglicherweise kann NVIDIA auch noch insgesamt was am Treiber optimieren.

Will das Ganze nicht zusätzlich schönreden, mir reicht der Performanceschub auch so grundsätzlich, da ich auch die 1080Ti FE hab und keine Custom. Freue mich also auf mehr Speed, neue Features und geringere Lautstärke. Außerdem gewinne ich einen PCIE-Slot zurück, da dann die 2 TitanXp endlich wieder rausfliegen. Von denen hatte Igor ja leider keine im Test dabei, sind aber auch eher speziell und grds. einzeln ja grob in der Klasse der 1080 Ti bzw. quasi der 2080 (non-TI).

Das CPU/Plattform-Upgrade kann dann nämlich auch erstmal warten und dann schaue ich entspannt was 2019 so bringt. Fange am besten wieder an zu sparen, hab grad den Verdacht, dass neue Graka-Generationen tendenziell eher teurer werden...
 
Zuletzt bearbeitet :
Ich hoffe inständig nicht, also das insgesamt teurer werden jetzt mit jeder Generation.
 
@Igor Wallossek Weißt du wie der Controller das 5*2+3 Phasen VRM ansteuert? Ich bin bis jetzt davon ausgegangen, dass der Controller die Doppler dahinter nicht "sieht". Wie kann eigentlich ein Teil einer gedoppelten Phase wieder ausgeschaltet werden, wenn die gewünsdchte Spannung erreicht ist, die Doppler Chips haben ja kein Monitoring? Der Controller kann ja zwei Phasen an einem Doppler Chip nur gemeinsam ein- und ausschalten.
 
Mir ist die auch zu teuer und werde auch mal warten was AMD bringt. Schon weil ich den Bildschirm da zu hätte.
 
Vielleicht versteht man jetzt auch meine damalige Aussage im 3DC, dass es keine 40% sind, wie überall gejubelt wurde.
Damals war jeder so euphorisch (inklusive mir), dass man deine Aussage genau andersrum interpretiert hat. Dass es MEHR als 40% sind.

Alles auf Max. und die Karte läuft bei knapp 2 GHz ins totale Power Limit.
Meine Prognose war also richtig. Trotz der von vielen so üppig angepriesenen Spannungsversorgung rennen wir ins Powerlimit. Ich bin gespannt, wie viel früher das passiert, wenn mal RTX genutzt wird...

Hab heut übrigens ne mail bekommen, dass meine Karte sich verzögert. Naja, wenigstens informieren sie mal drüber...
 
Geht es nur mir so, oder kann man die IR Torture-Messung der 2080Ti nicht sehen?
 
Damals war jeder so euphorisch (inklusive mir), dass man deine Aussage genau andersrum interpretiert hat. Dass es MEHR als 40% sind.
Nvidia hat es aber damals sehr wohl richtig interpretiert. Dass das bewusste NDA kommen wird (das lag auch an solchen, im Nachhinein betrachtet, etwas unüberlegten Leaks wie diesem) wusste ich schon ein paar Tage vorher. Allerdings ist dieses NDA, und da liegt Heise ein wenig arg falsch, nicht primär für die Presse gedacht, sondern pauschal für alle, die da extern im Gesamtprozess involviert waren und nicht durch explizite, fachbereichsbezogene NDA's abgedeckt waren. Das reichte dann auch bis hin zu den Journalisten, die sich in Bezug zum NDA aber viel zu wichtig genommen haben und nehmen. Diesen Wisch haben auch andere unterschrieben, die nichts direkt publizieren ;)

@Bertl96:
Das Erste, was mich stutzig gemacht hat war, dass auf einigen Karten der MP2888 und auf anderen der uP9512 verbaut wurde. Der Erste kann 10 Phasen, der zweite "nur" 8. Da bleiben eigentlich nur 5*2 Phasen über. Im Übrigen liefern die SPS Werte, die der PWM Controller auch "durch" Doubler hindurch auslesen kann. Gute Doubler stören die Kommunikation überhaupt nicht. Ich sehe aber auf der Platine gar keine Doubler-Chips, so dass ich davon ausgehe, dass man im Grunde bei den 10 betreffenden Regelkreisen nur 5 echte Phasen anlegt, die jeweils 2 solcher Kreise gemeinsam ansteuern, wie auch immer. Das kläre ich gerade mit einem Platinenentwickler in Asien. Allerdings ist im Hinblick darauf, dass eben nicht nur der MP2888 verbaut wird, im Video oben nicht durchgehend alles korrekt. Meister Burke wäre sicher darauf gekommen, wenn er meinen Chip gehabt hätte, zudem niemand mehr als 1 GHz Schaltfrequenz nutzen dürfte. Das sind wirklich nur Specs, aber nichts Reales ;)
 
Zuletzt bearbeitet :
Bin gerade etwas enttäuscht von der Trio. Die braucht wirklich keinen 3. PCIe-Anschluss. Magere 110% Power Target landen am Ende genau dort, wo die FE landet. Alles auf Max. und die Karte läuft bei knapp 2 GHz ins totale Power Limit.

NV hat echt die Finger drauf
In dem Fall ist davon auszugehen das zumindest die groben Richtwerte der drei in geizhals angefügten Tests der Trio nicht ganz verkehrt sind. Damit bleibt der bisher einzige Vorteil einer Custom das sie besser im Sinne von ruhiger und kühler betrieben werden kann. Sorry NV, ich war damals bereit für die Geforce 1 Geld auf den Tisch zu legen und wäre es eigentlich für RT auch gewesen aber mittlerweile sind einfach zu viele "Kleinigkeiten" die mir negativ aufstoßen.
 
So langsam relativiert sich der Preis der 1080TI, die Abverkaufsangebote wird es wohl so schnell nicht mehr geben (gab die schwachen Customs - Asus 549,- und Gigabyte 599,-) bei Ebay gehen die Preise jetzt auch durch die Decke und ganz ehrlich - 700-800 € würde ich nicht mehr für eine 2 Jahre alte Architektur ausgeben wollen. Die RTX 2080 8GB ist mir zu lahm, also bleibt mir kaum was anderes übrig wie die RTX 2080TI, zumindest wenn man 4k/60fps anpeilt.

Vielleicht tut sich preislich ja noch was (Liefertermin MSI Trio 26.10.) - die Stornooption bleibt mir ja zur Not erhalten falls ich mich anderen Hobbys mehr widmen möchte.
 
Hast du ein grobes Zeitfenster? :D
Naja sind wir mal ehrlich was ist etwas? 10%? Dann landen wir immer noch bei etwa 1100€ je nach Custom Model. Ja wäre zumindest eine etwas längere Überlegung aber dann müssen die Customs auch wieder mehr drauf legen als "nur" leiser und kühler was sich aktuell abzeichnet. Kann irgendwie fast nicht sein das man so schnell ins Power Target läuft wie man derzeit so vernimmt. Sollte es am Design liegen wäre es das eine und man müsste es halt akzeptieren, sollte NV aber seine Finger über die BIOS SW im Spiel haben wäre das eine ganz andere Geschichte. Keine Ahnung ob es von Igor hier noch genauere Aussagen geben wird oder ob er dazu überhaupt in der Lage ist das zu ermitteln?

Ich hab mich mit dem Behalten der 980ti jetzt schon das zweite mal verzockt. Die Angebote für eine 1080ti vor dem Miningboom ausgeschlagen und dann auf eine "stärkere" Nachfolgegeneration gehofft. Jetzt ist die Situation irgendwie mähh.
 
Ich glaube nicht, dass die Preise signifikant nach unten gehen werden, die 1080 ti bleibt von der Leistung und vom Preis auf dem Niveau der 2080 bis alle Karten abverkauft sind. Dann kommt die 2070 und das Spiel wiederholt sich mit der 1080. Für die 2080 ti gibt es keinerlei Konkurrenz (abgesehen von der ultrateuren Titan V), die wird so teuer bleiben, es sei denn, sie würde wie Blei in den Regalen liegen bleiben, wovon angesichts der Vorbestellungen auch nicht auszugehen ist.
 
Wird eigentlich auch was zu 2080Ti in NvLink SLI kommen?
 
Oben Unten