NVidia Nvidia GeForce RTX 2080 Super im Test - Echtes Upgrade, kleines Update oder nur ein Side-Kick?

Das Überspringen lohnt sich seit einigen Jahren fast immer, wobei ich dann gleich für zwei plädiere. Wo sich der Wechsel von einer zur nächsten Generation gelohnt hat, war bei nVidia von der GeForce 7er zur 8er Serie. Aber sonst fällt mir auf die Schnelle keiner ein.
 
Vergestt nicht in den becnhes ist oft ne referenz 1080ti vertreten ne gute custom und es ist absolut kein unterschied ob 2080 2080s oder 1080ti die paar fps hier und da. Sie haben recht 3 Karten der gleichen Klasse bloss weniger VRAM obwohls mehr sein sollte unfassbar das man das schreibt vram wird weniger wtf XD im berreich der 1080 + - 15% Leistung haben wir jetzt vega 56,vega64,2060,2060S,2070,2070S,Navi 5700,5700XT WTF stillstand. Quasi liwefert nur dei 2080TI neues aber halt zum Preis wo man sich nen ganzen PC mit ner Navi 5700 XT kaufen kann das muss man sich mal auf der zunge zergehen lassen. dabei ist die gerae mal was 30-40 % schneller? Nochmla für den PReis der 2080ti bekommt man nenn GANZEN GAMING PC mit ner Navi 5700xt oder 2070S oder was auch immer . UNGLAUBLICH
 
Das Überspringen lohnt sich seit einigen Jahren fast immer, wobei ich dann gleich für zwei plädiere. Wo sich der Wechsel von einer zur nächsten Generation gelohnt hat, war bei nVidia von der GeForce 7er zur 8er Serie. Aber sonst fällt mir auf die Schnelle keiner ein.
Gens überspringen und alte Gen kaufen im Abverkauf falls es das überhaupt noch gibt(wisst ihr noch 980tis im abverkauf) das waren zeiten. Heute muss man den ´´abverkauf´´ abwarten und selbst dann hat man noch absolut überzogene Preise najah nur bei nvidia natürlich XD Vega ist momentan extrem billig wenn man sich die Lesitung vor Auge führt
 
Zuletzt bearbeitet von einem Moderator :
@Derfnam Ich bin damals auch von ner 7900 GTO zu meiner 980 Ti gewechselt. Insofern hatte ich fest mit Turing geplant. Ist nix draus geworden. Sieht bisher eher nach ner vernünftigen Lösung aus, ggf 5700 XT.
 
Witzig: die GTO war meine letzte teure Karte. Recht kurz nach der kam die 8800 GTX raus und ich fühlte mich so dermaßen verarscht ob der enorm besseren Leistung, dass ich seither um teure Karten nen großen Bogen mache.
 
Hm. Ich hab für die GTO damals knapp 280 Euro bezahlt. Neu. Ich fand die super.
 
War sie ja auch. Nur kurz nachm Erscheinen schon elend veraltet.
 
@My-konos: Die 2080 Super ist bereits der "Vollausbau" ;-) Darüber hinaus kannst Du bestenfalls noch auf den nächstgrößeren Chip wechseln und den bekommst Du für +200 € nur kastriert und nicht im Vollausbau ;-) (Da fehlen 4 CUs und ein Speichercontroller.)

@HerrRossi "Roadmaps": Wie schon Seven schrieb, ist aktuell nicht viel bekannt. nVidia hat zu Samsung gewechselt und wird dort in 7nm (zzgl. teilw. EUV) fertigen. Ich würde hier von einer derzeitigen Fokussierung auf das Datacenter ausgehen. Im Comsumer-Segment hat nVidia im HighEnd keine Konkurrenz und sich mit den Refreshes jetzt gerade erst noch einmal Luft geschaffen.
Für den Perlmutter, der in 2020 fertiggestellt werden soll, wird eine Volta-NextGen-"GPU" mit 32+ GiB HBM2 und 7+ TFlops (FP64) entwickelt, auf der derzeit der Fokus liegen drüfte. Hier wird man abwarten müssen, ob es sich noch um eine GPU im eigentlichen Sinne handeln wird oder ob das Design immer mehr zur reinen Beschelunigerkarte wird, denn AMD demonstierte bereits eine entsprechende Richtung, nVidia demonstrierte vor etlichen Wochen auf einer Konferenz eine Art Chiplet-Design und man wird auch im Hinblick auf Intels GPGPU planen müssen, die bereits ab Anfang 2021 verfügbar werden soll.
Für einen Turing-Nachfolger würde ich nichts Spektakuläres erwarten, außer das übliche Leistungsplus, also effizientere CUs, ein paar mehr, sowie damit ein paar mehr Tensor und RT Cores. Interessant drüfte sein, wie nVidia sich bzgl. der Speicherausstattung zu platzieren gedenkt mit Blick auf die neuen Konsolen Ende 2020, da sie voraussichtlich zuvor veröffentlichen werden, wahrscheinlich in 2Q20 bis 3Q20.
Bei AMD ist es noch nebulöser ... irgendwas in 7 nm, ggf. 7FF+ wobei hier die Frage ist, ob mit der "großen Navi" schon RDNA 2 gemeint ist oder ob es sich dabei nur um ein Pimpen des aktuellen Designs handeln soll? Letzters dürfte jedoch einen potentiellen Turing-Nachfolger nicht in Bedrängnis bringen. Zudem interessant dürfte deren Strategie bzgl. Raytracing sein. Wenn es tatsächlich vertragliche Vereinbarungen mit Sony/Microsoft gibt und das Design innerhalb der nächsten 12 Monate erscheint, könnte es ggf. noch ohne explizite Raytracing-Unterstützung erscheinen (zugunsten eines optimalen Konsolenstarts).
Für das professionelle Umfeld scheint AMD erneut die alte Vega-Architektur zu bemühen und baut diese nun noch deutlich weiter um, als schon zuvor bei Vega 20. Das Design (Codename Arcturus) wird jedoch keine echte GPU mehr sein (angeblich keine 3D-Funktionalität) und voraussichtlich ausschließlich die Insinct-Beschleunigerkarten bereichern. Möglicherweise handelt es sich bei dem Design um die Karten, die AMD für den Frontier des DoE zu verwenden gedenkt.
 
Also um 1049,- bekommst du eine TI von KFA2. Die EVGA ist da auch nicht viel besser (ausser vom Aussehen).

Warum zu wenig VRam?
Es gibt kein Spiel, was mit 8 GB nicht vollkommen ausreichend befriedigt ist. Selbst die 6 GB der 2060 waren kein wirkliches Bottleneck.

Aber keine 10 Jahre Garantie dazu. Ohne lege ich nicht soviel Geld in ein Stück Hardware. Weil ich die nächste Karte einige Jahre verwenden will und da ist Garantie Pflicht.

Für 4K sind 8GB definitiv zu wenig VRAM vorhanden.
 
Es kommt doch auch auf die Optimierung in Spielen an. Bei Elex zum Beispiel ist bei mir (WQHD, max Details) ab Spielstart der VRam voll (6GB). Die Speicheroptimierung bei Piranha Bytes Spielen ist zwar schon immer ein Thema. Es lässt sich aber in jedem 4K-Benchmark mit der VII ablesen, dass und wie sich viel Speicher (-bandbreite) auswirkt. 3GB VRam kosten wieviel? Das sparen die Grünen halt pro 2080/Super im Vergleich zur 1080Ti ein. Und halten trotzdem die Hand auf.
 
Cod braucht auch wahnsinnig viel und sieht scheisse aus. Metro exodus braucht fast gar nix und sieht hammer aus, glaube waren 4,5gb in 4k
 
Das Argument, dass die schnellste Karte im Portfolio auch den meisten RAM bieten soll, kann ich nachvollziehen. Aber nicht, dass es bei 11 GB geblieben ist.
@Moeppel: die 2070S, yo, stimmt. Da war noch eine...^^
 
Warum anbieten wenn Kunden so auch kaufen?! Nvidia macht es gut. Erwzingt damit automatisch einen schnelleren aufrüstungszyklus. Genius. vielleicht gibts bei der ncäshten Gen auch noch 30% wenigerr perf und nicht nur vram und das teurer. vielleicht passt es dann mal das die Leute ihr Hirn benutzen. Währendessen sind Navi preise 5700 330 euro und 5700xt auf 399,99 gesunken quelle mindfactory.......fast schon empfehlenswert(anbetracht der marktsituation sogar) Vega aber immer noch besser bis Vega ausläuft, denn so viel schnelelr sind die navis nicht 250 vs 330 gut neue features aber keine custom!
 
Das Argument, dass die schnellste Karte im Portfolio ...

Das lässt sich rel. leicht erklären. Für den größten Chip TU102 waren GDDR6/14Gbps vorgesehen und für das Design reichten 384 Bit Interface-Breite aus. Entsprechend stattete man den TU102 mit 12 Memory Controller aus (mit jew. 12 ROPs). Für die RTX 6000 mit 24 GiB verwendet man teuere 2 GiB-Chips (schätzungsweise 20 - 35 $ das Stück, derartige Preise sind schwer in Erfahrung zu bringen ;)). Irgendwie muss man ja auch teildefekte Chips verwursten und leitet vom TU102 die RTX 2080 Ti ab, die sich aber auch deutlich ggü. der Profi-Karte abgrenzen muss, da sie mit einem weitaus Consumer-freundlichen Preis (relativ gesehen ;)) angeboten werden soll. Also werden -4 CUs festgelegt, d. h. in den 6 Graphics Processing Clusters dürfen bis zu 4 CUs defekt sein (oder werden deaktiviert, je nach Prozessgüte und Yield). Zusätzlich wird ein Memory Controller deaktiviert (-8 ROPs), was nur noch den Anschluss von 11 BGA-Chips ermöglicht, sodass ein Maximalausbau mit 11 GiB verbleibt.
Später setzt man noch eine RTX Titan auf, die dem TU102 im Vollausbau und damit dem Chip der RTX 6000 entspricht, nur dass man hier anstatt der 2 GiB-Chips nur 1 GiB-Chips verbaut (etwa 10 - 15 $ das Stück). Irgendwie muss nVidia (neben Treibern) ja auch begründen, warum eine ansonsten baugleiche Karte plötzlich gut 1000 - 1500 $ grünstiger verkauft wird.

Die RTX 2080 kann grundsätzlich nur 8 oder 16 GiB anbieten, wobei letzteres teuere 2 GiB-Chips erfordern würde. Irgendeine Zwischenlösung müsste einen Teil der 8 Memory Controller auf dem Chip brach liegen lassen, was die Speicherbandbreite reduzieren und damit den Chip ausbremsen würde (kommt also nicht in Frage).

Schlussendliche eine Desingentscheidung, Gewichtung der Chipgröße und ein Differenzierungskriterium ggü. höherwertigen Karten und auch schlicht ein Tribut an die Verwendung von GDDR-Speicher in BGA-Bauform (d. h. viel benötigter Platz um die GPU herum und zus. Leitunge auf dem PCB).
Abgesehen davon sind/waren 8 GiB eine durchaus vernünftige Größe Mitte 2018 und man sollte nicht vergessen, dass man als 4K-Spieler, der zudem noch zusätzlich hochaufgelöste Texture-Mods verwendet, in eine Nische fällt, ob das einem passt oder nicht. Und schlussendlich ist es ja nicht so, als wenn nichts darüber angeboten würde. nicht noch etwas mit 11 GiB darüber geben würde. (Wer meint, mit einem Porsche rumspielen zu müssen, muss Herrn Blume halt das entsprechende Geld auf den Tisch legen. Das war schon immer so bei Gütern am oberen Ende des Produktspektrums und erst Recht, wenn die Konkurrenz rar ist.)

HBM ist in diesem Zuge ein anderes Thema und nicht direkt vergleichbar. AMD hat damals mit Vega versucht Design-Nachteile mit einem schnelleren Speicher zu kompensieren, musste aber eines Besseren belehrt werden. Die Fertigung und Implementation war teuer (ist HBM nach wie vor). Die Radeon VII war zudem nur eine temporäre/ungeplante und zu der Zeit notgedrungene Auskopplung, da man die MI50(-Boards) wohl nicht loswerden konnte. Zusätzliches Geld für eine Customization wollte man anscheinend nicht investieren, sodass man das Board mehr oder weniger unverändert als Radeon VII auf den Markt geworfen hat, mit den entsprechenden Nachteilen, d. h. zu teuer und keine Marge (was nicht umsonst dazu führte, dass die Karte mittlerweile wieder (nach nur wenigen Monaten) verschwunden ist, obwohl AMD im oberen Segment nichts Alternatives anzubieten hat). Entsprechend wurden auch notgedrungen die 16 GiB HBM2 übernommen, denn alles andere hätte zusätzlichen Aufwand bedeutet.
Aktuell sieht es jedoch eher so aus, als wenn HBM vorerst weiterhin Profikarten vorbehalten bleiben wird. Der Vorteil bei HBM ist (neben nativem ECC), wenn man erst einmal die Kosten und Mühen für das extrem breite Speicherinterface investiert hat, dass man den Speicherstack erweitern kann, ohne nenenswert mehr Platz zu brauchen. Der Stack wächst in die Höhe (dagegen mehr als 12 GDDR6-BGA-Chips irgendwie um die GPU anzuordnen, ist ein anderes Thema). Der aktuelle Standard spezifiziert für einen 1024-Bit-Stack bis zu 24 GiB (max. 12 Lagen) mit kapp über 300 GiB/s (2,4 Gbps) und diesen März hat Samsung bereits 3,2 Gbps-Chips vorgestelt. Das lässt einem Spieler sicherlich das Wasser im Munde zusammenlaufen, will aber auch bezahlt werden. Man wird sehen wer in Zukunft vielleicht als erster zwei 1024 Bit/8 GiB-Stacks im Consumer-Markt etablieren wird, aber solange GDDR6 ausreichend skaliert, wird das vorerst weiterhin die kostengünstigere Alternative sein.
 
Dann hätte nVidia die 2080 Ti mit 16 GB und somit noch teurer anbieten können. Und dann den dort verwendeten Chip für die 2080 'beschränken' (und jetzt vor kurzem für deren S-Version etwas weniger) und an den Speichercontrollern rumbasteln müssen, damit die - ähnlich der 2080 Ti, wie sie jetzt ist - mit 11 GB gewesen wäre.
Das gleiche Gedöns hatte ich vor ner Weile mal bezüglich der Vegas nachgefragt, bei denen es sich dann wohl etwas anders verhält: 8 oder 16, aber nix dazwischen und 4 wären sinnlos, so ungefähr erinner ich die Antworten. Oder hätte AMD da auch am Speichercontroller rumfrickeln können?
 
Dann hätte nVidia die 2080 Ti mit 16 GB und somit ...

Wie schon geschrieben, die RTX 2080 hat ein 256 Bit Speicherinterface und kann entsprechend nur 8 Chips anbinden, also bspw. 8 GiB oder teuere 16 GiB. Die RTX 2080 Ti hat ein 352 Bit Interface (11 Controller, bzw. 384 Bit im Vollausbau als Titan/6000, d. h. 12 Controller), d. h. hier wären 16 GiB *) nicht sinnvoll möglich, sondern wenn dann 22 bzw. 24 GiB mit teueren 2 GiB-Chips.
nVidia hat wahrscheinlich nicht umsonst für die RTX 2080 mit dem TU104 einen eigenen Chip designed, denn vermutlich sollte diese Karte die Mainstream-HighEnd-Karte werden (und nicht die Ti, deren Veröffentlichung ggf. anfänglich auch gar nicht (und vor allem nicht direkt zum Turing-Launch) im Consumer-Segment geplant war **). Der TU102 ist einfach zu groß und zu teuer in der Fertigung für den Massenmarkt im niedrigpreisigen Consumer-Segment (754 mm2, 18,6 Mrd. Trans.), sodass ein eigenes Design als TU104 sich für die RTX 2080 durchaus lohnte (545 mm2, 13,6 Mrd. Trans.; ein wesentlicher Einflussfaktor des Yield ist bspw. die Chipgröße).

Bei Vega/HBM ist die Zeitlinie zu beachten, denn die bspw. von mir oben zitierte Spec ist ein Update der JEDEC vom Nov/Dez'18 und die schnellen Samsung-Chips stammen gar aus diesem Jahr.
AMD plante für ein neues Design (Vega) einen schnelleren Speicher zzgl. einiger anderer Vorteile (u. a. ECC, kleinerer Formfaktor, energieeffizienter, ...) und entwickelte zusammen mit Samsung und SK Hynix das HBM-Speicherinterface. Vega 64 verwendet eine frühere HBM2-Version mit 2048 Bit Interface und zwei Speicherstacks , also 4 x 4 GiB VRAM. Mit maximal 484 GiB/s war der Speicher zu der Zeit durchaus schnell, verglichen mit heute sind das jedoch nur 242 GiB/s pro 1024 Bit-Stack (während Samsung jetzt gerade um die 400 GiB/s erreicht). HBM war jedoch teuer (und ist es immer noch), ein 2048 Bit Interface und zwei Stacks mussten hier ausreichen, zumal 8 GiB zu der Zeit auch schon üppig waren. ***) Ich weiß nicht welche Stack-Höhen zu der Zeit verfügbar waren, jedoch hatte AMD wohl wenig Spielraum beim Speicherinterface. Weniger als 2048 Bit wären zu langsam gewesen, sodass man die teuere Implementation zugunsten von GDDR5 hätte sein lassen können. Mehr währe schlicht zu kostspielig gewesen (Chipdesign, PCB und Bausteine). Zudem, wenn es nur Stack-Höhen mit 1,2,4,8 GiB gegeben hätte, hätte man mit bspw. einem 3072 Bit Interface entweder nur 6 GiB oder direkt 12 GiB VRAM anbieten müssen. Neben den zusätzlichen Kosten waren diese Überlegungen aber wahrscheinlich auch hinfällig, weil Vega ein 3072 Bit Interface hätte leistungstechnisch gar nicht ausnutzen können.
Die Reinkarnation als Vega 20 Ende 2018 war ein AMD-typischer, effizienter Schachzug. Man brauchte was Neues im Profisegment, hatte aber keine neue Architektur in Petto und war wohl die letzte Zeit über ressourcentechnisch auch zu sehr durch die Konsolen/Navi in der RTG gebunden, also wurde kurzerhand Vega wiederbelebt. Neben Überarbeitungen bzgl. FP64 und INT4 (INT8 und FP16 konnte schon Vega) wurde auch das Cache-System angepasst. TSMCs 7FF versprach das Design signifikant schneller betreiben zu können, jedoch auch nur in Verbindung mit einem schnelleren Speicherinterface, da die Leistung sonst nicht auf die Straße gebracht werden konnte und so verwendete man hier ein 4096 Bit Interface mit 1 TiB/s Bandbreite und 4 Stacks mit insgesamt 16 GiB VRAM. Der schnellere Speicher und das neuere Fertigungsverfahren gingen hier wohl Hand in Hand. Da das Design aber nicht von Grund auf umgebaut werden konnte, musste man innerhalb der Grenzen von Vega arbeiten; bspw. nVidia's RTX 6000 hat mit 16 TFlops FP32 trotz der nur 672 GiB/s *+) eine höhere Leistung (auf dem Papier) als die MI60 mit ihren vollen 64 CUs und 1 TiB/s Speicherbandbreite. Zudem waren 16 GiB für professionelle Instinct-Karten per se unumgänglich.
Die Radeon VII war im Consumer-Segment offensichtlich nicht von langer Hand geplant, denn hier gab es vorab zu Vega 20 gar immer gegenteilige Behauptungen, die auf eine ausschließliche Verwendung im Profi-Segment verwiesen. Als es dann doch dazu kam, wollte man oder konnte man keine weiteren Anstrengungen auf sich nehmen und veröffentlichte die MI50 (60 CUs *++) als Radeon VII.

Die bevorstehenden Datacenter/HPC-Karten von beiden Anbietern werden übrigens mehr als 32 GiB HBM2-Speicher unterstützen aber bei Kartenpreisen bis zu 10000 US$ kann man so etwas dort problemlos einpreisen.


*) Abgesehen von den Anschlussmöglichkeiten wäre diese 16 GiB-Kombination über acht 2 GiB-Chips auch leistungstechnisch nicht sinnvoll, da die Bandbreite zu sehr eingeschränkt wird. Ein Speichercontroller erreicht mit den 14 Gbps-Chips rd. 56 GiB/s, d. h. diese 16 GiB-Ti müsste mit nur 448 GiB/s Speicherbandbreite auskommen (genau wie die aktuelle RTX 2080). Hierfür reicht das Design bzgl. der Caches jedoch wohl nicht aus, sodass diese 16 GiB-Ti nennenswerte Leistungseinbußen hinnehmen müsste, d. h. ihr volles Potential gar nicht entfallten könnte.

**) Ich meine mich zu erinnern, dass Igor irgendwo auch mal so eine Vermutung hat fallen lassen.

***) Die wohl erste Karte mit HBM-Speicher dürfte die AMD FirePro S9300 x2 (März 2016) gewesen sein, die zwei Fiji-GPUs mit jeweils 4 GiB HBM zu jeweils 512 GiB/s kombinierte. Die Karte unterstützte jedoch noch kein ECC und auch die FP64-Performance war vergleichweise gering.

*+) Die 672 GiB/s der Quadro liegen faktisch sogar noch einige Prozentpunkte niedriger, da diese Karte den gleichen Takt wie die RTX Titan verwendet, jedoch i. d. R. mit ECC betrieben wird, dass vom GDDR5/6-Speicher nicht direkt unterstützt wird, d. h. die GPU reserviert einen Teil des Speichers und schreibt zusätzlich zu jeder Operation Prüfsummen in den reservierten Speicherbereich und reduziert damit die effektiv zur Verfügung stehende Bandbreite um etwa 3 - 5 %.

*++) Zur Abgrenzung ggü. dem Vollausbau in der MI60 werden nur 60 CUs verwendet, PCIe 4.0 und eine Kopplung über Infinity Fabric wurden gestrichen und die FP64-Leistung wird auf 1:4 reduziert, übertrifft mit grob geschätzten 3,4 TFlops (rd. 13,8 TFlops FP32 bei 1800 MHz) jedoch die Turing-Consumer/Quadro-Karten deutlich, die weiterhin auf ein 1:32-Verhältnis bei FP64 beschränkt sind. Darüber hinaus wurde das professionelle Treiberangebot stark eingeschränkt.
 
@gerTHW84 Alter, ich hab Dein ganzes Posting gelesen! Ich schreib ja manchmal schon viel (außer die letzten Tage, da beschränkt auf Mäusekino), aber du topst uns alle. :D
 
Oben Unten