NVidia Nvidia GeForce RTX 2070 Super im Test - die vernünftigere RTX 2080 in kleiner und günstiger?

In 4k füllst du sie. Mods auch. Neue konsolengen dann steigt der vram durchschnit wieder und das ist in 1.5 Jahren.

Bezüglich 4K-fähiger GPUs:

Was 4K-tauglich ist und was nicht, ist natürlich diskussionswürdig, zumal seit einiger Zeit auch die Fps-Diskussion dem ganzen Thema diametral gegenüber steht (120/144 Hz). Ich nehme mal folgende Karten an:

GTX 1080 _____ 2,95 %
GTX 1080 Ti __ 1,76 %
RTX 2080 _____ 0,75 %
RTX 2080 Ti __ 0,42 %
Titan ________ ?
Radeon VII ___ ?
(bereits teilweise optimistisch)
RTX 2070 _____ 1,10 %
Vega 64 ______ (0,26 %)

Bereits ohne viel zu schreiben wird deutlich, wohin das führt. Nachfolgend dennoch ein paar Erklärungen. Vorweggenommen ergibt sich bestenfalls ein 4K-fähiger Anteil von 7,60 %.

Titans und die Radeon VII tauchen in der Liste gar nicht auf und sind in der Gruppe "Other" enthalten. Der kleinste in der Liste geführte Anteil beträgt 0,15 %, d. h. keine der Karten kann für sich alleine einen höheren Anteil veranschlagen. Aufgrund des extrem hohen Preises (und der damit nochmals kleineren Verbreitung) kann man die aktuelle Titan RTX und die Titan V (Volta) ausklammern, sodass bestenfalls die ältere Titan Xp und Titan X für 4K relevant sind. Rechnet man vereinfachend den Maximalwert ein, können diese drei Karten bestenfalls 0,45 % beitragen.

Die ebenfalls eingerechneten 0,26 % der Vega sind problematisch, da die Gruppe "AMD Radeon RX Vega" heißt und wahrscheinlich eher mobile Vegas zusammenfasst. Bei den Desktop-Varianten würde ich davon ausgehen, dass die sich mit einer individuellen Bezeichnung melden und Steam würde diese hier nicht pauschal zusammenfassen. Man weiß es nicht; möglicherweise sind die Vega 64 und 56 in "Other" erfasst.

Somit verbleiben bestenfalls 7,60 % an 4K-fähigen Karten. Streicht man die Vega (weil wahrscheinlich unzutreffend) und dampft die "Other"-Gruppe auf einen realistischeren Wert ein, dann ist man schnell bei 7,2 %. Rechnet man noch die RTX 2070 raus, die in vielen Fällen nicht mehr mit hohen Details mithalten kann (bspw. GR: Wildlands, Hellblade, Jurassic World, KC: Deliverance, Shadow of the Tomb Raider) landet man bereits bei nur noch 6,1 % der getesteten Systeme, die gemäß der GPU überhaupt 4K ermöglichen. Würde man noch anfangen an der GTX 1080 zu knabbern, insbesondere an der Founders Edition, dann würde sich der Wert noch einmal signifikant verkleinern, wobei auch ein grundsätzliches Infragestellen der preisgünsigeren Custom-Designs der GTX 1080 nicht abwegig ist, da 2070er-OC-Varianten an diese heranreichen und sie gar teilweise übertreffen.

(Nicht unerwähnt bleiben soll der nicht abschätzbare Anteil an Dual-GPU-Systemen, der mittlerweile aber seltener geworden sein dürften. Die frei verfügbaren Statistiken weisen hierzu nichts aus. Deutlich stärkere OC-Systeme mit Wasserkühlung dürften ebenfalls nur einen minimalen Prozentanteil ausmachen.)


Bezüglich 4K-fähiger Monitore:

Die hier angegeben relevanten Auflösungen sind

3440 x 1440 __ 0,60 %
3840 x 2160 __ 1,63 %
Other ________ 1,82 %

Rechnet man alles zusammen, erhält man bestenfalls 4,05 % Verbreitung. Die 21:9-Auflösung ist eigentlich kein 4K und wurde hier einmal optimistisch hinzugerechnet. In "Other" werden sich vielleicht noch ein, zwei "krumme" 4K-ähnliche Auflösungen befinden und vielleicht auch einige 5K-Monitore. Es ist aber davon auszugehen, dass der überwiegende Anteil dieser Gruppe eher "krumme" Laptop-Displayauflösungen enthält, da die insgesamt ausgewiesene Liste sich auf die üblichen Standardauflösungen beschränkt. Bezüglich echtem 4K/5K würde ich bestenfalls von 2,5 % ausgehen gemäß dieser Zahlen.


Fazit: Als HighEnd-Gamer am oberen technischen und preislichen Limit befindet man sich auf jeden Fall in einer Nische, selbst wenn man den Zahlen noch einen gewissen Fehler zugesteht. Die Hard- und Software-Industrie weiß das natürlich durchaus zu berücksichtigen.

Erst die neuen Konsolen werden ab Ende 2020 eine langsame Transformation einleiten, sowohl bzgl. des Videospeichers als auch bzgl. der genutzten CPU-Cores.
Interessant dürfte sein, ob Hersteller wie nVidia, die wahrscheinlich noch vor Ende 2020 mit neuer Hardware auf den Markt kommen, hier proaktiv mehr Speicher verbauen werden im Vergleich zu Turing (Thema Zukunftssicherheit). Ich könnte mir jedoch vorstellen, dass man einen solchen Schritt eher bei AMD beobachten wird und sei es nur, weil man weiterhin ein kleineres oder größeres architektonisches Defizit im Vergleich zu nVidia mit mehr RAM zu kompensieren versucht.

Und wo ich schon gerade dabei bin: 82,8 % aller Systeme haben 4 oder weniger CPU-Cores. 14,1 % haben 6 Cores und nur 2,9 % haben 8 Cores, obwohl es Ryzen/Zen schon seit März 2017 gibt. Abseits der offensichtlichen Abhängigkeit zu den Konsolen braucht man sich da nicht zu wundern, warum es nur eine überschaubare Zahl an Titeln gibt, die in spieltechnisch relevanter Weise von mehr als 4 Cores (nicht gleichzusetzen mit Threads) gebrauch machen. (Steam: Juni 2019)
 
Zuletzt bearbeitet :
Steam statistik interessiert nicht. Zocke seit Jahren in 4k.
 
Die RTX Titan is der Vollausbau des TU102 und die noch teurere Quadro unterscheidet sich nur beim RAM Ausbau.
 
@Igor Wallossek

Woher hast die Infos dass man die Radeon VII (Seven)
falls Wasserkühler geplant wird noch kaufen kann/ könnte,- sofern jene VII noch erhältlich ist.
Wird die Karte nun mit Navi nach und nach auslaufen und bereits nicht mehr produziert?
 
Hardware jetzt oder damals? Hatte von gtx 1080 / gtx 1080ti bis vega56/64 alles drin . Momentan Bf5, Battlefront 2(ja mir macht es spass und diese grafik und sound) mögen meine Nuberts. Und ein paar Indy spiele und Frontier Games :). Settings alles Ultra skalierung auf 90-95% wenn lows unter 60 kommen. In UE4 Games komme ich nicht maxed auf 60 fps in ultra liegt Amd nicht die Engine aber bisschen anpassen fertig(falls 60 gebraucht wird, brauche Persönlich nicht in jedem Game 60fps. First Person und Shooter müssen immer minimum 60 haben. Bf5 ist erstaunlich 55-90 fps in 4k ultra bei der Grafik.
 
Die Radeon VII ist EOL, nicht erst seit gestern. Komplett obsolet, da kein Gewinn eingefahren werden kann. Eher das Gegenteil ist der Fall. Und ich glaube auch nicht, dass sie jemand vermissen wird (außer Sammlern).
 
Klar Amd kann damit nix verdienen ist ja nur Resteverwertung im Prinzip wenn ich es richtig verstanden habe. Wie weit kommt Navi ran interessiert mich denke in niedrigen Auflösungen ist es knapp und in 4k ist die Vll vorne(einschätzung)
 
Die feilen schon lange an deren 7nm versionen rum.

Das mit Sicherheit, allerdings wartet Nvidia auf den besseren 7nm Fertigungsprozess und war bisher wie wir wissen nicht unter Zugzwang. Den Sprung mit Leistung und/oder Verbrauchsoptimierung hat der Grüne Riese noch vor sich in 2020, weshalb meine nächste Karte dann wohl die 3080Ti werden könnte :)

@gerTHW84
Auch meinen herzlichen Dank an die Wall-of-Text Beiträge, die allerdings zum aufmerksamen lesen nur so einluden! (y)
 
Zuletzt bearbeitet :
Der Effizienzanstieg wird pervers denke ich. (Preis auch 7nm ist teurer)
Super zum lesen in der Nachtschicht. Klasse Forum in anderen wird gestritten wie im Kindergarten (pcgh hust hust) sofort wieder abgemeldet haltet doch keiner aus. Danke an Igor für dieses Forum hier :) er ist der Betreiber?!
 
@Seven: Es ist doch eigentlich so: Igor hostet. Am Ende "betreiben" das Forum "wir" - wir liefern ja Inhalte, Kultur und Miteinander. ;) Das Schöne ist aber hier, dass es hier einen gewissen - von mir sehr geschätzten - Konsens gibt, wie der "Betrieb" aussehen soll. :p
 
Das mit Sicherheit, allerdings wartet Nvidia auf den besseren 7nm Fertigungsprozess ...

Samsungs 7LPP-Prozess muss nicht zwingend besser sein als TSMCs 7FF+. Genaugenommen dürften sich hier beide relativ wenig nehmen bzgl. der grundsätzlichen Eckdaten und beide verwenden EUV für einige, ausgewählte Teilschichten (während der Rest weiterhin mit DUV belichtet wird).
Ein wesentlicher Unterschied ist, dass TSMC seinen 7FF+ erst vor wenigen Wochen in die Produktion überführt hat, während Samsung bereits seit Anfang des Jahres mit seinem Prozess fertigt.
Und vielleicht konnte sich Samsung hier auch etwas besser verkaufen bzgl. der Fertigung eines so großen Chipdesigns. *) Immerhin werden Qualcomms 5G-Snapdragon und IBMs POWER10 im 7LPP gefertigt und mit Qualcomms Centriq 2400 konnte man zumindest in 10LPE die Fertigung eines Monsterchips vorweisen, der mit zu den bisher größten seiner Art gehört (Nov'17, ARMv8-Server mit 48 Kernen, monolithisches Die bzw. gar ein komplettes SoC, rd. 18 Mrd. Transistoren).

Hier gibt es diverse Gründe, die für einen Wechsel ausschlaggebend gewesen sein könnten, so beispielsweise:
- niedrigere Kosten (besseres Angebot von Samsung)
- sonstige vorteilhafte Vertragskonditionen
- flexiblere Gestaltung der Fertigungskapazitäten (bspw. größere Peak-Volumina bei geringerem Kostenaufschlag ggü. TSMC, kürzere Vorlaufzeiten für Volumenänderungen, etc.)
- dem wachsenden "roten Einfluss" bei TSMC entkommen
- mehr Fertigungserfahrung mit großen, komplexen Chips
- ausgereiftere oder zumindest bevorzugte Tools und Libs beim Samsung-Node
- ...

*) Inwieweit große monolithische Dies zukünftig noch gefertigt werden, bleibt abzuwarten. nVidia besprach bereits vor etlichen Wochen auf einer Konferenz ein Chiplet-Design für einen potentiellen Volta-Nachfolger, was die Flexibilität deutlich erhöhen könnte. Hierbei sind dann natürlich wieder andere Probleme wie Interconnect und Latenzen zu lösen, jedoch dürfte ein Nachfolger von Volta (21,1 Mrd. Transistoren) die neuen Prozesse der Hersteller durchaus an ihre Grenzen führen und zumindest ein übermäßiges Größenwachstum dürfte fertigungstechnisch unwirtschaftlich werden.
Intel hat für seine Xe-GPGPU (1HJ21) bereits eine Art Chiplet-Design angekündigt; es bleibt auf jeden Fall spannend.

Ein Dankeschön zurück (stellvertretend an Alle).
 
... dass TSMC gerade (noch) nicht mit EUV arbeitet ...

So manche News kann man nicht einfach runterlesen und für bare Münze nehmen ... allerdings, für ein sinnvolles Hinterfragen sind zumeist auch Hintergrundinformationen notwendig.

Die Kurzfassung: TSMCs 7FF+ (Prozessname) bzw. N7+ (Name des Nodes) befindet sich schon länger in der Risk-Production, d. h. ausgewählte, risikofreudige Partner experimentieren oder arbeiten schon damit. (Ein erster 7FF+ Tape Out wurde bereits im Oktober gemeldet.) Man verkündete zuerst den März als Start der Volumenprodution, hatte jedoch anscheinend kleinere Verzögerungen und im April kündigte man selbige für noch innerhalb des 2. Quartals an. Ende Mai erklärte TSMCs CEO dann, dass die Volumenproduktion bereits läuft.
(Erste Kunden sind voraussichtlich Huawei's 5G Kirin 985 sowie Apple's A13. Abgesehen davon befindet sich auch 5FF bereits in der Risk-Production, während 6FF (ein Zwischenschritt, kleinere Optimierungen ggü. 7FF+) erst Anfang 2020 in die Risk-Production gehen wird.)

Etwas merkwürdig an der von Dir zitierten News vom 5.6. ist "Right now, TSMC’s 7nm process is not based on EUV, but they do have an EUV node planned.". Wie gesagt, der Prozess war schon zuvor längere Zeit in der Risk-Production, da war nichts mehr nur "geplant" und zum Veröffentlichungszeitpunkt der News lief die Volumenproduktion anscheinend schon. Interessanterweise hatte der Autor Usman Pirzada genau zwei Monate zuvor eine News über TSMCs Rampup bzgl. 7FF+ verfasst ... vielleicht hatte Usman noch keinen Kaffee getrunken, als er diese News hier am 5.6. verfasste?

Bei der nVidia/Samsung-News ist aber auch die Zeitlinie eine offene Frage. Wurde die News zum Abschluss oder erst deutlich nach der Vertragsvereinbarung bekanntgegeben? Wie weit ist nVidia überhaupt mit seiner Entwicklung. Vielleicht kam ein Warten auf einen eingefahrenen 7FF+ bei TSMC auch nicht in Frage. Und ergänzend zu meiner obigen Liste möglicher Gründe à la Wald vor lauter Bäumen und so ... vielleicht sah es kapazitätstechnisch auch nicht so vielversprechend bei TSMC aus? Huawei und Apple habe ich oben schon erwähnt. In 2020 wird auch AMD 7FF+für Zen3 nutzen und bspw. Qualcomm fertig hier bereits in 7FF und wird möglicherweise auch schon Kapazitäten für 7FF+ vorbestellt haben, usw.

Eine gute Übersicht findet sich bei AnandTech.
 
Zuletzt bearbeitet :
Die Radeon VII ist EOL, nicht erst seit gestern. Komplett obsolet, da kein Gewinn eingefahren werden kann. Eher das Gegenteil ist der Fall. Und ich glaube auch nicht, dass sie jemand vermissen wird (außer Sammlern).

Sammler sei mal dahingestellt, gibt auch Anderes
Zudem Profitiert die Seven auch noch von den Release Treiber der Navi Karten,- oder nicht mehr da RDNA Arch. aber ist ja auf GNC aufgebaut...
Zumindest von Ansatz her mit vielen Verbesserungen.
Da sollten Navi Customs in die Nähe der Seven/ RTX 2070 Super kommen und es wird vielleicht gar eine Preisschlacht geben um auf die Gunst der Kunden zu werben.
 
@gerTHW84

Nochmals vielen Dank für den Background. Als Außenstehende bekommt man ja nur Bruchstücke mit, wer wie weit mit seinem Fertigungsprozess ist und wann man mit welchem Stand an die Öffentlichkeit geht - das dürfte immer ne Gradwanderung zwischen Marketing und Betriebsgeheimnis sein ;).

Es ist halt bissl verwunderlich, dass man vom langjährigen Haus und Hoflieferanten TSMC (teilweise) weggeht und bei der Konkurrenz einkauft. Alles nur dem Preis geschuldet? War Samsung dann so günstig? Denn dem Grunde nach würde man der Geschäftsbeziehung zuliebe wohl Produktionskapazitäten einräumen, oder nicht?
 
@gerTHW84
Denn dem Grunde nach würde man der Geschäftsbeziehung zuliebe wohl Produktionskapazitäten einräumen, oder nicht?
Nö. So läuft der Kapitalismus nicht. Entweder du lieferst oder eben nicht. Kann auch gut sein, dass man sich mit einem zweiten Fertiger flexibler aufstellen möchte.
 
Nvidia operiert wie Apple - im Zweifelsfall alles unter den Bus was geht, egal wie absurd, nur das eigene Image muss unangetastet bleiben ;)
 
Oben Unten