NVidia Nvidia GeForce RTX 2070 Super im Test - die vernünftigere RTX 2080 in kleiner und günstiger?

ob die Chips der 2070-S "minderwertig" im Vgl. zu denen der 2080 sind

Das ist hier nicht ganz mit einfachen Produkten im Sommer Sale oder Outlet zu vergleichen (T-Shirts, Jeans, Küchenmesser, etc); ein "minderwertig" ist hier nicht ganz angebracht, wenn auch nicht vollkommen falsch.
Wenn die Prozessausbeute hoch ist und die Partner nicht so viele TU104 im Vollausbau kaufen werden, wird nVidia selbst einwandfreie Chips "runterstrappen" und für die 2070 Super anbieten. *)
Ansonsten kann man jedoch davon ausgehen, dass grundsätzlich alle angebotenen Chips für die 2070 Super die notwendigen Spezifikationen (Anzahl Funktionseinheiten, Maximaltakt sowie Taktverhalten, Leckströme, etc.) einhalten, d. h. der Kunde hat keinerlei Nachteil. (Schließlich verkauft nVidia ja keine 2070er mit dem impliziten Versprechen, dass einige Chips auch durchaus so schnell wie eine 2080 arbeiten könnten (Ü-Ei-/Lootbox? ;)). Daran hat man markt- und vertriebestechnisch kein Interesse. Das Produkt wird entsprechend ausgelegt und im Markt platziert und ein zugehöriger Preis wird dafür angesetzt. Und man verhindert technisch eine "Aufwertung" von Chips, bei denen es möglich wäre, weil das schlicht die eigenen Kalkulationen durcheinanderbringen würde.)

Dass muss Partner natürlich nicht davon abhalten, weiterhin ihre eingekauften Chip(sätze) zu selektieren. ASUS & Co haben mittlerweile im gehobenen Segment mehrere "Leistungsstufen" im Portfolio, d. h. man unterzieht die Chips hier noch einmal einem BurnIn-Test und verteibt einige dann als "Maximus Ultra" Modelle und einige wenige andere als "Maximum GigaToTheMax"-Modelle und nimmt für die paar wenigen MHz mehr dann noch einmal ein paar Euro zusätzlich ein. Der Wegfall der teueren A-Chips könnte vielleicht doch einen minimalen Preisvorteil für die Partner bedeuten, jedoch müsste Igor das besser bewerten können. Wenn der Prozess jedoch besser eingefahren ist, dürfte es auch in der Serienstreuung weniger positive Ausreißer nach oben hin für die Partner geben, wer weiß.

Also Fazit: Wenn Du eine 2070 Super kaufst, erhälst Du auch einen entsprechenden (bzw. den vertraglich zugesicherten) Gegenwert und nichts "minderwertiges". Grillt sich die Karte nachfolgend selbst oder zeigt Bildfehler, dann ist das schlicht ein RMA-Fall.

*) Abgesehen davon kann nVidia den TU104 auch auf den kleineren Quadros weiterverwenden. Hier ist es zwar durchaus wahrscheinlich, dass man die Specs der Quadros nicht ändert (man wird wahrscheinlich keine Quadro RTX 5000 Super einführen, da würde das profesionelle Umfeld die Nase rümpfen), jedoch spricht nichts dagegen den minimal überarbeiteten neueren TU104 dennoch mit bspw. nur 14 Gbps-GDDR6 zu betreiben, wie bisher. (Für nVidia lohnt sich das dennoch, wenn die Fertigung nun etwas effizienter läuft.)
Sollte nVidia trotz aller Ertwartungen nun dennoch die Quadros überarbeiten, sowie auch den TU102, dann würde ich eher vermuten, dass sich die Markteinführung einer Turing-Nachfolgegeneration noch deutlich hinauszögern wird.
 
Zuletzt bearbeitet :
Ja sind sie schau was die sauft und OC geht anscheined nicht gut.
 
Natürlich halten sie Leistung zurück. Sie könnten was schnelleres als die 2080ti bringen wenn gewollt. Die super Series ist quasi ein Beweis die hätten das so auch vor einem Jahr releasen können. So kann man öfters abkassieren.
Und jetzt ist mir auch klar, warum die 2080 Ti preislich so hoch angesetzt wurde; nämlich, dass eine entsprechende 2080 Super noch Platz hat...

Eine andere Frage; ist das Referenzlayout der 2070S mit dem der 2080 soweit identisch, dass dieselben Wasserblocks verwendet werden können?
 
Echt pervers für30% 100% draufschlag. cant wait for titan 4000 euro. oder 7nm gpus von nvidia die werden zwar massiv lesitung drauflegen aber auch preis jede wette dann können sie sagen ja seht mal neues verfahren ist für uns euch teurer und 60% mehr leistung. (glaskugel) Nvidias marketing ist erste spitze das fehlt amd.
 
Ich glaube, von einigen hier wird unterschätzt, was für ein Aufwand und Risiko die Entwicklung eines großen Logikchips wirklich bedeutet. Selbst Nvidia haut nicht mal so eben einen überarbeiteten, schon gar nicht komplett neuen Chip heraus. Da stecken Jahre der Entwicklung drin. Ich möchte nicht wissen, wieviel Arbeitsstunden und Rechenleistung alleine in die Testlogik der Chips geflossen sind. Vom Anpassungsaufwand der Architektur auf einen neuen Prozess mal ganz zu schweigen.

Diesen Aufwand wird ein Hersteller nur dann betreiben, wenn er wirklich die ökonomische Notwendigkeit dafür hat, ansonsten ist dies finanzieller Selbstmord. Und so wie es momentan aussieht, benötigt Nvidia momentan (oder die nächsten Monate / das nächste Jahr) keinen schnelleren Chip als TU 102 und kann sich gemütlich auf seinen Lorbeeren ausruhen. Ich hoffe zwar sehr auf eine starke Antwort seitens AMD, aber sehr zuversichtlich bin ich noch nicht.
 
Genau das steht in Thys Text. Es dauert. Genauso dauerte es einen Chip zu entwickeln, der Ray Tracing kann. Oder vor fast 25 Jahren banales 3D.
Was dort nicht steht: es besteht kein Kaufzwang. Du kannst dich über den Preis der 2080 Ti echauffieren, über jeden Preis, ganz wie du magst, aber niemand zwingt dich, ein Produkt zu kaufen.
 
Und jetzt ist mir auch klar, warum die 2080 Ti preislich so hoch angesetzt wurde; nämlich, dass eine entsprechende 2080 Super noch Platz hat...
Das hat meiner Meinung nach den gleichen Grund, weswegen Bosch Ixo bei einem BOM-Preis von 8,26 € zum Marktstart für 49 € angeboten wurde.
 
Natürlich halten sie Leistung zurück. Sie könnten was schnelleres als die 2080ti bringen wenn gewollt.

Das haben sie doch bereits getan, siehe Titan RTX. Dass Du jetzt jedoch vielleicht nur bereit bist, für eine solche Karte bestenfalls +200 € mehr zu bezahlen (im Vergleich zu einer RTX 2080 Ti) ist dagegen ein völlig anderes Thema.

Dazu gab es mal Gerüchte, aber AMD CPUs ... (Ryzen 6-Kerner mit 8C/16T)

Hierbei handelte es sich ganz offensichtlich um einen Fertigungsfehler, wie auch in dem verlinktem Artikel zu erkennen war, denn die konkreten CPUs entstammten aller einer bestimmten Produktionswoche. Natürlich nimmt auch AMD bei Bedarf voll funktionsfähige Chiplets und deaktiviert ein oder zwei Kerne um kleinere Prozessoren fertigen zu können.

Bedeutet das, bei der Herstellung der Chips werden bewusst nur 46 von 48 möglichen SM's "angebracht"? / klingt trotzdem irgendwie falsch

Nein, bedeutet es nicht, vereinfacht:
nVidia hat drei Turing-Desings auf dem Reißbrett entwickelt, in CAD mit den entsprechenden Tools und Libs zum 12nm-Node gebaut, sodass entsprechende Belichtungen der Wafer vorgenommen werden können, die die zugehörigen Chips hervorbringen:
- der größte: TU102, 72 SMs, 96 ROPs (ermöglicht ein bis zu 384 Bit-Speicherinterface)
- der mittlere: TU104, 48 SMs, 64 ROPs (nur noch bestenfalls 256 Bit-Speicherinterface)
- der kleine: TU106, 36 SMs, 64 ROPs
(Tensor Cores und RT Cores sind in festen Verhältnis bestandteil der SMs, bspw. RT Cores 1:1, d. h. ein Chip der 48 SMs hat, hat auch 48 RT Cores; Tensor Cores 1:8.)
Auf den Wafern werden immer komplette Chips (Die) belichtet. Die Fertigung ist jedoch hochkomplex und fehleranfällig, sodass man niemals eine 100%ige Ausbeute (Yield) erreicht, d. h. es gibt immer Totalausfälle, Chips mit kompensierbaren Fehlern, sodass entsprechende Funktionsbereiche einfach abgeschaltet werden können und/oder Chips, die bspw. die Spec/Toleranzwerte bzgl. dem Taktverhaten, etc. nicht schaffen. Je mehr Chips auf einem solchen Wafer nicht (oder nur eingeschränkt) verwertbar sind, desto teuerer wird die Fertigung eines Wafers. (Genaugenommen kostet der Wafer selbst in Relation gesetzt nicht viel; der Fertigunsprozess ist der kostspielige Teil.)
Parallel zur Entwicklung auf dem Reißbrett hat man sich markttechnisch Gedanken gemacht welche Produkte man anbieten möchte und welche Märkte man beliefern möchte. Technisches Design und Produktentwicklung wechselwirken hierbei.
Der größte Chip ist der teuerste in der Fertigung. Auf dem Wafer können vergleichsweise nur wenige Dies belichtet werden für den 754 mm2 großen TU102. Aufgrund der Größe ist dieser auch am anfälligsten für Fehler. Der Vollausbau, der nur in mäßig hoher Zahl pro Wafer herauskommt, wird den teuersten und leistungsstärksten Produkten vorbehalten, wo man viel Geld verlagen kann, um die teure Fertigung zu kompensieren (Titan RTX, Quadro 6000 und Quadro 8000). Fertigungsfehler gibt es immer und so muss man nicht ganz so optimale Chips anderweitig "verwursten". Somit überlegt man sich (bzw. testet in einer Vorproduktion), was ein wahrscheinlicher Yield sein würde und wo der Großteil der teildefekten Chips wohl landen würde und spezifiziert eine RTX 2080 Ti mit 68 SMs. Das heißt, man kann eine beliebige Zahl an Fertigungsfehlern in einem Die kompensieren, solange sich diese auf/in insgesamt nur 4 SMs in dem jeweiligen Die beschränken. In diesem Fall schaltet man diese SMs komplett ab und kann den Chip, wenn er ansonsten keine Einschränkungen aufweist, für die RTX 2080 Ti verwenden. *) Neben den offensichtlichen Vorteilen ist hierbei auch zu berücksichten, dass der Vertrieb im Cosnumer-Segment in Form der teildefekten TU102's die Fertigungskosten des TU102 insgesamt senkt. Hätte man diese Optimierung nicht, wären die Profikarten ggf. noch ein klein wenig teuerer.
Man veröffentlicht nun die Quadro 6000 und 8000 mit 24 bzw. 48 GiB GDDR6 und ECC-Unterstützung (ab 3600 € / 6300 €), sowie die RTX 2080 Ti im Consumer-Segment mit ein paar SMs weniger, sowie mit nur einem 352 Bit-Speicherunterfache für 11 GiB GDDR6 (anfänglich 1200 €). Bei den Quadro-Karten ist zu berücksichtigen, dass man nicht nur die Hardware, sondern auch hochgradig optimierte, zertifizierte Treiber bezahlt (ganz abgesehen von der im Hintergrund eh noch laufenden Entwickung um den gesamten Software-Stack wie CUDA, etc.).
Nun stellt man fest (bzw. das Marketing hat das schon zuvor herausgearbeitet), dass zwischen den beiden Bereichen durchaus eine beträchtliche Lücke klafft. Es gibt Interessenten die mehr bezahlen würden und auch eine sehr hohe Leistung benötigen, die aber nicht die hohen Preise der Quadro-Top-Modelle bereit sind zu bezahlen und die auch gar nicht den vollen Funktionsumfang benötigen.
Man nimmt also nun den gleichen Chip, den TU102 im Vollausbau, und bietet ihn als RTX Titan für 2600 € an. Funktionstechnisch muss sich dieses Produkt aber nun nach oben und unten hin abgrenzen, denn es ist einerseits günstiger und teuerer.
Das Speicherinterface belässt man bei 384 Bit mit 24 GiB, entfernt jedoch den ECC-Support. Trotz dem Profi-Light-Anspruch stehen der Titan die hochgradig optimierten, zertifizierten Treiber nur in eingeschränkter Form zur Verfügung und zusätzlich beschränkt man die Genauigkeit der Tensor Cores auf 16/16-Bit-Operationen ***). Mit der maximalen Zahl an SMs/Tensor Cores und dem schnelleren Speicher ist sie dennoch leistungsfähiger als die 2080 Ti. Der Hauptmarkt für diese Karte übrigens das geschäftliche Umfeld inkl. Universitäten und Forschungsaeinrichtungen, primär für DNNs und das Inferencing. (Daneben gibt es natürlich auch noch einige verrückte Gamer in vernachlässigbarer Zahl, die sich auch eine solche Karte kaufen (würden). Das nimmt man augenzwinkernd mit, ist aber nur das Sahnehäubchen oben drauf.)

Schlussendlich wird die gesamte Fertigung des TU102 für nVidia damit aber überhaupt erst kalkulatorisch machbar, es ist schlicht eine Mischkalkulation, bei der man eine sehr aufwendige und teuere Fertigung über diverse Produkte und Marktsegmente verteilt, sodass eine entsprechende Fertigung überhaupt erst in Frage kommt. (Den Punkt, dass nVidia ohne entsprechende Konkurrenz hier durchaus noch einmal ein klein wenig auf seine Marge draufschlägt, lasse ich mal außen vor; das ist nun mal ein bekannter Nebeneffekt der freien Marktwirtschaft, wenn ein Unternehmen eine marktbeherrschende Stellung inne hat.)

*) Fertigungsfehler im Bus, der die SMs verbindet oder im Speicher- oder PCIe-Subsystem kann man voraussichtlich nicht durch redundante Funktionseinheiten kompensieren, sodass es hier nichts zum Abschalten gibt, sodass solche Chips Totalausfälle sind. Das ist aber nicht so problematisch, da die SMs mit ihren Funktionseinheiten und lokalen Caches flächenmäßig den größten Anteil am Chip haben, sodass die Fehlerwahrscheinlichkeit hier am größten ist. (Zudem kann man in den anfänglich benannten Bereich ggf. auch mit etwas höheren Toleranzen designen, um die Fehlerwahrscheinlichkeit hier zusätzlich zu senken.)

Btw ... bei Intel ist es nicht anders, bspw. in der Server-Fertigung: Bei dem Xeon-Server Skylake-SP (Platinum 8180 & Co) wird das LCC-Die mit bis zu 10 CPU-Kernen mit einer Chipfläche von 322 mm2 gefertig (Low Core Count), das HCC-Die mit bis zu 18 Kernen (484 mm2) und das XCC-Die mit bis zu 28 Kernen (698 mm2) inkl. 38,5 MiB L3-Cache (eXtreme Core Count). Intel fertigt hier schlussendlich also nur drei unterschiedliche Chipdesigns **) und davon werden alle Xeons abgeleitet, inkl. den 1-Sockel-Xeon-W's sowie den vom Xeon abgeleiteten X-Prozessoren der Consumer-HEDT-Platform (Basin Falls). Das Vorgehen ermöglicht überhaupt erst eine effiziente Produktion mit den im Markt ersichtlichen Preisen.

**) Beispielsweise bei Broadwell-EP hatte das MCC 15 Kerne auf dem Die. Es gab aber niemals einen Xeon-15-Kerner. Hier hat man grundsätzlich einen "Spare-Core" eingeplant, sodass man den Yield mit Blick auf die zu bestückenden Produktlinien besser im Griff hatte.

***) Hier habe ich mich vertan. Bei den Tensor Cores bzgl. FP16 mit FP32-Accumulate ist die Titan RTX nicht beschnitten und sollte analog der Quadro 6000/8000 rd. 130 TFlops mixed-precision erreichen. Das FP32-Accumulate gewährt eine höhere Präzision und sollte zumindest beim Training verwendet werden, während man das Inferencing zumeist auch gut mit FP16-Accumulate betreiben kann. Die Consumer-Karten (inkl. einer RTX 2080 Ti) werden hierbei jedoch alle auf etwa 50 % Durchsatz beschränkt und bieten den vollen Durchsatz nur bei FP16 mit FP16-Accumulate.
Darüber hinaus ist der wesentliche Unterschied (abseits vom fehlenden ECC) der GeForce-Treiber, d. h. es fehlen die zertifizierten Treiber der Quadro's. Allerdings hat nVidia auf Druck von AMD bereits ab etwa der Titan Xp zumindest einige ausgewählte Profifunktion auch für die Titan's in den GeForce-Treiber übernommen. Zudem gibt es auch noch den NVLink für einen Dual-GPU-Betrieb. Wenn die Applikation diese Funktion explizit unterstützt, erscheint das Tandem wie eine einzige Karte mit 144 CUDA Cores und zusammenhängendem 48 GiB Speicher. (Die FP64-Performance ist bei Turing grundsätzlich auf 1/32 beschränkt; für entsprechende Anwendungen bieten sich nur Volta, ein GP100 oder AMD an.)
 
Zuletzt bearbeitet :
@gerTHW84: Wow, danke! Sehr interessant. Hast du dir das hobbymäßig angelesen oder kommst du beruflich mit der Thematik in Berührung?
 
Rede von Gaming Produkten.

Falls Du damit meinen Post meintest ... ist das gleiche Schema und setzt sich nach unten hin fort. Abgesehen davon, dass auch die kleineren Chipdesings für Quadros verwendet werden. In Summe eine Mischkalkulation, die die Fertigung insgesamt erst attraktiv und rentabel macht.

Und an dem angebotenen Leistungsspektrum ändert sich nichts bei nVidia, es geht weiterhin von der GTX 1660 hoch bis zur Titan RTX, aber was schnelleres als den TU102 im Vollausbau haben sie derzeit nun mal nicht und auch den gibt es käuflich zu erwerben in Form der Titan. Also wo ist das Problem? "Mehrfach abkassieren"? Wenn sich einer vor ein paar Monaten die 2080 gekauft hat und jetzt meint die 2080 Super (für ein paar Prozent Fps mehr) nachkaufen zu müssen, ist er wohl selbst schuld (bzw. hat es nicht anders verdient). Er hätte auch gleich zu Beginn die 2080 Ti kaufen können und könnte die 2080 Super jetzt müde belächeln oder er kann, wie in einer freien Marktwirtschaft so üblich, einfach gar nicht oder bei der Konkurrenz kaufen und nVidia mit seiner Kaufentscheidung abstrafen (aber das bekommen viele ja dann auch nicht hin).
Für alle, die bspw. mit Maxwell oder Pascal unterwegs sind und ein Upgrade bisher hinausgezögert haben, ergibt sich durchaus noch einmal eine neue Situation zum Überdenken ... jetzt Super kaufen oder doch auf den Turing-Nachfolger warten (oder abwarten, was mal irgendwann Navi 20 werden wird?). Und wenn man nicht gerade im hochpreisigen 4K-Segment spielt (2080 Super und darüber), dann hat man jetzt zudem noch den Luxus, dass man auch gute Konkurrenzprodukte im roten Lager zur Auswahl hat. - Alles gut, oder etwa nicht? ;)
 
Weis nicht käöufer einer ur rtx 2060 dürften sich ziemlich veräppelt vorkommen imo. (auch wenn teurer) aber 1080 leistung mit 6gb ist nicht tragbar. Super turing so hätten sie releasen müssen. Naja ohne den exorbitanten preis der 2080ti....
 
Grad so wie die Vegakäufer, die sich eine vor dem Preisverfall kauften? Oder sind AMD-Karten und deren Kundschaft sakrosankt?
 
Danke an gerTHW84 für den detaillierten Rundumschlag. Wenn man bedenkt, dass sich die teuren Fabs erst bei Chipausbeuten von durchschnittlich 90% lohnen (bei gut eingefahrenen Prozessen wird dann eher >95% angepeilt), wird klar, dass möglichst alles verheizt werden muss, was sich auf dem Wafer befindet.

Ich liebäugele nach Igor's Test momentan mit einer RTX 2070 super und hoffe, dass die Performance nächste Woche von wenigstens einer Navi überboten wird. Vielleicht wechsle ich dann doch noch ins rote Lager.
 
Weis nicht käöufer einer ur rtx 2060 dürften sich ziemlich veräppelt vorkommen imo. (auch wenn teurer) aber 1080 leistung mit 6gb ist nicht tragbar. Super turing so hätten sie releasen müssen. Naja ohne den exorbitanten preis der 2080ti....


Das ist vor allem ein Marketingproblem. Mit Turing wird primär die Raytracing-Funktionalität in den Markt gebracht. Das Problem ist, dass die Hardwareunterstützung nichts daran ändert, dass Raytracing ein extrem aufwändiger Prozess ist; dementsprechend wird es "nur" als hybrides Renderingverfahren in die Rasterizer-Engines integriert und dementsprechend wird beträchtliche Hardware benötigt, d. h. große Chips mit vielen Recheneinheiten - schlussendlich werden also teuere Chips benötigt. Gemäß dem Henne-Ei-Problem steht nVidia aber nun vor der Frage, wie man die Technik etablieren soll, wenn sie kaum einer nutzen kann, denn nur die wenigsten geben 700+ € alleine für eine dedizierte Grafikkarte aus. Und mit so einer geringen Verbreitung ist eine Adaption seitens der Spieleentwickler nicht attraktiv. RTX muss also in den Massenmarkt gebracht werden und dazu benötigt man günsitgere Karten. Ein erneutes Problem ist jedoch, dass man das Design bzgl. der SMs nicht beliebig beschneiden kann, bis es preislich passt (SMs und RT Cores stehen im 1:1-Verhältnis in einem Funktionsblock zur Verfügung), denn wenn am Ende zu wenig SMs übrig bleiben, sodass es eher einer alten GTX 1060 entsprochen hätte, wäre die Raytracing-Leistung übermäßig verkrüppelt und unbrauchbar gewesen, sodass man das Ziel der RTX-Verbreitung verfehlt hätte. Es gab also ein klares unteres Limit für eine mögliche Beschneidung des Designs. Dennoch muss man die Karten jetzt technisch als auch produktstrategisch von ihren Mitprodukten absetzen und da bot sich am ehesten die Speicherbeschränkung auf 6 GiB RAM an.

Zudem ist es grundsätzlich so, und insbesondere in der Halbleiterindustrie, dass wenn man ein paar Monate wartet, man immer etwas besseres, schnelleres und/oder funktionsangereichertes bekommen kann für das gleiche Geld oder nur einen geringen Aufpreis. (Mein 286er hatte damals auch ganze 16 MHz und volle 1024 KiB RAM und hielt daher lange genug durch, sodass ich danach auf einen i486DX-50 umsteigen konnte, wohlgemerkt, keinen DX2-50!;)) Mit "veräppeln" hat das nichts zu tun.
nVidia hätte die Vorteile des eingefahrenen Fertitungsprozesses auch nicht durchreichen müssen. Die Fertigung wird effizienter und damit günstiger und Richtung Vertrieb hin bleibt alles beim Alten und damit steigt die Marge für nVidia. Da absatztechnische Aspekte *) jedoch ein etwas größeres Gewicht haben, nutzt man diese Vorteile nun und verwertet sie in Form eine Produktaktualisierung. Es ist zwar nicht mehr als eine Refresh, aber es belebt den Markt und am Ende, wenn sich die Preise etwas gesetzt haben, werden auch die Konsumenten etwas mehr fürs Geld bekommen, alles in allem normal im Markt.

*) Die Absatzkurve sinkt hier natürlicherweise über die Zeit, insbesondere, wenn man sich in Bereiche hinein bewegt, ab denen erste News zu einer Nachfolgearchitektur erwarten werden, etc. Der Großteil der Interessenten wird sich zu einem fortgeschrittenen Zeitpunkt im Produktlebenszyklus schon eingedeckt haben oder aber entschieden haben, dass diese Produktserie für ein Upgrade nicht in Frage kommt. Und irgendwann, auch wenn man Marktführer ist, kommt dann doch mal ein Konkurrent mit alternativen Produkten auf den Markt, der diesen alten Produkten zusätzlich das (Rest)Leben schwer macht.
Marketingstrategen werden hier alleine schon die reine Aufmerksamkeit durch Navi als bedrohlich einstufen, wenn man dem nicht etwas werbetechnisch entgegenzusetzen hat und eine schlichte News für Preisnachlässe der 2060/70/80 zur Kompensation der Leistungsdifferenzen wäre ohne nennenswertes Echo verhallt. Hinzu kommen noch marketingtechnische Übertragunseffekte, denn AMD wird auch das verbleibende Jahr in den Medien präsent bleiben mit Ryzen 3000, Epyc 2, dem Ryzen 9 3950X und möglicherweise zum Jahresende hin mit Threadripper und Renoir. Hingegen nVidia hat voraussichtlich nichts für den Rest des Jahres zu vermelden und hätte ohne den Refresh dieses Jahr gar komplett in der medientechnischen Versenkung verschwinden können. Ein Albtraum für den Vertrieb. Und wenn nVidia AMD zumindest ein wenig in die Weihnachtssuppe spucken möchte, dann wird man zweifelsfrei in 4Q19 zumindest ein paar erste Details zum Turing-Nachfolger streuen (bzw. über indirekte Kanäle streuen lassen, weil sich Leaks ja immer so spannend lesen und die Gerüchteküche anheizen und selbige nicht selten dazu tendieren, sich zu verselbstständigen).

Also eine 2080(super) bzw. 2080ti hätte schon ein Speicherupgrade verdient gehabt. 12GB 2080, 16GB 2080ti.

Was Du hier beschreibst unterliegt auch eher einem marketing-/vertriebstechnischen Problem als einem (preis)technischen. Zum einen müssen die Produkte voneinander abgegrenzt werden und zum anderen kann auch durchaus ein zu vielfältiges, zu stark abgestuftes Portfolio die Kauffreude des Konsumenten hemmen. Zu viel Auswahl ist nicht immer gut.
Und wie schon besprochen, ist so großes RAM nur für einen sehr kleinen Teil der Konsumenten faktisch von Interesse (und zusätzlich bezahlt werden muss es auch noch) und es wird für alle beteiligten Partner bis hin zum Vertrieb umso unhandlicher und komplexer, wenn die Modellzahl mit nur geringen Differenzierungskriterien überhand nimmt (zumal dann vielfach auch noch bei Nischenprodukten mit geringen Absatzzahlen).
Und SW-technisch besteht aktuell noch weniger Grund, denn der Großteil der Spiele unterliegt nach wie vor (indirekt) den Beschränkungen der aktuellen Konsolengeneration. Hinzu kommt, dass es auch auf dem PC gemäß Steam nicht übermäßig besser aussieht: 56 % der Systeme sind mit bestenfalls 8 GiB Hauptspeicher ausgestattet, nur noch 34 % haben 16 GiB und gerade mal 4,7 % haben mehr als 16 GiB RAM im PC installiert (bzw. auf dem Laptop). Hier wird sich das Rad voraussichtlich erst mit dem Erscheinen der neuen Konsolengenerationen weiterdrehen.
 
Zuletzt bearbeitet :
Und wie schon besprochen, ist so großes RAM nur für einen sehr kleinen Teil der Konsumenten faktisch von Interesse (und zusätzlich bezahlt werden muss es auch noch) und es wird für alle beteiligten Partner bis hin zum Vertrieb umso unhandlicher und komplexer, wenn die Modellzahl mit nur geringen Differenzierungskriterien überhand nimmt (zumal dann vielfach auch noch bei Nischenprodukten mit geringen Absatzzahlen).
Und SW-technisch besteht aktuell noch weniger Grund, denn der Großteil der Spiele unterliegt nach wie vor (indirekt) den Beschränkungen der aktuellen Konsolengeneration.

Ob Speicher >8GB bei der 2080 z.Zt. nun wirklich benötigt wird, darf durchaus bezweifelt werden. Wenn ich aber ein rel. hochpreisiges Produkt wie eine 2080 kaufe, dann möchte ich schon eine gewisse Zukunftsfestigkeit haben. Auch wenn die Wahrscheinlichkeit verhältnismäßig gering erscheint, das der Speicher in den nächsten 3 Jahren wirklich knapp werden könnte.
Ich gebe aber nicht jedes 3. Jahr 700+X € für eine Grafikkarte aus. 2 GB mehr dürften Nvidia in dieser Preisklasse nicht umbringen, Das dürfte sicher auch ein Grund für den recht schleppenden Absatz dieser Karte sein.
Hinzu kommt, dass es auch auf dem PC gemäß Steam nicht übermäßig besser aussieht: 56 % der Systeme sind mit bestenfalls 8 GiB Hauptspeicher ausgestattet, nur noch 34 % haben 16 GiB und gerade mal 4,7 % haben mehr als 16 GiB RAM im PC installiert (bzw. auf dem Laptop). Hier wird sich das Rad voraussichtlich erst mit dem Erscheinen der neuen Konsolengenerationen weiterdrehen.

Das noch >50% der Rechner nur mit 8GB oder gar weniger ausgestattet ist, dürfte zu einem guten Teil den hohen Ram Preisen geschuldet gewesen sein. Aber insbesondere auch Intel mit seiner Blockadetaktik bezüglich der Rechnerleistung, Kerne und den hohen Preisen.
Warum soll ich mir was neues (mit mehr Speicher) kaufen, wenn es sich eh nicht wirklich lohnt. Da sagten sich viele: Och, der hält noch ein bisschen.
Bei einem neuen Rechner muss einfach min. >100% Mehrleistung zum alten System gegeben sein, sonst ist das rausgeschmissenes Geld.
AMD hat da jetzt richtig Schwung rein gebracht.
Die Konsolen werden da jetzt auch noch ein gutes Stück Dynamik rein bringen. Auch was den bedarf an Grafikspeicher angeht. Deshalb ist eine 2080 für mich kein guter Deal, wenn ich potentiell damit rechnen muss, das mir in 2 Jahren der Speicher knapp wird und ich die Details dann runter drehen muss.
 
In 4k füllst du sie. Mods auch. Neue konsolengen dann steigt der vram durchschnit wieder und das ist in 1.5 Jahren.
 
Oben Unten