Grafikkarten News VGA

NVIDIA in der Komfortzone mit Zuckerbrot und Peitsche – Drei „neue“ Grafikkarten, die Hintergründe, das 3. Newtonsche Gesetz und das GPP | Editorial

Aktuell verkauft sich zwar alles, das einen Stecker hat, wie geschnitten Brot, aber als Hersteller muss man natürlich gewappnet sein und schaut deshalb auch nach Links (AMD) und Rechts (Intel). Immer schön nach dem „Was passiert dann“-Prinzip, das wir ja auch aus der Physik kennen. Erinnert sich noch wer an Actio = Reactio? Richtig, das gute alte Dritte Newtonsche Gesetz! Und was hat das nun mit NVIDIA zu tun? Team Grün hat, nach diversen Anlaufschwierigkeiten, mit der Ampere-Generation gut vorgelegt und lässt nun die beiden anderen Hersteller einfach kommen. Zurücklehnen und zuschauen.

Und ja, es es ist eine gewisse Komfort-Zone der anderen Art, denn um auf die Antworten der Mitbewerber in Form neuer Produkte zu reagieren, muss man einfach nur ein paar simple Hebelchen umlegen und im Fall der Fälle auch gegenüber den eigenen Boardpartnern zusätzlich noch die physikalische Hebelwirkung nutzen, um den Futternapf möglichst einfarbig zu halten. Das GPP (GeForce Partner Program) als Freundschaftsbeweis ewiger Treue hat zwar nach außen hin sichtbar ausgedient, aber gewisse Rückstände lassen sich nicht so einfach entfernen. Doch dazu gleich mehr.

Kolportierte man auf Twitter unlängst noch die totale Aufsuperung des tiefgrünen Portfolios, haben damals schon die Industriepartner milde gelächelt. Theoretische Planspiele ja, Aufwand für nichts natürlich nein. Und so hat sich mittlerweile wohl auch auf Twitter die Erkenntnis durchgesetzt, dass in der Praxis erst dann geschossen wird, wenn es nicht anders geht. Patronen sparen ist angesagt. Drei sollten reichen. Denkt man. Ich habe mich in den letzten Wochen natürlich auch mit diesem Thema befasst und diverse Quellen angezapft, aber am Ende nur Schulterzucken registrieren können. Womit wir wiederum bei der Komfortzone angelangt wären und dem, womit auch die Boardpartner recht gut leben können. Denn auch wenn was „Neues“ dazu kommt, lassen sich die alten Ressourcen bequem weiternutzen. 

GeForce RTX 3090 Super

Beginnen wir mit der vermeintlich so wichtigen Leistungskrone. Die GeForce RTX 3090 ist schnell und besitzt deutlich mehr Speicher als die unmittelbare Mitbewerberin in Form der Radeon RX 6900XT(X). Das mit der Performance hingegen, orientiert man sich mal an der Rechenpower und den Werten der Rastergrafik, ist (anwendungsabhängig) hingegen nicht ganz so eindeutig. Gelingt es AMD, Navi 21 zu shrinken und damit vielleicht auch noch etwas mehr Feuer unter den Allerwertestn zu zaubern, dann nimmt man einfach den GA102 Vollausbau der RTX A6000 mit 10.752 statt 10.496 Shadern und lässt ihn auf die staunende Kundschaft los. Halber RAM im Vergleich zur Profi-Karte, aber mit 24 GB GDDR6X immer noch schneller für alle, die nicht im Speicherausbau ein Vollbad nehmen müssen.

Der Aufwand ist für alle Beteiligten minimal, denn die Ausbeute sollte mittlerweile größer geworden sein und niemand muss auch nur irgendetwas ändern. Gleiches PCB einschließlich Bestückung, nur der Chip ändert sich im Inneren. Der Mehraufwand liegt hier bei null, wenn man Verpackung und Marketing mal ausklammert. Die Boardpartner (AIC) müssen noch nicht einmal den Forecast groß ändern, den es ist ja alles bereits geplant. Damit tendiert die kolportierte GeForce RTX 3090 zu einem echten Replacement, welches die aktuelle RTX 3090 komplett ablöst. Ein Nebeneinander ergäbe sowieso keinen Sinn.

Der Zeitpunkt und die Realisierung richten sich hier voll nach AMD und die Wahrscheinlichkeit einer Aufsuperung steigt in dem Maße, wie es AMD gelingt, die RX 6900XT als Refresh noch einmal etwas aufzuhübschen. Und die Umstellung der Produktion dauert nur solange, bis man den neuen Gurt mit dem anderen Chip eingelegt hat. Satte 10 Minuten sollten da mehr als ausreichen.

 

GeForce RTX 3070 Super

Jetzt kommt Team Blau ins Spiel. Mit nur 8 Gigabyte kann man natürlich bei NVIDIA nichts mehr reißen, da muss Meister Jensen noch nicht mal die Zuckerwürfel im Morgenkaffe zählen. Da man die Leistungsfähigkeit der größten kommenden ARC-Karte bei einer GeForce RTX 3070 Ti verortet (und Jensens Spione lagen eigentlich immer richtig), muss man nur den Speicher entsprechend anpassen. Da es die benötigten 2-GB-Module nur als GDDR6 ohne X gibt und man auch keine extra Platinen auflegen möchte, wird einfach der Vollausbau des GA104 weitergenutzt und nur der RAM getauscht. Auch hier wird nur ein Gurt getauscht, auf dem sich die Module für die SMD-Bestückung wohlig zusammenkuscheln. 10 Minuten, falls überhaupt.

Auch hier liegt der technische Aufwand der AIC also bei genau null und einen Vorlauf benötigt man auch nicht, denn die GPU und den Speicher liefert ja eh NVIDIA als Kit. Damit wäre die RTX 3070 Ti automatisch obsolet, während man sich über die RTX 3070 noch streiten könnte. Für den Forecast sind es immer noch dieselben Platinen und Komponenten wie bei der RTX 3070 Ti und die Super-Karte wird sicher erst kurz vor Intels echtem Launch erscheinen. Die Wahrscheinlichkeit ist also sehr hoch, Just-in-Time sowieso. Und da wir gerade bei Intel sind, ist vielleicht auch noch eine weitere Fußnote interessant.

Intel wird die eigenen Karten nicht nur exklusiv und allein fertigen können, da braucht man schon den einen oder anderen Boardpartner. Ich will nicht schon wieder über die Vor- und Nachteile des exklusiven Boardpartner-Daseins schreiben, das hatten wir schon einmal. Wobei sich die Rahmenbedingungen für die jeweiligen Partner (AIC bei NVIDIA, AIB bei AMD) kaum ändern werden. Die Freundschafts-Fesseln Ringe in Form des mittlerweile wieder eingestampften GPP sind aber allen noch in Erinnerung und so werden sowohl NVIDIA als auch AMD schon dafür sorgen, dass es keine Seitensprünge geben wird. Inwieweit hier vertragliche oder monetäre Hebel angesetzt werden, entscheidet wie immer die Teppich-Etage der GPU-Hersteller.

Es würde mich aber nicht wundern, wenn neben den als gesetzt geltenden Mischproduzenten Asus, Gigabyte und MSI plötzlich in der näheren Zukunft auch noch neue Firmen auftauchen würden, deren Einsortierung in bestehende Firmengruppen durchaus interessant sein könnte. Giganten, wie z.B. PC-Partner, besitzen ja bereits ein recht elegantes Firmenkonstrukt, das alle Hintertürchen offen lässt. Sind dort NVIDIA-exklusive Brands wie Zotac, Manli oder inno3D direkt inkludiert, hat man mit Sapphire im eigenen Firmenkomplex eine nach außen hin komplett unabhängige Firma integriert, die ganz nebenbei auch noch indirekt als Lohnfertiger für AMDs Referenzkarten fungiert.

Da könnte man mit Sicherheit etwas ähnlich Gelagertes auch mit bzw. für Intel installieren. Nur mal so als Gedankenspiel… Und dann ist ja noch ASRock, die aktuell zwar AMD-exklusiv agieren, aber dabei nicht wirklich glücklich sein dürften, wenn sie zu den direkten Mitbewerbern und deren Kombinationsmöglichkeiten schauen. All das wird Intel lösen müssen und Jensen wird sicher noch diverse Leckerlis oder auch den einen oder anderen sauren Drops auspacken, um die Freunde schön in der Spur zu halten. Zusammen mit Lisa natürlich, denn zu zweit macht das sicher mehr Spaß.

GeForce RTX 2060 12 GB

Hier hätten wir zum Schluss noch den kommenden VW-Käfer in Jensens VGA-Fuhrpark. Und läuft und läuft (und säuft)… Aber man braucht wohl schon Thors Hammer, um das Teil irgendwann mal final zu beerdigen. Denn eine GeForce RTX 3050 Ti, so wie sie ursprünglich kolportiert wurde, müsste sich wohl Navi24 (kommt ja auch noch) galant geschlagen geben. Raytracing spielt bei diesen kleinen Winzlingen eh kaum noch eine Rolle, dann schon eher der Speicher. Und weil sechs nicht sexy ist, gibts halt von Jensen was auf die Zwölf. RAM-Schwemme statt Innovation, das rechnet sich mit Sicherheit irgendwie.

Mit der alten Turing Karte hat Jensen einen echten Untoten im Rennen, der mit einfachen Mitteln kaum zu beerdigen sein wird, solange die aktuelle Mangelsituation weiter anhält. Da helfen noch nicht mal Knoblauch oder Van Helsing.

 

Kommentar

Lade neue Kommentare

HerrRossi

Urgestein

6,767 Kommentare 2,234 Likes

Wunderbar geschrieben :ROFLMAO: (y)

Antwort 5 Likes

D
Deridex

Urgestein

2,204 Kommentare 843 Likes

Der Meinung kann ich mich leider nicht anschließen.

Antwort Gefällt mir

big-maec

Urgestein

793 Kommentare 460 Likes

Noch in der Komfortzone, aber man sollte sich nicht zu weit zurücklehnen sonst kracht die Rückenlehne weg.
Die anderen werden wie immer nachziehen, Stichwort Stapelspeicher bzw. CPU/GPU stapeln. Wie auch immer, einen Stillstand kann sich keiner leisten.

Antwort Gefällt mir

D
DavyB

Mitglied

52 Kommentare 34 Likes

Wie sinnvoll 12GB Ram bei einer 2060 sind wage ich doch zu hinterfragen. Bevor die annähernd gefüllt sind kotzt die Karte doch eh schon aus allen Löchern weil die Performance in den meisten neueren Spielen für FullHD nur mehr gerade so reicht.

Antwort 1 Like

grimm

Urgestein

3,066 Kommentare 2,023 Likes

Schöner Text. Klingt alles so plausibel wie deprimierend.

Antwort 1 Like

Igor Wallossek

1

10,099 Kommentare 18,583 Likes

Technisch gesehen ist das Nonsens, aber fürs Marketing pures Gold. 12 GB mit GDDR6 und 14 Gbps reichen völlig aus, damit Knut-Kevin im Mädchen-Markt seine Mutter kreischend in den Kauf treibt. :D

Antwort 5 Likes

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Schöner Artikel, super aufgedröselt. Die 70er mit 16GB wäre eine sehr interessante Karte.

Antwort Gefällt mir

Arcaras

Mitglied

63 Kommentare 22 Likes

Keine Ahnung warum, aber immer wenn ich das Bild sehe, kommt mir spontan der Gedanke "warum trägt Jensen da Lippenstift?" o_O.

Antwort 1 Like

Igor Wallossek

1

10,099 Kommentare 18,583 Likes

Das ist der von Lisa ;)

Antwort 8 Likes

G
Guest

Wenn man bedenkt das heute FC6 raus ist und man auf einer 1200-1500 Euro Karte (Preise im Markt mal außen vor, ist eben so bei der 3080), nicht mehr voll aufdrehen kann hat sich NVidia mit seinem "Geiz ist geil für viel Marge" mal wieder selber aus der Komfortzone befördert. Vermutlich shrinken sie jetzt am Treiber und verlagern alles wenn möglich, in den RAM oder auf SSD. Was eine Ruckelshow auf UHD mit höchsten Texturen, da zuckt nicht mal die RX6800.

Wenn's Super kommt muss man wohl mehr Speicher drauf legen und genau deshalb kommen sie auch. Warten...

Light RT scheint den RX6000 auch nichts auszumachen, kein riesen Vorteil mehr für NVidia, wer hätte es gedacht? Was Devrel so alles ausmacht.:)

Froh locket wer eine RX des höheren Ranges schießen konnte, selbst die 3080ti sieht alt aus. Da muss man derzeit 2,5K in die Hand nehmen wenn es bei NVidia nicht ruckeln soll. Genau deshalb trägt Huang Lippenstift, alles richtig gemacht oder schei*egal, friss oder stirb Klingone.;)

*Falls sich jemand fragt, ersetzt höhere Bandbreite den festen Speicherausbau?: "nein tut es nicht, nirgends, das ist ein
Marketingmärchen".

*Achso, da war noch was: Artikel, die 6800XT(X) als Mitbewerberin der 3900? Hm, ob das stimmt? Besser RX6900XTX schreiben, nicht das Knut-Kevin seiner Mutter noch M*st erzählt, Vollausbau usw.. Davon gibt es sogar eine XTU.

Antwort 1 Like

Klicke zum Ausklappem
DrWandel

Mitglied

79 Kommentare 61 Likes

Warum ist die Radeon RX 6800XT die Konkurrenz für die 3090? Das ist doch eher die 6900XT, oder?

Und ja, das Konzept mit dem Speicher bei NVidia ist ein ziemliches Durcheinander und führt bestimmt in vielen Fällen bei Kunden zum "Verschaukelt vorkommen". Dieser Punkt scheint mir doch bei AMD wesentlich konsistenter gelöst zu sein. Na ja, ich habe Zeit zum Warten was sich da noch so alles tut (insbesondere beim Preis natürlich).

Antwort 3 Likes

G
Guest

Ich würde sogar soweit gehen das es die XTXH alias XTU ist. Denke mal die 3090 sind auch "gebinnt".

Antwort 3 Likes

Igor Wallossek

1

10,099 Kommentare 18,583 Likes

Kinder.... Tippfehler :D

Antwort 3 Likes

Corro Dedd

Urgestein

1,801 Kommentare 651 Likes

Ach ja, der Speicherausbau. Ich erinnere mich noch an einen Praktikanten damals, der sich eine GT 510 gekauft hat, aber mit 2GB Speicher und war voll davon überzeugt, dass die Karte richtig abgeht und damit echte Konkurrenz zu meiner damaligen GTX 570 mit "nur" 1280MB Speicher sei :D

Antwort 1 Like

Igor Wallossek

1

10,099 Kommentare 18,583 Likes

Ja, es gab mal so alberne Karten mit atemberaubenden 2GB Speicherausbau DDR3 im MM. gern auch in den Fertig-PCs mit einem echten Intel (Pentium). Bauernfang eben. Waren aber noch ein paar Generationen älter :D

Antwort 2 Likes

e
eastcoast_pete

Urgestein

1,391 Kommentare 762 Likes

Und gekauft mit unserem Geld!

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,391 Kommentare 762 Likes

Die Situation ist eben die, daß es unterhalb der 3060 und unter € 400 kaum etwas zu kaufen gibt. Vielleicht hat NVIDIA auch ein Haufen 2060 Chips auf Halde? Ansonsten würde ein 2070 Super "Classic Edition" doch mehr Sinn machen, oder ist die dann zu nahe an der 3060 dran? Sowohl die 2060 als auch die 2070 (und Super) sind doch bei TSMC in 12 nm gefertigt, wenn ich es richtig weiß.

Antwort Gefällt mir

G
Guest

Nun ist es aber dass dritte Spiel in Folge wo bei der 3080 der VRAM vollläuft und "mit unserem Treiber shrinken wir euch die Texturen schön" ist auch albern. Nicht desto trotz, gibt es mehr Spiele die in UHD VRAM fordern und wenn ich Karten für UHD bewerbe sollten sie auch uneingeschränkt geeignet sein, war sogar 8K dabei (vor allem bei den Preisen derzeit). Ja wer's glaubt.

Zurücklehnen und abwarten, glaubt nur NVidia dass das reicht. Su wird auch ohne Lippenstift, gerade feixen. Aber man kann sich alles schönreden. Ich finde es nicht so lustig. Ein Shadow of the Tombaider hat damals schon 13GIB volllaufen lassen wenn man alles voll aufgedreht hat und das möchte ich bei 1,5K. Zumal ein NVidia optimiertes Spiel. Nachtigall ick hör dir trapsen.

Das Gute daran ist, Texturen kosten nichts, nur VRAM und hübschen zuweilen das Bild auf, es wird ruhiger und man kann damit genauso wie mit DLSS Konturen und den Detailgrad erhöhen, was in niedriger aufgelösten Masken dem Pixelraster zum Opfer fällt. Sag mir einer das lässt man wegen "Geiz ist geil" liegen?

Wenn es seinerzeit Spiele gegeben hätte die die 1,3GIB der GTX570 gefüllt hätten, hätte die neben einer Billigkarte wie der GT510 ziemlich alt ausgesehen. Da helfen mehr Transistoren nämlich gleich null. Von wegen Wechselwirkungsprinzip und so.

Antwort Gefällt mir

Klicke zum Ausklappem
g
gedi

Mitglied

33 Kommentare 5 Likes

Dann hätte er braune Lippen und ne Mundspülung parat - mehr wird er von Lisa nicht bekommen...

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung