GPUs Graphics Latest news

NVIDIA in the comfort zone with carrots and sticks – Three “new” graphics cards, the background, the 3. Newton’s Law and the GPP | Editorial

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

Currently, everything that has a connector sells like hot cakes, but as a manufacturer you have to be prepared of course and therefore also look to the left (AMD) and right (Intel). Always according to the “what happens then” principle, which we also know from physics. Does anyone remember actio = reactio? That’s right, good old Newton’s Third Law! So what does this have to do with NVIDIA? Team Green has, after various teething problems, made a good showing with the Ampere generation and is now simply letting the other two manufacturers come. Sit back and watch.

And yes, it’s a comfort zone of a different kind, because to respond to competitors’ responses in the form of new products, you just have to flip a few simple levers and, if need be, use additional physical leverage with your own board partners to keep the feeding bowl as monochromatic as possible. The GPP (GeForce Partner Program) as a friendship proof of eternal loyalty has outwardly visibly served its time, but certain residues cannot be removed so easily. But more on that in a moment.

While Twitter was recently buzzing about the total upsurge of the deep green portfolio, industry partners were already smiling mildly at the time. Theoretical business games yes, effort for nothing of course no. And so, in the meantime, the realization has probably also prevailed on Twitter that, in practice, shots are only fired when there is no other way. Saving bullits is the order of the day. Three should be enough. You think. Of course, I have also dealt with this topic in the last few weeks and tapped various sources, but in the end I could only register a shrug of the shoulders. Which brings us back to the comfort zone and what the board partners can live with quite well. Because even if something “new” is added, the old resources can still be used conveniently. 

GeForce RTX 3090 Super

Let’s start with the supposedly all-important performance crown. The GeForce RTX 3090 is fast and has significantly more memory than its direct competitor in the form of the Radeon RX 6900XT(X). The performance on the other hand, if you look at the computing power and the raster graphics, is not quite so clear (depending on the application). If AMD manages to shrink Navi 21 and maybe even conjure up a little more fire under the ass, then they simply take the GA102 full expansion of the RTX A6000 with 10,752 instead of 10,496 shaders and unleash it on the astonished clientele. Half the RAM compared to the pro card, but with 24GB of GDDR6X still faster for those who don’t need to take a full bath in memory expansion.

The effort is minimal for everyone involved, as the yield should have increased by now and no one even has to change anything. Same PCB including assembly, only the chip changes inside. The additional expense here is zero, if you exclude packaging and marketing. The board partners (AIC) do not even have to change the forecast, because everything is already planned. Thus, the rumored GeForce RTX 3090 tends to be a true replacement, completely replacing the current RTX 3090. It wouldn’t make sense to have them side by side anyway.

The timing and realization here are entirely up to AMD, and the likelihood of a boost increases to the extent that AMD manages to spruce up the RX 6900XT as a refresh. And the production changeover only takes as long as it takes to insert the new belt with the different chip, so a whopping 10 minutes should be more than enough.

 

GeForce RTX 3070 Super

Now Team Blue comes into play. Of course, with only 8 gigabytes you can’t do anything with NVIDIA, Master Jensen doesn’t even have to count the sugar cubes in his morning coffee. Since they peg the performance of the biggest upcoming ARC card at a GeForce RTX 3070 Ti (and Jensen’s spies have actually always been right), all you have to do is adjust the memory accordingly. Since the required 2GB modules are only available as GDDR6 without X and you don’t want to put on extra boards, you just continue to use the full version of the GA104 and only change the RAM. Here, too, only one belt is exchanged, on which the modules for SMD assembly snuggle comfortably together. Ten minutes, if that.

So again, the technical effort of AIC is exactly zero and you don’t need a pre-run either, because the GPU and memory are supplied by NVIDIA as a kit anyway. This would automatically make the RTX 3070 Ti obsolete, while the RTX 3070 could still be argued over. For the Forecast, it’s still the same boards and components as the RTX 3070 Ti, and the super card will surely be released just before Intel’s real launch. So the probability is very high, just-in-time anyway. And while we’re on the subject of Intel, another footnote may be of interest.

Intel will not be able to produce its own cards exclusively and alone, you need one or the other board partners. I don’t want to write about the pros and cons of being an exclusive board partner again, we’ve been through that before. Whereby the framework conditions for the respective partners (AIC at NVIDIA, AIB at AMD) will hardly change. However, the friendship shackles rings in the form of the GPP, which has meanwhile been cancelled again, are still in everyone’s memory and so both NVIDIA and AMD will already make sure that there will be no lateral jumps. To what extent contractual or monetary levers are applied here is decided, as always, by the carpet floor of the GPU manufacturers.

However, I wouldn’t be surprised if, in addition to the mixed producers Asus, Gigabyte and MSI, which are considered to be set, new companies would suddenly appear in the near future, whose sorting into existing company groups could be quite interesting. Giants, such as PC Partner, already have a rather elegant corporate construct that leaves all the loopholes open. While NVIDIA-exclusive brands like Zotac, Manli or inno3D are directly included, Sapphire is a completely independent company in its own company complex, which also indirectly acts as a contract manufacturer for AMD’s reference cards.

There one could install with security something similarly stored also with and/or for Intel. Just as a thought experiment…. And then there’s ASRock, who are currently AMD-exclusive, but shouldn’t really be happy when they look at their direct competitors and their combination options. Intel will have to solve all that, and Jensen will surely unpack various treats or even a sour drop or two to keep the friends nicely on track. Together with Lisa, of course, because it’s certainly more fun as a couple.

GeForce RTX 2060 12 GB

Finally, here we have the upcoming VW Beetle in Jensen’s VGA fleet. And runs and runs (and runs)…. But you’ll probably need Thor’s hammer to finally bury this thing at some point. Because a GeForce RTX 3050 Ti, as it was originally rumored, would probably have to beat Navi24 (which is still coming) gallantly. Raytracing hardly plays a role with these tiny devices anyway, then rather the memory. And because six isn’t sexy, Jensen’s gonna give you a slap on the wrist. RAM glut instead of innovation, it certainly pays off somehow.

With the old Turing card, Jensen has a real undead in the race that will be hard to bury by simple means as long as the current shortage situation continues. Not even garlic or Van Helsing will help against this zombie.

 

Kommentar

Lade neue Kommentare

HerrRossi

Urgestein

6,677 Kommentare 2,143 Likes

Wunderbar geschrieben :ROFLMAO: (y)

Antwort 5 Likes

D
Deridex

Urgestein

2,055 Kommentare 760 Likes

Der Meinung kann ich mich leider nicht anschließen.

Antwort Gefällt mir

big-maec

Veteran

360 Kommentare 194 Likes

Noch in der Komfortzone, aber man sollte sich nicht zu weit zurücklehnen sonst kracht die Rückenlehne weg.
Die anderen werden wie immer nachziehen, Stichwort Stapelspeicher bzw. CPU/GPU stapeln. Wie auch immer, einen Stillstand kann sich keiner leisten.

Antwort Gefällt mir

D
DavyB

Mitglied

50 Kommentare 34 Likes

Wie sinnvoll 12GB Ram bei einer 2060 sind wage ich doch zu hinterfragen. Bevor die annähernd gefüllt sind kotzt die Karte doch eh schon aus allen Löchern weil die Performance in den meisten neueren Spielen für FullHD nur mehr gerade so reicht.

Antwort 1 Like

grimm

Urgestein

2,380 Kommentare 1,471 Likes

Schöner Text. Klingt alles so plausibel wie deprimierend.

Antwort 1 Like

Igor Wallossek

Format©

7,847 Kommentare 13,515 Likes

Technisch gesehen ist das Nonsens, aber fürs Marketing pures Gold. 12 GB mit GDDR6 und 14 Gbps reichen völlig aus, damit Knut-Kevin im Mädchen-Markt seine Mutter kreischend in den Kauf treibt. :D

Antwort 5 Likes

Gurdi

Urgestein

1,339 Kommentare 858 Likes

Schöner Artikel, super aufgedröselt. Die 70er mit 16GB wäre eine sehr interessante Karte.

Antwort Gefällt mir

Arcaras

Mitglied

41 Kommentare 18 Likes

Keine Ahnung warum, aber immer wenn ich das Bild sehe, kommt mir spontan der Gedanke "warum trägt Jensen da Lippenstift?" o_O.

Antwort 1 Like

Igor Wallossek

Format©

7,847 Kommentare 13,515 Likes

Das ist der von Lisa ;)

Antwort 8 Likes

G
Guest

Wenn man bedenkt das heute FC6 raus ist und man auf einer 1200-1500 Euro Karte (Preise im Markt mal außen vor, ist eben so bei der 3080), nicht mehr voll aufdrehen kann hat sich NVidia mit seinem "Geiz ist geil für viel Marge" mal wieder selber aus der Komfortzone befördert. Vermutlich shrinken sie jetzt am Treiber und verlagern alles wenn möglich, in den RAM oder auf SSD. Was eine Ruckelshow auf UHD mit höchsten Texturen, da zuckt nicht mal die RX6800.

Wenn's Super kommt muss man wohl mehr Speicher drauf legen und genau deshalb kommen sie auch. Warten...

Light RT scheint den RX6000 auch nichts auszumachen, kein riesen Vorteil mehr für NVidia, wer hätte es gedacht? Was Devrel so alles ausmacht.:)

Froh locket wer eine RX des höheren Ranges schießen konnte, selbst die 3080ti sieht alt aus. Da muss man derzeit 2,5K in die Hand nehmen wenn es bei NVidia nicht ruckeln soll. Genau deshalb trägt Huang Lippenstift, alles richtig gemacht oder schei*egal, friss oder stirb Klingone.;)

*Falls sich jemand fragt, ersetzt höhere Bandbreite den festen Speicherausbau?: "nein tut es nicht, nirgends, das ist ein
Marketingmärchen".

*Achso, da war noch was: Artikel, die 6800XT(X) als Mitbewerberin der 3900? Hm, ob das stimmt? Besser RX6900XTX schreiben, nicht das Knut-Kevin seiner Mutter noch M*st erzählt, Vollausbau usw.. Davon gibt es sogar eine XTU.

Antwort 1 Like

Klicke zum Ausklappem
DrWandel

Mitglied

58 Kommentare 55 Likes

Warum ist die Radeon RX 6800XT die Konkurrenz für die 3090? Das ist doch eher die 6900XT, oder?

Und ja, das Konzept mit dem Speicher bei NVidia ist ein ziemliches Durcheinander und führt bestimmt in vielen Fällen bei Kunden zum "Verschaukelt vorkommen". Dieser Punkt scheint mir doch bei AMD wesentlich konsistenter gelöst zu sein. Na ja, ich habe Zeit zum Warten was sich da noch so alles tut (insbesondere beim Preis natürlich).

Antwort 3 Likes

G
Guest

Ich würde sogar soweit gehen das es die XTXH alias XTU ist. Denke mal die 3090 sind auch "gebinnt".

Antwort 3 Likes

Igor Wallossek

Format©

7,847 Kommentare 13,515 Likes

Kinder.... Tippfehler :D

Antwort 3 Likes

Corro Dedd

Urgestein

1,720 Kommentare 593 Likes

Ach ja, der Speicherausbau. Ich erinnere mich noch an einen Praktikanten damals, der sich eine GT 510 gekauft hat, aber mit 2GB Speicher und war voll davon überzeugt, dass die Karte richtig abgeht und damit echte Konkurrenz zu meiner damaligen GTX 570 mit "nur" 1280MB Speicher sei :D

Antwort 1 Like

Igor Wallossek

Format©

7,847 Kommentare 13,515 Likes

Ja, es gab mal so alberne Karten mit atemberaubenden 2GB Speicherausbau DDR3 im MM. gern auch in den Fertig-PCs mit einem echten Intel (Pentium). Bauernfang eben. Waren aber noch ein paar Generationen älter :D

Antwort 2 Likes

e
eastcoast_pete

Veteran

431 Kommentare 167 Likes

Und gekauft mit unserem Geld!

Antwort Gefällt mir

e
eastcoast_pete

Veteran

431 Kommentare 167 Likes

Die Situation ist eben die, daß es unterhalb der 3060 und unter € 400 kaum etwas zu kaufen gibt. Vielleicht hat NVIDIA auch ein Haufen 2060 Chips auf Halde? Ansonsten würde ein 2070 Super "Classic Edition" doch mehr Sinn machen, oder ist die dann zu nahe an der 3060 dran? Sowohl die 2060 als auch die 2070 (und Super) sind doch bei TSMC in 12 nm gefertigt, wenn ich es richtig weiß.

Antwort Gefällt mir

G
Guest

Nun ist es aber dass dritte Spiel in Folge wo bei der 3080 der VRAM vollläuft und "mit unserem Treiber shrinken wir euch die Texturen schön" ist auch albern. Nicht desto trotz, gibt es mehr Spiele die in UHD VRAM fordern und wenn ich Karten für UHD bewerbe sollten sie auch uneingeschränkt geeignet sein, war sogar 8K dabei (vor allem bei den Preisen derzeit). Ja wer's glaubt.

Zurücklehnen und abwarten, glaubt nur NVidia dass das reicht. Su wird auch ohne Lippenstift, gerade feixen. Aber man kann sich alles schönreden. Ich finde es nicht so lustig. Ein Shadow of the Tombaider hat damals schon 13GIB volllaufen lassen wenn man alles voll aufgedreht hat und das möchte ich bei 1,5K. Zumal ein NVidia optimiertes Spiel. Nachtigall ick hör dir trapsen.

Das Gute daran ist, Texturen kosten nichts, nur VRAM und hübschen zuweilen das Bild auf, es wird ruhiger und man kann damit genauso wie mit DLSS Konturen und den Detailgrad erhöhen, was in niedriger aufgelösten Masken dem Pixelraster zum Opfer fällt. Sag mir einer das lässt man wegen "Geiz ist geil" liegen?

Wenn es seinerzeit Spiele gegeben hätte die die 1,3GIB der GTX570 gefüllt hätten, hätte die neben einer Billigkarte wie der GT510 ziemlich alt ausgesehen. Da helfen mehr Transistoren nämlich gleich null. Von wegen Wechselwirkungsprinzip und so.

Antwort Gefällt mir

Klicke zum Ausklappem
g
gedi

Mitglied

32 Kommentare 5 Likes

Dann hätte er braune Lippen und ne Mundspülung parat - mehr wird er von Lisa nicht bekommen...

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

video display

video display