GPUs Graphics Latest news

NVIDIA Ada Lovelace AD102 with up to 2.2 GHz clock, 384-bit interface including GDDR6X and over 80 TFLOPs in 5nm?

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

If the latest rumor from Greymon55 on Twitter is to be believed, NVIDIA’s upcoming Ada Lovelace AD102 GPU could feature a clock speed of up to 2.2 GHz. There have already been some rumors about NVIDIA’s new GPUs, especially the AD102 SKU. It will be the flagship of the upcoming graphics cards, both for gamers and the workstation users. It will also be the successor to the current GA102 GPU and as such, we can definitely expect some interesting specs.

Based on previous rumors, there have been repeated hints that NVIDIA would use TSMC’s N5 (5nm) process node for the Ada Lovelace GPUs. This includes the AD102 SKU, which will rely on a completely monolithic design. His current tweet, which also writes about the specific GPU configurations, goes on to say that the AD102 GPU could have a clock speed of up to 2.2 GHz (or higher).

The AD102 GPU could have 18432 CUDA cores, following the preliminary specs from Kopite’s leak, but this could still change at any time. That would be almost twice as many cores as Ampere, which again would be a huge step up from Turing. The now rumored 2.2 GHz clock speed could enable up to 81 TFLOPs (FP32) of computing power, which would end up being more than double the performance of a current RTX 3090, which still offers 36 TFLOPs of FP32 computing power.

The 125% jump in performance looks huge at first, of course, but it’s also important to remember that NVIDIA has already made a big jump in FP32s in the current generation with Ampere. The GA102 GPU (RTX 3090) offers 36 TFLOPs, while the Turing TU102 GPU (RTX 2080 Ti) still offered 13 TFLOPs. That’s actually an increase of over 150% in FP32 flops, but the RTX 3090’s real-world gaming performance is only about 50-60% faster than the RTX 2080 Ti on average.

We must never hide the fact that FLOPS is not synonymous with actual GPU gaming performance these days. Besides, we don’t know (yet) if 2.2 GHz is the average boost or just the peak, whereas the former could mean that there might be even higher computing potential for AD102. Apart from that, the leaker also claims that the NVIDIA GeForce RTX 40 flagship could retain a 384-bit bus interface analogous to the RTX 3090

By the way, it is also interesting that the leaker explicitly mentions “only” GDDR6X, which could mean that NVIDIA could only switch to a new memory standard after Ada Lovelace, including the current problems with cooling. But we’re still in for a surprise.

Source: Twitter

Kommentar

Lade neue Kommentare

grimm

Urgestein

3,228 Kommentare 2,168 Likes

Danke für die Infos. Wäre dann auch die Gen, die für mich interessant wird. Wobei ich mir sehr genau die Reports und Tests zur Kühlung der Komponenten ansehen werde. Die zieht ja dann wahrscheinlich schon @stock 350 Watt aus der Dose...

Antwort Gefällt mir

O
Oberst

Veteran

350 Kommentare 143 Likes

Darauf würde ich nicht wetten. In den Launch Reviews war die 3090 ja auch nur grob 45% schneller als Turing, hatte aber 30% mehr Verbrauch. Wenn man wirklich noch einmal so viel drauf setzen will, wird der Verbrauch auch wieder steigen müssen (die Fertigung macht einfach nicht mehr so große Schritte als früher). Vermutlich nicht um 30% (das wären ja auch aberwitzige 460W), aber ich würde eher auf um die 400W tippen. Entsprechend werden die OC Modelle dann Richtung 450W gehen. Da freut sich das Netzteil, die Peaks müssen dann erst mal gebügelt werden.:)
Aber bei AMD sieht's ja auch nicht anders aus, da wird der Verbrauch auch deutlich steigen.

Antwort Gefällt mir

Blubbie

Urgestein

809 Kommentare 275 Likes

Hmmm ich dachte die Entwicklung geht voran die Bauweise wird kleiner und stromsparender. Zumindest bei CPUs.

Stattdessen wird bei GPUs mit der Holzhammermethode immer mehr Saft aus der Dose gezogen...
. 🤔😢

Antwort 2 Likes

D
Deridex

Urgestein

2,226 Kommentare 860 Likes

Ich kann mir nicht vorstellen, dass das sparsam wird. Dementsprechend habe ich so langsam den Eindruck, dass ein Netzteil mit Drehstromanschluss für einen Gaming PC nicht mehr unrealistisch ist.

Antwort 5 Likes

N
Name

Mitglied

75 Kommentare 14 Likes

Interessant. Da kann ich ja fast froh sein das ich keine 3080 zu vernünftigen Preisen bekommen konnte. Nur doof finde ich den Stromverbrauch. Ich hoffe auf ein kleines Wunder, damit wir keine 400W+ Heizung bekommen. Gut im Winter wäre es nicht schlimm...
Ist schon was zu Speicherausbau "bekannt"? (Außer GDDR6x).

Antwort Gefällt mir

G
Guest

Das ist halt der Graus mit der FP32 Performance, so geht es Ampere teilweise ja auch. Wenn man sie nicht braucht fällt die Leistung auf Turing Niveau zurück. Heißt dann für Lovelace nichts anderes, wenn die vermeintliche OP Cudacore für FP32 steigt, steigt auch die Verbrauchsangabe. Leider...ich würde von 450W Stock ausgehen.

Ich halte die Angabe persönlich für einen Marketinggag, nur um den Leuten mitzuteilen die Anzahl der "Shader" sei gestiegen, ist sie aber nicht. Es können einfach nur mehr Rechenoperationen bei gleicher Shaderanzahl durchgeführt werden, die dann aufgrund ihrer Komplexität das Powerbuget höher auslasten. Es geht letztlich nur um Ersparnisse bei der Waferfläche weil die mittlerweile richtig teuer wird, aber diese Ersparnis für Verbraucher nicht richtig zu Buche schlägt. Muss man sich nur mal die Preisanstiege der letzten Jahre ansehen, wo die Hersteller ungefiltert und diesen Aufwand finanziell sowie mehrfach höher an die Verbraucher weiterreichen und sich eine goldene Nase verdienen, auf Basis das eine Einheit mehr Operationen ausführen kann, also eigentlich ein "unified" Shader ist wie ihn das Protokoll seit vielen Jahren fordert (Cuda ist dabei nichts weiter als eine Softwarebasis, das ist kein besonderer Shader).

Vor allem die Miner werden sich die Hände reiben...und mit ihren 6 Euro Adaptern Miningsperren lächelnd umgehen. Letztlich ist es etwas das sich das "Hash-Konsortium" wünscht, denn die hohen Verbräche machen das Netzwerk sicherer, weil Angreifer ungefähr die gleiche Energiemenge aufbringen müssten um in so einem Netzwerk Schaden anzurichten. Es wird also gezielt und explizit für Mining entwickelt und schon lange nicht mehr für Gamer. Daher werden auch die Verbräuche solcher Hardware steigen, solange wie Crytpo wertvoll bleibt. Da ist kaum ein Ende abzusehen, selbst wenn sich zwischenzeitlich oder kurzfristig der Markt wieder beruhigt.

*was recht interessant an der News ist, 384bit SI und damit kein VRAM Ausbau gegenüber Ampere? VRAM Geiz ist gar nicht mehr geil, wenn schon eine 3080 ins Limit rennt.:)

Antwort Gefällt mir

Klicke zum Ausklappem
Arcaras

Mitglied

65 Kommentare 23 Likes

Ein einzelner, noch komplexerer Chip? Da wird es wohl analog zur Leistungsaufnahme auch mit der UVP wieder nach oben gehen o_O.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,816 Kommentare 1,138 Likes

Na toll, zwei von den Dingern (sofern erhältlich) und schon ist die Stromheizung für die Wohnung geregelt. Aber Mal im Ernst: dieses Wettrennen wird immer mehr zum Wattrennen. Jetzt gibt es professionelle Anwendungen die sowas vielleicht rechtfertigen, aber Fortschritt ist das trotzdem eher nicht. Ich (und viele andere) finden schon CPUs, die im Durchschnitt deutlich über 100 W/h ziehen, eher fragwürdig (here's looking at you, Intel Rocket Lake), aber diese GPUs marschieren ja unbeirrt auf 500 W+ zu, vom Kaufpreis ganz zu schweigen. Vielleicht wäre es an der Zeit, nach anderen, effizienteren Wegen zu suchen, um tolle Graphik auch unter 100 W/h hinzubekommen. Was gibt's denn da so?

Antwort Gefällt mir

grimm

Urgestein

3,228 Kommentare 2,168 Likes
g
gerTHW84

Veteran

414 Kommentare 254 Likes

Die Entwicklung geht ja faktisch auch mit relativ großen Schritten voran, nur missverstehst du die allgemeine Intention des Marktes, aber tröste dich, damit bist du nicht alleine. In Turing war das Topmodell die RTX 2080 Ti für 1100+ € und exemplarische 274 W in Borderlands 3 in 1440p. Die RTX 3070 kostet gerade mal die Hälfte *), hat selbst in reinem Rasterizing mehr Leistung (+8 %) und kommt mit gerade mal 223 W (-19 %) aus in dem Titel. Rechnet man das in Watt/Fps um, ist das Ampere-Modell deutlich effizienter mit 0,246 W/Fps vs. 2,978 W/Fps und dazu auch noch drastisch günstiger.

*) Die aktuell problematische Marktsituation mal außen vor, da die die Preise deutlich verzerrt. nVidia bringt das Modell sporadisch für 520 € an den Mann und die Frau.

Das Problem ist vielmehr vergleichbar zur NASA. Hier versucht man sich mit einem effizienteren und kostengünstigeren Design mit Musk, Bezos & Co einem besseren Spaceshuttle anzunähern, "der Markt" jedoch will sich damit nicht zufrieden geben und lieber gleich einen Sternzerstörer haben. ;-) Entsprechend versucht die Industrie dem nachzukommen und weil ein Sternzerstörer noch weit außerhalb ihrer Möglichkeiten liegt, pimpt man das leistungstechnisch zusätzlich mit moderner Super/Upsampling-Funktionalität, denn man will die Investitionspirale ja schließlich am Laufen halten.

**) Der N5 soll ggü. dem N7 im Best Case eine bis zu 30 % besser Power Efficiency ermöglichen. Der N5P (man weiß nicht, was nVidia und AMD hier verwenden werden) soll noch einmal bis zu 10 % beisteuern können i. V. z. N5.

Antwort 1 Like

Klicke zum Ausklappem
O
Oberst

Veteran

350 Kommentare 143 Likes

Beim Preis hast du natürlich (eigentlich) Recht, aber hinsichtlich der Effizienz kann man das nicht so pauschal sagen. Zum einen ist die 3070 FE NVidia's effizienteste Ampere Grafikkarte, die du mit einer der ineffizienteren Turing Karten vergleichst. Zum anderen ist in anderen Spielen Ampere nicht immer effizienter als Turing (z.B. in QHD in AC Odyssey, FC New Dawn oder Metro Exodus, SOTR, TW:3Kingdoms oder WWZ, siehe Launch Review der 3080).
Ampere hat bei der Effizienz einfach nicht so große Schritte gemacht, wie man das von früher gewohnt war. Aber das liegt halt auch an den immer kleineren Fortschritten in der Fertigung.

Antwort Gefällt mir

ArcusX

Urgestein

921 Kommentare 540 Likes

Oder anders formuliert, man hat sich sehr lange darauf konzentriert Stromersparnis durch Fertigungsprozesse zu erreichen, statt über effizientere Chipdesigns.

Dann geht die Softwareindustrie auch davon aus, dass immer mehr Leistung zur Verfügung steht und es wird zu wenig in Codeoptimierung investiert. Über kurz oder lang wird man sich von diesem Weg verabschieden müssen.

Antwort 2 Likes

H
Himmelhund83

Mitglied

25 Kommentare 7 Likes

Also ich glaube das es nur eine ca 35%ige Steigerung gegenüber dem Vorgänger geben wird, war doch bisher immer so

Diese 18432 CUDA Cores die benötigen doch viel mehr Strom, manch billige Designs laufen doch jetzt schon ins Temperaturlimit, noch heißer bei ca gleicher Chipfläche, wie will man das kühlen?

Wenn man die CUDA Kerne erhöht erhöht und erhöht, aber das Speicherinterface immer bei den 384bit lässt bringt das tatsächlich immer wirklich so viel? Wieso kein 512bit Interface ? Bei den Grafikkartenpreise müsste das doch locker drinnen sein

An stabile 144FPS in 4K bei allen Reglern rechts in sagen wir 20 verschiedenen Spielen glaube ich nicht

Ein Platinendesign das so gerade an präzise ist damit der berühmte Kühler mit der Wärmeleitpaste wieder passt, das wäre ein Hit

(Ich beziehe mich ausschließlich auf Gaming)

Antwort Gefällt mir

t
timbola

Mitglied

14 Kommentare 0 Likes

Wieviel Watt eine GPU am Ende zieht, ist mir eigentlich egal. Wichtig ist mir nur, dass die Leistung zumindest etwas stärker von Gen zu Gen ansteigt, dass somit die Perf/Watt immer besser wird.
Wenn ich zocken will, will ich die volle Grafikpracht eines Games genießen, das erfordert nun mal Leistung (jetzt mal unabhängig davon, dass man vlt auch effektiver Programmenieren könnte). Wenn die Grafikkarte das dann packt, begrenze ich die Fps auf 160 und damit geht ja auch der Verbrauch wieder runter, weil die GPU nicht ständig an 100% Last anklopft. Ja und sollte es dann doch dazukommen, naja dann ist das halt so, nur Nvidia und AMD die Schuld in die Schuhe zu schieben, ist auch falsch.
Wir wollen die Grafik, die Spielehersteller bieten die Möglichkeiten dafür und die GPU-Hersteller liefern nur das Mittel dafür...

Antwort Gefällt mir

O
Oberst

Veteran

350 Kommentare 143 Likes

Ein 512 Bit SI braucht mehr Platz auf dem Chip, bedeutet auch mehr Verbrauch (sowohl beim SI als auch bei den Speicherchips) und auch aufwändigere Platinen. Da würde man vermutlich eher auf HBM gehen. Und was ein gutes Cache System bringen kann, sieht man ja am Infinity Cache bei RDNA2. Die kann das recht schmale 256Bit SI ziemlich gut kaschieren. Vermutlich werden wir in Zukunft mehr solche Ansätze sehen.

Antwort Gefällt mir

Martin Gut

Urgestein

8,118 Kommentare 3,824 Likes

Das hoffe ich schon seit 30 Jahren. Aber bisher steigen die Ansprüche der Games immer mindestens so schnell wie die PC-Leistung.

Antwort Gefällt mir

S
Staarfury

Veteran

258 Kommentare 206 Likes

Wenn doch nur mal jemand auf die Idee gekommen wäre, Chips zur Abwechslung effizient zu designen. Klingt ja ganz einfach ;)

Realistischerweise sind mit reiner Optimierung halt einfach niemals die grossen Sprünge möglich, die durch verbesserte Fertigungsprozesse ermöglicht werden. Der Effekt der kontinuierlichen Optimierung fällt da schlicht und einfach kaum auf.

Antwort Gefällt mir

ArcusX

Urgestein

921 Kommentare 540 Likes

Es ist alles ein Frage von Kosten und Nutzen. Und bisher war es für die Hersteller einfacher und günstiger auf bessere Fertigugnsprozesse zu setzen, anstatt in Design zu investieren. Dies wird sich ändern müssen wenn nicht immer größere und stromhungrigere Chips auf die Kunden losgelassen werden sollen. Man arbeitet eher mit der Brechstange: Viel hilft viel. Viel mehr CUDA Cores viel mehr Strom.

Antwort Gefällt mir

O
Oberst

Veteran

350 Kommentare 143 Likes

Naja, das geht durchaus, aber halt nicht mit jeder neuer Generation. Bei NVidia ist da z.B. Maxwell zu nennen. 30% schneller als der Vorgänger bei gleicher Fertigung und gleicher TDP (780TI gegen 980TI). Und bei AMD RDNA2. Die 6800 braucht weniger als eine 5700XT, ist aber deutlich schneller (gerne mal bis 50%). Und eigentlich kann man da sogar noch die Radeon VII mit rein nehmen, die hatte ja auch 7nm TSMC Fertigung.
Aber AMD hat da halt auch massiv an den Shadern und am Cache System umgebaut. Das kostet halt auch viel Geld, so zu optimieren und AMD hatte halt auch noch gut Luft nach oben (Vega war halt auch nicht gerade effizient im Gaming und RDNA1 hat nicht alles neu machen können).

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung