Grafikkarten News VGA

NVIDIA Ada Lovelace AD102 mit bis zu 2,2 GHz Takt, 384-Bit Interface samt GDDR6X und über 80 TFLOPs in 5nm?

Glaubt man dem neuesten Gerücht von Greymon55 auf Twitter, dann könnte NVIDIAs kommende Ada Lovelace AD102-GPU eine Taktrate von bis zu 2,2 GHz aufweisen. Es gab bereits einige Gerüchte über die NVIDIAs neue GPUs, insbesondere über die AD102 SKU. Sie wird das Flaggschiff der kommenden Grafikkarten, sowohl für Gamer als auch die Workstation-Nutzer. Sie wird damit auch Nachfolgerin der aktuellen GA102 GPU und als solche können wir definitiv einige interessante Spezifikationen erwarten.

Basierend auf früheren Gerüchten, gab es immer wieder Hinweise, dass NVIDIA den N5 (5nm) Prozessknoten von TSMC für die Ada Lovelace GPUs verwenden würde. Dies schließt auch die AD102 SKU ein, die auf ein komplett monolithisches Design setzen wird. In seinem jetzigen Tweet, in dem er auch über die spezifischen GPU-Konfigurationen schreibt, heißt es weiter, dass die AD102-GPU eine Taktrate von bis zu 2,2 GHz (oder höher) haben könnte.

Die AD102 GPU könnte 18432 CUDA Cores besitzen, folgt man den vorläufigen Spezifikationen aus Kopites Leak, was sich aber noch jederzeit ändern könnte. Das wären dann fast doppelt so viele Kerne wie bei Ampere, was wiederum ein gewaltiger Schritt nach vorne gegenüber Turing wäre. Die nun kolportierte Taktfrequenz von 2,2 GHz könnte eine Rechenleistung von bis zu 81 TFLOPs (FP32) ermöglichen, was am Ende mehr als als das Doppelte der Leistung einer jetzigen RTX 3090 bedeuten würde, die immerhin 36 TFLOPs an FP32-Rechenleistung bietet.

Der Leistungssprung von 125 % sieht natürlich erst einmal gewaltig aus, aber man sollte dabei auch nicht vergessen, dass NVIDIA in der aktuellen Generation mit Ampere bereits einen großen Sprung bei den FP32-Werten gemacht hat. Die GA102 GPU (RTX 3090) bietet 36 TFLOPs, während die Turing TU102 GPU (RTX 2080 Ti) noch 13 TFLOPs bot. Das ist sogar eine Steigerung von über 150 % bei den FP32-Flops, aber die reale Spielleistung der RTX 3090 ist im Durchschnitt nur in etwa 50-60 % schneller als die der RTX 2080 Ti.

Wir dürfen nie ausblenden, dass die FLOPS heutzutage nicht gleichbedeutend mit der tatsächlichen GPU-Gaming-Leistung sind. Außerdem weiß man ja (noch) nicht, ob 2,2 GHz der durchschnittliche Boost oder nur der Peak ist, wobei Ersteres bedeuten könnte, dass es vielleicht sogar noch ein noch höheres Rechenpotenzial für AD102 geben könnte. Abgesehen davon behauptet der Leaker auch, dass das NVIDIA GeForce RTX 40-Flaggschiff ein 384-Bit-Bus-Interface analog zur RTX 3090 beibehalten könnte

Interessant ist übrigens auch, dass der Leaker explizit „nur“ GDDR6X erwähnt, was bedeuten könnte, dass NVIDIA erst nach Ada Lovelace auf einen neuen Speicherstandard umsteigen könnte, die aktuellen Probleme mit der Kühlung inkludiert. Aber da lassen wir uns ja gern noch überraschen.

Quelle: Twitter

Kommentar

Lade neue Kommentare

grimm

Urgestein

2,428 Kommentare 1,537 Likes

Danke für die Infos. Wäre dann auch die Gen, die für mich interessant wird. Wobei ich mir sehr genau die Reports und Tests zur Kühlung der Komponenten ansehen werde. Die zieht ja dann wahrscheinlich schon @stock 350 Watt aus der Dose...

Antwort Gefällt mir

O
Oberst

Veteran

240 Kommentare 79 Likes

Darauf würde ich nicht wetten. In den Launch Reviews war die 3090 ja auch nur grob 45% schneller als Turing, hatte aber 30% mehr Verbrauch. Wenn man wirklich noch einmal so viel drauf setzen will, wird der Verbrauch auch wieder steigen müssen (die Fertigung macht einfach nicht mehr so große Schritte als früher). Vermutlich nicht um 30% (das wären ja auch aberwitzige 460W), aber ich würde eher auf um die 400W tippen. Entsprechend werden die OC Modelle dann Richtung 450W gehen. Da freut sich das Netzteil, die Peaks müssen dann erst mal gebügelt werden.:)
Aber bei AMD sieht's ja auch nicht anders aus, da wird der Verbrauch auch deutlich steigen.

Antwort Gefällt mir

Blubbie

Urgestein

792 Kommentare 268 Likes

Hmmm ich dachte die Entwicklung geht voran die Bauweise wird kleiner und stromsparender. Zumindest bei CPUs.

Stattdessen wird bei GPUs mit der Holzhammermethode immer mehr Saft aus der Dose gezogen...
. 🤔😢

Antwort 2 Likes

D
Deridex

Urgestein

2,071 Kommentare 769 Likes

Ich kann mir nicht vorstellen, dass das sparsam wird. Dementsprechend habe ich so langsam den Eindruck, dass ein Netzteil mit Drehstromanschluss für einen Gaming PC nicht mehr unrealistisch ist.

Antwort 5 Likes

N
Name

Mitglied

22 Kommentare 6 Likes

Interessant. Da kann ich ja fast froh sein das ich keine 3080 zu vernünftigen Preisen bekommen konnte. Nur doof finde ich den Stromverbrauch. Ich hoffe auf ein kleines Wunder, damit wir keine 400W+ Heizung bekommen. Gut im Winter wäre es nicht schlimm...
Ist schon was zu Speicherausbau "bekannt"? (Außer GDDR6x).

Antwort Gefällt mir

G
Guest

Das ist halt der Graus mit der FP32 Performance, so geht es Ampere teilweise ja auch. Wenn man sie nicht braucht fällt die Leistung auf Turing Niveau zurück. Heißt dann für Lovelace nichts anderes, wenn die vermeintliche OP Cudacore für FP32 steigt, steigt auch die Verbrauchsangabe. Leider...ich würde von 450W Stock ausgehen.

Ich halte die Angabe persönlich für einen Marketinggag, nur um den Leuten mitzuteilen die Anzahl der "Shader" sei gestiegen, ist sie aber nicht. Es können einfach nur mehr Rechenoperationen bei gleicher Shaderanzahl durchgeführt werden, die dann aufgrund ihrer Komplexität das Powerbuget höher auslasten. Es geht letztlich nur um Ersparnisse bei der Waferfläche weil die mittlerweile richtig teuer wird, aber diese Ersparnis für Verbraucher nicht richtig zu Buche schlägt. Muss man sich nur mal die Preisanstiege der letzten Jahre ansehen, wo die Hersteller ungefiltert und diesen Aufwand finanziell sowie mehrfach höher an die Verbraucher weiterreichen und sich eine goldene Nase verdienen, auf Basis das eine Einheit mehr Operationen ausführen kann, also eigentlich ein "unified" Shader ist wie ihn das Protokoll seit vielen Jahren fordert (Cuda ist dabei nichts weiter als eine Softwarebasis, das ist kein besonderer Shader).

Vor allem die Miner werden sich die Hände reiben...und mit ihren 6 Euro Adaptern Miningsperren lächelnd umgehen. Letztlich ist es etwas das sich das "Hash-Konsortium" wünscht, denn die hohen Verbräche machen das Netzwerk sicherer, weil Angreifer ungefähr die gleiche Energiemenge aufbringen müssten um in so einem Netzwerk Schaden anzurichten. Es wird also gezielt und explizit für Mining entwickelt und schon lange nicht mehr für Gamer. Daher werden auch die Verbräuche solcher Hardware steigen, solange wie Crytpo wertvoll bleibt. Da ist kaum ein Ende abzusehen, selbst wenn sich zwischenzeitlich oder kurzfristig der Markt wieder beruhigt.

*was recht interessant an der News ist, 384bit SI und damit kein VRAM Ausbau gegenüber Ampere? VRAM Geiz ist gar nicht mehr geil, wenn schon eine 3080 ins Limit rennt.:)

Antwort Gefällt mir

Klicke zum Ausklappem
Arcaras

Mitglied

41 Kommentare 18 Likes

Ein einzelner, noch komplexerer Chip? Da wird es wohl analog zur Leistungsaufnahme auch mit der UVP wieder nach oben gehen o_O.

Antwort Gefällt mir

e
eastcoast_pete

Veteran

456 Kommentare 178 Likes

Na toll, zwei von den Dingern (sofern erhältlich) und schon ist die Stromheizung für die Wohnung geregelt. Aber Mal im Ernst: dieses Wettrennen wird immer mehr zum Wattrennen. Jetzt gibt es professionelle Anwendungen die sowas vielleicht rechtfertigen, aber Fortschritt ist das trotzdem eher nicht. Ich (und viele andere) finden schon CPUs, die im Durchschnitt deutlich über 100 W/h ziehen, eher fragwürdig (here's looking at you, Intel Rocket Lake), aber diese GPUs marschieren ja unbeirrt auf 500 W+ zu, vom Kaufpreis ganz zu schweigen. Vielleicht wäre es an der Zeit, nach anderen, effizienteren Wegen zu suchen, um tolle Graphik auch unter 100 W/h hinzubekommen. Was gibt's denn da so?

Antwort Gefällt mir

grimm

Urgestein

2,428 Kommentare 1,537 Likes
g
gerTHW84

Veteran

390 Kommentare 231 Likes

Die Entwicklung geht ja faktisch auch mit relativ großen Schritten voran, nur missverstehst du die allgemeine Intention des Marktes, aber tröste dich, damit bist du nicht alleine. In Turing war das Topmodell die RTX 2080 Ti für 1100+ € und exemplarische 274 W in Borderlands 3 in 1440p. Die RTX 3070 kostet gerade mal die Hälfte *), hat selbst in reinem Rasterizing mehr Leistung (+8 %) und kommt mit gerade mal 223 W (-19 %) aus in dem Titel. Rechnet man das in Watt/Fps um, ist das Ampere-Modell deutlich effizienter mit 0,246 W/Fps vs. 2,978 W/Fps und dazu auch noch drastisch günstiger.

*) Die aktuell problematische Marktsituation mal außen vor, da die die Preise deutlich verzerrt. nVidia bringt das Modell sporadisch für 520 € an den Mann und die Frau.

Das Problem ist vielmehr vergleichbar zur NASA. Hier versucht man sich mit einem effizienteren und kostengünstigeren Design mit Musk, Bezos & Co einem besseren Spaceshuttle anzunähern, "der Markt" jedoch will sich damit nicht zufrieden geben und lieber gleich einen Sternzerstörer haben. ;-) Entsprechend versucht die Industrie dem nachzukommen und weil ein Sternzerstörer noch weit außerhalb ihrer Möglichkeiten liegt, pimpt man das leistungstechnisch zusätzlich mit moderner Super/Upsampling-Funktionalität, denn man will die Investitionspirale ja schließlich am Laufen halten.

**) Der N5 soll ggü. dem N7 im Best Case eine bis zu 30 % besser Power Efficiency ermöglichen. Der N5P (man weiß nicht, was nVidia und AMD hier verwenden werden) soll noch einmal bis zu 10 % beisteuern können i. V. z. N5.

Antwort 1 Like

Klicke zum Ausklappem
O
Oberst

Veteran

240 Kommentare 79 Likes

Beim Preis hast du natürlich (eigentlich) Recht, aber hinsichtlich der Effizienz kann man das nicht so pauschal sagen. Zum einen ist die 3070 FE NVidia's effizienteste Ampere Grafikkarte, die du mit einer der ineffizienteren Turing Karten vergleichst. Zum anderen ist in anderen Spielen Ampere nicht immer effizienter als Turing (z.B. in QHD in AC Odyssey, FC New Dawn oder Metro Exodus, SOTR, TW:3Kingdoms oder WWZ, siehe Launch Review der 3080).
Ampere hat bei der Effizienz einfach nicht so große Schritte gemacht, wie man das von früher gewohnt war. Aber das liegt halt auch an den immer kleineren Fortschritten in der Fertigung.

Antwort Gefällt mir

ArcusX

Urgestein

687 Kommentare 377 Likes

Oder anders formuliert, man hat sich sehr lange darauf konzentriert Stromersparnis durch Fertigungsprozesse zu erreichen, statt über effizientere Chipdesigns.

Dann geht die Softwareindustrie auch davon aus, dass immer mehr Leistung zur Verfügung steht und es wird zu wenig in Codeoptimierung investiert. Über kurz oder lang wird man sich von diesem Weg verabschieden müssen.

Antwort 2 Likes

H
Himmelhund83

Mitglied

22 Kommentare 6 Likes

Also ich glaube das es nur eine ca 35%ige Steigerung gegenüber dem Vorgänger geben wird, war doch bisher immer so

Diese 18432 CUDA Cores die benötigen doch viel mehr Strom, manch billige Designs laufen doch jetzt schon ins Temperaturlimit, noch heißer bei ca gleicher Chipfläche, wie will man das kühlen?

Wenn man die CUDA Kerne erhöht erhöht und erhöht, aber das Speicherinterface immer bei den 384bit lässt bringt das tatsächlich immer wirklich so viel? Wieso kein 512bit Interface ? Bei den Grafikkartenpreise müsste das doch locker drinnen sein

An stabile 144FPS in 4K bei allen Reglern rechts in sagen wir 20 verschiedenen Spielen glaube ich nicht

Ein Platinendesign das so gerade an präzise ist damit der berühmte Kühler mit der Wärmeleitpaste wieder passt, das wäre ein Hit

(Ich beziehe mich ausschließlich auf Gaming)

Antwort Gefällt mir

t
timbola

Mitglied

13 Kommentare 0 Likes

Wieviel Watt eine GPU am Ende zieht, ist mir eigentlich egal. Wichtig ist mir nur, dass die Leistung zumindest etwas stärker von Gen zu Gen ansteigt, dass somit die Perf/Watt immer besser wird.
Wenn ich zocken will, will ich die volle Grafikpracht eines Games genießen, das erfordert nun mal Leistung (jetzt mal unabhängig davon, dass man vlt auch effektiver Programmenieren könnte). Wenn die Grafikkarte das dann packt, begrenze ich die Fps auf 160 und damit geht ja auch der Verbrauch wieder runter, weil die GPU nicht ständig an 100% Last anklopft. Ja und sollte es dann doch dazukommen, naja dann ist das halt so, nur Nvidia und AMD die Schuld in die Schuhe zu schieben, ist auch falsch.
Wir wollen die Grafik, die Spielehersteller bieten die Möglichkeiten dafür und die GPU-Hersteller liefern nur das Mittel dafür...

Antwort Gefällt mir

O
Oberst

Veteran

240 Kommentare 79 Likes

Ein 512 Bit SI braucht mehr Platz auf dem Chip, bedeutet auch mehr Verbrauch (sowohl beim SI als auch bei den Speicherchips) und auch aufwändigere Platinen. Da würde man vermutlich eher auf HBM gehen. Und was ein gutes Cache System bringen kann, sieht man ja am Infinity Cache bei RDNA2. Die kann das recht schmale 256Bit SI ziemlich gut kaschieren. Vermutlich werden wir in Zukunft mehr solche Ansätze sehen.

Antwort Gefällt mir

Martin Gut

Urgestein

6,156 Kommentare 2,511 Likes

Das hoffe ich schon seit 30 Jahren. Aber bisher steigen die Ansprüche der Games immer mindestens so schnell wie die PC-Leistung.

Antwort Gefällt mir

S
Staarfury

Veteran

202 Kommentare 171 Likes

Wenn doch nur mal jemand auf die Idee gekommen wäre, Chips zur Abwechslung effizient zu designen. Klingt ja ganz einfach ;)

Realistischerweise sind mit reiner Optimierung halt einfach niemals die grossen Sprünge möglich, die durch verbesserte Fertigungsprozesse ermöglicht werden. Der Effekt der kontinuierlichen Optimierung fällt da schlicht und einfach kaum auf.

Antwort Gefällt mir

ArcusX

Urgestein

687 Kommentare 377 Likes

Es ist alles ein Frage von Kosten und Nutzen. Und bisher war es für die Hersteller einfacher und günstiger auf bessere Fertigugnsprozesse zu setzen, anstatt in Design zu investieren. Dies wird sich ändern müssen wenn nicht immer größere und stromhungrigere Chips auf die Kunden losgelassen werden sollen. Man arbeitet eher mit der Brechstange: Viel hilft viel. Viel mehr CUDA Cores viel mehr Strom.

Antwort Gefällt mir

O
Oberst

Veteran

240 Kommentare 79 Likes

Naja, das geht durchaus, aber halt nicht mit jeder neuer Generation. Bei NVidia ist da z.B. Maxwell zu nennen. 30% schneller als der Vorgänger bei gleicher Fertigung und gleicher TDP (780TI gegen 980TI). Und bei AMD RDNA2. Die 6800 braucht weniger als eine 5700XT, ist aber deutlich schneller (gerne mal bis 50%). Und eigentlich kann man da sogar noch die Radeon VII mit rein nehmen, die hatte ja auch 7nm TSMC Fertigung.
Aber AMD hat da halt auch massiv an den Shadern und am Cache System umgebaut. Das kostet halt auch viel Geld, so zu optimieren und AMD hatte halt auch noch gut Luft nach oben (Vega war halt auch nicht gerade effizient im Gaming und RDNA1 hat nicht alles neu machen können).

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung