Grafikkarten News VGA

NVIDIA Ada Lovelace AD102 mit bis zu 2,2 GHz Takt, 384-Bit Interface samt GDDR6X und über 80 TFLOPs in 5nm?

Glaubt man dem neuesten Gerücht von Greymon55 auf Twitter, dann könnte NVIDIAs kommende Ada Lovelace AD102-GPU eine Taktrate von bis zu 2,2 GHz aufweisen. Es gab bereits einige Gerüchte über die NVIDIAs neue GPUs, insbesondere über die AD102 SKU. Sie wird das Flaggschiff der kommenden Grafikkarten, sowohl für Gamer als auch die Workstation-Nutzer. Sie wird damit auch Nachfolgerin der aktuellen GA102 GPU und als solche können wir definitiv einige interessante Spezifikationen erwarten.

Basierend auf früheren Gerüchten, gab es immer wieder Hinweise, dass NVIDIA den N5 (5nm) Prozessknoten von TSMC für die Ada Lovelace GPUs verwenden würde. Dies schließt auch die AD102 SKU ein, die auf ein komplett monolithisches Design setzen wird. In seinem jetzigen Tweet, in dem er auch über die spezifischen GPU-Konfigurationen schreibt, heißt es weiter, dass die AD102-GPU eine Taktrate von bis zu 2,2 GHz (oder höher) haben könnte.

Die AD102 GPU könnte 18432 CUDA Cores besitzen, folgt man den vorläufigen Spezifikationen aus Kopites Leak, was sich aber noch jederzeit ändern könnte. Das wären dann fast doppelt so viele Kerne wie bei Ampere, was wiederum ein gewaltiger Schritt nach vorne gegenüber Turing wäre. Die nun kolportierte Taktfrequenz von 2,2 GHz könnte eine Rechenleistung von bis zu 81 TFLOPs (FP32) ermöglichen, was am Ende mehr als als das Doppelte der Leistung einer jetzigen RTX 3090 bedeuten würde, die immerhin 36 TFLOPs an FP32-Rechenleistung bietet.

Der Leistungssprung von 125 % sieht natürlich erst einmal gewaltig aus, aber man sollte dabei auch nicht vergessen, dass NVIDIA in der aktuellen Generation mit Ampere bereits einen großen Sprung bei den FP32-Werten gemacht hat. Die GA102 GPU (RTX 3090) bietet 36 TFLOPs, während die Turing TU102 GPU (RTX 2080 Ti) noch 13 TFLOPs bot. Das ist sogar eine Steigerung von über 150 % bei den FP32-Flops, aber die reale Spielleistung der RTX 3090 ist im Durchschnitt nur in etwa 50-60 % schneller als die der RTX 2080 Ti.

Wir dürfen nie ausblenden, dass die FLOPS heutzutage nicht gleichbedeutend mit der tatsächlichen GPU-Gaming-Leistung sind. Außerdem weiß man ja (noch) nicht, ob 2,2 GHz der durchschnittliche Boost oder nur der Peak ist, wobei Ersteres bedeuten könnte, dass es vielleicht sogar noch ein noch höheres Rechenpotenzial für AD102 geben könnte. Abgesehen davon behauptet der Leaker auch, dass das NVIDIA GeForce RTX 40-Flaggschiff ein 384-Bit-Bus-Interface analog zur RTX 3090 beibehalten könnte

Interessant ist übrigens auch, dass der Leaker explizit “nur” GDDR6X erwähnt, was bedeuten könnte, dass NVIDIA erst nach Ada Lovelace auf einen neuen Speicherstandard umsteigen könnte, die aktuellen Probleme mit der Kühlung inkludiert. Aber da lassen wir uns ja gern noch überraschen.

Quelle: Twitter

Lade neue Kommentare

grimm

Urgestein

1,488 Kommentare 648 Likes

Danke für die Infos. Wäre dann auch die Gen, die für mich interessant wird. Wobei ich mir sehr genau die Reports und Tests zur Kühlung der Komponenten ansehen werde. Die zieht ja dann wahrscheinlich schon @stock 350 Watt aus der Dose...

Antwort Gefällt mir

O
Oberst

Veteran

175 Kommentare 46 Likes

Darauf würde ich nicht wetten. In den Launch Reviews war die 3090 ja auch nur grob 45% schneller als Turing, hatte aber 30% mehr Verbrauch. Wenn man wirklich noch einmal so viel drauf setzen will, wird der Verbrauch auch wieder steigen müssen (die Fertigung macht einfach nicht mehr so große Schritte als früher). Vermutlich nicht um 30% (das wären ja auch aberwitzige 460W), aber ich würde eher auf um die 400W tippen. Entsprechend werden die OC Modelle dann Richtung 450W gehen. Da freut sich das Netzteil, die Peaks müssen dann erst mal gebügelt werden.:)
Aber bei AMD sieht's ja auch nicht anders aus, da wird der Verbrauch auch deutlich steigen.

Antwort Gefällt mir

Blubbie

Urgestein

732 Kommentare 232 Likes

Hmmm ich dachte die Entwicklung geht voran die Bauweise wird kleiner und stromsparender. Zumindest bei CPUs.

Stattdessen wird bei GPUs mit der Holzhammermethode immer mehr Saft aus der Dose gezogen...
. 🤔😢

Antwort 2 Likes

D
Deridex

Urgestein

1,709 Kommentare 532 Likes

Ich kann mir nicht vorstellen, dass das sparsam wird. Dementsprechend habe ich so langsam den Eindruck, dass ein Netzteil mit Drehstromanschluss für einen Gaming PC nicht mehr unrealistisch ist.

Antwort 5 Likes

N
Name

Mitglied

12 Kommentare 0 Likes

Interessant. Da kann ich ja fast froh sein das ich keine 3080 zu vernünftigen Preisen bekommen konnte. Nur doof finde ich den Stromverbrauch. Ich hoffe auf ein kleines Wunder, damit wir keine 400W+ Heizung bekommen. Gut im Winter wäre es nicht schlimm...
Ist schon was zu Speicherausbau "bekannt"? (Außer GDDR6x).

Antwort Gefällt mir

G
Guest

Das ist halt der Graus mit der FP32 Performance, so geht es Ampere teilweise ja auch. Wenn man sie nicht braucht fällt die Leistung auf Turing Niveau zurück. Heißt dann für Lovelace nichts anderes, wenn die vermeintliche OP Cudacore für FP32 steigt, steigt auch die Verbrauchsangabe. Leider...ich würde von 450W Stock ausgehen.

Ich halte die Angabe persönlich für einen Marketinggag, nur um den Leuten mitzuteilen die Anzahl der "Shader" sei gestiegen, ist sie aber nicht. Es können einfach nur mehr Rechenoperationen bei gleicher Shaderanzahl durchgeführt werden, die dann aufgrund ihrer Komplexität das Powerbuget höher auslasten. Es geht letztlich nur um Ersparnisse bei der Waferfläche weil die mittlerweile richtig teuer wird, aber diese Ersparnis für Verbraucher nicht richtig zu Buche schlägt. Muss man sich nur mal die Preisanstiege der letzten Jahre ansehen, wo die Hersteller ungefiltert und diesen Aufwand finanziell sowie mehrfach höher an die Verbraucher weiterreichen und sich eine goldene Nase verdienen, auf Basis das eine Einheit mehr Operationen ausführen kann, also eigentlich ein "unified" Shader ist wie ihn das Protokoll seit vielen Jahren fordert (Cuda ist dabei nichts weiter als eine Softwarebasis, das ist kein besonderer Shader).

Vor allem die Miner werden sich die Hände reiben...und mit ihren 6 Euro Adaptern Miningsperren lächelnd umgehen. Letztlich ist es etwas das sich das "Hash-Konsortium" wünscht, denn die hohen Verbräche machen das Netzwerk sicherer, weil Angreifer ungefähr die gleiche Energiemenge aufbringen müssten um in so einem Netzwerk Schaden anzurichten. Es wird also gezielt und explizit für Mining entwickelt und schon lange nicht mehr für Gamer. Daher werden auch die Verbräuche solcher Hardware steigen, solange wie Crytpo wertvoll bleibt. Da ist kaum ein Ende abzusehen, selbst wenn sich zwischenzeitlich oder kurzfristig der Markt wieder beruhigt.

*was recht interessant an der News ist, 384bit SI und damit kein VRAM Ausbau gegenüber Ampere? VRAM Geiz ist gar nicht mehr geil, wenn schon eine 3080 ins Limit rennt.:)

Antwort Gefällt mir

Klicke zum Ausklappem
Arcaras

Mitglied

23 Kommentare 10 Likes

Ein einzelner, noch komplexerer Chip? Da wird es wohl analog zur Leistungsaufnahme auch mit der UVP wieder nach oben gehen o_O.

Antwort Gefällt mir

e
eastcoast_pete

Veteran

229 Kommentare 55 Likes

Na toll, zwei von den Dingern (sofern erhältlich) und schon ist die Stromheizung für die Wohnung geregelt. Aber Mal im Ernst: dieses Wettrennen wird immer mehr zum Wattrennen. Jetzt gibt es professionelle Anwendungen die sowas vielleicht rechtfertigen, aber Fortschritt ist das trotzdem eher nicht. Ich (und viele andere) finden schon CPUs, die im Durchschnitt deutlich über 100 W/h ziehen, eher fragwürdig (here's looking at you, Intel Rocket Lake), aber diese GPUs marschieren ja unbeirrt auf 500 W+ zu, vom Kaufpreis ganz zu schweigen. Vielleicht wäre es an der Zeit, nach anderen, effizienteren Wegen zu suchen, um tolle Graphik auch unter 100 W/h hinzubekommen. Was gibt's denn da so?

Antwort Gefällt mir

grimm

Urgestein

1,488 Kommentare 648 Likes
g
gerTHW84

Veteran

383 Kommentare 230 Likes

Die Entwicklung geht ja faktisch auch mit relativ großen Schritten voran, nur missverstehst du die allgemeine Intention des Marktes, aber tröste dich, damit bist du nicht alleine. In Turing war das Topmodell die RTX 2080 Ti für 1100+ € und exemplarische 274 W in Borderlands 3 in 1440p. Die RTX 3070 kostet gerade mal die Hälfte *), hat selbst in reinem Rasterizing mehr Leistung (+8 %) und kommt mit gerade mal 223 W (-19 %) aus in dem Titel. Rechnet man das in Watt/Fps um, ist das Ampere-Modell deutlich effizienter mit 0,246 W/Fps vs. 2,978 W/Fps und dazu auch noch drastisch günstiger.

*) Die aktuell problematische Marktsituation mal außen vor, da die die Preise deutlich verzerrt. nVidia bringt das Modell sporadisch für 520 € an den Mann und die Frau.

Das Problem ist vielmehr vergleichbar zur NASA. Hier versucht man sich mit einem effizienteren und kostengünstigeren Design mit Musk, Bezos & Co einem besseren Spaceshuttle anzunähern, "der Markt" jedoch will sich damit nicht zufrieden geben und lieber gleich einen Sternzerstörer haben. ;-) Entsprechend versucht die Industrie dem nachzukommen und weil ein Sternzerstörer noch weit außerhalb ihrer Möglichkeiten liegt, pimpt man das leistungstechnisch zusätzlich mit moderner Super/Upsampling-Funktionalität, denn man will die Investitionspirale ja schließlich am Laufen halten.

**) Der N5 soll ggü. dem N7 im Best Case eine bis zu 30 % besser Power Efficiency ermöglichen. Der N5P (man weiß nicht, was nVidia und AMD hier verwenden werden) soll noch einmal bis zu 10 % beisteuern können i. V. z. N5.

Antwort 1 Like

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung