News NVIDIA Ada Lovelace AD102 mit bis zu 2,2 GHz Takt, 384-Bit Interface samt GDDR6X und über 80 TFLOPs in 5nm?

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.477
Punkte
1
Standort
Redaktion
Glaubt man dem neuesten Gerücht von Greymon55 auf Twitter, dann könnte NVIDIAs kommende Ada Lovelace AD102-GPU eine Taktrate von bis zu 2,2 GHz aufweisen. Es gab bereits einige Gerüchte über die NVIDIAs neue GPUs, insbesondere über die AD102 SKU. Sie wird das Flaggschiff der kommenden Grafikkarten, sowohl für Gamer als auch die Workstation-Nutzer. Sie wird […]

Hier den ganzen Artikel lesen
 
Zuletzt bearbeitet von einem Moderator :
Danke für die Infos. Wäre dann auch die Gen, die für mich interessant wird. Wobei ich mir sehr genau die Reports und Tests zur Kühlung der Komponenten ansehen werde. Die zieht ja dann wahrscheinlich schon @stock 350 Watt aus der Dose...
 
Die zieht ja dann wahrscheinlich schon @stock 350 Watt aus der Dose...
Darauf würde ich nicht wetten. In den Launch Reviews war die 3090 ja auch nur grob 45% schneller als Turing, hatte aber 30% mehr Verbrauch. Wenn man wirklich noch einmal so viel drauf setzen will, wird der Verbrauch auch wieder steigen müssen (die Fertigung macht einfach nicht mehr so große Schritte als früher). Vermutlich nicht um 30% (das wären ja auch aberwitzige 460W), aber ich würde eher auf um die 400W tippen. Entsprechend werden die OC Modelle dann Richtung 450W gehen. Da freut sich das Netzteil, die Peaks müssen dann erst mal gebügelt werden.:)
Aber bei AMD sieht's ja auch nicht anders aus, da wird der Verbrauch auch deutlich steigen.
 
Hmmm ich dachte die Entwicklung geht voran die Bauweise wird kleiner und stromsparender. Zumindest bei CPUs.

Stattdessen wird bei GPUs mit der Holzhammermethode immer mehr Saft aus der Dose gezogen...
. 🤔😢
 
Ich kann mir nicht vorstellen, dass das sparsam wird. Dementsprechend habe ich so langsam den Eindruck, dass ein Netzteil mit Drehstromanschluss für einen Gaming PC nicht mehr unrealistisch ist.
 
Interessant. Da kann ich ja fast froh sein das ich keine 3080 zu vernünftigen Preisen bekommen konnte. Nur doof finde ich den Stromverbrauch. Ich hoffe auf ein kleines Wunder, damit wir keine 400W+ Heizung bekommen. Gut im Winter wäre es nicht schlimm...
Ist schon was zu Speicherausbau "bekannt"? (Außer GDDR6x).
 
Das ist halt der Graus mit der FP32 Performance, so geht es Ampere teilweise ja auch. Wenn man sie nicht braucht fällt die Leistung auf Turing Niveau zurück. Heißt dann für Lovelace nichts anderes, wenn die vermeintliche OP Cudacore für FP32 steigt, steigt auch die Verbrauchsangabe. Leider...ich würde von 450W Stock ausgehen.

Ich halte die Angabe persönlich für einen Marketinggag, nur um den Leuten mitzuteilen die Anzahl der "Shader" sei gestiegen, ist sie aber nicht. Es können einfach nur mehr Rechenoperationen bei gleicher Shaderanzahl durchgeführt werden, die dann aufgrund ihrer Komplexität das Powerbuget höher auslasten. Es geht letztlich nur um Ersparnisse bei der Waferfläche weil die mittlerweile richtig teuer wird, aber diese Ersparnis für Verbraucher nicht richtig zu Buche schlägt. Muss man sich nur mal die Preisanstiege der letzten Jahre ansehen, wo die Hersteller ungefiltert und diesen Aufwand finanziell sowie mehrfach höher an die Verbraucher weiterreichen und sich eine goldene Nase verdienen, auf Basis das eine Einheit mehr Operationen ausführen kann, also eigentlich ein "unified" Shader ist wie ihn das Protokoll seit vielen Jahren fordert (Cuda ist dabei nichts weiter als eine Softwarebasis, das ist kein besonderer Shader).

Vor allem die Miner werden sich die Hände reiben...und mit ihren 6 Euro Adaptern Miningsperren lächelnd umgehen. Letztlich ist es etwas das sich das "Hash-Konsortium" wünscht, denn die hohen Verbräche machen das Netzwerk sicherer, weil Angreifer ungefähr die gleiche Energiemenge aufbringen müssten um in so einem Netzwerk Schaden anzurichten. Es wird also gezielt und explizit für Mining entwickelt und schon lange nicht mehr für Gamer. Daher werden auch die Verbräuche solcher Hardware steigen, solange wie Crytpo wertvoll bleibt. Da ist kaum ein Ende abzusehen, selbst wenn sich zwischenzeitlich oder kurzfristig der Markt wieder beruhigt.

*was recht interessant an der News ist, 384bit SI und damit kein VRAM Ausbau gegenüber Ampere? VRAM Geiz ist gar nicht mehr geil, wenn schon eine 3080 ins Limit rennt.:)
 
Zuletzt bearbeitet von einem Moderator :
Ein einzelner, noch komplexerer Chip? Da wird es wohl analog zur Leistungsaufnahme auch mit der UVP wieder nach oben gehen o_O.
 
Na toll, zwei von den Dingern (sofern erhältlich) und schon ist die Stromheizung für die Wohnung geregelt. Aber Mal im Ernst: dieses Wettrennen wird immer mehr zum Wattrennen. Jetzt gibt es professionelle Anwendungen die sowas vielleicht rechtfertigen, aber Fortschritt ist das trotzdem eher nicht. Ich (und viele andere) finden schon CPUs, die im Durchschnitt deutlich über 100 W/h ziehen, eher fragwürdig (here's looking at you, Intel Rocket Lake), aber diese GPUs marschieren ja unbeirrt auf 500 W+ zu, vom Kaufpreis ganz zu schweigen. Vielleicht wäre es an der Zeit, nach anderen, effizienteren Wegen zu suchen, um tolle Graphik auch unter 100 W/h hinzubekommen. Was gibt's denn da so?
 
Nüscht.
 
Hmmm ich dachte die Entwicklung geht voran die Bauweise wird kleiner und stromsparender. Zumindest bei CPUs.

Stattdessen wird bei GPUs mit der Holzhammermethode immer mehr Saft aus der Dose gezogen...
. 🤔😢
Die Entwicklung geht ja faktisch auch mit relativ großen Schritten voran, nur missverstehst du die allgemeine Intention des Marktes, aber tröste dich, damit bist du nicht alleine. In Turing war das Topmodell die RTX 2080 Ti für 1100+ € und exemplarische 274 W in Borderlands 3 in 1440p. Die RTX 3070 kostet gerade mal die Hälfte *), hat selbst in reinem Rasterizing mehr Leistung (+8 %) und kommt mit gerade mal 223 W (-19 %) aus in dem Titel. Rechnet man das in Watt/Fps um, ist das Ampere-Modell deutlich effizienter mit 0,246 W/Fps vs. 2,978 W/Fps und dazu auch noch drastisch günstiger.

*) Die aktuell problematische Marktsituation mal außen vor, da die die Preise deutlich verzerrt. nVidia bringt das Modell sporadisch für 520 € an den Mann und die Frau.

Das Problem ist vielmehr vergleichbar zur NASA. Hier versucht man sich mit einem effizienteren und kostengünstigeren Design mit Musk, Bezos & Co einem besseren Spaceshuttle anzunähern, "der Markt" jedoch will sich damit nicht zufrieden geben und lieber gleich einen Sternzerstörer haben. ;-) Entsprechend versucht die Industrie dem nachzukommen und weil ein Sternzerstörer noch weit außerhalb ihrer Möglichkeiten liegt, pimpt man das leistungstechnisch zusätzlich mit moderner Super/Upsampling-Funktionalität, denn man will die Investitionspirale ja schließlich am Laufen halten.

**) Der N5 soll ggü. dem N7 im Best Case eine bis zu 30 % besser Power Efficiency ermöglichen. Der N5P (man weiß nicht, was nVidia und AMD hier verwenden werden) soll noch einmal bis zu 10 % beisteuern können i. V. z. N5.
 
Die Entwicklung geht ja faktisch auch mit relativ großen Schritten voran, nur missverstehst du die allgemeine Intention des Marktes, aber tröste dich, damit bist du nicht alleine. In Turing war das Topmodell die RTX 2080 Ti für 1100+ € und exemplarische 274 W in Borderlands 3 in 1440p. Die RTX 3070 kostet gerade mal die Hälfte *), hat selbst in reinem Rasterizing mehr Leistung (+8 %) und kommt mit gerade mal 223 W (-19 %) aus in dem Titel. Rechnet man das in Watt/Fps um, ist das Ampere-Modell deutlich effizienter mit 0,246 W/Fps vs. 2,978 W/Fps und dazu auch noch drastisch günstiger.
Beim Preis hast du natürlich (eigentlich) Recht, aber hinsichtlich der Effizienz kann man das nicht so pauschal sagen. Zum einen ist die 3070 FE NVidia's effizienteste Ampere Grafikkarte, die du mit einer der ineffizienteren Turing Karten vergleichst. Zum anderen ist in anderen Spielen Ampere nicht immer effizienter als Turing (z.B. in QHD in AC Odyssey, FC New Dawn oder Metro Exodus, SOTR, TW:3Kingdoms oder WWZ, siehe Launch Review der 3080).
Ampere hat bei der Effizienz einfach nicht so große Schritte gemacht, wie man das von früher gewohnt war. Aber das liegt halt auch an den immer kleineren Fortschritten in der Fertigung.
 
Aber das liegt halt auch an den immer kleineren Fortschritten in der Fertigung.
Oder anders formuliert, man hat sich sehr lange darauf konzentriert Stromersparnis durch Fertigungsprozesse zu erreichen, statt über effizientere Chipdesigns.

Dann geht die Softwareindustrie auch davon aus, dass immer mehr Leistung zur Verfügung steht und es wird zu wenig in Codeoptimierung investiert. Über kurz oder lang wird man sich von diesem Weg verabschieden müssen.
 
Also ich glaube das es nur eine ca 35%ige Steigerung gegenüber dem Vorgänger geben wird, war doch bisher immer so

Diese 18432 CUDA Cores die benötigen doch viel mehr Strom, manch billige Designs laufen doch jetzt schon ins Temperaturlimit, noch heißer bei ca gleicher Chipfläche, wie will man das kühlen?

Wenn man die CUDA Kerne erhöht erhöht und erhöht, aber das Speicherinterface immer bei den 384bit lässt bringt das tatsächlich immer wirklich so viel? Wieso kein 512bit Interface ? Bei den Grafikkartenpreise müsste das doch locker drinnen sein

An stabile 144FPS in 4K bei allen Reglern rechts in sagen wir 20 verschiedenen Spielen glaube ich nicht

Ein Platinendesign das so gerade an präzise ist damit der berühmte Kühler mit der Wärmeleitpaste wieder passt, das wäre ein Hit

(Ich beziehe mich ausschließlich auf Gaming)
 
Wieviel Watt eine GPU am Ende zieht, ist mir eigentlich egal. Wichtig ist mir nur, dass die Leistung zumindest etwas stärker von Gen zu Gen ansteigt, dass somit die Perf/Watt immer besser wird.
Wenn ich zocken will, will ich die volle Grafikpracht eines Games genießen, das erfordert nun mal Leistung (jetzt mal unabhängig davon, dass man vlt auch effektiver Programmenieren könnte). Wenn die Grafikkarte das dann packt, begrenze ich die Fps auf 160 und damit geht ja auch der Verbrauch wieder runter, weil die GPU nicht ständig an 100% Last anklopft. Ja und sollte es dann doch dazukommen, naja dann ist das halt so, nur Nvidia und AMD die Schuld in die Schuhe zu schieben, ist auch falsch.
Wir wollen die Grafik, die Spielehersteller bieten die Möglichkeiten dafür und die GPU-Hersteller liefern nur das Mittel dafür...
 
Wenn man die CUDA Kerne erhöht erhöht und erhöht, aber das Speicherinterface immer bei den 384bit lässt bringt das tatsächlich immer wirklich so viel? Wieso kein 512bit Interface ?
Ein 512 Bit SI braucht mehr Platz auf dem Chip, bedeutet auch mehr Verbrauch (sowohl beim SI als auch bei den Speicherchips) und auch aufwändigere Platinen. Da würde man vermutlich eher auf HBM gehen. Und was ein gutes Cache System bringen kann, sieht man ja am Infinity Cache bei RDNA2. Die kann das recht schmale 256Bit SI ziemlich gut kaschieren. Vermutlich werden wir in Zukunft mehr solche Ansätze sehen.
 
Dann geht die Softwareindustrie auch davon aus, dass immer mehr Leistung zur Verfügung steht und es wird zu wenig in Codeoptimierung investiert. Über kurz oder lang wird man sich von diesem Weg verabschieden müssen.
Das hoffe ich schon seit 30 Jahren. Aber bisher steigen die Ansprüche der Games immer mindestens so schnell wie die PC-Leistung.
 
Oder anders formuliert, man hat sich sehr lange darauf konzentriert Stromersparnis durch Fertigungsprozesse zu erreichen, statt über effizientere Chipdesigns.

Dann geht die Softwareindustrie auch davon aus, dass immer mehr Leistung zur Verfügung steht und es wird zu wenig in Codeoptimierung investiert. Über kurz oder lang wird man sich von diesem Weg verabschieden müssen.
Wenn doch nur mal jemand auf die Idee gekommen wäre, Chips zur Abwechslung effizient zu designen. Klingt ja ganz einfach ;)

Realistischerweise sind mit reiner Optimierung halt einfach niemals die grossen Sprünge möglich, die durch verbesserte Fertigungsprozesse ermöglicht werden. Der Effekt der kontinuierlichen Optimierung fällt da schlicht und einfach kaum auf.
 
Es ist alles ein Frage von Kosten und Nutzen. Und bisher war es für die Hersteller einfacher und günstiger auf bessere Fertigugnsprozesse zu setzen, anstatt in Design zu investieren. Dies wird sich ändern müssen wenn nicht immer größere und stromhungrigere Chips auf die Kunden losgelassen werden sollen. Man arbeitet eher mit der Brechstange: Viel hilft viel. Viel mehr CUDA Cores viel mehr Strom.
 
Wenn doch nur mal jemand auf die Idee gekommen wäre, Chips zur Abwechslung effizient zu designen. Klingt ja ganz einfach ;)

Realistischerweise sind mit reiner Optimierung halt einfach niemals die grossen Sprünge möglich, die durch verbesserte Fertigungsprozesse ermöglicht werden. Der Effekt der kontinuierlichen Optimierung fällt da schlicht und einfach kaum auf.
Naja, das geht durchaus, aber halt nicht mit jeder neuer Generation. Bei NVidia ist da z.B. Maxwell zu nennen. 30% schneller als der Vorgänger bei gleicher Fertigung und gleicher TDP (780TI gegen 980TI). Und bei AMD RDNA2. Die 6800 braucht weniger als eine 5700XT, ist aber deutlich schneller (gerne mal bis 50%). Und eigentlich kann man da sogar noch die Radeon VII mit rein nehmen, die hatte ja auch 7nm TSMC Fertigung.
Aber AMD hat da halt auch massiv an den Shadern und am Cache System umgebaut. Das kostet halt auch viel Geld, so zu optimieren und AMD hatte halt auch noch gut Luft nach oben (Vega war halt auch nicht gerade effizient im Gaming und RDNA1 hat nicht alles neu machen können).
 
Oben Unten