News NVIDIA Ada Lovelace AD102 mit bis zu 2,2 GHz Takt, 384-Bit Interface samt GDDR6X und über 80 TFLOPs in 5nm?

Naja, das geht durchaus, aber halt nicht mit jeder neuer Generation. Bei NVidia ist da z.B. Maxwell zu nennen. 30% schneller als der Vorgänger bei gleicher Fertigung und gleicher TDP (780TI gegen 980TI). Und bei AMD RDNA2. Die 6800 braucht weniger als eine 5700XT, ist aber deutlich schneller (gerne mal bis 50%). Und eigentlich kann man da sogar noch die Radeon VII mit rein nehmen, die hatte ja auch 7nm TSMC Fertigung.
Aber AMD hat da halt auch massiv an den Shadern und am Cache System umgebaut. Das kostet halt auch viel Geld, so zu optimieren und AMD hatte halt auch noch gut Luft nach oben (Vega war halt auch nicht gerade effizient im Gaming und RDNA1 hat nicht alles neu machen können).
Stromverbrauch ist ja auch nicht gerade das einzige Kriterium für einen Hersteller.

Die 5700 XT hat 40% der Transistoren und 48% der Chipfläche einer 6800.
Die 6600 XT ist nur ein kleines bisschen kleiner als die 5700 XT aber auch in etwa gleich schnell.

AMD kriegt bei TSMC nicht mal mehr halb so viele 6800 Chips pro Wafer, wie sie noch 5700 XT gekriegt hätten. (Und vermutlich kostet der Chip auch doppelt so viel)

Im Endeffekt erkaufte sich AMD bei RDNA2 einen grossen Teil des Leistungsplus mit einer deutlich schlechteren Verfügbarkeit. (Und das wohl zum unglücklichsten Zeitpunkt :()
 
Stromverbrauch ist ja auch nicht gerade das einzige Kriterium für einen Hersteller.
Eigentlich ging es schon auch um den Stromverbrauch. Dass das nicht kostenlos zu haben ist, ist klar. Allerdings ist bei RDNA2 auch der InfinityCache ein großer Anteil des Chips. Und Cache lässt sich relativ einfach herstellen. Insofern ist der Chip zwar relativ groß, aber der Ausschuss sollte eigentlich relativ gering sein. Und man muss halt auch klar sagen, dass der Chip grob 60% schneller ist, trotz weniger Verbrauch.
Also: Klar, der Chip ist teurer, aber wenn man keine andere Fertigung verwendet, dann muss man den Fortschritt anders erreichen. Aber man kann den Fortschritt erreichen und es gibt eben auch Beispiele, die Zeigen, dass das so gemacht wurde.
 
Dazu fallen mir gleich mehrere Dinge ein ...

1) für die extreme geplante Preissteigerung können wir uns bei den Crypto Wärungen und bei den Leute bedanken, die ohne Not (alte GPU kaputt) die Sculper Preise bezahlt haben. Ist doch klar, dass NVidia und AMD nun gemerkt haben "hey, die Leute sind bereit so viel zu Zahlen, WIR AUCH WOLLEN!!!".
[irony] Danke Crypto und Sculper!!! [/irony]

2) der Verbrauchs Wahnsinn muss aufhören! Täglich wird uns vorgepredigt "was können sie tun, um Energie zu sparen". Am besten nur noch 2 Minuten und kalt Duschen und in der Wohnung nur noch 15° Raumtemperatur. Ein eigenes Haus ist mittlerweile ein Alptraum durch die ganzen Energetischen Auflagen.
Aber für Spaß darf man ungehemmt rausballern???

Ja, die Entwicklung kostet. Ja, Rohmaterial kostet und ist teurer geworden. Ja, selbst eine 3090 liefert eigendlich nicht genug Leistung um in 4k echtes RayTracing ohne DLSS downsampling flüssig liefern zu können.

Nur sein wir mal erlich ... auch von den 40x0 Karten werden Endnutzer kaum was sehen, wenn die wirklich soooooo viel mehr Leistung raus haun! Die werden wieder Palettenweise an Crypto Farmen gehen. Das man bald pro Crypto Farm ein eigenes Atom Kraftwerk braucht ist den Leuten doch egal. Und Notfalls holzen wir halt den Regenwalt ab um den zu verfeuern für die Energie.

Weltweit sollte der Preis für Strom ver10facht werden!! Dann hört der Mist vieleicht wieder auf.
Oder sowas wie die CO2 Steuer auf Strom AUCH und grade für Großverbraucher (Industrie!!!).

Laut https://www.techpowerup.com/gpu-specs/
GTX 260 TDP 182W
GTX 460 TDP 160W
GTX 970 TDP 148W
... und deren Ersatz??
4060/7600 TDP 500W ????? 30x0/6x00 sind mangels Verfügbarkeit schon gestorben für mich!

(Sorry @Igor, dass muß nu sein) Wollen die mich VERARSCHEN??
 
Zuletzt bearbeitet :
... und deren Ersatz??
4060/7600 TDP 500W ????? 30x0/6x00 sind mangels Verfügbarkeit schon gestorben für mich!
Die 4060 und 7600 werden sicher keine 500W brauchen. So krass ist es dann doch nicht. Und bei den Top Modellen bin ich da auch noch skeptisch, aber mit 400W würde ich für 4090 oder 7900 schon rechnen. Das liegt eben auch an den immer kleineren Fortschritten in der Fertigung. Früher gab's halt mit einer neuen Fertigung die doppelte Leistung (oder alternativ den halben Verbrauch) quasi geschenkt, heute ist man davon weit entfernt...
Naja, vielleicht bewirkt ja Intel als dritter Hersteller für Grafikkarten einen etwas besseren Markt für uns Kunden.
 
Kann man nur hoffen, dass einer mal ne Mobile GPU in eine Steckkarte verbaut. Gigabyte, Asus, wer auch immer.
 
Ich bin auf den neuen M1X Chip von Apple gespannt, der soll 40W brauchen und mit 32 Grafikkernen die Leistung einer mobilen 3070 liefern. Vllt. ist das ja die Zukunft des Gamings, Nvidia und AMD arbeiten ja auch an ARM-Chips.
 
Ich bin auf den neuen M1X Chip von Apple gespannt, der soll 40W brauchen und mit 32 Grafikkernen die Leistung einer mobilen 3070 liefern. Vllt. ist das ja die Zukunft des Gamings, Nvidia und AMD arbeiten ja auch an ARM-Chips.
ARM als Architektur hat meines Wissens nach nicht viel mit GPU zu tun. Geforce und Radeon sind ja auch keine x86 Chips, sondern eine eigene Architektur.

Und ob Apple ohne neuen Prozessschritt eine Vervierfachung der iGPU ohne höheren Stromverbrauch erreicht, wage ich jetzt mal zu bezweifeln. Falls doch, bin ich der Meinung, man sollte dringend mal überprüfen, ob in Cupertino irgendwo ein Roboterarm und sowas versteckt wird...1632407989445.png
 
zu dem Verbrauch ja ist hoch, aber ihr müsst aus der Blase Deutschland mal weltweit denken und wir haben die höchsten Strom-Preise bei uns ist das interesant aber auf dem Rest der Welt nicht so wirklich
 
zu dem Verbrauch ja ist hoch, aber ihr müsst aus der Blase Deutschland mal weltweit denken und wir haben die höchsten Strom-Preise bei uns ist das interesant aber auf dem Rest der Welt nicht so wirklich
Es geht doch (mir) nicht dadrum, dass die Strompreise hier zu teuer sind.
Im Gegenteil, sie sind hier und weltweit ZU NIEDRIG! Wie beim Benzin oder Rauchen mal 80% Steuern drauf und die Einnamen für Umweltprojekte verwenden. Jaja, is nen traum, aber träumen darf man ja.

Ernsthaft. Es geht nicht drum, dass es mir zu teuer ist. Es geht um die pure Energie Verschwendung rein zu Spaß Zwecken.
Und es kann mir keiner erzählen, hier würde jeder diese GPUs ausschließlich zum professionellen Arbeiten kaufen. Nicht mal in diesem Forum hier ;).
 
Im Gegenteil, sie sind hier und weltweit ZU NIEDRIG!
Da bin ich der selben Meinung. Bei vielen Stromerzeugungsarten decken die Preise nicht alle Kosten die entstehen.

Beim billigen Atomstrom werden für die Entsorgung Beträge auf die Seite gelegt, die vermutlich nicht für eine vernünftige Lagerung ausreichen. Die Kosten für das überwachen die nächsten tausend Jahre und das sanieren schlechter Deponien ist noch gar nicht gerechnet.

Bei Kohle, Öl oder Gas sind die Umweltschäden durch den Bergbau nur teilweise gedeckt und die Schäden durch das ausgestossene CO2 vergisst man ganz gerne. Bestehende CO2-Abgaben werden nicht verwendet um die Schäden zu beheben.

Wenn man alle verursachten Schäden einrechnen und bezahlen würde, wäre der Preis der konventionellen Energieproduktion bedeutend höher. Mit den entstandenen Schäden werden dann unsere Kinder klar kommen müssen.
 
Schaut euch einfach mal Rezo an :

Und wenn euch das zu YouTubich gemacht ist ... Alu Hut ab, Kopf aus dem Sand und mal an die Uni eurer Wahl gehen und mit den Profis reden.
Danach raffen vieleicht einige, warum 400+Watt GraKas ein NO GO sind!
 
Ein 512 Bit SI braucht mehr Platz auf dem Chip, bedeutet auch mehr Verbrauch (sowohl beim SI als auch bei den Speicherchips) und auch aufwändigere Platinen. Da würde man vermutlich eher auf HBM gehen. Und was ein gutes Cache System bringen kann, sieht man ja am Infinity Cache bei RDNA2. Die kann das recht schmale 256Bit SI ziemlich gut kaschieren. Vermutlich werden wir in Zukunft mehr solche Ansätze sehen.

Das ein 512Bit Speicherinterface viel mehr Platz benötigt und auch dickere Platinen notwendig sein sollen, also daran glaube ich nicht, Es gab ja schon mal ein 512Bit Interface, nur ich schätze das kostet im Wareneinsatz 3Dollar Fuffzig mehr also macht mans nicht

Ich schätze auch das der Leistungssprung dann zu groß wäre und man sich auf die übernächste Generation wesentlich mehr anstrengen müsste und es aufgrund des Umsatzes dann nicht so lukrativ ist, denn was kauft man wenn die Grafikkarte 144FPS in 4K immer stabil liefert? Der kauft doch 10Jahre lang keine Grafikkarte mehr, außer sie geht kaputt.... so liefert man erstmal 60FPS dann 81FPS und dann mal 105FPS in der dritten Generation

Igorslab plauder doch mal aus dem Nähkästchen

Edit: Böse Zungen würden behaupten das sie manch aktuelle Grafikkarten bewusst nur 8 und 12Gb Vram haben damit sie in zukünftigen Spielen in der 4K Auflösung dann ja überquillen damit man neu kauft xD
 
Oder anders formuliert, man hat sich sehr lange darauf konzentriert Stromersparnis durch Fertigungsprozesse zu erreichen, statt über effizientere Chipdesigns.

Dann geht die Softwareindustrie auch davon aus, dass immer mehr Leistung zur Verfügung steht und es wird zu wenig in Codeoptimierung investiert. Über kurz oder lang wird man sich von diesem Weg verabschieden müssen.

Dein Wort in Gottes Ohr.
 
ok und warum ist jetzt 400W+ ein NoGo ? Warum nicht die Grenze bei 200W oder 50W oder wir holen den Abbakus raus und sagen alles über 0W ist ein NoGo?
 
Und ob Apple ohne neuen Prozessschritt eine Vervierfachung der iGPU ohne höheren Stromverbrauch erreicht, wage ich jetzt mal zu bezweifeln.
Der Faktor 4 ist bei @HerrRossi schon mit drin. Der M1 liegt bei ca. 10 bis 15 W. Und er ist bei WoW halb so schnell wie meine Vega 56 + i5 bei >200 W. Wenn die Vervierfachung der GPU aus der Gerüchteküche tatsächlich in einer Vervierfachung der Leistung resultieren würde, dann wäre man in der Größenordnung einer 3070/3080 bei vielleicht ~80 W. Inklusive CPU.

Ich glaube selbst noch nicht so ganz daran. Andererseits: mein 2016er Intel MBP hat auf Akku ~1,5 h Videokonferenz gehalten, beim neuen M1-MBA ist der etwas kleinere Akku erst nach 6 Stunden ViKo leer. Abzüglich Bildschirm ist das ein enormer Vorteil bei der Effizienz.

naja, in 1 bis 2 Monaten wissen wir voraussichtlich mehr.
 
Ich weiss nicht, wie die GPU im M1 aufgebaut ist, aber das ist ziemlich beeindruckend, was Apple da entwickelt hat und Intel und AMD sollten diesen Chip sehr ernst nehmen, gerade im mobilen Bereich.
 
Es geht um die pure Energie Verschwendung rein zu Spaß Zwecken.
Also keine Urlaubsreisen, kein Netflix, kein Internet zu Spasszwecken, kein Kino, kein Essen im Restaurant, keine Bar- und Clubbesuche, keine Parties, keine Festivals etc. pp. mehr. Eigentlich fallen dann alle Hobbies außer Spazierengehen weg.
 
Schaut euch einfach mal Rezo an

Und wenn euch das zu YouTubich gemacht ist ... Alu Hut ab, Kopf aus dem Sand und mal an die Uni eurer Wahl gehen und mit den Profis reden.
Danach raffen vieleicht einige, warum 400+Watt GraKas ein NO GO sind!
Kauf dir doch eine Graka mit dem Verbrauch deiner Wahl und lass andere in Ruhe denen 100Watt mehr oder weniger wurscht sind.
Milliarden Inder, Chinesen und andere schmunzeln schon, weil ihre Dörfer demnächst Strom bekommen und alle auch noch ein Auto brauchen.
 
Intel und AMD sollten diesen Chip sehr ernst nehmen, gerade im mobilen Bereich.
Ich glaube Intel weiß genau, wie schlecht sie gegen den M1 stehen, deswegen haben sie mehrere Werbekampagnen gestartet und solche Vergleiche aufgestellt, bei denen ich wie bei allen Benchmarks von Herstellern reichlich Cherrypicking vermute: https://www.macrumors.com/2021/02/06/intel-11th-gen-vs-apple-m1-chip-benchmarks/
Wenn man sich allerdings anguckt, was Intel das so alles drin schreibt - oder besser gesagt NICHT schreibt - steht Intel ziemlich schlecht da. Es gibt nur einen einzigen Test zur Akkulaufzeit, wo Intel gerade so mithalten kann und Intel vergleicht seinen Top-End „28W“-Prozessor mit real wahrscheinlich weit höherem Verbrauch mit dem weitaus sparsameren M1. Der Verbrauch während der Benchmarks wird nicht angegeben, wenn Intel hier mithalten könnte, hätten die es sicherlich dazugeschrieben …

Und ich kann mich nicht an ähnliche Aktionen gegen Windows on ARM erinnern obwohl der Umsatz mit Apple relativ klein gegenüber dem Umsatz mit Windows-Systemen sein dürfte. Also wird Intel intern wahrscheinlich sehr genau wissen, wo sie im Vergleich stehen.
 
Ja, mit diesen "Benchmarks" hat sich Intel ja auch schon gegen Ryzen blamiert.
 
Oben Unten