News NVIDIA Ampere mit heißem Speicher und selbst die Boardpartner tappen noch im Dunkeln

Ein moderierendes Lederjacken-Model!
 
Also ne neue Kühllösung wäre nicht "game changing" wenn es wörtlich gemeint ist. Für games ist es egal, wie etwas gekühlt wird solang es gekühlt wird ;). Allerdings könnte Igor ja auch "game between AMD and NVidia" meinen ... wäre sowas vieleicht interesant. Oder NVidia liefert wirklich nen Adapter für den Hauswärmespeicher mit ... das wäre echt mal was neues.

Irgend welchen KI Krempel als "game changing" = echt Änderung für Games ... halt ich auch für ausgeschlossen. Bessere Computergegner zu erschaffen ist schon lange möglich. Macht nur keiner, weils schlicht frust für die Spieler wäre. Und natürlich weils ne menge mehr Arbeitsaufwand=Kosten wäre ;).
Das eigendliche Problem bei Game-KI ist eh, die nicht versehentlich ZU GUT (Stichwort Cheater-KI) zu machen. Wir hier würden uns da vieleicht freuen. Die Masse der Kausalgamer aber nicht.

Ergo geh ich eher von einem doch erheblichen Leistungs + aus.

Oder ... man braucht nun nen 3-Phasen Stromanschluss. Also Hert abklemmen damit die GPU genug Saft bekommt *g*.
Oder ... die Dinger sind nu so groß, dass wir alle neue Gehäuse brauchen mit Bords, die oben/unten min 50cm Platz haben neben dem Slot weil sonst die Kühlung nicht paßt.
 
Crysis Remaster kriegt DLSS und RT mit NVIDIA’s VKRay Vulkan extension

Ampere muss her
 
Dann heisst wohl wieder bald....Can it run Crysis?!😁
 
AI hat doch nichts mit den Gegnern zu tun :D
DLSS bitte mal weiterdenken ;)
 
DLSS muss doch Trainiert werden... Genau wie jede KI. Bisher musste das immer von den Publishern beauftragt? werden. Vielleicht kann das Ding das nun selbst, weil es so viel KI scheiß rechnen kann.

Zum Thema Game Changer Nvidia:
Es muss wieder nen Dickes Feature sein, dass mit den bisherigen Technologien umgesetzt wird. Ich kann mir nicht vorstellen, dass Nvidia schon wieder was neues einführt, bevor die RT und DLSS nicht etabliert sind. Die geben ja auch immer! nur Häpchen raus.

Game Changer AMD:
Sie machen oben wieder mit und RT.
 
Das Gegner KI Training müsste jeder Spielentwickler für sein Game nur einmal trainieren und mit dem Spiel ausliefern. Die sind da eh bei einer Entscheidungsfindung eines 4 Jährigen. Dem heutigen "Gamer" ist ja auch kein Spiel zuzumuten, dass er nicht durchspielen kann. Da wird also nichts passieren.
 
Also den MSVDD Link fand ich so unschlüssig nicht. Damit trainieren die KI-Systeme für Bilderkennung.
Mich beschleicht ein bisschen das Gefühl, dass Nvidia - erneut - was anflanscht, was meinen Bedarf ignoriert.
Ich mag auch nicht über entkoppelte Stromversorgung spekulieren. Wenn das der Gamechanger ist, dann können Sie ihn behalten. Vor allem, wenn sie Karten bauen, die bei 230 Watt für die GPU liegen (=Turing) und dann noch 120 Watt für Speicher und ??? dazukommen. Klingt für mich nach heißer gekocht als gegessen.
Wenn Nvidia hier in Limits läuft, die Effizienz betreffend, dann macht mir das erstmal Sorgen. Weil neuer Prozess, neue Architektur und man kriegt das nur hoch skaliert indem man Frames per KI generiert?!
Bitteee!
 
DLSS ist rendern in niedrieger Auflösung und das Schönschubsen der Pixel hinterher mit ML. Igor war von Version 2.0 angetan. Wenn du jetzt also 1280x720 im Spiel als Auflösung einstellst und dann hinten ein sauberes FullHD Bild raus kommt, wäre das ein heftiger Game Changer. So viel FPS Gewinn würde es dann selten gegeben haben.
 
Aber wenn die KI einen Aussetzer hat, kriegste Mist ausgespielt - für potenziell 1000 Euro
 
Oder: Wenn du 300 fährst und dabei > 40l/100km rausbläst, dann ist das kein Gamechanger.
 
Wenn die Grafikkarte einen Aussetzer hat, hast du Müll für viele Scheine. Da ist es egal ob es der Treiber ist, eine Karte die sich zu stark durchbiegt und den Speicher leider an der falschen Stelle hat (2080ti) oder sonst was. Wenn du auf solche Innovationen nicht so stehst, AMD dürfte ja scheinbar eine sau schnelle Karte an den Start bringen. (No offence).

Edit: wenn die RT/Tensor Cores nicht gebrqucht werden, können die die 6 Phasen abstellen umd gut. Nvidia war schon sehr lange keine Energiesau mehr. Damit werden die jetzt nicht Anfangen. Zumal viele Videos von Igor zu Ampere immerwieder Effizienz etc. erwähnen, würde es mich noch mehr wundern.
 
Die weltweite Nachfrage nach Tensor geht durch die Decke, weil sich immer neue Anwendungsgebiete finden und die Prozesse effizienter werden. Igor hatte selbst schon einen Artikel, wo das neue DLSS ausgiebig besprochen wurde, vor allem die dadurch mögliche Einsparung von Rechenleistung, die dann wieder RT zugutekommt. Es wird an vier Stellschrauben gleichzeitig gedreht:
1. Shrink und Anzahl der Shader
2. Takterhöhung, vor allem beim Speicher eine deutlich höhere Bandbreite.
3. Power Limit angehoben und Kühlung verbessert, damit auch alles ausgelastet werden kann ohne zu throtteln.
4. Verbesserungen bei den RT Cores und erhebliche Verbesserungen bei den Tensor Cores für DLSS und noch weitere zu findende Anwendungen.

Nvidia mischt zudem gerade den Markt für Supercomputer und Cloud Computing auf. Das KI/Tensor ein GameChanger wird, müsste man eigentlich anders wiedergeben: Tensor Cores haben in anderen Bereichen bereits die Spielregeln geändert, es hat nur etwas gedauert, bis sie dies auch im Gaming tun werden. Da nutzen viele täglich Spracherkennungen oder Suchmaschinen, google Maps, halbautonome Maschinen werden Populär und viele Gamer halten es für selbstverständlich.
Das ist ähnlich wie beim RT, das viele nur für ein Gimick hielten, obwohl seit Jahrzehnten die ausgereifteste Form zur Berechnung fotorealistischer Bilder und Videos ist.

Wenn man die Rechenleistung von RT und Tensor auf Consumer Grakas weiter verbessert, gibt das generalisierbare, fotorealistische Simulationen einer sich echt anfühlenden Umgebung. Staub, Kratzer, Insekten, Unebenheiten im Boden, fotorealistische generische Texturen, das kann man einer KI alles anlernen und das wird erhebliche Ressourcen freisetzen, die man anderweitig verwenden kann.
 
Genau das hab ich oben geschrieben. Nicht in Fachsprache zwar.
 
Oben Unten