NVidia Neue Patente von AMD geben einen Ausblick auf zukünftige GPU-Technologien

Jakob Ginzburg

Urgestein
Mitglied seit
Jun 17, 2018
Beiträge
843
Bewertungspunkte
290
Punkte
63
l3DL3aMv7cGiOnD21.jpg


Jakob Ginzburg submitted a new blog post

Continue reading the Original Blog Post.
 
Da haben wir die ersten Vorzeichen für AMD's Anwort zu Nvidias Raytracing. Bin gespannt wann und wie gut das dann in der Praxis funktioniert.
 
Wird sich eher durchsetzen ----> konsolen = mainstream. Aber kann mir nicht vorstellen das die nächste gen bis auf ein paar spielerein wirklich was zu bieten haben wird. Kuck ich mir in 5 Jahren nochmal an wenn Gpu wechsel ansteht. :) (zumal grafik eher nebensächlich ist imo)
 
Führen Patente von AMD genauso direkt zu marktreifen Produkten wie in der Akku-Industrie?
 
Interessant, aber wieso steht das in der Rubrik nVidia? ^^
 
Zur Zeit ist Raytracing für mich auch lediglich eine (hübsche) Spielerei, da die Performance einfach noch nicht stimmt. Trotzdem freue ich mich wenn das irgendwann mal vernünfig nutzbar ist. Irgendwann kann man ja vielleicht auch mal vom bisherigen Verfahren weg gehen und komplett per Raytracing rendern. Bis dahin ist es gut zu sehen das an mehreren Fronten dran gearbeitet wird es breiter nutzbar zu machen.
 
Was die Kühlung des 3D-Speichers angeht da bin ich etwas skeptisch, den das ist ein großer Aufwand und bis jetzt reichte es bei Bedarf aus passive Kühlkörper zu verwenden um die Temperatur zu senken. Aber es gibt bestimmt auch andere Gründe warum AMD daran arbeitet.
Wenn durch diese Hybride Lösung das Raytracing Verfahren qualitativ noch besser aussehen sollte, wie es schon der Vergleich zwischen AMD's TressFX und NVidias HairWorks gezeigt hat, dann können sie sich auch auf die Schulter klopfen ;D
 
Da haben wir die ersten Vorzeichen für AMD's Anwort zu Nvidias Raytracing. Bin gespannt wann und wie gut das dann in der Praxis funktioniert.

Deutlich relevanter im Kontext "Raytracing" dürfte Patent 20190197761 TEXTURE PROCESSOR BASED RAY TRACING ACCELERATION METHOD AND SYSTEM sein, das hier jedoch nicht erwähnt wird.
Das Patent wurde Ende 2017 aufgegeben, jedoch jetzt erst veröffentlicht. Es beschreibt eine Erweiterung der Texture Units zur Traversierung und Intersection-Berechnung auf Elemente einer BVH. Argumente für diese Art der Implementation sind eine höhrere Flexibilität, da die Shader Unit/ein Shader-Programm bei Bedarf in den Prozess eingreifen kann (u. a. werden auch Custom-Nodes in der BVH skizziert). Der sehr speicherlastige Task wird durch die grundsätzlich größeren Caches hier besser untersützt (keine Notwendigkeit das Die zusätzlich übermäßig zu vergrößern) und es wird eine eigene Intersection Engine in den Texture Units beschrieben. (Wer das selbst nachlesen möchte, Sektionen [0022] [0023] [0024] auf Seite 2.)
Das Patent scheint sich mit dem im Artikel beschriebenen Scheduling-Patent 20190179798 zu ergänzen.

Schlussendlich kann man jetzt viel spekulieren und Patente werden alle Nase lang beantragt, jedoch könnte es durchaus sein, dass es sich hierbei um den Weg handelt, den AMD bzgl. der customized Navi-Implementation in den Konsolen-SoCs eingeschlagen hat. (Weiterhin ist auch nicht abwegig, dass Sony und Microsoft sich vertraglich haben zusichernlassen, dass AMD nicht vorzeitig entsprechende Technik in andere Designs (bspw. dedizierte GPUs) implementiert, wobei das Vorzeitig vielleicht das Veröffentlichungsdatum der Konsolen adressiert bzw. einen Zeitraum danach, bspw. +3 oder +6 Monate. Das würde auch AMDs bisher vertröstende Aussagen zum Thema Raytracing um die Computex/E3 herum erklären ... und würde gleichzeitig bedeuten, dass hier nVidia mindestens nächstes Jahr "das Feld noch alleine beackern kann".)
 
Mir missfällt ja der Gedanke für meinen preiswerten Gamingrechner mit 2400G und einer hinterhergeschobenen 5700XT am ende doppelt so viel Geld für die gleiche oder weniger Leistung einer PS5/Scarlett ausgegeben zu haben :( und dann auch noch auf features verzichten zu müssen
 
Es ist zumindest interessant zu sehen, was für ein Konzept AMD aufgestellt hat. Ob es dann so zum Einsatz kommt und die erhoffte Leistung bietet, kann ich nicht abschätzen.
 
Mir missfällt ja der Gedanke für meinen preiswerten Gamingrechner mit 2400G und einer hinterhergeschobenen 5700XT am ende doppelt so viel Geld für die gleiche oder weniger Leistung einer PS5/Scarlett ausgegeben zu haben :( und dann auch noch auf features verzichten zu müssen

Das ist doch eine Milchmaedchenrechnung, die so nicht funktioniert. Die Konsolen werden ueber Spiele und Lizenzen subventioniert. Ausserdem sind die halt JETZT nicht verfuegbar, waehrend Du halt jetzt die Komponenten kaufst. Skalierungseffekte bei den Preisen sind auch noch was, was Konsolen guenstiger macht. Dafuer bist Du mit nem PC flexibler beim Einsatz.

Also wenn Dir Deine Rechnung Kopfschmerzen macht, dann solltest Du wahrscheinlich nie PC(Hardware) kaufen.
 
Naja, das Auge isst mit.
Absolut aber grafik machte noch nie ein game. NOCH NIE. Es könnte fotorealistisch aussehen wenn juckt es wenn es öde bis zum abwinken ist. IMO sollte man sich auf ki konzentrieren(die war früher wesentlich besser was traurig ist) und gameplay nicht auf grafik die sieht eh schon unglaublich gut aus heutzutage und wer will schon fotorealismus? das wäre wie wenn ich vor die tür gehe also öde da schon millionen mal gesehen. zenit erreicht imo.
 
Mir missfällt ja der Gedanke ...

Für eine verlässliche Abschätzung ist es jetzt noch etwas zu früh, jedoch frei nach MyRunner: Je länger Du mit einem Kauf wartest, desto leistungsfähigere Hardware wirst Du kaufen können. Das galt aber schon immer in der Computer-Branche, sodass die Frage wäre, ob Du abwarten kannst.

Für einen (dennoch viel zu frühen) Abschätzungsversuch:
Microsoft sprach auf der E3 offiziell von "customed designed processor leveraging the latest Zen2 and Navi technology" und "from a pure processing perspective this is 4x times more powerfull than the Xbox One X". Bei letzterer Aussage würde ich jedoch davon ausgehen, dass sich dieser Faktor auf die kumulirte Leistung des gesamten SoCs bezieht. Korrektur: Phil Spencer erklärte, dass sich die 4x Performance auf die CPU-Cores bezogen und nicht auf das gesamte SoC.
Acht Zen2-Kerne mit schätzungszweise 2,5 - 2,9 GHz dürften die CPU-Performance ggü. der One mindestens verdoppeln (mit 256 Bit breitem SIMD kommt man hier dann auch leicht auf die Vervierfachung). Mit jedoch weiterhin nur sieben nutzbaren Kernen dürfte die absolute Leistung etwa auf dem Niveau eines Ryzen 5 3600 bzw. knapp darunter liegen. (Mit guter Luftkühlung wohl gar signifikant darunter, da die Desktop-CPU dann ihren Turbo-Takt besser ausreizen kann.)
Zur GPU der Scarlett hat man derzeit nur zwei Anhaltspunkte. A) Es geistern Werte von bis zu 12+ TFlops (Compute Leistung) durch den Äther (die typischerweise auf Single Precision/FP32 bezogen werden) und B) Google gab für Stadia offiziell 10,7 TFlops an; F.Schreiber von 3D Realms sagte dazu später in einem Interview, dass die neuen Konsolen leistungsfähiger sein werden.
Rein auf die Compute Leistung bezogen zeigen sich bei nVidia aktuell folgende Werte für Std.- und Boost-Takt:
RTX 2080 : 8,9 - 10,0 TFlops
RTX 2080 Ti : 11,7 - 13,4 TFlops
(Behelfsmäßig könnten stellvertretend Werte näher am Boost-Takt für nVidia-Custom-Designs angenommen werden.)
Rein auf die Compute Leistung bezogen, werden die neuen SoCs wohl min. mit einer RTX 2080 (Super) mithalten können und ggf. auch das Niveau einer RTX 2080 Ti erreichen. Zu berücksichtigen ist natürlich, dass Compute Leistung nicht zwingend gleichzusetzen ist mit der Rasterizer Leistung, jedoch sollten diese schon zu einem gewissen Grad korrelieren.
Zu berücksichtigen ist auch die erwähnte 8K-Unterstützung, wobei ich hier jedoch das Haupteinsatzgebiet beim Video-Streaming sehe (gerade Sony sollte bemüht sein, seine Display zu verkaufen). Games werden voraussichtlich als oberes Limit natives 4K haben (mit mehr Fps und höherem Detailgrad) und würden für eine 8K-Ausgabe hochskaliert werden. (Eine andere/zusätzliche Kompensationsmöglichkeit wäre die Anwendung von stärkerem Variable Rate Shading.) *)
Bei obig erwähntem Patent 20190197761 würde ich nach derzeitigem Kenntnisstand schon davon ausgehen, dass das zumindest die Basis für eine Hardwareimplementation von Raytracing in den SoCs darstellt, denn Microsoft spricht explizit von "hardware accelerated raytracing". **)

*) Mit Raytracing könnte man ggf. auch schon früher auf ein Upscaling treffen, wobei die Notwendigkeit hierfür aber auch sehr stark von der jeweiligen Raytracing-Verwendung abhängig ist. Ein paar Reflektionen hier und da sind was anderes, als eine vollständige GI-Implementation wie bspw. in Metro Exodus. Zudem ist über die Lebenszeit der Konsolen auch mit einer deutlich hardwarenäheren Programmierung zu rechnen, so dass hier mehr aus dem Silizium herausgeholt werden kann. Da die Hardwareänderungen bei dieser Konsolengeneration nicht ganz so groß sind, könnten sich Entwickler hier schon etwas früher auf eine low-level Programmierung einschießen.

**) Wenn man sich ansieht, was Crytek bereits auf einer Vega 56 (10,5 TFlops) bzgl. Raytracing demonstrieren konnte, dann darf man bzgl. Raytracing vielleicht doch einiges von den neuen Konsolen erwarten. (Neon Noir und HowTo-Interview).

Anmerkung: Grundsätzlich alles spekulativ - Nutzung auf eigene Gefahr! ;)
 
Zuletzt bearbeitet :
Ihr habt ja Recht. In die Zukunft zu spekulieren und auf was besseres zu warten ist bei Gaming Hardware ja immer schon fragwürdig gewesen weil immer was besseres nachkommt.

Erst mal auf die custom designs der Navi warten und abwarten bis die ein wenig günstiger werden. Dann wird entschieden ob schon gekauft wird. Bis dahin kann man ja vielleicht auch schon mit ein paar Infos über RDNA2 jonglieren...
 
Oben Unten