News Quadro RTX mit Turing - was im Live-Event nicht gesagt wurde und noch mehr Bilder | Siggraph 2018

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.105
Bewertungspunkte
18.594
Punkte
114
Alter
59
Standort
Labor
Teaser-4.jpg


Igor Wallossek Neuen News-Beitrag vorschlagen
Nach dem Auftritt hatte ich natürlich auch noch Zeit, die berühmten Q&A-Runden zu besuchen, in denen man manchmal so nebenbei auch noch Details erfährt, die in den eigentlichen Events fehlen, warum auch immer. Ausgequetscht werden durften, von links nach rechts, Bob Pette (Vice President Professional Vizualisation), Tony Tamasi (Senior Vice President of Content and Technology), sowie Bob Sherbin (Vice President Corporate Communications).



So setzt man bei der RTX 8000 auf satte 48 GB GDDR6, von denen sich jeweils die Hälfte auf der Vorder- und Rückseite befinden. Verwendung finden "Chips mit höherer Dichte", um diesen Speicherausbau überhaupt erst ermöglichen zu können. Die GPU selbst kommt noch in 12nm Strukturbreite.

Die TDP wird mit der einer aktuell noch "schnellen Gaming-Grafikkarte" angegeben, wobei man nach mehreren Fragen eine TDP von ca. 300 Watt angab. Davon sollen jedoch allein auf den NV-Link-Controller bereits 30 Watt im Maximum entfallen. Zieht man dann noch etwas für den gigantischen Speicheraufbau ab, könnte man für den "Chip und Gedöns" sogar noch deutlich unter 250 Watt veranschlagen.



Laut eigenen Aussagen hat man mit der groben Entwicklung bereits vor 10 Jahren begonnen, die Architektur startete dann vor ca. 5 Jahren.
We wanted to see if we could change the world of graphics

Und am Ende stellte es sich auch so dar, dass Volta wohl nur eine Art Testlauf für Turing war, um vor allem den Partnern Raum und Zeit, sowie die passende Hardware für die AI-Entwicklung zu geben.
Turing's interesting question is what becomes possible with this new way of thinking about architecture. What about the relationship between Volta and Turing? Volta informed a lot of the Turing work. Volta was used as a working platform for Turing. A lot of the research was done on it. they've got things in common.

Anschließende auf den doch recht hohen Preis, vor allem fürs Spitzenmodell angesprochen, gab man sich allerdings dann wiederum sehr selbstbewusst:
Pricing? Time is important. We price our products on the value they provide. Our ultra-high end Quadro cards are selling quite well.



Über weitere Details werde ich natürlich auch noch berichten, denn es blieben für mich dann doch noch einige Fragen offen, die ich morgen aber (hoffentlich) noch einmal am Messestand klären kann. Bis dahin - stay turing ;)

[wonderplugin_gallery id="2733"]

Den Originalbeitrag lesen
 
Danke für dein Update, irgendwie schon enttäuschend, was zum Teufel ist bei Nvidia eine riesige Neuigkeit für den Großteil der Massen?

Jetzt wird auch klar warum vermutlich auch erneut 3000$ teure Comsumerkarten als Titan erscheinen könnten. ~750 mm² Chipfläche bei Turing, kaum vorstellbar das man zwei Dices in 12nm auflegt? GT102 und GT104? Das Teil kann nur ein Abfallprodukt sondersgleichen sein (Tensor etc.) und damit werden die Jünger fein säuberlich ausgenommen. Im Saal war es zeitweise still, da konnte man jedenfalls keine große Euphorie wahrnehmen. Erinnerte mich an AMDs Tonga Vorstellung, USA USA USA = Hurra. Jensen war zwar witzig, hat sich aber zu viel von Trump abgesehen, die Witzigkeit war stellenweise peinlich.

Daher wohl auch der Mischmasch bei den Karten und man scheint immer noch nicht fertig sein. Ich bin massiv enttäuscht, dass war eine reine Investorenveranstaltung, zumal der Stream auch mehrmals abriss und in mieser Darstellungsquali (auf auto, sonst wars kaum möglich) hier ankam, selbst über Nvidias Hauptseite (bei euch war es für mich nicht möglich den Stream mitzuverfolgen, Wlan stand mit 45mbit). Traurig...vielleicht sollte man das Jensen mal sagen. Es gibt auch am "Arsch" der Welt Leute die Neuvorstellungen verfolgen. Auf die ganzen Raytracing Feature die in Echtzeit eher einen Haufen Unschärfe ins Bild bringen, kann ich auch gerne verzichten. War ja zu vermuten das dies noch braucht und Rechenleistung in Masse frisst.

Dir weiterhin schöne Tage und eine erfolgreiche "Ermittlungsarbeit", schön das wir jemanden direkt an der Quelle haben.;)
 
Zuletzt bearbeitet von einem Moderator :
Raytracing ist aber schon ein Schritt in die richtige Richtung. Die Ausbeutung der Endkunden mit abgespecktem Schrott jedoch nicht.
 
Raytracing ist aber schon ein Schritt in die richtige Richtung. Die Ausbeutung der Endkunden mit abgespecktem Schrott jedoch nicht.

Ich würde die Füße auch ohnehin bis zum 2080 Announcement still halten Aufgrund zwei potentiellen Tatsachen:

1: Wird der Markt tatsächlich durch RTX und GTX segmentiert und ersteres bleibt nur den highend modellen vorenthalten findet keine, nur eine geringe bzw. schleppende Adaption statt. Im Gegenzug führt das zu Widerstand bei den Entwicklern mehr auf RayTracing zu setzen als sie müsssen, solang keine breite Marktuntersützung bzw. Akzeptanz da ist.

2: Wie mit nahezu jeder, wenn nicht fast allen neuen Technologien sind 'first gens' meistens in Kürze komplett und in ihrer Gänze überholt. Wie gut die kommende RTX Leistung für den Endkonsumer sein wird, kann vermutlich niemand objektiv einschätzen. "X mal besser als Pascal" ist wenig aussagekräftig, da X * 0 irgendwo auch eine Nullnummer wäre ;) Mich würde nicht wundern, wenn sie binnen 1-2 Generation bereits um mehr als das doppelte angehoben wird, was die 'first gen' Produktlinie auch zu einer Totgeburt degradieren würde.

Erst mal sollte der Konsumer RTX/GTX Release abgewartet werden, um zu sehen welche Chips denn wo landen werden. Darüber hinaus geht es um Geld/Gier vs. Fortschritt und intuitiv lehne ich mich für diese Generation eher auf die linke Seite Aufgrund Punkt 2.

Weißt du zufällig ob und welche Spiele in der Entwicklung sind, die Raytracing inkludieren sollen, um dem Pöbel das Zeug schmackhaft zu machen?

Als Konsumer ist mir bisher noch unklar weshalb ich mich jetzt für Raytracing begeistern sollte, geschweigedenn mögliche Unsumme darin investieren.
 
Zuletzt bearbeitet :
Raytracing wird schon sehr lange genutzt. Auch in Spielen. Ich sag nur "Ambient Occlusion"

Der Schritt in Richtung Raytracing steht schon lange an. Und großartig rumeiern muessen die Entwickler ueberhaupt nicht. Einen Raytracer zu implementieren ist in etwa so aufwaendig, wie einen Renderer anderer Art zu implementieren. Aktuelle Rasterizer nutzen fuer Effekte Voxel und Raytracing in Tandem.

Raytracing kann sogar Dinge vereinfachen. Viele Pixelshader, die nachtraeglich auf die Szene und Objekte geklatscht werden, koennte man so sparen. Denn die kommen, mit der korrekten Formel, automatisch.
 
Ich fand das Ganze wirklich beeindruckend, vor allem die Echtzeit-Demos. Neben Unreal arbeiten auch Firmen wie Crytek und andere bereits mit der RTX. Das wird sich bei der Content Creation schneller verbreiten, als man Mops sagen kann. Was dann davon und wann im Endkundenmarkt ankommt, das muss man natürlich sehen. Aber irgendetwas neues muss man schon wagen, sonst krebsen wir in 10 Jahren immer noch mit DX11 rum.
 
Ich weiß nicht was ich von Ray Tracing halten soll. Alte Spiele werden wohl nicht den großen Sprung machen und bis Ray Tracing kommt muss das in Konsolen oder weit verbreitet sein. Das ist schon deshalb schwer weil man dazu einen großen Chip braucht das es überhaupt läuft.

Was ich auch komisch finde für die Demo brauchte man vorher 4x GV100 und jetzt reicht eine Touring mit weniger Hardware aus? Das sind doch alles die gleiche Architektur?
 
@ampre
Was man sagen will ist, dass RT eher Richtung Brute Force geht und es erwartbar ist das dort mehr Entwicklungsarbeit geleistet wird und auch Gelder fließen werden wenn man es annimmt. Ob es überhaupt gleich morgen in Spielen zu sehen sein wird, k.A.. GameWorks wird dort bei nV auch eine Rolle spielen, RTX und GTX sollten ja beide RT ausführen können. Area Shadows, Glossy Reflections und Ambient Occlusion sind doch schon länger Bestandteil von GameWorks RT, ließen sich vermutlich maßvoll auch auf GTX ausführen. Das man jetzt Renderingszenen zu Gesicht bekommt, wie sie 4 Karten auf einmal in 60fps darstellen können oder 1. in 25fps die 6000 oder 10000$ kostet, ist doch wieder eine andere Frage. Zuerst wird das Feature kaum was ausmachen und ob es sich überhaupt durchsetzt ist wieder die andere Frage. Ein Hersteller allein reicht dafür nicht, Marktmacht im Bereich dGPU hin oder her, der große Teil ist mit iGPUs unterwegs. Dann rendern sie halt auf ihren Megawatt schluckenden CPU Farmen weiter.
 
Zuletzt bearbeitet von einem Moderator :
Wenn ich das hier lese:
Und am Ende stellte es sich auch so dar, dass Volta wohl nur eine Art Testlauf für Turing war, um vor allem den Partnern Raum und Zeit, sowie die passende Hardware für die AI-Entwicklung zu geben.

Turing’s interesting question is what becomes possible with this new way of thinking about architecture. What about the relationship between Volta and Turing? Volta informed a lot of the Turing work. Volta was used as a working platform for Turing. A lot of the research was done on it. they’ve got things in common.
Dann geht Volta jetzt EOL oder? Das war ne "nette" Spielwiese für AI und erste RT Tests aber ist jetzt durch Turing abgelöst oder werden wir Volta noch im AI und Autonomen Fahren längere Zeit sehen?
 
@Triniter
Volta war wie TR einfach nur ein Projekt wie eine Machbarkeitsstudie, beides schlug wohl bei der Führungsebene von AMD und nV ein, so dass wir es jetzt bewundern dürfen.

@Igor
Dieses ganze an dx11 Festgehalte über Jahre (fast Jahrzehnt) verdanken wir ja auch nV, jetzt muss man ihnen RT gegen finanzieren, weil der Bereich zum erliegen kommt. Bewundern muss man so etwas nicht.

AMD will es mit einem Treiber/Teiberupgrade schaffen, da zum Jahresende 3dMark mit RT Sequenzen erscheint und sie bereits mitgeteilt haben es zu unterstützen, ob Ruckelorgie vorprogrammiert, ungewiss.
 
Volta = touring schaut euch die specks an das ist alles gleich nur hat Volta noch fp64 Leistung deshalb etwas größer.
 
@Igor

Wann kommt heute der Rest des Events, DEINE OFFENEN Fragen beantwortet ?
und lohnt sich das Warten auf die Gamer Variante von Turing, sprich GX 2080 (TI)
 
@ Igor, bin auch schon auf weitere Berichte / Insiderwissen gespannt ;)

(bestimmt ziemlich anstrengend, den ganzen Tag auf Messe und dazu noch die Zeitumstellung)
 
Weiß hier eigentlich jemand, ob das DirectX Raytracing ein Bestandteil von DX12 ist/wird, als Nebenher-API zusätzlich existiert, oder in einer Art DX13 aufgehen soll? Finde dazu keine Infos.

OK, Edith sagt, es wird ein Bestandteil von DX12. Hab doch etwas gefunden.
 
Begonnen hatte das mit der Implementierung von DXR in d3d12. MS bot/bietet dazu experimentelle Apps an (PIX = directx-raytracing). DXR ist damit Bestandteil der DirectX 12 Bibliotheken.

Auf GitHub im offenen Communitybereich kannst du Infos per Open Source Lizenz bekommen, um was es sich bei NVDLA (AI - Raytracing) handelt.

Vermutlich und ich schreibe es so, wird einiges was nV anbietet auch über GameWorks RT laufen (ob closed oder nicht unbekannt, ich vermute closed wie z.B. DLAA). Auch dort konnte man sich als Entwickler unter GameWorks RT registrieren (ging/geht leider nur wenn man einer Spieleschmiede angehört; AO, Lights and Shadow, Compute). Raytracing lässt sich per Vulkan, DXR und GW auf nV Karten ausführen, wobei dediziert wohl die Beschleunigung über Tensor-/RT Cores erfolgt/erfolgen wird. Inwieweit das andere Mitbewerber positiv oder negativ betrifft, ist ungewiss.

NV Raytraicing wird somit neben DirectCompute, auch durch die Volta/Turing AI (Tensor/RT Cores) beschleunigt, setzt aber auf Microsoft d3d12 DXR Schnittstelle auf und ist auch auf Vulkan lauffähig.
 
Zuletzt bearbeitet von einem Moderator :
So, ich bin gerade total genervt aus Kanada zurück. Der übliche Lufthansa-Quatsch mit Überbuchung, Schälchenfraß und Schlangen am Schalter bis zum Nordpol. Die machen es so geheim: morgen ist Freitag und ich habe noch nichtmal Infos für die Gamescom.

Leider wurden meine Fragen NICHT beantwortet, sondern man verwies auf das Whitepaper NACH dem Quadro- und GeForce-Launch. Was vielleicht interessant sein könnte: die aktuellen Pascal-Quadros laufen als eigenständige Produktlinie weiter. Das gabs aber auch nur so nebenher als Info.
 
Dann rechnen wir auch mit einer Pascal GTX und das Video des Colorful Mitarbeiters bestätigt sich. Schade das nVidia mal wieder closed macht, war aber zu erwarten.

Während DXR unter d3d12 und Vulkan auch auf AMD läuft, wird mV AMDs Variante (Raytracing und Rasterisierung; ProRenderer) vermutlich nicht unterstützen. Altes Spiel.

Schade eigentlich fing das sehr gut an, weil Microsoft sehr eng mit nV zusammenarbeitete und die Kooperation RT schnell in den Markt bringt. Manchmal glaube ich, dass tut man nur um dann den proprietären Hammer und Nägel wieder auszupacken, um alles richtig zu vernageln. Bis zum nächsten Orkan der die Fensterläden wieder wegreißt. Hauptsache der Topf voll Gold am Ende des Regenbogens ist voll, naja, Spaß beiseite - mal abwarten.:)
 
Ich war schon ewig nimmer so heiß auf ein Event wie das am Montag. Die ganzen Pascal Karten haben mich mit meiner 980ti nicht so sonderlich gereizt aber jetzt wird es Zeit für was neues das meine 1440p wieder richtig heiß befeuert. Noch dazu die ganzen Ray Tracing Themen die für mich als Informatiker einfach extrem lecker sind...
latest
 
Oben Unten