NVidia Nvidia GeForce RTX 2080 Ti und RTX 2080 vorgestellt - was sich hinter Turing wirklich verbirgt

Status
Nicht offen für weitere Antworten.

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.107
Bewertungspunkte
18.596
Punkte
114
Alter
59
Standort
Labor
Gehen wir positiv denkend davon aus, es funktioniert später alles (größtenteils) auch so, wie es zur Siggraph und der Gamescom 2018 den staunenden Anwesenden stolz präsentiert wurde. Dann darf man Turing durchaus als Nvidias größten architektonischen Sprung seit mehr als 10 Jahren sehen. Um dies alles zu realisieren, bietet das Unternehmen den Kunden bei der neuen Generation eine recht breite Palette zukunftsweisender Funktionen, die die Leistung in den heutigen Spielen beschleunigen, die künstliche Intelligenz in die Desktop-Grafik einbringen, das Raytracing in Echtzeit möglich machen, das Video-Streaming beschleunigen und die nächste Generation von VR-Hardware unterstützen können.



Klingt gut? Ist es auch, wenn alles so funktioniert, wie beschrieben. So fair muss man wirklich sein. Aber es gibt an der ganzen schönen Geschichte derzeit auch einen kleinen Haken: Lobe den Tag nie vor dem Abend! Nvidia hat sich mit allen gezeigten Präsentationen die Latte sehr hoch gelegt und sich damit enorm unter Zugzwang gesetzt, nun auch adäquat liefern zu müssen. Dazu kommt auch, dass die meisten der neuen Features von Turing zum jetzigen Stand der Software noch nicht einmal getestet werden können. Der Glaube versetzt Berge, aber eben leider keine Software.

Und obwohl sich die GeForce RTX 2080 Ti und 2080 bereits in unseren Labs befinden, hat der Hersteller schon noch irgendwie den Finger drauf. Es gibt nämlich vorerst keine Möglichkeit, wirklich verlässlich zu sagen, wie sich diese Karten dann letztendlich in unserer Benchmark-Suite verhalten werden und was dann die echte, native Unterstützung der Features noch bringen kann und wird.

Das bleibt bis zum echten Launch (und auch sicher noch eine gewisse Zeit darüber hinaus) das große Fragezeichen hinter all den neuen und wirklich aufregenden Dingen, die Ihr nun auf den nächsten Seiten lesen könnt....

>>> Zum Originalartikel <<<
 
Zuletzt bearbeitet :
Noch schnell den Titel in 2080 Ti statt 280 ändern! *und wech, muss weiterlesen*
 
Schon passiert. Musste jetzt aber neu laden :D
 
Ich bin ganz ehrlich zwiegespalten.

Auf der einen Seite eine Grafikkarte mit augenscheinlich genug Potentail für einen neuen Meilenstein in punkto Grafik/Performance. ( Selbstredend mit dem dazugehörigen Stromverbrauch )

Auf der anderen Seite vermag ich einen gewissen Grusel nicht zu unterdrücken. Wird dann das Blut bei Kriegsspielen noch herrlicher sprudeln, der Zombie noch ekelhafter wirken als jetzt? Inwieweit werden wir die Realität noch weiter ausblenden und uns in virtuellen Welten ein Bild von uns machen, das uns nie gerecht werden kann? Sicherlich ist eine solche "Traumkarte" nur ein Baustein dort hin und aufhalten kann man diese Art von "Fortschritt" eh nicht mehr. Und ob dann die Rechenleistung einer solchen Karte dazu dient, eine neue Welt in Echtzeit zu berechnen oder aber den Abzug einer Waffe betätigt, ist dann sowieso schon egal.

Hm, aber für solche Gedanken kann die Grafikkarte ja nix. Trotzdem schönes Wochenende!
 
Ob man das jetzt an der neuen Ebene der grafischen Fiktion festmacht oder Angst vor der Claudia hat - ich finde den Ansatz, auf diese Art völlig neue Wege zu gehen, einfach beeintruckend und auch mutig. Klar kann man sich zu Tode shrinken und noch jahrelang old-school rumshadern - aber ich möchte nicht wissen, mit welchem finanziellen Kraftakt Nvidia das über Jahre hin bis heute gestemmt hat. Das mal sowas kommt, hat man sich mit dem ganzen Machine Learning Hype der letzten Jahre ja schon denken können. Dafür ziehe ich ganz ehrlich den Hut und man muss mal Dinge, wie die Fragen nach dem Sympathie-Faktor einer Firma ehrlicherweise hintenanstellen.

Da ist schon ein ordentliches unternehmerisches Risiko mit dabei und vielleicht versteht nun auch so mancher, warum man bei Grün im Vorfeld so einen Aufriss gemacht hat. Bis hin zum NDA. Im schlimmsten Fall hätten nämlich die, welche gern mal plaudern, gar nicht komplett überrissen, worüber sie gerade schreiben. Und dann geht so etwas erst Recht nach hinten los. :D
 
ich glaube immernoch, der umstieg von einer 1080 Ti wird komplet überflüssig sein... grad die customs(meine rennt mit 2063/6318) sollten der FE nicht all zu fest nachstehen(zumindest solange die nicht OCt wurde).

zum technischen aspekt: irgendwer muss immer den ersten schritt machen, bei x64 wars AMD, und bei RT isses halt NV... damals haben auch alle zu x64 gesagt "brauch niemand"... ja ne is klar, frage mich ob wir dann nicht noch immer mit max. 3.2GB nutzbaren speicher rumacken würden(in dem der grafikspeicher im fall mit einbezogen ist = heutige games wären dann richtig hässlich mit gammel texturen).
 
Wenn der Umstieg von der OC 1080Ti auf die 2080Ti bedeutet durch 15% mehr Leistung bei 4K Fulldetail 60FPs min zu halten wird es genung User geben die das willkommen annehmen ohne auch nur einen Krümmel der neuen Features und Möglichkeiten als Kaufanreiz angekrazt zu haben.

Was wem wieviel wert ist ist immer individuell , Ich kann nur für mich persönlich resümieren das ich in der Vergangenheit schon für wesentlich weniger Leistung und Features Aufgerüstet habe.
Von daher bin ich mit solchen Aussagen wie : für 1080Ti Besitzer komplett Überflüssig immer sehr vorsichtig.
 
Du hast das alles gelesen und 'glaubst'? Wow...
Das Risiko, was nVidia da eingeht, ähnelt lustigerweise dem, welches AMD grad erfolgreich eingegangen ist. Hat was.
 
Ich habe in Vancouver auf der Siggraph die Unreal Leute gesehen, abends mit vielen Entwicklern auch mal bei einem lustigen Getränk etwas lockerer geplaudert. Die sind alle aus dem Häuschen ob der neuen Möglichkeiten. Ich habe selten so viel echte Begeisterung gesehen. Aber NV ist ob der ganzen Vorleistungen auch zum Erfolg verdammt.
 
Die Quadro RTX 6000 scheint deutlich mehr Power zu haben. Wird aber wohl wegen des Preises noch weiter von der optimalen Preis/ Leistung wegschiessen, als es die TI tun wird. Ich bin jedenfalls gespannt.
 
Es gibt Seiten, wo die überwiegende Mehrheit der Leser mit 3 Seiten aus den Folien schon überfordert ist. PCGH hatte immerhin 35K Text, schon ganz ordentlich. Allerdings habe ich im Gegenzug Angst, dass es hier mit 50K Text und 14 Seiten viel zu ausführlich war. Sonst muss ich in Zukunft immer noch einen Light Artikel dazu posten :D


Abend-Stilleben mit Hardware :)

41688171_2184161711618481_4674548830513922048_o.jpg
 
Welcher Monitor ist dies Bitte, Eizo weiss ich aber Modell und Größe Bitte, Ultra HD mit 60 Hz
 
Das dort ist kein Eizo, sondern ein günstigerer 21:9 LG :)
Der Eizo steht auf der anderen Seite des Raumes...
 
Schönes Ding und ich bin immer froh, wenn Artikel nicht nach 2,5 min durchgelesen sind. Anandtech hatte da früher häufiger auch mal echt geile Monster mit Tiefgang dabei.

NVIDIA ist schon ne Nummer. Ich war beruflich auf der ein oder anderen GTC in EU und US (2016/2017) und was die da zusammenbringen ist schon weitab dessen, was man ursprünglich von einer Pixelschleuderschmiede für Daddler erwartet. Die haben sich da teilweise schon neu erfunden und dem muss ich schon echt Respekt zollen.
 
Eizo EV3237-BK

aHR0cDovL21lZGlhLmJlc3RvZm1pY3JvLmNvbS9YL0IvNjg5Mzc1L29yaWdpbmFsL0Vpem8tQmVuY2gtVGFibGUuanBn
 
Schöner Artikel und auch genau richtig von der Länge. Das ist es was TomsHW ausmacht und auch vom Wettbewerb unterscheidet. Das war auch der 1. Artikel neben den Leaks den ich hierzu gelesen hab. CB und PCGH schaue ich mir Morgen vielleicht an ;)
 
Danke für den Artikel, sehr interessant, das alles! Ich bin gespannt, wie viel letztendlich an Leistungssteigerung herauskommt, Raytracing ist imho noch nicht performant genug nutzbar, DLSS mit Upscaling könnte DAS Feature werden.
 
Ehrlich, ich fand einen GPU Launch noch nie so langweilig wie diesen. Einen Haufen technischer Details und irgendwelcher Herstellerbenchmarks deuten doch darauf hin das die Karten hinter den Erwartungen der Jünger zurück bleiben. NVidia hat ein Problem und das wird ganz sicher offensichtlich, was man mit Häppcheninformationen und viel Marketing TAM TAM versucht zu entschärfen. Technische Review ohne Benchmarks und tausend mal die Karten und Architektur vorstellen, wie toll doch alles geworden ist, langweilt den Großteil der grünen Anhängerschaft doch bloß, die wollen lange Balken sehen. Der reinste NDA Wahnsinn.

Was an RT zum Beispiel in SotTR gut und bahnbrechend sein soll, wo dieses unter 1080p für ein paar Hybrid RT optimierte Schatten nur noch mit 30fps läuft (ja genau 1080p=30fps auf der 2080ti!!!) soll mir bitte einer erklären. NVidia lässt sich das proprietäre Gameworks RT und dedizierte Pionierarbeit um DXR ohne Computeshading vergolden. Die Preisgestaltung rund im TU ist einfach krank. Eine 2080 die rasteriziert langsamer als eine Custom 1080ti rechnet und 150$ mehr kostet. Zumal man sich bei GPU Cryptomining und Pascalstückzahlen richtig verfranzt hat, dabei hundertausende Chips zuviel produziert hat. Turing macht erst in 7nm Sinn, die Chips sind riesig, kosten zuviel, fressen reichlich Strom und sind unter RT Gaming viel zu langsam. Innovation wollte AMD mit Vega auch, übrig geblieben ist davon nichts.

Warten wir einfach 7nm ab, macht deutlich mehr Sinn. RT wird erst in 3 oder 4 Gen spielbare Frameraten liefern wie man das zu derzeit aufgerufenen Preisen auch erwarten kann. 1250$ für 30fps, klar was sonst?
 
Status
Nicht offen für weitere Antworten.
Oben Unten