NVidia Nvidia GeForce RTX 2080 Ti und RTX 2080 vorgestellt - was sich hinter Turing wirklich verbirgt

Status
Nicht offen für weitere Antworten.
Kommst du aus der Zukunft oder woher beziehst du eigentlich dein Wissen @gastello ? Letztens hast du ja auch schonmal sowas rausgehauen, dass die 2080 langsamer als die 1080ti wäre. Anhand mit heißer Nadel gestrickter und völlig unoptimierter Tech-Demos von Bf5 und SotTR auf die finale RT-Leitung zu schließen, finde ich auch sehr gewagt. Ich verstehe auch die Aufregung über Nvidia nicht, wem die Leistung nicht reicht oder wem die Karte im Verhältnis dazu zu teuer ist, der kauft sie sich nicht, das ist doch ganz einfach, die 1080 ti gibt es ja noch als Alternative.
 
Na ja, wenn es nach der Branche geht soll Weihnachten im VR Rausch enden.
Jeder stellt ne Brille vor die unter Windows läuft und diese wollen befeuert werden.
Ist wie der letzte Hype mit den 3D Brillen und 120Hz Monitoren.
Wie schon erwähnt, Tickets besorgt und warten wohin die Reise geht...
 
Kommst du aus der Zukunft oder woher beziehst du eigentlich dein Wissen @gastello ?
Skepsis, gepaart mit Fachwissen, kann durchaus auch zu brauchbaren Schlussfolgerungen führen. Kann, muss aber nicht immer. Aktuell kann ich mich leider nicht einmischen (aus gewissen Gründen), aber unter der Full-HD Briefmarkenauflösung rennt so eine Karte eh ins Limit. Für Ultra-HD gehe ich allerdings nicht mit, da ist eine 1080 Ti sogar für einen Blinden im Nachteil.
 
Naja, es geht ihm ja um zwei Dinge:
1. Hybrid-RT: "ja genau 1080p=30fps auf der 2080ti!!!" Ja, das war so bei SotTR, bei Bf5 war es wahrscheinlich noch langsamer. Aber daraus kann man doch nur schwerlich abschätzen, dass das jetzt in allen Spielen, die da evtl. kommen, so schlecht laufen wird.
2. "Eine 2080 die rasteriziert langsamer als eine Custom 1080ti rechnet und 150$ mehr kostet." Inwiefern will man das so pauschal sagen können? Es wird sicher Spiele geben, wo die 2080 nicht gegen eine 1080 ti bestehen wird können, andere Spiele laufen dafür auf der 2080 besser. Und wenn von den vielen Neuerungen auch einige in den Spielen umgesetzt werden, dann dürfte die 1080 ti wohl nicht mehr mithalten können. Man sollte auch nicht Abverkaufspreise mit Launchpreisen vergleichen.

Das bedeutet nicht, dass man in den großen Hype ausbrechen und die Karten unbesehen kaufen muss, man muss aber auch nicht alles so schwarzmalen.
 
ich habe RT nur als nice to have auf dem Schirm. Mir gehts um 4k/60fps und auch DLAA/DLSS finde ich sehr spannend. Bessere Qualität und geringere Performance einbußen, klingt in der theorie schon sehr gut für kommende Titel. Die alten dürfte die 2080ti sowieso ganz gut hinbekommen. RT werde ich mir mal anschauen und testen.. wenn die Qualität so gigantisch besser in der Praxis wirkt, wer weiss, vielleicht gebe ich mich dann auch mit FullHD zufrieden. Das merkwürdige ist, Bluray Filme finde ich ansprechend und da reicht mir auch full HD, bei spielen war ich bisher eigentlich immer auf 4k aus. Wenn bei FullHD die Kantenglättung, die Tiefenschärfe usw. überzeugender wird ggf. passt es ja dann optisch. Full HD mit DSR sieht ja auch wesentlich besser aus, auch in Full HD. Naja wie gesagt ist für mich RT nice to have. Wenn es was bringt super, wenn nicht funktioniert das worauf es mir ankommt auch ohne rt.
 
Sehe ich sehr ähnlich. RT wäre für mich auch kein Kaufgrund, in erster Linie muss die normale Performance stimmen und wenn an dem Test bei Videocardz etwas dran ist, dann ist die 2080 ti im Schnitt >40% schneller als die 1080 ti (ja, es wird sicher auch Spiele geben, in denen der Abstand - auch deutlich - kleiner sein wird) und das ist dann schon eine Hausnummer. Bei Spielen, die DLSS unterstützen wird das Leistungsplus in UHD nochmal höher sein, auch das ist eine Ansage, allerdings noch eine Wette auf die Zukunft, es wird darauf ankommen, wie schwierig das für die Entwickler zu implementieren ist.
 
Danke für den extrem ausführlichen Artikel! Ich bin es ehrlich gesagt leid, immer nur Kurzformen zu lesen, weil man das den Usern nicht zumuten kann... Das ist Journalismus. Ich jedenfalls sehe jetzt klarer. Die Preispolitik ist aus Entwicklersicht sicher gerechtfertigt, aus Endusersicht potentiell haarsträubend. Bin gespannt auf erste Benchmarks.
 
Das Problem mit den Inhalten ist leider auch, dass man schon verstehen muss, was man da schreibt. Im Text hier sind auch Diktiergerätaufzeichnungen eingeflossen, also Dinge, die nicht auf Reviewers-Guide-Level runtergebrochen wurden. :D

Ich habe einige Karten hier. Preis mal außen vor: fetzt durchaus. Und im Gegensatz zu AMD scheint NV auch genug Kohle und Standfestigkeit zu besitzen, um diesen Weg auch durchzuziehen. Bei Strafe des eigenen Untergangs. Zurück ist nicht mehr.
 
Ja, das glaube ich. Man muss halt sehen, was die können und was einem das Wert ist. Für mich wäre "flüssig spielen in 4K" ein Kaufgrund, weil"zukunftssicher" (=Schritt nach vorne). Allerdings heißt das, ich schaffe dann auch nen neuen Monitor an und ggf ein neues NT. Damit bin ich - je nach Karte bei 2.000,- €. Und das ist mehr, als ich vor mir selbst rechtfertigen kann. Ich komm ja kaum zum Spielen und hab noch x-Titel auf der Platte, die gespielt werden wollen und älter sind. Dafür "brauche" ich die Karten nicht. Ich erinnere mich noch an DirectX9. Damals kamen die Geforce 6xxx Karten raus und hatten ihre liebe Mühe, das vernünftig darzustellen. Selbst ne 300 € Karte hatte auf 1280x1024 Ruckler produziert. Meine alte DirectX8 Karte (4600Ti) hat das alles - ohne DX9-Features - ruckelfrei in Max Details dargestellt. Der Sprung hat sich trotzdem gelohnt. Seit 2-3 Jahren sehe ich in FullHD qualitativ aber kaum wahrnehmbare Unterschiede zwischen den Hardware Generationen (ich achte ja eher auf Gegner und Umgebung als auf Schattenqualität und Texturdetails). Zuletzt beeindruckte mich TR, bei dem ich den Übergang von Intro-Rendering zu Spiel mit meiner 980 Ti nicht bemerkt habe. Ich werde mir das sehr genau ansehen, sicherlich keine "alte" Pascal kaufen. Aber "Early Adopter" werde ich höchstwahrscheinlich auch nicht.
 
Naja, ist halt ein Paradigmenwechsel im Bereich „wie komm ich zum besten Bild“. Das Ganze haben sie grds. schon recht clever gemacht: ich könnte mir vorstellen, dass NVIDIA mittelfristig versucht, ein 4K Bild eben in einer Kombination aus herkömmlicher Berechnung plus Raytracing plus DLSS zu erstellen. Kann mir gut vorstellen, dass „rechne in 1080p mit raytracing und skalier das mit DLSS auf 4K hoch“ aufgrund der unterschiedlichen Arbeitsteilung (für alles die beste Hardware/Technik in Kombination der pfiffigsten Softwarekniffe wie DL) mittelfristig Vorteile bringen kann. Sind halt noch zig Fragezeichen offen, z.B. wo dann (neue) Bottlenecks entstehen (insbesondere bei Raytracing und DLSS - dass der Rest auf 1080p flott klappt, wissen wir ja...) oder wie gut die Bildqualität dann ist.

Wenn das aber die Idee wird, nähern sie sich so ein bisserl von Konzeption der Film-Produktion an, mit dem feinen Unterschied, dass sie eben nicht alle Bilder vorab in 4K+ berechnen, sondern sie müssen eben nur ein neuronales Netz (mit weniger Bildern insgesamt) trainieren, womit man dann eben von 1080p auf 4K-Bildqualität kommt. Schon ein krass neuer Ansatz, wenn es denn funktioniert und eben ein völlig neuer Weg zum „finalen Bild“.

Kann mir schon vorstellen, dass diese Methode Effizienz- und damit Performancegewinnne bringt im Vergleich zu „rechne alles in 4K nativ“.

Muss man mal abwarten, aber die Vergangenheit hat schon gezeigt, dass NVIDIA im Bereich DL den sonstigen Marktteilnehmern mal um ein oder zwei Nasenlängen voraus ist. Und wer ein wenig davon versteht, sieht das Potenzial was in den Tensorcores in Sachen Bilderzeugung steckt.... wenn die denn genutzt werden...
 
"fetz durch aus" lässt mich ja hoffen das die Benchmarks/Leaks von Videocardz nicht ganz aus der Luft gegriffen sind. Dazu kommt, das dort bei dem Testsystem "nur" ein Core i9-7900X 3.3 GHz (Boost 4,3 Ghz) zum Einsatz gekommen ist, der ggf. bei hohen FPS Zahlen limitiert. Ein 8700k mit 5 Ghz kann ggf. noch das ein oder andere Frame mehr raus holen. (ok mein 4790k @ 4,6Ghz dürfte wohl auch das 1. mal die GPU limitieren, selbst in 4k ;) )Ich glaube aber sowieso erst den Finalen Tests 100%tig und da bin ich auch auf das Custom Modell von MSI Gaming X Trio 2080TI sehr gespannt.

Bezüglich spiele hab ich genug auf der Platte die auf meiner damaligen 1080 nicht richtig rund liefen und wo auch lt. Tests der 1080TI die puste aus ging. Kingdom Comes Deliverence ist wohl der extremste Hardwarefresser, FF15, Witcher 3 und Fallout 4 mit Mods sind ebenfalls gut dabei um in 4k nicht die 60fps / max Details zu erreichen. Mechwarrior 5 hat ja die Effektunterstützung und da ich das Spiel früher mal sehr intensiv gespielt hatte, wäre das dann auch auf meiner ToDo Liste. Naja den kürzeren wird dann meine Frau ziehen, wenn ich abends kein Bachelor mitschauen möchte :p
(muss natürlich aufpassen es dann nicht zu übertreiben ;))
 
Mechwarrior 5 ist für mich ein absolutes Must have. :D

Dauert aber bestimmt noch, bis das raus ist.
 
Skepsis, gepaart mit Fachwissen, kann durchaus auch zu brauchbaren Schlussfolgerungen führen.
Deine Einstiegs-PM. Gefällt mir!(y):sneaky:

33% mehr als die 1080 ti.
Zu knapp 50% höheren Anschaffungskosten?, ich zitiere *zurück geht nicht mehr*. Logik beim posten wäre schon nicht schlecht (ohne persönlich zu werden). Man muss nicht reflexartig antworten.

Deinen Link bezüglich der Benchmarkergebnisse, sollte man schon dazu schreiben das die Luminous-Engine stark nVidia *fördernt* Benchmarks beeinflusst (VXAO und so weiter). Genau gegen solche proprietären Ansätze sprach ich mich ja aus. Posting nochmal genauer lesen.
 
Zuletzt bearbeitet von einem Moderator :
Bremse rein @gastello und HerrRossi - die letzten beiden Postings waren unnötig...
 
Sinnvoll wäre sicher gewesen in dem Zusammenhang Enlisted und Vulkan zu erwähnen, was aber sicher zu weit offtopic wäre.

//e: Post #56 wurde auf Hinweis der Administration abgeändert.
 
FF15 -> 33% mehr Power RTX 2080TI vs 1080Ti wäre für mich absolut ok. Was man halt hier nicht beurteilen kann, ist ob das Spiel nicht sowieso im CPU Limit hängt bzw. wie das System ausgesehen hat. Dazu bleibt halt die Frage wie viele Tests da einbezogen sind für die 2080TI und welche Modelle (FE oder Customs)... Letztlich sind bisher alle Leaks nur eine Tendenz (die aus meiner Sichts erwartungsgemäß ausfällt) - Am Mittwoch sind wir schlauer :D(y)

P.S. für FF15 ist auch die Unterstützung für DLSS angekündigt, dann dürfte die Tabelle eh nochmal anders aussehen
 
Status
Nicht offen für weitere Antworten.
Oben Unten