NVidia Das ist die GeForce RTX 2080 Ti | Video

1. Schock ist verdaut, Kriegskasse beträgt ca. 800,- € (bischel +/- ggf. möglich) - jetzt warte ich die Tests ab und muss mich dann wohl entscheiden ob es eine GTX 1080ti wird oder eine RTX 1080 (non TI) ausschlaggebend dürfte die 4k Performace werden bzw. ob die RTX die GTX 1080ti trotz weniger Shader durch die RTX Einheiten vorne liegt... bleibt spannend.
 
Ich würde dann aber nicht zu lange warten. Da wohl, bin mir nicht mehr sicher wo ich es gelesen habe, nVidia die Produktion der GTX 1080Ti einstellt/eingestellt hat, könnte es passieren, das Aufgrund der hohen Preise der 2000er Serie, die Preise für die restlichen 1080Ti Versionen nach oben gehen. Gerade wenn diese in Spielen ohne RT Unterstützung nicht viel langsamer sind als die neuen Karten.
 
Wann fällt der NDA eigentlich komplett? Ist da was bekannt/durchgesickert, ab wann auch "unabhänginge" Seiten Tests veröffentlichen dürfen?
 
Bei den NDAs ists wahrscheinlich genauso wie beim Berliner Flughafen.
Da wird auch bald bekannt gegeben, wann bekannt gegeben wird, wann der Termin ist an dem an dem bekannt gegeben wird wann der Flughafen eventuell eröffnet werden könnte.
 
Jetzt gibts auf der Nvidia-Seite eine übersicht des Boardlayout der Ti. Das geleakte board ist also wirklich nur für die non-Ti und die Ti hat ne noch fettere Stromversorgung. Wieviel Watt soll das ding denn bitte brauchen?
 
Jetzt gibts auf der Nvidia-Seite eine übersicht des Boardlayout der Ti. Das geleakte board ist also wirklich nur für die non-Ti und die Ti hat ne noch fettere Stromversorgung. Wieviel Watt soll das ding denn bitte brauchen?

Klein, gerendert und von der NV Website.
 

Anhänge

  • geforce-rtx-2080-ti-pcb-final-ld[1].png
    geforce-rtx-2080-ti-pcb-final-ld[1].png
    86,7 KB · Aufrufe : 16
Zumindest die Spannungsversorgung der Karte sieht solide aus.
 
Zumindest die Spannungsversorgung der Karte sieht solide aus.
Aber es geht wohl immer noch mehr. Inzwischen gibts ein Video der 2080 FTW3 (nonTi). Die haben einfach die Leiste mit den VRM nach oben hin verlängert. Es sind noch mehr drauf, als auf dem Referenzboard (es sieht allgemein aus, wie ein Referenzboard, das wegen des VRM nach oben verlängert wurde XD )
 
Hm. Das ist zu teuer. Es geht ja um Computerspiele. Dafür stell ich mir sonst nen Rechner zusammen ... Bin eigentlich auch davon ausgegangen, dass die zumindest vergleichbar bleiben und die 1080er dann im Preis fallen. Das wird so nicht passieren.
Komisch finde ich auch, dass sie nicht versuchen, ihre neue Technologie per Preis in den Markt zu drücken. Dann kann man davon ausgehen, das dafür auch entwickelt wird. Ich kann mir vorstellen, dass die eigentlich noch garnicht mit der Karte raus wollten. Da hat sich dann aber so ne Blase gebildet, dass die Angst hatten, ihre Investoren steigen aus. Und jetzt wird eigentlich nur eine Produktneuerung bekanntgegeben.

Ich hab einmal die Erfahrung gemacht, dass ein altes Produkt performanter war, als ein neues. Das war, als von DirectX 8 auf 9 umgestiegen wurde und ich Eigentümer einer 4600 Ti Karte war. Half Life 2 kam raus und rannte bei mir ohne Ende. Dann bin ich auf ne 6800 umgestiegen und es fing an zu ruckeln. Die Oberflächen-Spiegelungen und Transparenz-Effekte, die die Unterstützung von DirectX9 brachten, sind mir nur marginal aufgefallen. Kann gut sein, dass es sich hier ähnlich verhält. Aber, Freunde, der Preis ...

Ich bleibe auf jeden Fall bei meiner 980 Ti und daddel in Full HD. Zu den 1000 Euronen noch nen 4K Monitor ... das ist ja ne Woche Urlaub die da rausgeht.
 
Igor denke weiss schon in welche Richtung es Spiele Performance mässig hingehen wird
und er sagte ja selbst, sind NICHT 40% oder sind KEINE 40%
Dies finde ich nicht mehr auf die Schnelle...

Denke RTX 2080TI wird wirklich knappe 50% schneller als GTX 1080 TI
aber die RTX 2080 kommt nur auf ca. GTX 1080TI + - 5 Prozent.
Zumal die RTX 2080 TI nochmals knappe 50% mehr Shadereinheiten aufweist als die RTX 2080 Ohne TI
Dies sollte schon gewaltig durchschlagen.
 
Ja, aber wenn du die Familie nicht in den Urlaub schickst, dann kannste auch nicht in Ruhe vor der Daddelkiste hocken ;)
 
Hat jemand ne Info, was DLSS kann? Im Prinzip kann ich mir da schon ein paar nette Features drunter vorstellen, z. B., dass die Karte "lernt", wie viel Performance wann zur Verfügung steht und die ganzen Grafik Qualitäts-Features (AA, Sampling, Tesse...dingsbums und das ganze andere Zeug) bei Verfügbarkeit zuschaltet.
 
Hm. Google hat geholfen: Wird das Programm entsprechend trainiert, steigt die Wahrscheinlichkeit, dass es bei einem unbekannten Bild die richtige Lösung errät - eine Garantie gibt es dafür aber nicht. Ein auf Deep Learning basierender Algorithmus kann also theoretisch schneller sein als "perfektes" Antialiasing, aber nur maximal so gut aussehen - oder eben schlechter. Wie genau sich DLSS hier positionieren wird, müssen entsprechende Testberichte zeigen. Offen ist auch, in welchem Maße Turing-Karten Verbindung mit der Cloud aufnehmen müssen, um von den verbesserten Algorithmen zu profitieren. Eine Verknüpfung mit Geforce Experience ist naheliegend. (Quelle)

Ich bin nicht begeistert, dass die genannte Cloud-Verbindung weitere Bandbreite fressen wird. Bei uns gehtd er VDSL Ausbau echt nicht voran...
 
Naja, vereinfacht wird da wohl ein neurales Netz trainiert, das aus niedrig aufgelösten Bildern hochaufgelöste Bilder macht und dann eben nicht die hohe Auflösung / Effekte nativ rechnen muss, sondern quasi als „Special-postprocessing“ aufs fertig gerechnete Bild „draufpacken“. Da kann man halt Ressourcen ganz neu allokieren und insgesamt den Workflow bis zum fertigen Bild neu gestalten. Und NVIDIA kann das eigene Know How beim Thema Deep Learning mit der Spezialhardware (Tensor Cores) dazu parallel in ersten Produkten für den endkonsumenten verwerten.

Wenn das funktioniert, ist kann das wirklich bahnbrechend sein und die Art und Weise wie Bilder gezaubert werden fundamental ändern - insbesondere zusammen mit eben raytracing dabei.
 
Bis zu 50% schneller als die 1080Ti bei der 2080Ti. Bestimmt in einigen Spielen unter bestimmten Umständen. Aber allein wenn RT dazu geschaltet wird und der ganze DLSS noch am Anfang steht, wird es sicher keine 50% sein. Ich würde dann eher davon ausgehen, bis RT vernünftig in den meisten neuen Spielen implementiert ist, das es dann max. 10% Steigerung sein werden. Außer man verzichtet als User auf RT, dann könnten es 50% sein. Aber für 50% möglichem Leistungsplus und den Verzicht auf das Feature was nVidia mit den neuen Karten am meisten bewirbt, sind kein Aufpreis von 500$ und mehr Wert.
Aber das muss jeder für sich selber wissen. Eins weiß ich aber mit Sicherheit, wenn jetzt wieder alle nVidia Anhänger zugreifen, sei es erst blind ohne Tests, oder nach den Tests die Karten als zehntes Weltwunder feiern. Werden die Preise noch mal bei der nächsten Generation um 100-200$ pro Leistungsklasse steigen.
 
Angebot und Nachfrage.
 
Das ist so oder so immer so. Hat ja die Miningblase gezeigt. Ist aber am Ende immer die Frage wo ist die Schmerzgrenze für jeden und muss man jedem Trend blind hinterherlaufen nur um der erste zu sein? Wenn die Schmerzgrenze aufgrund von ausreichendem Verdient sehr hoch liegt und man gerne der erste ist der etwas neues haben will. Go for it.
Mir ist das halt zu viel Geld was nVidia haben will. Wäre auch bei AMD für mich zu viel, bevor jemand fragt. ;)
 
Oben Unten