NVidia Nvidia RTX 2080 Serie hat 4352 und 2944 CUDA-Kerne

Jakob Ginzburg

Urgestein
Mitglied seit
Jun 17, 2018
Beiträge
843
Bewertungspunkte
290
Punkte
63
RTX.jpg


Jakob Ginzburg Neuen News-Beitrag vorschlagen
Kurz vor der voraussichtlichen Vorstellung der neuen Grafikkarten-Generation von Nvidia am 20.09 haben die Kollegen von videocardz die (laut Quelle) die finalen Spezifikationen erhalten. So soll die kommende RTX 2080 Ti über 11 GB GDDR6 Speicher sowie ein 352-bit großes Interface verfügen.

RTX.jpg



Der Takt beläuft sich wohl auf 14 Gbp/s. Damit steigt die maximale theoretische Bandbreite auf 616 Gb/s, also 132 Gb/s mehr als Pascal. Die GeForce RTX 2080 Ti soll laut videocardz über 4352 CUDA-Kerne aufweisen. Die GeForce RTX 2080 ist eine 8GB Karte mit einem 256-Bit-Speicherinterface und bietet 2944 CUDA-Kerne.

RTX-2.jpg

Vergleicht man die RTX-Endverbraucher-Modelle mit den Profi-Grafikkarten, ergibt sich das folgende Bild:





NVIDIA RTX Serie



CUDA Kerne
Speicher
Speicher-Interface
Speicherbandbreite


Quadro RTX 6000​




4608






24 GB G6






384-bit






672 GB/s




GeForce RTX 2080 Ti​




4352






11 GB G6






352-bit






616 GB/s




GeForce GTX 1080 Ti​




3584






11 GB G5X






352-bit






484 GB/s




Quadro RTX 5000​




3072






16 GB G6






256-bit






448 GB/s




GeForce RTX 2080​




2944






8 GB G6






256-bit






448 GB/s




GeForce GTX 1080​




2560






8 GB G6






256-bit






352 GB/s





Zur Quelle

Den Originalbeitrag lesen
 
Und wenn dann noch der Chiptakt ein Leistungsplus erfährt sowie die zusätzliche Hardwareseitige Raytracing Unterstützung - ich bin echt gespannt was da für Preise abgerufen werden - die 2080ti lächelt mich auf jeden Fall an :)
 
800 bis 1000 Dollar
Also stolze 849 bis 1049 Euro für Custom RTX 1080 und 1080 TI Modelle

NV hat wohl den Ar.ch offen!
 
Und wenn dann noch der Chiptakt ein Leistungsplus erfährt sowie die zusätzliche Hardwareseitige Raytracing Unterstützung - ich bin echt gespannt was da für Preise abgerufen werden - die 2080ti lächelt mich auf jeden Fall an :)

Schockierende finde ich den Unterschied zwischen der 2080 und der 2080 Ti auf dem Papier. Das wird vermutlich eine riesen Kluft, weil man es kann. Da hätten mindestens noch 1~2 Modelle platz.

Die 2080Ti wird sicher spitze, aber mit dem entsprechenden Preisschild.

Das Gerücht das die 2080 nur unwesentlich schneller ist als eine 1080Ti (falls überhaupt) scheint sich auf dem Papier zumindest zu bewahrheiten.

2080 -> 2080Ti sieht nach einem ~35%(+) Sprung aus.
 
Moment. Wieso denn schon 2080Ti ? Ich denke die kommt frühestens Mitte - Ende 2019? o_O?

Ansonsten sieht es, wenn man diesen Zahlen trauen kann, tatsächlich so aus, als währe der Unterschied zwischen 1080Ti und 2080 (non-Ti) praktisch nicht vorhanden oder sogar ein klein wenig zum Vorteil der älteren Karte.
Crazy World.
 
Ganz so extrem wird es sicher nicht ausfallen, aber ich sehe die 2080 eigentlich auch nur einen Hauch vor der 1080 Ti. Aber das bezieht sich auf die reine Leistung der CUDA Cores in den herkömmlichen Workloads. Wenn der Rest ebenfalls genutzt werden kann, dann wird es natürlich schon anders aussehen., Aber das steht man noch komplett am Anfang. Ich habe aktuell so ein wenig das Feeling wie damals bei der Einführung der Unified Shader.
 
Nun RTX 2080 gleichauf mit GTX 1080TI oder minimal schneller
Dann wäre aber die RTX 2080 TI nochmals gute 30% schneller als eine RTX 2080 und der Preis um 1000 Euro realistisch.
Dafür kann ein Vega 20 - Navi gut aufholen auf die GTX 2080 zumindest.
 
Ganz so extrem wird es sicher nicht ausfallen, aber ich sehe die 2080 eigentlich auch nur einen Hauch vor der 1080 Ti. Aber das bezieht sich auf die reine Leistung der CUDA Cores in den herkömmlichen Workloads. Wenn der Rest ebenfalls genutzt werden kann, dann wird es natürlich schon anders aussehen., Aber das steht man noch komplett am Anfang. Ich habe aktuell so ein wenig das Feeling wie damals bei der Einführung der Unified Shader.

Für mich schon deshalb interessant, weil in nächster Zeit (spätestens bis Ende September) ein neuer Rechner ansteht, um meine viele Jahre alte Maschine zu ersetzen.
Eigentlich wollte ich auf die 2080-er warten, aber wenn es da zur 1080Ti wirklich kaum ein Unterschied ist, kann ich mir das Warten auch sparen. Denn die dann doch wieder interessante 2080Ti wird ja wohl noch gut ein Jahr auf sich warten lassen. (Oder wollen die die Zeitgleich auf den Markt bringen?)

(Als Prozzi liebäugele ich im Augenblick mit einem Threadripper 2950X, bin da aber noch unentschlossen, da sich bei mir das Verhältnis von Anwendungen, die über viele Kerne gut skalieren zu Anwendungen, die nur auf Takt setzen (und eben nur 1-2 Kerne benutzen) etwa 50:50 die Waage hält. Ist halt schwierig zu entscheiden für meinereiner, da ich mich nur alle Jubeljahre (nämlich immer dann, wenn ein Upgrade ansteht) mal mit der Materie befasse. ^_^")
 
Denke die Karten werden 900 und 1100 Euro kosten. (800/1000$ plus Logistik und anderen Kram plus Deppenaufschlag), Customs wahrscheinlich noch teurer.

Ehrlich: ist mir zu teuer für eine 2080ti und 2080 (null VRAM-Zuwachs+285Watt+NV Link), da bekam man bald eine Titan für. Wie vermutet lässt sich nV das RT Logo teuer bezahlen.

Wer jetzt noch was braucht sollte eine 1080ti im Abverkauf erwerben und vielleicht in einem oder zwei Jahren nochmal gucken. RT wird imo völlig überschätzt, ja es sieht verdammt gut aus, der must have Effekt ist da - aber das Gehype um paar Beleuchtungstechniken die nicht auf jeder Hardware laufen werden ist mir persönlich zu früh. Wie aus vorgehaltener Hand von Spieleentwicklern bekannt wurde, wird RT nur unter höchster Stufe anwählbar sein (Ultra bzw. höchstes Offset), da ist selbst nV teilweise zu langsam. Unter der UE4 RTRT Star Wars Demo lief Turing wohl mit 22fps (P8000), Pascal mit 3,2fps; die Porsche-Demo lief auf Turing mit 11,6fps und auf Pascal mit 1,7fps. Da waren Quadros gemeint. Wir sind weit weg von Echtzeitrendering unter Spielen und irgendwelchen 60fach DLAA als Raytracing-Vollbildfilter.

7nm muss man klar abwarten, erst dann wird RT Fahrt aufnehmen. Wer professionell mit RT (Tensor-/RT) arbeiten möchte sollte klar Quadros kaufen, wenn er das Geld hat.

@SpiritWolf448
Der 2950X ist eigentlich eine gute Spiele CPU wie Igors Benchmarks zeigen (teilweise kann er mit dem 8700k gleichziehen), ID Tech7 soll viel mehr Kerne auslasten. Erst dann werden solche CPUs zeigen was sie können, da gibt es auch kein vermeintliches RAM Interface Problem, weil AMD gerade bei denen die Die to Die Links verdoppelt und zwei IFOP SevDes zusätzlich hinzugefügt hat, wovon sie unter Spielen dann auch profitieren weil die Bandbreite intern steigt.

Ich warte noch den Test des 2920X ab, aber der 2950X ist schon nice.
 
Zuletzt bearbeitet von einem Moderator :
Der 12-Kerner sollte schon reichen :)
 
Danke, den werde ich ganz sicher nehmen! Scheint mir die zukunftssichere Investition zu sein, die sich auch schon in 12nm lohnt.;)

Wenn ich aus dem Süden wiederkomme ist er mein...:giggle:
 
@SpiritWolf448
Der 2950X ist eigentlich eine gute Spiele CPU wie Igors Benchmarks zeigen (teilweise kann er mit dem 8700k gleichziehen), ID Tech7 soll viel mehr Kerne auslasten. Erst dann werden solche CPUs zeigen was sie können, da gibt es auch kein vermeintliches RAM Interface Problem, weil AMD gerade bei denen die Die to Die Links verdoppelt und zwei IFOP SevDes zusätzlich hinzugefügt hat, wovon sie unter Spielen dann auch profitieren weil die Bandbreite intern steigt.

Ich warte noch den Test des 2920X ab, aber der 2950X ist schon nice.

Es geht bei mir beileibe nicht nur um Spiele. Ich mache im Grunde alles mit dem PC. Office, Internet, Spielen, Musik hören (sei es gestreamt, als .flac oder von CD), Filme schauen (Stream oder DVD/Blu-Ray), Video- und Bildbearbeitung, Rendering etc.

Daher auch meine vorherige Aussage, das ich im Grunde sowohl Anzahl der Kerne als auch Takt pro Kern im Auge haben möchte.

Zu den GraKas: ein weiterer Vorteil der 1080Ti gegenüber der normalen 2080 ist die VRAM Größe. 11 statt 8 Gig sind interessant, da ich beim Rendern via GPU (Octane) dann komplexere Szenen rendern könnte. Zumindest theoretisch.

Bin mal gespannt, ob die Grünen am 20.8. auch irgendwas belastbares zum Launch der 2080Ti sagen werden. Hihi. :-D
 
Wenn eine 2080 ti für 3 Jahre UHD@60Hz reichen würde, dann könnte ich auch - allerdings zähnekrnischend - mit einem Preisschild von 1.000,- € leben. Schön wäre das zwar nicht, aber Hobbies kosten nunmal Geld und PC Gaming ist ein eher günstiges Hobby.
 
Das liest sich, als würde die 2080 auf dem Quadro 5000 chip basieren und die 2080Ti auf dem Quadro 6000. Da es aber auch noch eine 8000er Quadro gibt, mache ich mir etwas sorgen, ob da nicht doch noch was potenteres kommen könnte. Wobei nein, die 8000 hat ja nur mehr speicher und gleich viele cores... Gück gehabt.
 
Ich hoffe ja, dass es dann direkt reviews geben wird, die alle schon in der Schublade haben.
 
Nix Schublade. Alle warten noch
 
Was mich etwas irritiert, ist, dass das geleakte 2080 board bereits quasi eine Vollbestückung im VRM-Bereich hat.
Muß man wohl davon ausgehen, dass die Ti powerlimit-mäßig etwas knapp ausgestattet sein wird.
 
Oben Unten