NVidia Nvidia GeForce RTX 2080 Ti und RTX 2080 vorgestellt - was sich hinter Turing wirklich verbirgt

Status
Nicht offen für weitere Antworten.
Ohne hier mal rumzuspoilern:
Man sollte mal Titan V und 2080 Ti vergleichen und sich dann fragen, warum Turing in den geleakten Benches teils signifikant schneller ist als Volta.

Volta > Turing
mehr CUDA-Cores, Texture Units, ROPs und Speicherbandbreite

Turing > Volta
Mehr L2, etwas höherer Takt
 
Sie ist schneller, aber sicher nicht wenn RT aktiviert wäre. Und DLSS muss auch erst einmal unterstützt werden. Und auch bei diesem Feature kann man sich ein von jetzt auf gleich + bei der Performance abschminken.

Und den Preis ohne diese beiden Features (die ja als die neue Innovation in den Vordergrund gestellt werden) zu rechtfertigen ist schon lustig. Wenn man bedenkt, das schon Pascal im Grunde überteuert auf den Markt kam und jetzt noch eine Schippe (eher 2) drauf gelegt wurden. Schon krass wie einfach es nVidia hat, den Leuten für den längsten Balken das Geld aus der Tasche zu ziehen. :)
Aber gut, ich gehe davon aus, das der nVidia CEO einfach mal einen Apple Workshop bzgl. Preispolitik besucht hat. Dort klappt das ja auch ganz gut.

Die neuen Karten sind sicher absolut der heiße Scheiß, was Leistung angeht (gerade ohne RT und DLSS am Anfang). Aber irgendwo ist selbst die tollste Leistung einfach keine Begründung mehr für überhöhte Preise.

Und Aussagen, wenn einem der Preis nicht passt, soll man nicht kaufen ist auch schon echt Banane. Denn es impliziert, dass man anderen Menschen es nicht gönnt, dass diese ebenso die Möglichkeit bekommen sollten von einer neuen Grafikkartengeneration zu profitieren.
 
Du vergisst, wie viele (oder besser wenige) Leute sich High-End Produkte in anderen Bereichen kaufen können. Ein Gourmet-Essen beim Schwaiger für 250 Euro, ein Ei-Fön für 1600 Euro, einen schönen Sportwagen für 250.000 oder gar ein Haus für 1 Million? Deshalb wird eine Diskussion, die hier High-End für die Massen einfordert, kontinuierlich ins Nichts führen. Dafür wird es immer auch Einsteiger- und Mittelklasselösungen geben.

Ich halte diese ganzen Preisdiskussionen für gaga. Denn viele, die es sich leisten könnten, brauchen es nicht. Bzw. sie wissen noch nicht einmal, dass sie es gar nicht brauchen. Andere Interessen wie Sportboote, Weiber etc. :D

Jeder gönnt sich einen anderen Luxus, das muss man akzeptieren. Wenn ich 130 Euro für 30ml Designerparföng ausgebe, ist das allein mein eigenes Problem. Ich schaue aber deswegen noch lange keinen schief an, der sich Axe für 7 Euro draufballert. Dafür fahre ich halt kein 80K-Auto, sondern gebe meine Kohle für nützlichere Dinge wie Familie und Reisen aus. Andere Interessen, so what?
 
Die Karte ist schneller mit RT als ne 1080Ti. Das isn bißchen wie - und ich kenn mich in dem Metier wirklich nicht aus - mit der S-Klasse: dort gab es die neuesten Entwicklungen auch immer zuerst und die anderen zogen dann nach.
Das mag einem nun passen oder nicht oder sogar komplett egal sein, aber beim gefühlt 34. Text wird es denn doch sehr langweilig.
Und der letzte Abschnitt ist absolut albern: es wird immer Leute geben, die etwas gern hätten, es sich aber nicht leisten können oder wollen, das ist schon mindestens so lange so seit Paul tot ist:
"Was ich haben will, das krieg ich nicht und was ich kriegen kann, das gefällt mir nicht"
 
Kann Igor nur zustimmen. Es ist sehr simpel: Angebot und Nachfrage regulieren den Preis.

Und der Preis teilt sich aus NVIDIA Perspektive auf in Kosten plus Gewinn.

Schon wie groß der Kostenanteil bei den aktuellen Karten wirklich ist, weiß keiner. Und man darf nicht vergessen, dass da nicht nur die aktuellen Produktionskosten reinspielen, sondern eben auch die Entwicklungskosten aus der Vergangenheit. Da machen sich viele keine Vorstellung, wie schnell das in die Milliarden geht. Die muss am Ende der Kunde bezahlen, sonst ist das ein Verlustgeschäft und die Technik ist de facto erledigt. Wenn’s zu oft oder zu lange dumm läuft, halt die ganze Firma.

Aber selbst wenn Nvidia ordentlich Gewinn mit einem Produkt macht - davon fließt ein sehr großer Anteil in die Entwicklung des nächsten Produkts. Hab die Zahlen nicht mehr genau im Kopf, aber wenn ich mich richtig erinnere ist der Anteil des Innovationsbudgets sogar deutlich höher als bei vielen anderen Techunternehmen. Und wenn man es richtig macht, hilft das insgesamt der Entwicklung, denn dann werden die Produkte immer besser... bis man es übertreibt und die Gewinnmarge (z.B. wegen eines Monopols) so spannend wird, dass andere da auch entsprechend investieren. Siehe Intel, die sich anschicken, mal endlich dGPUs auf den Markt zu bringen. Oder vielleicht auch AMD, für die höhere Preise am Ende auch ein Marktumfeld bieten, etwaigen Innovationsaufwand wieder einzuspielen. Allerdings ist es selten die beste Idee, wenn man reagieren muss und nicht selbst den Innovationsdruck treibt. Umgekehrt ist es auch ein gewisses Risiko, sich mit komplett neuen Ideen an die vorderste Spitze zu stellen bevor sich sicher abzeichnet, wohin der Markt geht.

Aus meiner Sicht macht NVIDIA da jedenfalls objektiv einiges richtig und nichts Verwerfliches und treibt technologisch Dinge voran, über die wir ohne NVIDIA nicht - oder jedenfalls heute noch nicht - uns die Köpfe heiß reden könnten.

Dass das so ist, kann man doof finden. Weil man Corporates doof findet, Marktwirtschaft doof findet und/oder in einigen Fällen vielleicht auch nur den Umstand bedauert, dass man sich etwas nicht leisten kann. Ich hätte auch gerne einen Privatjet, ein Ferienhaus in Italien und könnte 3x im Jahr mit der Familie eine Fernreise auf die Maledieven & Co. machen und im Winter in Aspen Ski laufen. Geht aber nicht, aber ich verurteile weder Flugzeughersteller, Grundbesitzer in Italien (wobei - wenn die da so weiter machen, geht da ja vielleicht bald mal was ;) ), Reiseveranstalter oder die Welt an sich, dass diese Dinge Preise haben, die für mich nicht darstellbar sind. Muss ich halt die A****backen zusammenkneifen und ggf. noch ein paar Schippen im Job drauf legen, damit ich dem ein oder anderen Wunsch noch näher komme - oder mich vielleicht damit abfinden, dass ich einfach nicht haben kann, was so manch anderer hat.

Und das ist jetzt auch mein letzter Post zu NVIDIA-Preisen, Realität und Ungerechtigkeit der Welt.
 
Ich finde es schon krass, was teilweise abgeht, nur weil man - übrigens ganz ohne Wertung - einen vermutlich echten Benchmark einstellt. Meine Güte, chillt mal.
 
Lieber Igor,
ich finde Deinen Artikel über die demnächst im Handel erhältlichen RTX-Grafikkarten überragend gut gelungen. Inhaltlich logisch und nachvollziehbar gegliedert. Wegen der zahlreichen Grafiken zwischen drin auch (relativ) leicht zu lesen. Besonders gut finde ich Deine appellierende Anmerkung zum Schluss:
"Quo vadis Nvidia? Und auf welchen Zug springen AMD und (später vielleicht auch Intel) nun wirklich (mit) auf? Wenn es Nvidia gelingt, die Spieleentwickler und Microsoft weitreichend mit ins Boot zu holen, dann wird aus dem Ray-Tracing-Traum vielleicht sogar ein Hype-Train. Vielleicht. Falls ja, dann dürften sich die Mitbewerber ob des technologischen Vorsprungs schon einmal warm anziehen, denn solche Funktionen sind nicht von heute auf morgen zu implementieren".
 
Ich teasere mal etwas vom heutigen Sonntag:

Der normale Redakteur zählt bei der RTX 2080 Ti die VRMs (die gar keine Einzel-VRMs sind, sondern Smart Power Stages) und glaubt der PR und den Unboxern, dass da 13+3 Phasen drauf sind. Ich habe heute fast 4 Stunden gemessen, um dahinter zu kommen, was NV da wirklich gebastelt hat und zudem mal meine Beziehungen genutzt, um Baulelemente zu identifizieren, die noch nicht dokumentiert sind. Voll smart, das Gesehene, aber das hat Zeit und Nerven gekostet. Mal sehen, wer von den Kollegen das (a) richtig erkannt und (b) auch noch die Leistungsmessung sauber hinbekommen hat. Geteasert darf ich zumindest mal sagen, dass es egal war, ob ich dem Mittelwert von 2 Minuten (20 ms Interval) oder 100 ms (1ms Interval) nehme - es ist innerhalb von 0.7 Watt absolut gleich. Die Last war identisch. Das ging noch bei der 1080 Ti grandios schief. Etwas dazu steht ja schon im Theorie-Artikel. Ich denke mal, genug Stöffchen für ein Follow-Up :D
 
Prima! Derartige Messungen fallen anderen Reviewern häufig schwer. ;)

Wenn neuer Technologie-Kram raus kommt, schaue ich tatsächlich auch gerne bei Anandtech vorbei, die erläutern auch tiefer als die 08/15 Seite und haben auch hierzu eine m.E. echt gute und ausgewogene Darstellung: https://www.anandtech.com/show/13282/nvidia-turing-architecture-deep-dive

Ich hoffe, das Verlinken zu den kollegen ist hier ok - da sind halt zum Teil noch ein paar Erläuterungen mehr drin, was wie genau funktioniert.
 
@Igor Wallossek
Welches Netzteil würdest du für die 2080 ti empfehlen, wenn ein R7 2700X ohne zus. OC im System steckt? Reichen die 500W eines Straight Power 10 noch?
 
Damit fängst Du mich nicht - Messdaten gibt es erst am Launchtag :D
 
Das war nix zum fangen ;) Ich wollte nur wissen, ob ich evtl. ein neues Netzteil brauche...
 
Eine verlässliche Aussage ist das nicht von mir. Wenn man die TDP 260Watt GPU + 105 Watt cpu + die weiteren Komponenten nimmt.. vielleicht klappt es noch mit 500 watt.. aber am Mittwoch wird Igor sicher was verlässlicheres sagen können.
 
@Igor Wallossek Welcher der anderen Redakteure noch darauf gekommen wäre? Das ist jetzt leider etwas hypothetisch geworden, da du ja selbst darauf hingewiesen hast dass da etwas anders ist als bei den Vorgängergenerationen.
Ich sage jetzt einfach mal: Es werden tendenziell eher mehr Kollegen auf das von dir Gesagte eingehen, als wenn du es hier gerade nicht angeteasert hättest ;)
 
Das war der Sinn dahinter. Nur müsste man dann auch erst einmal wissen, was es ist. Jeder zählt erst mal dreizehn. Also schon brav die MOSFETs durchmessen. :D

Wegen des Netzteils:
Tendenziell nein.
 
Angebot und Nachfrage kann aber nur ab dem Zeitpunkt gemessen werden, wo ein Produkt auch effektiv auf dem Markt ist. Also an sichtbaren Abverkaufszahlen gemessen bzw. zumindest geschätzt werden kann. Da es aber keine Zahlen zu Vorbestellungen gibt und bis jetzt auch der Preis einzig von nVidia als UVP vorgegeben ist, wird es schwer da mit Angebot und Nachfrage zu argumentieren.
Und eine Grafikkarte der Highendklasse (also der 2080Ti) mit einem Sportwagen like Ferrari zu vergleichen halte ich auch wie immer für einen hinkenden Vergleich. Von den Grafikkarten gibt es zum Ende hin sicher mehrere Millionen, während bestimmte "Hochklassige" Autos nicht über 200.000 Stück pro Serie kommen (wenn überhaupt in so hoher Menge produziert), also von Beginn an nur begrenzt verfügbar sind.

Und natürlich ist eine 2080Ti keine Brot und Butter Karte für alle. Aber auch die Leistungsklassen darunter werden ja zu Preisen verkauft, die vor 2 Generationen nicht einmal die Highendmodelle gekostet haben.
Hinzu kommt noch, das nVidia eine Rekordbilanz nach der anderen raushaut, wer da ernsthaft glaubt, das die Kosten für Entwicklung und Produktion den Preis rechtfertigen, der ist da doch schon etwas naiv. Gerade Pascal, war sicher keine teure Entwicklung und die Produktionskosten werden nVidia weder aufgrefressen haben, noch haben diese die schon recht hohen Preise bei der Einführung gerechtfertigt.
Ja nVidia hat mit der neuen RTX Serie endlich mal wirklich etwas neues und innovatives auf den Markt gebracht, auch wenn die Killerfeatures sicher noch nicht im Ansatz so laufen wie es die verlangten Preise andeuten würden. Denn viele werden gerade RT und DLSS sicher erst einmal weg lassen um gerade eben mehr Power zu haben als die Generation davor.
Hier wird gesagt, das die neue 2080Ti mit RT schneller ist als die 1080Ti mit RT. Stimmt auch. Zum einen aber weil die 1080Ti überhaupt keine Hardwarefeatures hat um RT zu nutzen, es also per Software emulieren muss (Welch wunder) und zum anderen, nützt die höhere Geschwindigkeit der 2080Ti mit RT aber auch nichts, wenn sie dadurch soweit an Power verliert, dass sie aktuell nur Spiele (die RT unterstützen) nur in 1080p/60Fps darstellen kann, ohne (massive) Ruckler zu verursachen, je nach gewählter höherer Einstellung.

Von der Leistung stand jetzt, wie sie die 2080Ti haben wird ohne RT und DLSS zu nutzen, wird sie die 1080Ti hinter sich lassen (Alles andere wäre auch absolut schlecht). Mit den Tests die man bisher genutzt hat. Aber ist dann der Preis gerechtfertigt, da man ja sowohl RT als auch DLSS nicht wirklich sinnvoll nutzen kann bis jetzt? Subjektive Ansicht, die bei jedem anders ist.
Bei AMD, wird selbst bei einer Vega64 gemeckert, dass sie viel zu teuer sei (Bei Einführung) mit 599$ UVP. Wo AMD definitiv durch eben die hohen Produktionskosten weit weniger verdient. Bei nVidia ist es absolut in Ordnung wenn man den Preis aufgrund der angeblichen hohen Produktionskosten (Ich packe Entwicklungskosten der Einfachheit mit dazu) mit drauf schlägt, weil es ja so innovativ und fortschrittlich ist. Messen mit zweierlei Maß. Entweder man findet das bei allen Doof, wenn aufgrund der Produktionskosten die Preise bei Einführung höher sind, oder man findet es bei allen in Ordnung, wenn der Käufer eben bei neuen Features, diese mit bezahlt zum Start.

Vom Preis her, könnte ich mir die Karte leisten ohne eine Niere zu verkaufen. Aber für den Preis hat man bis vor 2 Jahren noch einen kompletten Highend Rechner sich zusammen gebastelt, wo die Grafikkarte trotzdem noch das teuerste war je nach Modell. Allein, das der Preisanstieg der letzten Jahre gerade bei GPUs von nVidia so vorbehaltslos hingenommen wird, aber beim RAM z.B. angeblich alles zu teuer ist, weil man statt 140 eben 200 Euro zahlen muss (Beispiel), dass passt einfach nicht. Aber das ist eben, dieses messen mit Zweierlei Maß. Nur warum machen dies gerade Technikaffine Menschen, die hier und auf anderen Techseiten jeden Tag am lesen und schreiben sind.
Sicher etwas neues ist immer faszinierend und man möchte eben neues ausprobieren. Aber das scheint eben immer nur dann bei vielen ein Drang zu sein, wenn es die Lieblingsfirma ist, die was neues bringt. Da können die anderen noch so innovativ sein, oder Produkte fast zum Selbstkostenpreis bringen. Da wird es wieder klein geredet oder gar schlimmer niedergemacht.

Ich fände es schön, auch wenn die eigene Euphorie etwas anderes will, wenn die Objektivität mehr gewahrt bleiben würde und hohe Preise unabhängig von der Tollheit neuer Features, eben mehr einspielen und man eben auch mal direkt aufzeigt, wenn bestimmte Features eben nicht ganz oder gar nicht laufen, dies gleich gewichtet wie die Länge des Benchmarkbalkens. Aber das ist halt das was ich haben möchte. Das dies nicht der Realität entspricht, vor allem bei Techseiten die eben ein Faible für Firma XY haben (Toms Hardware Deutschland jetzt ausgeschlossen) eben nicht immer Fair bewerten oder ihre Tests aufbauen um keine Seite zu bevorteilen, ist mir auch klar. Es macht halt nur oft das lesen sehr anstrengend, gerade in den Userkommentaren die meist nicht mehr als aus ein-vier Zeilern bestehen.

Und nur noch zum Abschluss, würde AMD solche Preise für ihre neue Generation bringen, egal welche Killerfeatures diese Karten dann hätten, würde ich ebenso dies sehr kritisch betrachten. Es spricht nichts dagegen, das man als Unternehmen Geld verdient und ein bestimmtes + als Gewinn erwirtschaftet, aber Käufer schröpfen bis zum erbrechen, nur weil man in der Marktposition dafür ist, dass ist eben grundsätzlich nichts positives.
 
Abwarten bis die Tests raus sind. Dann kann man in jede Richtung hin denken und diskutieren. Bisher sehe ich nur Grütze in den "Leaks". Die drei tage werden wir sicher alle noch hinbekommen. Dann darf auch gehauen und gestochen werden, solange der PASTOR mitspielt. :)
 
Status
Nicht offen für weitere Antworten.
Oben Unten