NVidia Nvidia GeForce RTX 2080 Ti und RTX 2080 vorgestellt - was sich hinter Turing wirklich verbirgt

Status
Nicht offen für weitere Antworten.
Ahjo. Ist wohl alles gesagt bis eben die Tests raus sind.

@Dark_Knight: Ich denke - wenn ich mal Deine Signatur zum Maßstab nehme - sind zum Beispiel wir beide im Direktvergleich eben ganz unterschiedlich was die Bereitschaft angeht, irgendwelche Summen in Hardware zu versenken. Ich sage einfach mal, wir sind beide überdurchschnittlich gut informiert und ziehen daraus aus persönlichen Umständen/Ansichten eben ganz unterschiedliche Konsequenzen. Ändern werde ich mein Verhalten infolge Deiner Beiträge (oder denen von anderen) genauso wenig, wie umgekehrt Du aufgrund irgendwelcher Äußerungen von mir (oder anderen) das tun wirst und morgen eine RTX20xx orderst. "We agree to disagree" ist hier wohl der angebrachte Endpunkt.
 
Wir haben Sonntag, es sind wirklich nur noch 3 Tage um auf Basis verlässlicher und seriöser Tests zu diskutieren. Eines jedoch vorweg, DLSS wird über die Tensor Kerne bei den neuen Karten berechnet, wodurch es einen Leistungs- und Qualitätsvorteil gibt. Ob RT sich in der Praxis bewährt wird man wohl erst in den nächsten Wochen/Monaten beurteilen können.
 
Ich für meinen Teil bin ganz entspannt und freue mich auf die Bastelstunde: Kühler ab, WaKü drauf, einbauen, neues Spielzeug für Erwachsene genießen. :love:
 
Keiner soll seine Meinung bzgl. eines Hardwarekaufes ändern. Du hast deine Entscheidung die neue 2080Ti zu kaufen schon vor Wochen getroffen, bewusst auch dahingehend, das es eben keine Festen Infos bzgl. der Leistung gibt.
Warum sollte ich deine Meinung ändern, gar dich dazu bringen den Kauf zu stornieren?

Und ja mein Rechner ist alt, wirklich alt. Aber zum Zeitpunkt meines Kaufes, war er schon obere Leistungsklasse und bis auf ein paar zusätzliche Festplatten + Grafikkartentausch und Ramtausch, ist er so geblieben. Auch steht seit bestimmt 2 Jahren eine neu Anschaffung im Raum, aber immer hat sich am Markt etwas entwickelt, was einen Kauf verhindert hat.

Jeder der sich das neueste Stück Technik kaufen will, soll dies auch machen. Ändert halt aber nichts daran, das Hardware die überteuert (meine Subjektive Meinung) auf den Markt gebracht wird, nur weil man es aus einer Marktbeherrschenden Situation heraus macht, einfach schlecht für alle ist. Und das ist eben etwas, was man kritischer betrachten sollte und nicht einfach sagen: Ist halt so.
Oder gar diese Unternehmen dafür auch noch feiern (hier eher weniger schon gelesen, aber in anderen Foren).

Aber ja, wir sind uns einig, das wir uns nicht einig sind. Aber sobald du deine Karte hast, kannst du uns ja mitteilen wie sie sich im Alltag schlägt. Weil Tests sind immer schon und gut, aber Erfahrungen von Usern sind auch immer interessant. Vor allem die Entwicklung bei RT und DLSS aus Usersicht, was ja DIE neuen Features sind, wird sicher für alle recht spannend sein.
 
#84 so schwach finde ich den Rechner nicht, gut die CPU dürfte an seine Grenzen angelangt sein, der Rest scheint aber noch sehr gut für FullHD Gaming gerüstet zu sein. (R9 380X sowie 16GB Ram DDR-3 Ram sind auch heute noch gut zu gebrauchen) - eine günstige gebraucht Kombi (MB + CPU / z.B. Xeon 1230 / 1231v3 ~ 120 €) und das System kann auch die aktuellen Titel ordentlich in Full HD befeuern. Alternativ RAM verkaufen und gleich auf die aktuelle Generation gehen, das dürfte dann aber um einiges teurer werden.

Ich schweife ab, ich denke da liegst Du richtig. Wer sich bereits für die Vorbestellung entschieden hat, dürfte wohl nur dann stornieren wenn die Tests vernichtend schlecht ausfallen. Und wenn man so zwischen den Zeilen hier auf TomsHW ließt, sieht es wohl eher nicht danach aus.

Hardware zu kaufen die überteuert ist, naja bin davon auch nicht begeistert, nur hat es NV geschafft einen Bedarf zu erzeugen der mich dazu bringt zu sagen, das ist es mir wert. Letztlich muss das ja jeder mit sich selbst ausmachen. Ich denke 9 von 10 Leuten in meinem Umfeld würden innerlich den Kopf schütteln und sich darüber wundern wie man so viel Geld für eine Platine ausgeben kann.

Es stellt sich mir die Frage was passiert wenn auf einmal alle in eine Kaufverweigerungshaltung treten. Wird dann Nvidia noch groß investieren? oder lieber auf den aktuellen technischen/ggü. Wettbewerb überlegenden Stand bleiben bzw. nur noch wenig in die Forschung stecken und dafür andere Geschäftsbereiche voran bringen? Der ganze Automobilsektor ist hoch spannend und birgt mit Themen wie Automatisiertes Fahren ein enormes Absatzpotenzial (und Nvidia ist auch in diesem Bereich aktiv). Im schlimmsten Fall gibt es nachher keine nennenswerten Innovationen mehr, da der Bereich PC Gaming unattraktiv für Hardwareentwickler geworden ist, da Ertrag/Gewinn nicht mehr im Verhältnis zum Aufwand/Entwicklungskosten steht.

Das die Spirale alle 2 Jahre doppelte Leistung zum fast gleichen Preis irgendwann nicht mehr weitergehen konnte, war leider vorhersehbar und konnte man ja gut im CPU Bereich sehen. Ich denke schon das AMD in der Lage wäre im GPU Bereich den Anschluss wieder herzustellen, aber wozu? Die Entwicklungskosten sind zu hoch als das es sich lohnen würde weiterhin ein Wettrennen mit Nvidia zu bestreiten. Wieso kommt nix im 7nm Bereich für Gamer von AMD in diesem Jahr? weil andere Bereiche mehr Gewinn abwerfen.

Die Unternehmen denken halt alle Gewinnorientiert und wir sind der Consumer der Beeinflusst ob es sich lohnt einen Markt zu bedienen.
 
Also das mit Deep Learning und AI auf der Graka finde ich schon sehr interessant. Da wird es in Zukunft bestimmt das ein oder andere nette Feature zu geben. Bin gespannt, wann die Cheatentwickler den Teil der Graka für sich entdecken und der Aimbot, ESP, etc. direkt auf der Karte laufen lassen, und sämtliche Anticheatmaßnahmen komplett ins Leere laufen. Ich denke das wird alles noch sehr spannend... Und nicht nur im positiven Sinn.
 
Raff bei PCGH hat schon mal die Performanceschübe der 2080 FE gedämpft.
So richtig absetzen von einer GTX 1080TI wird sich die FE wohl nicht, zumal jene OC und mit 1080TI Stock verglichen wird.
So wie ich dies sehe, ein simpler Schlagabtausch schlussendlich.

@Igor
Weist ja bereits mehr oder weniger was Sache ist, und mit Rhum, wird sich diesesmal, was die reine Spiele-Performance betrifft (für ihre Neue Architektur) NV nicht hochziehen können... Daher aber haben sie vieles andere Richtig gemacht und die Zukunft wird zeigen was davon schlussendlich angenommen und realisiert wird.
 
Zuletzt bearbeitet :
Ich werde einen Effizienztest zu beiden Karten machen. Schon mit Wakü und unter absolut identischen Bedingungen. Meine 1080 Ti FE geht mit Wasser bis 2.135 MHz

Warum die Leute immer die 2080 mit der 1080 Ti vergleichen, begreife ich auch nicht ganz. Maximal noch wegen des Preises, aber der Vergleich hinkt.
 
Bitte auch einmal vorher im Auslieferungszustand, bevor Du da mit dem Chiller ran gehst. =)
 
@Igor
Ja, die GTX 1080TI wird wohl eingestellt und die 2080 soll wohl dessen Platz einnehmen, aber auch 3GB weniger Speicher erhalten... dafür kommt ja die RTX 2080TI.
So wie es sich bei Dir nun liest, wäre eine RTX 2080 weitaus schneller als eine derzeitige GTX 1080TI, oder gar TI Custom.
 
Bei mir liest sich garnichts :)

Die Ti ersetzt die Ti und die 2080 to 1080. Preise jenseits der Pampas aber sind auch nicht schön :(
 
Könnte ja sogar mal sein, dass der Kühler des Custom-Design etwas taugt. :D Ein doppeltes Lottchen haben wir uns doch schon so lange gewünscht.
Ich bin sehr gespannt, wie die ersten Benchmarks ausfallen werden. Wenn ich das verlinkte Video mit den Promotions früherer Karten vergleiche, liegen natürlich Welten dazwischen. Schon cool zu sehen, wie rasant diese Entwicklung abläuft, und was wir in den letzten 10-20 Jahren miterleben - und hier und da auch erleiden - durften.
 
Es wird halt die 2080 mit der 1080Ti verglichen, weil bisher beim Generationwechsel eben die 80er Varriante immer schneller war als die 80er Ti Varriante. Sogar teilweise die 70er Varriante.
Ich würde das zwar auch nicht machen, aber gibt halt viele, die Aufgrund der Preise da einen Vergleich machen.
 
Naja. Das war auch meine Erwartung und deshalb polarisiert der Launch auch so sehr. Es kommt ne neue Technologie, die (noch) nicht von der Software unterstützt wird. Für die herkömmlichen Anforderungen ist der Leistungssprung in Relation zum Preis aber zu gering (zumindest wird das unterstellt). Wenn ich 600Euro für ne 1080 zahle, erwarte ich, dass die Nachfolgegeneration für 600 Euro mehr kann.
Wenn die neue E-Klasse kommt, kann die auch mehr, als die alte. Kostet aber ungefähr gleich. Ich hätte gerne ne Karte, die 30% über der aktuellen Generation liegt, aber gleichviel kostet. Nur, wenn die Karten so signifikant schneller sind, dass die Mittelklasse für max Details in Full HD ausreicht, wird sich das durchsetzen. Ich verstehe auch das Argument mit den Entwicklungskosten. Aber der Aufschlag ist krass hoch. Würde mich nicht wundern, wenn die mit günstigen Standard-Karten der Konkurrenz ausgekontert werden...
 
Der Witz ist, dass das Ganze über bestimmte Benchmarks enorm streut. Da reicht es von grandios bis oops :D
 
Wie bei Vega!
Einmal knapp GTX 1080TI und dann knapp, oder Minimal über 1070-er Leitung. So wird es Turing auch ergehen...
So sehe ich auch Turing, nicht mal 1080+ er Leistung und dann mal 20-30 vor einer GTX 1080 TI FE

Vega wurden wohl die Primitive Shader und die Absetzung der RTG und Koduris Abgang zum Verhängnis.
Turing wohl der 12nm Prozess und dass man nicht vor 2020 auf 7nm zugreifen kann.
 
Zuletzt bearbeitet :
Mich würde nicht einmal die Streuung bei den Benchmarks stören, wenn da nicht der riesige Preisaufschlag für die neuen Features wäre, die ja noch nicht einmal wirklich funktionieren, ohne unnötig Leistung zu kosten.
Im Grunde sind somit nur die teile der Tests wirklich sinnvoll, wo man sowohl RT als auch DLSS außen vor lässt. Erst mit der nächsten Generation wo ebenso diese beiden Features genutzt werden (sofern dann noch vorhanden) könnte man in Tests diese als Aussagekräftig heran ziehen. Aber auch hier muss es jeder für sich selber wissen.
 
2 Tage noch ;) und danach hab ich ganz entspannt Zeit um zu beobachten, zu diskutieren und es selbst bewerten zu können.

Bis 26.10 ist ja noch etwas Zeit und bei den hohen Preis muss letztlich die Leistung stimmen.

Hoffentlich wird das für Nvidia kein Desaster, denn dies wäre für die PC Spielebranche und die Innovationskraft im Hardwarebereich sicher auch keine Ideale Lösung. Wenn es komplett in die Hose geht, wie würde AMD damit umgehen? Die haben sicher auch keine Lust mit Ihren zukünftigen Innovationen und Investitionen auf die Nase zu fallen.
 
Nvidia hat sicherlich genug Einfluß sowie monetäre Mittel und Manpower, um die Spieleentwickler von Raytracing und den vielen anderen Neuerungen zu überzeugen, an ein Desaster glaube ich daher nicht. RT sieht klasse aus und das ist sicherlich auch beim Gaming die Zukunft, Turing ist jetzt eine Art Proof of Work, dass es auch mit Consumer Hardware in Echtzeit machbar ist.
 
@Eragoss
HÄ?
Zum einen kannst du effektiv nur selber bewerten, durch eigenes Testen der Hardware. Weil nur dann siehst du ob es passt für dich von der Leistung oder nicht. Alles andere wie die Tests hier oder die Erfahrungen anderer User zu den Produkten, sind nur Indizien und erste Infos.

Zum anderen welche Innovationskraft? nVidia hat sicher in den letzten Jahren gute Gaming GPUs auf den Markt gebracht, aber innovativ waren diese sicher nicht. Im Grunde waren die letzten 3 Generationen derselbe GPU Aufbau (Grob runter gebrochen), nur eben mit Shrinks und hier und da mal kleinen Verbesserungen. Es wurde im Grunde nur immer weiter auf DX11 optimiert.
Jetzt erst bringt nVidia wirklich etwas neues. Zumindest werden jetzt mal wirklich neue Features zur GPU gepackt.

Und wieso müsste AMD damit umgehen, wenn nVidia mit RT und/oder DLSS auf die Nase fällt? Zum einen arbeiten sie schon seit Jahren an ihrer eigenen neuen GPU Generation und zum anderen wäre es doch AMD nur Recht wenn es nicht funktionieren würde bei nVidia.
Und AMD ist schon jetzt 2 mal auf die Nase gefallen. Sowohl mit Fury als auch mit Vega haben sie GPUs auf den Markt gebracht, die nur bedingt von der Käuferschaft angenommen wurde (Miner lasse ich jetzt außen vor). Und die beiden Generationen waren um einiges innovativer als Maxwell oder Pascal.
Aber Innovation interessiert den Gamer nicht, außer es sorgt für einen noch längeren Benchmarkbalken.

Nicht falsch verstehen, ich freue mich, das endlich auch nVidia mal wieder Innovationen bringen will (Auch wenn ich es kritisiere, das wieder ein Teil hinter einer Wand versteckt wird). Und ich freue mich für jeden, der die neuen Karten kaufen wird und viel Spaß damit hat.

EDIT:
@HerrRossi
Ja sie haben das Geld, aber das hat ihnen bei PhysX auch nichts geholfen. Und das Problem ist auch sicher nicht der Wille die neuen Features zu nutzen. Wenn aber am Ende RT in dem Fall einfach egal wie gut man optimiert zu viel Leistung frisst und man so hinter der Leistung der Vorgängergeneration bleibt, dann ist es ein Feature was kein Entwickler/Publisher nutzen will auf lange Sicht.
Dem Casual ist es am Ende egal durch welche Features er den längsten Benchmarkbalken, die höchsten FPS oder die größte Auflösung generieren kann. Aber wenn er Features ausschalten muss oder Regler nach links setzen muss, dann wird es eben bitter. Und da hilft es auch nicht, wenn sich in den Pfützen die schönsten Spiegelungen der Umgebung zeigen. ;)
 
Zuletzt bearbeitet :
Status
Nicht offen für weitere Antworten.
Oben Unten