NVIDIA macht die Not zur Tugend: MSI GeForce RTX 4070 Ti SUPRIM X 12 GB im Test

Und wer sagt, dass das passieren wird?

Wie stark ist denn die "alte Karte" für €700? Also konkret: Von welcher Karte für €700 sprichst Du?
Wer sagt das? Einfache Extrapolation.

Die 4070Ti kostet €900. Die 4070 wird somit wohl kaum unter €700 landen.
Und was die Leistung angeht bleibt auch nicht mehr viel Raum zwischen der 4070Ti und der 3080. Und gemäss der Gerüchteküche wird die 4070 ca. 25% kleiner als die 4070Ti

Oder siehst du denn irgendein anderes Szenario als 3080er Leistung für 3080er Preis?
 
@Staarfury

Beantworte doch meine Frage. Was ist Deine Vergleichskarte für €700? Dann kann ich Dir sagen, wie die 4070 im Vergleich dazu voraussichtlich landen wird. Sonst reden wir im Nimbus.
 
Was hat die 3080 UVP gekostet? Nicht €700 so weit ich mich erinnern kann.

Korrektur: Doch, genau €700. Na, dann wollen mir mal schauen wo die 4070 liegen wird leistungstechnisch und vom Preis her. Da die 4070Ti ja eine 3090Ti schlägt...
 
Zu viel Leistung stört niemanden, aber zu wenig schon. Das ist auch ein Fakt.

Wir drehen uns im Kreis. Mehr Speicher kann man eventuell mal in speziellen Situationen brauchen. Mehr Leistung kann man immer brauchen.

NVidia verbaut eine sinnvolle Speichermenge. AMD ist auf dem Trip, die Leute mit großen Zahlen zu ködern, weil das eben einfach zu machen ist. Mehr RAM auf die Karte zu pappen kostet keinen Aufwand für AMD. Bringt nur dem Anwender praktisch nie irgendwas.
Wir drehen uns nicht im Kreis, wir bewegen uns in die entgegengesetzte Richtung 😂

A) Du bist zufrieden mit den Fällen die funktionieren, ich kritisiere diejenigen, welche dem Speichergeiz zum Opfer fallen.

B) ich finde den Ansatz von AMD gut für Kunden da zukunftsorientiert, aber den Geiz von Nvidia schlecht da als Marktleader und Marktsituation-bedingt kalt ausgenutzt wird.

Ich sage nur, 1070 Ti 8GB und 3070 Ti 8GB. Das ist Stillstand und Ausnutzung!

Jedem das seine, leben und leben lassen - over and out.
 
@Furda

Nach Deiner Argumentation ist eine 6800XT mit 16GB einer 4070Ti mit ihren 12GB ja auf jeden Fall vorzuziehen. Dem ist dann auch nichts mehr hinzuzufügen.
 
Die Marge bei den Chips die an die Konsolen gehen sind minimal. Für AMD lohnt sich das wegen der puren Masse, aber letztlich verdient eher TSMC daran.

Es ist aber sicher gut, dass AMD eine feste Einnahmequelle hat. Nichts ist schlimmer als ein Monopol. Aber ich glaube nicht, dass NVidia sonderlich traurig ist, dieses Geschäft nicht zu haben
minimal?
"Zur CES 2023 nennt Sony nun insgesamt 30 Millionen verkauft PS5-Konsolen"
PS4 hat sichüber 100mio mal verkauft
xbox auch zig mio mal
also ich weiß ja nicht was du unter minimal verstehst, aber ich bin mir sehr sicher, dass nv auch gerne was davon haben wollen würde, aber die haben eben keine APU

sieht man ja auch immer an den verkaufszahlen von spielen. der PC markt ist verglichen mit den konsolen einfach sehr klein und gerade nvidia sollte interesse daran haben, dass mehr am PC spielen.
wie gesagt AMD kann es egal sein, wenn sich die leute konsolen kaufen statt grafikkarten. die haben mit dem kauf von ATI damals alles richtig gemacht
 
Nvidea konzentriert sich vor allen Dingen auf professionelle Einsatzbereiche.
Für Data-Center (zum Bsp.Hopper) oder alles was mit CAD,Grafik,Science,Render-Maschinen zu tun hat...
Für den Preis einer A6000 kann man einige Konsolen kaufen.
 
minimal?
"Zur CES 2023 nennt Sony nun insgesamt 30 Millionen verkauft PS5-Konsolen"
PS4 hat sichüber 100mio mal verkauft
xbox auch zig mio mal
also ich weiß ja nicht was du unter minimal verstehst, aber ich bin mir sehr sicher, dass nv auch gerne was davon haben wollen würde, aber die haben eben keine APU

sieht man ja auch immer an den verkaufszahlen von spielen. der PC markt ist verglichen mit den konsolen einfach sehr klein und gerade nvidia sollte interesse daran haben, dass mehr am PC spielen.
wie gesagt AMD kann es egal sein, wenn sich die leute konsolen kaufen statt grafikkarten. die haben mit dem kauf von ATI damals alles richtig gemacht
Ich kenne gerade die Geschäftszahlen für den Bereich bei AMD nicht, aber pro verkaufter Einheit wird da nicht viel hängenbleiben. Andererseits kann man die Marktdurchdringung mit der eigenen Architektur nicht mit Geld aufwiegen. Das ist, gerade für AMD, viel wichtiger.
 
  • Like
Bewertungen: ***
Ich habe bei Cyberpunk und bei Far Cry 6 die HD Texturen runtergeladen, ist schon ganz nett optisch in 4K und ggf. mit RTX. Das läuft mit der 3090 super, mit der 4090 auch. Mit einer 3080Ti hätte ich da schon (grenzwertig) Probleme, die 3080 non Ti (mit 10 GB) geht damit gar nicht und die 8 GB Karten sowieso nicht. Die Frage, ob man sowas braucht, stelle ich in diesem Kontext bewusst nicht. Allerdings machen die Unterschiede in der Bildqualität für mich bei einem 42 " Schirm in 4K einen deutlich gewaltigeren Unterschied als auf einem 27 " Schirm in 4K.

https://www.igorslab.de/geplante-nv...r-selbst-eine-rtx-3080-ti-in-die-knie-zwingt/.

Ob der Speicherbedarf einem nachlässigen Code zuzuschreiben ist - oder was auch immer - kann ich nicht beurteilen. Was ich in zwischenzeitlich 35 Jahren Gaming (seit PC XT) Zeiten allerdings sehr wohl über die Jahre "mitgenommen" habe ist, dass das "Kann" von Heute gerne mal ein "Muss" von Morgen wird. Daher finde ich aktuell eher Karten ab 16 GB - egal von welcher Farbe - am ehesten sinnvoll, unabhängig davon, ob man die Karte ggf. im Rahmen einer Aufrüstaktion veräußern möchte oder behält. Der 4070Ti kann ich hier leider nichts abgewinnen - und in Relation zum aufgerufenen Preis schon gar nicht.
 
Das mag ja sein, aber 2160p ist schwerlich das Zielgebiet hier.
 
Ich habe bei Cyberpunk und bei Far Cry 6 die HD Texturen runtergeladen, ist schon ganz nett optisch in 4K und ggf. mit RTX. Das läuft mit der 3090 super, mit der 4090 auch. Mit einer 3080Ti hätte ich da schon (grenzwertig) Probleme, die 3080 non Ti (mit 10 GB) geht damit gar nicht und die 8 GB Karten sowieso nicht. Die Frage, ob man sowas braucht, stelle ich in diesem Kontext bewusst nicht. Allerdings machen die Unterschiede in der Bildqualität für mich bei einem 42 " Schirm in 4K einen deutlich gewaltigeren Unterschied als auf einem 27 " Schirm in 4K.

https://www.igorslab.de/geplante-nv...r-selbst-eine-rtx-3080-ti-in-die-knie-zwingt/.

Ob der Speicherbedarf einem nachlässigen Code zuzuschreiben ist - oder was auch immer - kann ich nicht beurteilen. Was ich in zwischenzeitlich 35 Jahren Gaming (seit PC XT) Zeiten allerdings sehr wohl über die Jahre "mitgenommen" habe ist, dass das "Kann" von Heute gerne mal ein "Muss" von Morgen wird. Daher finde ich aktuell eher Karten ab 16 GB - egal von welcher Farbe - am ehesten sinnvoll, unabhängig davon, ob man die Karte ggf. im Rahmen einer Aufrüstaktion veräußern möchte oder behält. Der 4070Ti kann ich hier leider nichts abgewinnen - und in Relation zum aufgerufenen Preis schon gar nicht.
ich bin Inhaltlich völlig bei dir. Darum habe ich beim Launch der 4090 auch meine 3080 TI verkauft, obwohl sie deutlich neuer und noch mit langer Garantie versehen war, im Gegensatz zu meiner 3090. Ausserdem war der Wertverlust der 3080ti deutlich schmerzhafter.

Jenseits dieser Preisdiskussion halte ich allerdings, wie Derfnam, die 4070Ti für eine WQHD Karte. Wir haben gestern noch unter Bekannten darüber diskutiert.

Wer in 4 K spielen will, ist je nach RT Gusto bei den jeweils größten Karten der beiden Anbieter immer am besten aufgehoben. Sprich 7900XTX oder 4090.

Alles andere ist sowohl unter kaufmännischen, als auch unter spielerischen Gesichtspunkten immer ein Kompromiss.
 
Zuletzt bearbeitet :
Nach meinem Stand ist die 7er Reihe von AMD aktuell in VR unterirdisch und somit keine echte Option aktuell.
Und preislich ist die 4090 für mich jenseits jeder Budget Grenze meinerseits.
Ich denke die 4070ti wäre für meine Ansprüche keine schlechte Karte, aber mit mehr VRam und/oder größerer Bandbreite wäre sie für diesen meinen speziellen Anwendungsbereich sicher deutlich besser geeignet.

Bisher konnte ich aber auch noch keinen Benchmark Vergleich für VR finden.
 
Es ist ja grundsätzlich schon interessant, wenn man sich den Marketing "Sprech" der "Grünen" mal im Verlauf anschaut. Da wurde die 3090 vor 2 Jahren als "8K" Gaming Karte beworben, die 3080 für 4K Gaming. Die Rohleistung der 4070ti ist letztlich in den Tests nach meiner Wahrnehmung konsequent zwischen 3090 und 3090ti - plus/minus. Jetzt krankt es allerdings wieder am müden Speicherinterface und an den 12 GB Ram, die wir fast (11 GB) in 1080ti schon drin hatten. Mit 12 GB klassifiziert sich die 4070ti jetzt wieder als WQHD Karte und spielt damit "GPU-Leistungstechnisch" deutlich unterhalb Ihrer Liga. Wir haben jetzt 2023 - also 16 GB hätten es zumindest sein können. Die Differenz in Cuda Cores reicht zur 4080 doch wirklich aus.
 

Wie Werbeagenturarsch auf Kundeneimer.
 
Es ist ja grundsätzlich schon interessant, wenn man sich den Marketing "Sprech" der "Grünen" mal im Verlauf anschaut. Da wurde die 3090 vor 2 Jahren als "8K" Gaming Karte beworben, die 3080 für 4K Gaming. Die Rohleistung der 4070ti ist letztlich in den Tests nach meiner Wahrnehmung konsequent zwischen 3090 und 3090ti - plus/minus. Jetzt krankt es allerdings wieder am müden Speicherinterface und an den 12 GB Ram, die wir fast (11 GB) in 1080ti schon drin hatten. Mit 12 GB klassifiziert sich die 4070ti jetzt wieder als WQHD Karte und spielt damit "GPU-Leistungstechnisch" deutlich unterhalb Ihrer Liga. Wir haben jetzt 2023 - also 16 GB hätten es zumindest sein können. Die Differenz in Cuda Cores reicht zur 4080 doch wirklich aus.
Die ganzen Heizdüsen in den Marketingabteilungen halten sich doch eh für deutlich schlauer als der Rest der Welt. Man muss sich halt bemühen zur Abwechslung mal seine beiden Hirnhälften zu synchronisieren und mal selber Nachzudenken. Im Grunde war die 3080 eine gut WQHD Karte und die 3090 ist mit DLSS in 4K/60 HZ relativ gut gebrauchen. Als 8 K Karte eine Lachnummer.

Hier wird wieder nur Geld gemacht. Eine Karte die im Grunde der Markt der nicht braucht. Für WQHD reichen die meisten "Altkarten" locker aus und für 4K würde ich auch was anderes nehmen. Klar haben wir mit der 4070Ti eine bessere Effizenz und DLSS 3.0. Finde ich aber auch sehr wenig auf der Habenseite.

Andererseits stößt sie in Leistungsbereiche vor, für die man 2 Jahren in der Praxis mehr als das doppelte gezahlt hast.

Mal abwarten wie sich die Dinge entwickeln. Aber mit einer 4070ti spekulierst du in jedem Fal wieder auf die kommende Generation. Zumindest das ist mit einer 4090 anders. Weil für 4K ist sie eigentlich schon Overdosed und 8K brauche, bei allem Fanatismus, nichtmal ich.
 
Zuletzt bearbeitet :
Ich habe schon die 2080Ti als UHD Karte genutzt. Natürlich hatten die Spiele damals auch weniger Anspruch an die Karten. Und ich hatte nie eine solche Aversion gegen DLSS - auch wenn ich die Nachteile sehr deutlich gefühlt habe in Control und Cyberpunk. Aber es hat funktioniert.

Ob eine Karte eine 4k Karte ist, hängt stark von der eigenen Erwartungshaltung ab und ob man eine Meinung nur dazu vertritt, die eigenen Auffassungen und Vorurteile zu pflegen. Wenn man mit offenen Augen durch die Welt geht und die Sachen einfach so nutzt, wie sie verfügbar sind und das beste daraus macht, dann hat man m.E. mehr vom Leben.
 
Ich habe schon die 2080Ti als UHD Karte genutzt. Natürlich hatten die Spiele damals auch weniger Anspruch an die Karten. Und ich hatte nie eine solche Aversion gegen DLSS - auch wenn ich die Nachteile sehr deutlich gefühlt habe in Control und Cyberpunk. Aber es hat funktioniert.

Ob eine Karte eine 4k Karte ist, hängt stark von der eigenen Erwartungshaltung ab und ob man eine Meinung nur dazu vertritt, die eigenen Auffassungen und Vorurteile zu pflegen. Wenn man mit offenen Augen durch die Welt geht und die Sachen einfach so nutzt, wie sie verfügbar sind und das beste daraus macht, dann hat man m.E. mehr vom Leben.
Was wiederum meine These stützt, das die jeweiligen Top Karte im Prinzip immer der Beste kauf ist. Selbst mit einer 1080ti läst sich in FHD noch hervorragend zocken, wenn denn "spiegelnde Pfützen" obsolet sind. Für mich ist im übrigen DLSS und FSR ein Geschenk, da sie viele Karten deutlich länger nutzbar machen. Ich hab die Kritik daran nie verstanden. Es war ja immer nur im Bestenfall eine Option und kein muss.
 
  • Like
Bewertungen: ***
Ich habe mal die FPS und aktuell aufgerufenen Preise genommen und etwas in Excel rumexperimentiert. Die RTX4090 ist dabei die Leistungsreferenz (100 %). Für die lineare Trendlinie sind nur die 4090, 4080 und 4070Ti berücksichtigt. Verwendet wurden Werte ohne RTX und DLSS, sofern möglich, um die reine Leistung zu erhalten. Die Zahlen stammen von igorslab, Gamers Nexus und zum Abgleich (RTX3060 und RTX 3080) mit etwas Dreisatz aus youtube Videos. RTX 3080 (10GB) und RTX3060 habe ich als Vergleichswerte mit rausgesucht da ich diese UVP-Bereiche als Vergleichswert haben wollte.

Warum das Ganze? Ich wollte schätzen wie viel Leistung man für die potentiellen Preise der kommenden GPUs bekommt, also beispielsweise eine 4070 oder 4060. Und ja, es ist natürlich "etwas" Milchmädchenrechnung dabei und nichts ist gegengeprüft.

Für 4k sieht die resultierende Formel so aus:
%-Leistungspunkt = (Euro + 370,5) / 24,663

Für 1440p so:
%-Leistungspunkt = (Euro + 1391,5) / 34,563

Sollte eine RTX4070 (Gerüchteküche meint glaube ich ca. 20 bis 25 % weniger Cores als die 4070Ti) ca. 800 € kosten erhält man bei 4k/1440p in etwa 47 / 64 % der Leistung einer 4090. Die RTX3080 (10GB, UVP ca. 700 Euro) hat etwa 47 bzw. 59 %. Nehme ich den damaligen Referenzpreis einer 3060 von 330 Euro, ergeben sich 28 bzw. 50 % als Schätzung. Der Vergleichswert beträgt 23 und 31 %.

Das so geschätzte Leistungsplus bei gleichem Budget sind meist nur wenige Prozentpunkte, mit Ausnahme einer Karte für 330 Euro bei 1440p.
Ich bin gespannt wohin die Reise geht bei den bezahlbaren Karten. Den Preis einer vorherigen Karte aufzurufen und dann in der Rohleistung nicht oder kaum schneller zu sein ist wohl kaum der gewünschte Generationsfortschritt. Geringere Leistungsaufnahme würde ich noch gelten lassen, DLSS/FSR dagegen weniger, da mit FSR-Updates beispielsweise auch ältere Karten von NV performanter werden könnten.

Aber vielleicht ist die Zukunft doch rosiger als gedacht und ich hab mich nur grob verrechnet.

1673193021891.png
 
Renderleistung alleine ist nicht die "reine Leistung". Aber sonst ist Deine Aufstellung schon ok so. Nur impliziert sie m.E. nur die halbe Wahrheit.

Reine Renderleistung wird zunehmend weniger wichtig sein, so viel ist klar. Speziell alle, die davon überzeugt sind, dass die 24 GB viel Zukunftssicherheit bedeuten, könnten sich damit auch ins eigene Fleisch schneiden.

Man wird sehen.
 
Oben Unten