Strahlende Zukunft? NVIDIA DLSS 3.5 und die nächste Stufe des Raytracings

Wieso Frust? Die Meisten die über AMD herziehen würden doch nie eine AMD-Karte kaufen sondern sehen AMD nur als Preisdrücker für die geliebten Nvidia-Karten. Und überbordende Shitstorms wie bei Starfield, bei dem nur die "Nvidia"-Wahrheit Geltung hat und andere Berichte im besten Fall als Schutzbehauptung wenn nicht gar als Lüge abgetan werden, motiviert sie ganz sicher nicht, weiter zu machen.

Cunhell
Hatt selber schon AMD drin und kann nichts schlechtes berichten. Ist aber schon ne Weile her. Konkurrenz belebt das Geschäft. Bevor Nvidia erfolgreich war, gab es Matrox, Voodoo(1+2). Da ist nix in Stein gemeißelt und wir werden in Zukunft noch ganz andere Firmen sehen. Die Anforderungen werden immer heftiger. Das ist das Thema. Früher gab es kein Raytracing und Auflösung beschränkte sich auf 1080p. Letztendlich geben die Spieleentwickler den Takt vor.
 
und Auflösung beschränkte sich auf 1080

1080?
Da hatte ich vorher aber noch 640x480 und das unendlich viel bessere 800x600.
Danach kam der große Wurf des 1024x 768 … :)

Aber stimmt schon. Die Technik entwickelt sich stetig weiter und die Anforderungen der Menschen wachsen mit.
Ich kann auch nur hoffen,dass wir nicht mit einem GPU-Monopol enden und sich AMD und auch Intel weiterhin bemühen gute und konkurrenzfähige GPU's herzustellen.
 
Ja klar, aber schau bis wohin wir jetzt vordringen. 8K!
Aber 8K ist nur was für TVs in Größen ab 77" Auf einem Monitor 32" siehst du zwischen 4K und 8K keinen Unterschied.

Wobei, deine FPS brechen voll ein. Bei 8K misst man nicht in FPS sondern SPF (Sekunden/Frame)
 
Würde mich noch reizten eine RTX 4070 kaufen. Da aber meine RTX 2070 am Anfang des Jahres im Rauch aufgegangen ist und mir die ganzen neuen Karten zu teuer waren griff ich zu einer RX 6800. Was mir im späteren Hinblick entgegen gekommen ist, weil ich meinen PC komplett auf Linux um gestellt habe. Spielen am PC wurde mir als Hobby zu teuer, daher spiele ich fast nur noch auf meiner PS5.
Packe lieber noch 250€ drauf für eine RTX 4070Ti, da reicht die günstigste die es gibt zB von Palit für 952€ bei Mindfactory.de.
Ich würde an deiner Stelle auf den Black Friday warten! 😉
Davon hast Du weitaus mehr, Du hast fast die Leistung einer RTX 3090Ti, und das war letzes Jahr eine 2200€ Karte.

RTX 4070Ti vs RTX 4070
 
Zuletzt bearbeitet :
Ich gebe dir recht, wenn es keine Konkurrenz gäbe. AMD, ARM, Intel, Qualcomm etc. Wenn nVidia nächstes Jahr eine Grafikkarte rausbrächte, die 50x mal schneller ist als alles andere, warum sollte es dann keine Graka für 500€ von AMD oder Intel zu kaufen geben oder warum sollte es dann nicht mehr möglich sein, eine Graka für 500€ gewinnbringend zu verkaufen? Hier wittere ich einen Denkfehler. Ich mein, wenn es nur noch nVidia gäbe, dann kann nVidia nur so weit gehen, wie es die Kundschaft mitmacht und auch hier stellt sich mir die Frage, warum nVidia keine Graka für 500€ auf den Markt bringen sollte und wenn es doch so viele Käufer geben muss, die sich die 50x schnellere für 50.000€ nicht leisten kann. Es gibt ja keine Konkurrenz, weshalb man die 500€ Karte als zu langsam für die eigene Zwecke sehen könnte. Es gibt Autos mit mehr als 1500PS und dennoch verkaufen sich welche mit weniger als 100PS. Oder wie wäre es hiermit? Gibt dennoch Angebot für kleines Geld.

Aber vllt. verstehe ich dich auch falsch. Kein Thema. Will nicht draufrumreiten ^^

Edit: auf mich wirkte es wie eine (berechtigte) Sorge. Ich wollte nur beschwichtigen.
Nvidia springt im Gamingbereich nur so hoch wie sie müssen. Bei der 4000er Generation mussten sie noch damit rechnen, dass AMD deutliche Performancefortschritte macht und haben mit der 4090 auf Sicherheit gespielt. Zu dem haben sie mit den Tensorcores etc. Entwicklungen aus der GPGPU-Basis angepaßt. Die Titan V war da ja quasi ein Abfallprodukt das auch notfalls zum Zocken verwendet werden konnte, wenn man damals denn gerne 3.000€ ausgab. Bei den Nachfolgern haben sie ja eigentlich nur den HBM-Speicher ersetzt und ein paar RT-Einheiten hinzugefügt.

Wenn da kein Druck mehr seitens der Mitbewerber kommt, werden die im Gamingbereich das gleiche Spiel spielen wie Intel bis zum Erscheinen der Ryzen-CPUs. Das Hauptaugenmerk von Nvidia liegt bei AI und sonst nirgends.
AMD bekommt trotz sehr leistungsfähiger Karten keinen entsprechenden Marktanteil da fast alle nur noch Nvidia haben wollen. Das wird mit nur mit max Midrange-Karten sicher nicht besser. Bei Intel sehe ich, dass BM ein Erfolg werden muss. Sollten sie etwas hinterher hinken und nicht massiv Marktanteile hinzugewinnen wird es vermutlich keinen entsprechenden Nachfolger mehr geben.

Cunhell
 
Ich habe ja auch schon zeitweilig eine AMD X1900 XT (zu heiß und laut), HD3850 (cooles Teil) und eine 6900XT (ebenfalls sehr gut) gehabt. Nvidia hat es aber schon schlau eingefädelt, die Raytracing Leistung stark zu forcieren, DLSS kontinuierlich zu verbessern und jetzt mit FG und RR noch mal einen draufgesetzt. Da müsste AMD im viel kleineren Mitarbeiterstab schon geniale Leute haben und viel Geld investieren, um das alles in nächster Zeit aufzuholen. Problematisch ist halt auch, wenn sie es 2025 schaffen, eine Karte auf technischer Augenhöhe mit einer RTX 6090 herauszubringen, muss die erheblich billiger als das Nvidia-Gegenstück sein und es dauert trotzdem sehr lange, bis einige Nvidia Stammkunden zu Ihnen abwandern würden. Ich hoffe auf Intel. Entweder stampfen sie die Graka-Sparte wieder ein oder entwickeln ebenfalls KI-GPUs, die sich im Profibereich auch gut vermarkten lassen. In Sachen KI sind sie auf jeden Fall fieberhaft dabei, hört man.
 
Aber 8K ist nur was für TVs in Größen ab 77" Auf einem Monitor 32" siehst du zwischen 4K und 8K keinen Unterschied.

Wobei, deine FPS brechen voll ein. Bei 8K misst man nicht in FPS sondern SPF (Sekunden/Frame)
Ok die Frames brechen ein, aber da sind wir noch weit weg von SPF.
Mit einer Auflösung von 8192 x 4608 sind bei mir immer noch gute 52 FPS mit VR.

Gut da ist dann kein Ray-Tracing dabei weil es ältere Spiel Titel sind.
 
Ok die Frames brechen ein, aber da sind wir noch weit weg von SPF.
Mit einer Auflösung von 8192 x 4608 sind bei mir immer noch gute 52 FPS mit VR.

Gut da ist dann kein Ray-Tracing dabei weil es ältere Spiel Titel sind.
VR-Brille vs. Monitor? Der Vergleich hingt etwas. Bei einem Monitor ist 8K fragwürdig.
 
Da müsste AMD im viel kleineren Mitarbeiterstab schon geniale Leute haben und viel Geld investieren, um das alles in nächster Zeit aufzuholen.
Und sie dürfen keine Patente von Nvidia verletzen! Das wird wahrscheinlich ein richtiges Nadelöhr für AMD und Intel.
Ist ja ein kleiner Chip und daher nur begrenzt Platz für große Ideen.
Aber 8K ist nur was für TVs in Größen ab 77" Auf einem Monitor 32" siehst du zwischen 4K und 8K keinen Unterschied.

Wobei, deine FPS brechen voll ein. Bei 8K misst man nicht in FPS sondern SPF (Sekunden/Frame)
Hab mal irgendwo gelesen das das menschliche Auge ab 5k keine Verbesserung mehr wahrnehmen kann auf normalen Bildschirmen. Bei 77“ aufwärts werden die Karten natürlich neu gemischt.
Ist da was dran?😵
 
Sooo. Ich sitze grade nebenher am Spieletest für Kleiderschrank 2077 und diversen Benchmarks. Und die CPU blutet auch ganz nett. Interessanterweise liege ich gar nicht so weit weg von der PCGH, aber den ganzen Aufwand muss ich mir nicht machen, einige Karten weniger tun es ja auch. Immerhin habe ich alter Sack auch ordentlich Fortschritt im DLC gemacht und ja, es ist auch deutlich schwerer geworden. Savegames have ich jetzt wie Sand am Meer und man muss ja nicht immer die gleichen Szenen testen wie andere. Nur muss man dann erst einmal eine Weile zocken, bvor man sich wirklich frei bewegen kann.
 
Und sie dürfen keine Patente von Nvidia verletzen! Das wird wahrscheinlich ein richtiges Nadelöhr für AMD und Intel.
Ist ja ein kleiner Chip und daher nur begrenzt Platz für große Ideen.

Hab mal irgendwo gelesen das das menschliche Auge ab 5k keine Verbesserung mehr wahrnehmen kann auf normalen Bildschirmen. Bei 77“ aufwärts werden die Karten natürlich neu gemischt.
Ist da was dran?😵
Ja, an dem Thema soll was dran sein, dass man ab 5K keinen Unterschied mehr sehen soll. Bei einem großem TV wird es interessant, wenn man sehr nahe davor sitzt. Dann macht 8K sicher einen Unterschied.

Der Nachteil ist nicht nur die schlechten Frames. Eher der Content, denn man via Stream ziehen will. Die Masse an Daten nimmt ja nicht linear zu, sondern x². Wenn 8K ein echtes Thema wäre, warum kommt Hollywood damit nicht längst um die Ecke?

Der Aufwand ist gigantisch und steht in keiner Relation zum Nutzen!
 
VR-Brille vs. Monitor? Der Vergleich hingt etwas. Bei einem Monitor ist 8K fragwürdig.
Ohne VR Brille, die GPU Rendern in der besagten Auflösung, das wird dann Downgesampelt auf 4K bei mir.

Klar ich würde auch die Unterschiede mit der Lupe suchen auf einem Monitor, aber darauf ist man ja nicht beschränkt.
TV sind einfach Bunter und Heller. :)
 
Nvidia springt im Gamingbereich nur so hoch wie sie müssen. Bei der 4000er Generation mussten sie noch damit rechnen, dass AMD deutliche Performancefortschritte macht und haben mit der 4090 auf Sicherheit gespielt. Zu dem haben sie mit den Tensorcores etc. Entwicklungen aus der GPGPU-Basis angepaßt. Die Titan V war da ja quasi ein Abfallprodukt das auch notfalls zum Zocken verwendet werden konnte, wenn man damals denn gerne 3.000€ ausgab. Bei den Nachfolgern haben sie ja eigentlich nur den HBM-Speicher ersetzt und ein paar RT-Einheiten hinzugefügt.

Wenn da kein Druck mehr seitens der Mitbewerber kommt, werden die im Gamingbereich das gleiche Spiel spielen wie Intel bis zum Erscheinen der Ryzen-CPUs. Das Hauptaugenmerk von Nvidia liegt bei AI und sonst nirgends.
AMD bekommt trotz sehr leistungsfähiger Karten keinen entsprechenden Marktanteil da fast alle nur noch Nvidia haben wollen. Das wird mit nur mit max Midrange-Karten sicher nicht besser. Bei Intel sehe ich, dass BM ein Erfolg werden muss. Sollten sie etwas hinterher hinken und nicht massiv Marktanteile hinzugewinnen wird es vermutlich keinen entsprechenden Nachfolger mehr geben.

Cunhell
Das wird bei AMD daran liegen das es immer noch nicht FSR 3.0 offiziell gibt.
Da FSR 3.0 so ähnlich ist wie DLSS 3.0.
Das mit Intel Battlemage sehe ich genauso.
Du hast in allen Punkten Recht.
Eine Battlemage Karte reizt mich schon als Not Grafikkarte.
XESS ist aus dem Stand herraus von 0 auf 100, extrem Leistungsstark.
Und damit auf dem gleichen Level wie DLSS 3.0!
Die leistungs stärkste BM GPU soll auf dem Level einer RTX 3090Ti / RTX4080 sein, aber deutlich sparsamer sein im Verbrauch.
 
Ich bezweifle, dass die Entwickler gewillt sind, bei 9% Marktanteil (Absatz) Irgendetwas reißen zu wollen mit FSR.


Das wars dann bald mit den RADEONs, ab jetzt müsst ihr euch selbst das FSR zusammen Basteln. :confused:
 
Ich bezweifle, dass die Entwickler gewillt sind, bei 9% Marktanteil (Absatz) Irgendetwas reißen zu wollen mit FSR.


Das wars dann bald mit den RADEONs, ab jetzt müsst ihr euch selbst das FSR zusammen Basteln. :confused:
Das glaube ich nicht.
Viele vermuten das nach dem FSR 3.0 erschienen ist, die Preise für Radeon Karten sogar wieder steigen könnten.
FSR 3.0 ist doch kurz vor der Veröffentlichung.
Es ist somit fast fertig.
 
Viele vermuten das nach dem FSR 3.0 erschienen ist, die Preise für Radeon Karten sogar wieder steigen könnten.
FSR 3.0 ist doch kurz vor der Veröffentlichung.

Igor vermutet,dass FSR 3 erst im Februar 24 kommen sollte.
Das sind dann noch ein paar Monate hin.
Das deswegen die Radeons gleich im Preis steigen,bezweifle ich jedoch.
Da müsste das Ergebnis ja deutlich über dem eben abgelieferten Hammer von Nvidea liegen.

Kann ich mir (leider) nicht vorstellen.
 
FSR3 wurde z.B. auch auf der Gamescom hinter verschlossenen Türen gezeigt, das dürfte in Forspoken gewesen sein. Soll zumindest in dieser Demo nicht so prall gewesen sein. Und ob das so bald was wird... Hoffen wir mal das Beste 😶
 
@cunhell
Wenn der Leistungsvorsprung weiter zunimmt, dann kann nVidia die Preise nur so weit erhöhen, so lange sie dafür Käufer finden.
Der kann aber ziemlich hoch sein. Ich hab mir die Tage zum 61ten eine Can am Spyder gegönnt. Passendes Zubehör gibt es nur von Can Am. Die Preise sind ein einziger Alptraum, selbst mit guten Händlerrabatten.

Aber was machste.

Genau. Augen zu und durch.

Solange einer Firma, die Wenigen die viel zahlen lukrativer zu sein scheinen, als die Vielen die wenig zahlen, hast du als Kunde ziemlich die A-Karte.

Ich nutze seit Jahren nur NVIDIA, aber mittlerweile geht mir deren Dominanz ziemlich gegen Strich, weil ich den Preis dafür zahlen werde.
 
Oben Unten