News Neuigkeiten und Gerüchte zu RTX 4xxx "Lovelace" (Sammelstrang)

@Tronado
Es hat sich durch 6800/6900 weniger geändert, als es zu Anfang schien. Wer RT mag und in einer Auflösung >1080p spielen will, der muss nach wie vor eine Karte von nVidia kaufen. DLSS entwickelt sich unabhängig davon zu einem Killerfeature, wo man selbst mit Turing ohne RT bequem auf 4k spielen kann. KI-upscaling war eben kein billiger PR-stunt und RT wird die Märkte vollständig durchdringen, das wusste jeder, der über reines Gaming hinaus ein wenig Wissen im Anwenderbereich hat. RT ist der Standard jedweder hochwertigen Visualisierung, seit langem.

Mal kurz vergleichen, wer preiswerte Rasterisierung wollte, kaufte 5700 statt 2070/2080.
Und nun kauft der gleiche Kundenkreis eben 6800/900 statt 3070 bis 3090 mit der Einschränkung, das DLSS und RT im Gaming immer wichtiger werden.

Ich bezweifele, das es hier zu einer größeren Abwanderung von Kunden nVidia zu AMD kommen wird.

Wer das Geld hat, kann sich da noch einen HDR Monitor mit 1000nit draufpacken, ist nie verkehrt.
 
@Dragus ich hoffe da wird demjenigen nur der Kopf gewaschen. Auch wenn es ziemlich daneben war, sollte das nicht direkt zur Kündigung führen. Jeder macht auch mal ziemlich blöde Fehler aus die man lernen kann/sollte...

@Tronado mit HDR spiele ich zur Zeit AC Valhalla, auch um mich von dem Effekt mehr begeistern zu können. Ich meine es sieht auch etwas besser aus - vermute aber das mein TV das noch nicht so 100% rüberbringt, wie es im idealfall möglich wäre.

Ich wünsche AMD das Sie bald Ihre DLSS Alternative präsentieren können. Ansonsten bin ich wirklich erfreut, dass AMD wieder ganz vorne mitspielt und manchmal sogar überholt. Wettbewerb ist für uns nur gut. Das RT noch nicht perfekt ist und DLSS fehlt ist aktuell noch kein KO Kriterium - mittelfristig sollte hier AMD aber aufholen. Gerade RT in Kombi mit einer DLSS Alternative macht in 4k ggf. den Unterschied zwischen spielbar und ruckelorgie.
 
Mir erschliesst sich der Sinn von "ich brauch unbedingt einen 4k Monitor, boa 4k, wie scharf das doch ist", und dann schalte ich DLSS ein und es wird wieder unschaerfer.

Wenn dann wuerde ich DLSS nur einschalten, damit das Bild schaerfer wird als zuvor.
Also wenn ich 1440p auf meinem 1440p Monitor fahre, und DLSS aus dem 1440p Bild versucht ein 4k Bild zu rendern um es dann runtergesampelt wieder auf 1440p auszugeben.
Also quasi wie Supersampling, nur ohne in der hoeheren Aufloesung rendern zu muessen.
 
@mer
Hängt halt (auch) von der Größe des Monitors ab. Ich würde mal raten, dass man ab 34" bei 16:9 (meine nicht diese Ultra-wide Dinger) sonst einfach die Pixel sieht wenn's Display "nur" WQHD-Auflösung hat. Bei meinem 55" Trumm vor der Birne bei normalem Sitzabstand wird das jedenfalls auch mit 4K schon ein Thema (je nach Brillengüte und Reinigungszustand derselben :D). Das heißt, man will schon im Hinblick auf die Pixel-Dichte dann ein höher auflösendes Display, also dann als nächste Stufe über WQHD quasi zwangsläufig 4K.

Und 4K packen die blöden GPUs mit allem BlingBling eben IMMER NOCH NICHT in jedem Spiel in akzeptabler Geschwindigkeit (~60FPS). Leider. Wobei: das einzige Spiel, wo's aktuell selbst mit einer 3090 echt grenzwertig bis unspielbar ist, ist Cyberpunk.

Also was tun? Wir alle wissen wohl, wie furchtbar es ist, ein Display unterhalb seiner nativen Auflösung zu betreiben - das will keiner, zumindest steht es für mich außer Frage, das Display "hochrechnen" zu lassen oder nur mit einem Ausschnitt/schwarzem Rand zu spielen. Bleibt also nur die Daddelei in 4K in Kombination mit einer Übergangs-Technik wie DLSS oder man schraubt an anderen Stellen die Grafik herunter, um das Beste aus beiden Welten mit gewissen Kompromissen mitzunehmen. Für mich ist DLSS da eine ganz gute Lösung, da man damit quasi einfach alle Regler auf Max setzen kann und dann halt bei dem DLSS-Regler schaut, mit welcher Einstellung es akzeptabel läuft. ;)

Lange Rede, kurzer Sinn: bei einem 4K Display bei 27" bin ich vielleicht noch bei Dir (hab da aber auch noch nicht WQHD@4K selbst in natura gesehen), wer aber ein größeres 4K-Display hat, kommt um Kompromisse bei der Grafikpracht bisweilen auch heute noch nicht herum. DLSS ist da eben eine Option mehr, die durchaus gute Ergebnisse liefern KANN (nicht muss, ist halt spielabhängig).
 
  • Like
Bewertungen: mer
Verflixxt, ganz vergessen, was ich eigentlich nur kundtun wollte. Endlich angekommen und dank dem Seasonic-Support sogar kostenlos:

Seasonic00.jpg

Seasonic01.jpg

Jetzt die Jetzt fehlen nur noch Wakü-Block und 1-Slot-Blende für den Einbau... ach ja, und ein SFX-Netzteil von Seasonic für die Kiste wo die FE eigentlich rein soll... tja, gibt's gar nicht mit der nötigen Wattzahl. Aber hey, immerhin hab ich das Kabel jetzt schonmal im Schrank...
 
Zuletzt bearbeitet :
@mer
Gut implantiertes DLSS macht das Bild nicht unscharf. Darüber hinaus möchte ich anmerken, das viele zum Arbeiten einen hochauflösenden Monitor nutzen aber nur gelegentlich spielen und daher nur Mittelklasse GPUs verbaut haben. Für diesen Personenkreis ist DLSS ideal, da bringt selbst eine 2070 noch spielbare FPS auf UWQHD oder 4k, man kann den Monitor in der nativen Auflösung belassen.

Bei mir wird DLSS zukünftig Teil der Kaufentscheidung, Titel mit DLSS präferiert.

@Besterino
DLSS ist keine Übergangstechnik, sondern dürfte mit der weiteren Entwicklung weitere Aufgaben übernehmen. Prozedurale Texturen kreiert DLSS ja auch schon, dadurch werden perspektivisch GPUs mit wenig VRAM noch mal stark aufgewertet. Mal sehen, was DLSS 3.0 so alles hinbekommt.
 
War vielleicht unsauber ausgedrückt: Übergangstechnik = "Kompromiss" bzw. Einstellungsregler den man (nur) braucht, bis die Performance für die "beste Bildqualität" ohne Einschränkungen reicht.
 
@Besterino
KI basierte Verarbeitungsverfahren werden bald die notwendige Voraussetzung für die beste Bildqualität sein und etwaige Einschränkungen darin bestehen, diese nicht verfügbar zu haben. Ob man sie dann noch DLSS oder anders nennt, wird man dann sehen.
 
Ich hab es gerade mal in Black Ops (WQHD | max. Details | ohne RT) probiert. Beides glättet erstmal schön die Kanten.
Das Bild mit AA sieht zwar einen tick schärfer aus als mit DLSS aber auf Kosten einiger FPS. Daher spiel ich mit DLSS.

Bild-Reihenfolge: Anti-Aliasing - DLSS - ohne beides
*FPS jeweils links oben




Ich mag das DLSS und/oder die Experience Filter nicht missen und daher wird es wohl ne 3080.
 
Zuletzt bearbeitet von einem Moderator :
@Dragus: ich verlasse mich auf keine Glaskugel was die Zukunft angeht, weder meine noch Deine, und bleibe dabei: schöner ist ohne und das hätte ich gerne wenn möglich. Diskussion darüber ist eh müßig: entweder geht es in Zukunft ohne, dann fein. Aber wenn's keiner anbietet, kann ich auch nichts dran ändern und muss nehmen was es gibt. Das Schöne: Mutmaßungen heute sind dahingehend dazu total überflüssig, denn was geht werden wir dann sehen, wenn's soweit ist.

@Derfnam Was ist schon nötig? Wollte einfach einen Eindruck/Details vermitteln, falls jemand das noch (nach)bestellen will (und hatte keinen Bock, das in Worte zu fassen wenn Bilder mehr sagen als 1000 Worte).
 
@Besterino
Bei meinen Investitionsentscheidungen haben die potenziellen Wertentwicklungen immer eine wichtige Rolle gespielt, das ist bei Grakas, die ja nur ein Hobby sind, nur aus Gewohnheit bei der Bewertung berücksichtigt. DLSS 2.0 zeigt, wie richtig die Entscheidung war eine 2070 und keine 5700 zu erwerben. Was der GA100 derzeit an Entwicklungen anstößt, erkennen viele auch nicht. Also nenne du es Glaskugel, ich nenne es eine fundierte Prognose. Dazu gibt es auch auf dieser Website ein paar erhellende Artikel, sofern man sich dafür interessiert.
 
Ich interessiere mich durchaus sehr für das, was mit real existierender Hardware möglich ist. Aber wir unterscheiden uns vermutlich einfach was die Zukunft angeht: das fließt bei mir schlicht fast gar nicht in eine Kaufentscheidung ein und Überlegungen zu "Wertentwicklungen" bei Computerhardware sind - für mich ganz persönlich - verschwendete Zeit, zumindest in monetärer Hinsicht abseits von Aktienkursen. ;)

Kaufentscheidung treffe ich eben auch erst, wenn sie anstehen, und dann anhand der Anforderungen im hier und heute. Dabei hat sich dann aber auch in meiner sehr persönlichen Strategie bewährt, lieber weiter oben ins Regal zu greifen - dann hat man in der Regel auch länger Ruhe und muss sich nicht ärgern, dass schon bald wieder eine Anschaffung ansteht. Kann aber auch anders kommen.

Das Gute ist, zur Not kauf' ich halt was Neues. Das ist eines der ganz wenigen Bereiche, wo Nachhaltigkeit bei mir vielleicht nicht auf oberster Stufe steht. Wobei ich auch fast nie Hardware wegwerfe, sondern immer noch irgendeine Verwendung finde (nur für den in meinem Haushalt inzwischen doch kürzlich ausgemusterten Q9550 hab ich leider immer noch keinen Abnehmer gefunden...). ;)
 
@Besterino
Du hast da völlig recht, Pragmatismus ist ein guter Ratgeber beim Hardwarekauf. Normalerweise gebe ich wenig auf neue, unausgereifte Features, erst mit Turing hat sich das geändert. RT interessiert mich unabhängig vom Gaming und die aktuellen Entwicklungen rund um KI unterstützte Applikationen sind spannend, da werden Projekte realisiert, die in den 80-90ern als SF galten. Ich freue mich einfach, dass endlich neue Technologien in die Branche einziehen, die den Trott seit Beginn der Rasterisierung durcheinanderwirbeln und neues Potenzial erschließen, die aber leider auch ihren Preis haben, wobei DLSS hier auch als Preisbrecher fungieren kann. Wohl möglich hat man es deshalb parallel zu RT eingeführt, um die Ansprüche hochzuhalten. Im Grunde ist es einer der seltenen Fälle, in denen eine Karte der älteren Generation aufgrund eines Feature Updates signifikante FPS-Vorteile erhält, da fallen mir wenig vergleichbare Fälle ein. Und sollte dann mal DLSS 3.0 kommen, kann es durchaus sein, das die Turing-Serie nochmal aufgewertet wird, ein konkreter Nutzen für den Endkunden.

Sonst kaufe ich auch nur, was ansteht und meist etwas teurer, vor allem, um nicht alle paar Jahre das System neu aufsetzen zu müssen. Bei 1,5 mBit Internet-Anbindung lädt man nicht mal eben seine Steam Bibliothek nach, das dauert Monate. Dazu die ganzen Programme. . . . Die Plattform wird also genutzt, solange es geht. Dagegen ist ein Graka-update geradezu simpel. Alte Hardware geht als Geschenk an Bekannte, den Rest schenke ich dem lokalen Hardwaregeschäft zum Ausschlachten.

Und da ich immer noch auf die 3080ti warte und möglicherweise noch lange warten werde, freut es mich einfach, den zum Arbeiten erworbenen UWQHD 34" Monitor dank DLSS mit der 2070 nativ mit ausreichenden FPS nutzen zu können. DLSS ohne RT ist klasse für ältere Karten.

OT: Wer sich ein wenig für die zweite Welt interessiert: In Paraguay wurden die ersten Ampere Karten im Dezember gelistet, das preiswerteste Modell 3070 820$, 3080 1100 $, 3090 1900 $. Konditionen: 6 Monate Garantie bei Defekt, keine Rücknahme/Umtausch o.ä.
 
Zuletzt bearbeitet :
Solange DLSS wie auch RT von den Entwicklern erst in die Spiele integriert werden muss (und dies mit großen Aufwand verbunden ist) und dies viele offenbar noch scheuen, aus Kostengründen und arbeitszeittechnischen Gründen. Solange bleiben es Randfeatueres.

Wem nützen die angeblich zukunftsfäjhigsten Features etwas, wenn die Spiele die man spielt dies nicht unterstützen? Vor allem wenn dank dieser Features die Preise der Grafikkarten immer weiter steigen und somit immer weniger Käufer sich Grafikkarten die die Featues auch vernünftig umsetzen leisten können/wollen?

Es bringt einfach nichts immer wieder zu erzählen wie toll doch solche Features sind und wie rosig die Zukunft damit aussehen KÖNNTE, denn die Realität sieht eben anders aus. Noch immer wird der Großteil der Spiele ohne DLSS und RT entwickelt. Noch immer kann man diese Features nur nutzen wenn man bestimmte Karten kauft. Noch immer kosten diese Karten viel zu viel (und sind gerade auch fast nirgends zu kaufen). Und noch immer erzeugen solche Features nicht mehr Spielspaß (außer bei denen, die Spielspaß mit schöneren Bildern gleichsetzen).

Also worüber reden wir hier immer wieder aufs neue? Achja, dass es RT und DLSS gibt und dass es irgendwann vielleicht in der Zukunft für alle nutzbar ist und alles viel schöner machen könnte.

Dabei wäre es aktuell viel wichtiger wenn die Verfügbarkeit steigen und die Preise sinken würden. Und dies wäre auch für die Zukunft eigentlich viel wichtiger, um eben gerade auch die Verbreitung der Lobgepreisten Features zu steigern. Denn die tollsten Features nutzen nichts, wenn zum einen die Entwickler es nicht in ihre Spiele einbauen und zum anderen die Verbreitung der GPUs die die Features nutzen können gering bleibt.
 
@Dark_Knight jede neue Technik benötigt seinen Zeit. Zum jetzigen Zeitpunkt kann man Sie z.B. bei Cyberpunk sinnvoll einsetzen. Jemand mit einer RTX 2060 S wird das Spiel in FullHD mit DLSS 2.0 besser genießen können, wie jemand mit einer gleichwertigen Karte ohne DLSS. Zum jetzigen Zeitpunkt muss jeder für sich selbst entscheiden, spiele ich Spiele mit DLSS 2.0 und ist es mir das Wert, für höhere Qualitätseinstellungen mehr Geld auf den Tisch zu legen. Angeblich soll es ja auch eine RTX 3050 geben, womit wir dann im günstigeren Preissegment sind. Das sind dann klassische FullHD Karten, die auch RT sowie DLSS unterstützen. In einigen Jahren sind das dann Standardfunktionen, selbst bei den preiswertesten Modellen. Sowas brauch dann einfach seine Zeit. AMD hat es geschafft die Rohleistung massiv zu steigern und jeder der wegen seines Displays bzw. auf Grund der Spiele die er spielt zu AMD greifen möchte, dürfte sehr glücklich werden.

Hinsichtlich Verfügbarkeit, wir sind mitten in einer Pandemie und es gibt weitere Punkte die hier zur schlechten Lieferbarkeit beitragen. Wollen wir hoffen das sich das in den nächsten Monaten beruhigt. Das es ärgerlich für die Nutzer ist, keine Frage und nicht jeder ist zurecht bereit 20-30% mehr zu zahlen.

Am vernünftigsten dürfte die Regel sein, die eigentlich schon immer gegolten hat. Hardware kaufen, sobald man Sie benötigt. Extraausstattung nur für die Zukunftssicherheit sollte gut dosiert sein, tut man es übertreiben wird es in der Regel teuer und oft ist diese dann schneller veraltet wie man es wahrhaben möchte.

Bsp. Speicher, wer zum zocken 64 GB DDR4 Ram in den PC steckt, wird in 3 Jahren merken das dies nix gebracht hat, da fürs Gaming 32GB DDR5 Speicher viel mehr bringen werden.

Wer jetzt eine RTX 3090 käuft und die Leistung benötigt, alles gut. Kauft man aber für FullHD eine RTX 3090 um dann 10 Jahre ruhe zu haben, dürfte dies ziemlich sicher in die Hose gehen.

Noch ein Beispiel, DX 12 ist eine gute Schnittstelle die relativ schnell von fast allen Grafikkarten unterstützt wurde. Trotzdem hat es sehr lange gedauert bis diese von den Entwicklern unterstützt wurde. Es dauert einfach seine Zeit bis die Entwickler neue Techniken einsetzen bzw. annehmen, da hier oft viel Aufwand mit verbunden ist.
 
Zuletzt bearbeitet :
@Dark_Knight
Neue Technologie werden regelmäßig erst nach erscheinen in die Spiele integriert und sind oft mit großem Aufwand verbunden. Entscheidend ist, welchen Nutzen sie bringen, nachdem sie integriert wurden. Das entscheidet der Käufer. Bei DLSS und RT hat der Käufer sein Urteil gefällt, nun entsteht Druck auf die Programmierer, denn bei zwei gleichwertigen Spielen, eines mit RT und DLSS und eines ohne RT und DLSS, wird letzteres tendenziell Kunden verlieren. Die Konkurrenz wirkt auf allen Ebenen, nicht nur bei der Hardware.
Wenn man selbst diese Features nicht nutzt und nicht benötigt, kauft man sie nicht, wobei gerade DLSS 2.0 ein Beispiel dafür ist, wie ein Feature die Leistung einer Karte signifikant verbessern kann, ohne sie teurer zu machen.
Was Spielspaß angeht, der ist individuell. Man kann sich auch eine App auf ein Low-Budget Handy laden und damit glücklich sein. Fotorealismus ist immer dann Teil des Spielspaßen, wenn die Immersion des Spiels Realismus verlangt. Selbstverständlich kann man auch abstrahieren. Das ist wie im Kino, es gibt gute Zeichentrickfilme und schlechte Videos und umgekehrt. Was man vorzieht, ist individuell unterschiedlich, steht man auf Realismus, ist RT und hohe Auflösung ein Bestandteil der Wertung. Freu dich, wenn du es nicht brauchst, das eröffnet dir preiswertere Alternativen.

Die aktuell schlechte Verfügbarkeit kann man vollständig separat diskutieren.
 
Niemand setzt schöne Bilder mit Spielspaß gleich aber sie sind ein ganz wesentlicher Faktor beim Gesamteindruck eines Spiels.

Das sehen die Macher von Cyberpunk sicher ähnlich sonst hätten sie die Story einfach mit der DukeNukem3D Engine umgesetzt.

Ganz ohne DLSS oder RT oder so neumodischer Kram... 👍

...haben wir früher schließlich auch nicht gebraucht um glücklich zu sein.
 
Oben Unten