MSI GeForce RTX 4080 SUPRIM X im Test - Tiefgekühltes Schwergewicht auf leisen Sohlen, wäre da nicht der Preis als Spielverderber

Hätte bestimmt noch was übrig, aber nen kompletten Loop würde es wohl nicht ergeben. ;)
 
Ich nehme an, dann bekommt man wieder zurück was man bezahlt hat. Nur das das geld dann nichts mehr wert ist 🤷‍♂️
Schön gesagt. So argumentiert heute mancher, wenn er Schulden machen will/muss.
Aber ich halte das eher für brandgefährlich, wenngleich wahrscheinlich grundsätzlich richtig.
 
Ich wollte damit eigentlich sagen, bevor ich mir wegen 20 Prozent mehr Leistung eine 4080 für 1800 Euro würde, würde ich mir eine 3090 kaufen oder die 500 Euro drauf legen und eine 4090 kaufen. Die 4080 ist total fehl am Platz 🤷‍♂️

Restlicher Inhalt entfernt - Politische Statements haben in diesem Thread nichts zu suchen.
PASTOR
Das wiederum stimmt. Aber das geht ja schon seit Generationen so. Die 2080 war aus Ram Gründen genauso Mumpe wie die 3080 und die 4080 passt preislich überhaupt nicht. Zumal Einige meinen das die 16 GB möglicherweise mit aufgeblähten RT Games auch knapp werden können.

Also, Knete raus und immer das größte Modell kaufen, alles andere wird auf Dauer noch viel teurer.
Die 4090 ist für mich weiterhin keine Zocker Karte. Dafür ist sie zu teuer und die Leistung braucht kein Mensch jenseits von "haben wollen".

Wir sind ja quasi Brüder im Geiste, aber hier muss ich dir wiedersprechen. Die 4090 ist "DIE" Zockerkarte und haben wollte ist am Ende das einzige was zählt.

Bitte behandelt Eure 4090er gut !

In zwei Jahren schaue ich dann auf den Gebrauchtmarkt :D
Das kannst du mal vergessen. In 2 Jahren kommt die 4090 genau dahin, wo jetzt die 3090 ist.In den Zweitrechner. Da musst du dich schon mindestens 4 Jahre gedulden. ;)

Wobei ich ernsthaft der Meinung bin, das die 4090 durchaus länger als für eine Generation was taugt, wenn keine völlig neuen Techniken den Enthusiasten zum Neukauf nötigen.
 
Zuletzt bearbeitet :
Wobei ich ernsthaft der Meinung bin, das die 4090 durchaus länger als für eine Generation was taugt, wenn keine völlig neuen Techniken den Enthusiasten zum Neukauf nötigen.

Ich glaube, was Du sagen wolltest, ist, "wenn keine völlig neuen Techniken Neuerscheinung..." ;)

Bei mir ist übrigens der Lebenszyklus noch länger. Ich fange gerade erst an, die 1000er (1080Ti) auszumustern. Das älteste Gerät sind dann noch 2 TitanXp und als nächstes käme dann eine 2080Ti. Dauert aber noch (die betroffene Person spielt nur auf 1080p). :D
 
Ich glaube, was Du sagen wolltest, ist, "wenn keine völlig neuen Techniken Neuerscheinung..." ;)

Bei mir ist übrigens der Lebenszyklus noch länger. Ich fange gerade erst an, die 1000er (1080Ti) auszumustern. Das älteste Gerät sind dann noch 2 TitanXp und als nächstes käme dann eine 2080Ti. Dauert aber noch (die betroffene Person spielt nur auf 1080p). :D

Sag doch sowas nicht. Ich entwickele mich gerade zum Zen-Meister der Askese und hab mindestens den 3 Dan errungen, indem ich mir eisenhart und mit beängstigender Konsequenz den Erwerb einer zweiten 4090 verweigere und tapfer im Zweitrechner die alte 3090 weiter nutze. :giggle:

Ok. ich hab dann stattdessen das Geld in einen neuen Denon 2500NE gesteckt.

Aber das zählt ja nicht.
 
Zuletzt bearbeitet :
Die Summe aller Laster bleibt immer gleich. ;)
 
[...]
Das kannst du mal vergessen. In 2 Jahren kommt die 4090 genau dahin, wo jetzt die 3090 ist.In den Zweitrechner. Da musst du dich schon mindestens 4 Jahre gedulden. ;)

Wobei ich ernsthaft der Meinung bin, das die 4090 durchaus länger als für eine Generation was taugt, wenn keine völlig neuen Techniken den Enthusiasten zum Neukauf nötigen.
Das mit den Brüdern kann wirklich stimmen. Ich betreibe auch eine exzessive - in-Haus - Zweitverwertung. Mein Sohn geiert schon immer.
 
Schön gesagt. So argumentiert heute mancher, wenn er Schulden machen will/muss.
Aber ich halte das eher für brandgefährlich, wenngleich wahrscheinlich grundsätzlich richtig.
Ich habe/mache keine Schulden, aber aus Jahrzehnten Erfahrung , weiß ich , daß das so ist. Habe vor einigen Jahren ein zwei Jahre altes Mainboard für das gleiche Geld verkauft, wie gekauft. Nur war das Geld halt dann weniger Wert und bei der aktuellen Inflationsrate, braucht man wohl nicht mehr über Geld und Wert zu reden. Den dummen Politikern sei dank 🤦‍♂️
 
Nennt sich Fortschritt. Früher hat man auf 640x480 gespielt. Siehst du diese Auflösung noch irgendwo? Normalerweise sollte dieser Fortschritt irgendwann dazu führen, dass FHD und WQHD genauso sang und klanglos verschwinden. Von daher sehe ich hier kein Dilemma, außer eben dem, dass auch nach über zehn Jahre offenbar für viele Gaming oberhalb FHD weiterhin zu teuer ist.
Nah, 4k Gaming gibt es seit XBox X und PS4 Pro passend zum 4k TV preiswert. Solange viele PC-Spieler sich noch 1080p und 1440p Monitore aufschwätzen lassen, solange wird die Einstiegsklasse der GraKas nur für 1080p sein und Nvidia weiterhin ihren Aktionären stolz von 95% Gewinnmarge am Chip berichten können.
 
Nah, 4k Gaming gibt es seit XBox X und PS4 Pro passend zum 4k TV preiswert. Solange viele PC-Spieler sich noch 1080p und 1440p Monitore aufschwätzen lassen, solange wird die Einstiegsklasse der GraKas nur für 1080p sein und Nvidia weiterhin ihren Aktionären stolz von 95% Gewinnmarge am Chip berichten können.
Bei 30 FPS
 
Besser als Ruckeln beim zigfachen Preis :p
Ich spiele bei Actionspielen (gerade mit/gegen andere) lieber in 60 fps, das kann man idR auch einstellen.
Klappt bei einigen Crossplay-Multiplatformspielen nicht, aber da sind die PCler auch begrenzt auf die selben FPS (Gotham Knights & Co).
 
Zuletzt bearbeitet :
30 FPS ist ruckeln.
 
4 K ist schon schön, vor allem, wenn der PC an einem großen Schirm oder im Wohnzimmer Einzug hält und dann an der 55er oder 65er Glotze hängt. Mir persönlich reichen hier dann 60 fps allerdings aus. Die Frage, welche Karte das dann wie gut darstellen kann, liegt ja an mehr Faktoren als der reinen Pixelzahl. L4D spiele ich mit durchschnittlichen Einstellungen auch an einer 1080ti wahrscheinlich noch in 4 K mit 60 Hertz. Darktide wohl eher weniger und Requiem schon überhaupt nicht mehr. Und das liegt wohl nicht erstrangig an einer "schlampigen" Programmierung.
Ich sehe den Bedarf an mehr Rechenpower hier auch eher in höheren Details, Schatten, Raytracing und solchen Dingen, als dass irgendwann 8K kommt, was ich persönlich definitiv nicht mehr brauche, weil da dann schließlich die Fähigkeiten meiner Augen an die Grenzen kommen. Für die Hardware Enthusiasten gilt wohl eher: the sky is the limit - aber das hat mit objektivierbaren Faktoren genauso wenig zu tun, wie der "Switch" Krieg der Reaktionszeit bei den mechanischen Tastaturen oder Mouse-Switches oder irrwitzige Abtastraten von Lasersensoren, bei denen jeder Bio-Mechaniker oder Mediziner nur noch den Kopf schüttelt.
 
Nvidea passt seine Preise leicht an.
Es geht 5% runter....
GeForce RTX 4090 1859 Euro anstatt 1949
GeForce RTX 4080 1399 Euro anstatt 1469

Muss ich mir Sorgen um die armen Scalper machen??? :D

 
Na den Händlern scheint das so ziemlich am A.... vorbeizugehen.

Grade die beiden Suprim Karten sind ja preislich nach wie vor jenseits der Dachziegel. Da sind in den letzten Wochen die Preise der 4090 mal eben 200.- € nach oben gegangen :LOL:
 
Zuletzt bearbeitet :
Nvidea passt seine Preise leicht an.
Es geht 5% runter....
GeForce RTX 4090 1859 Euro anstatt 1949
GeForce RTX 4080 1399 Euro anstatt 1469

Muss ich mir Sorgen um die armen Scalper machen??? :D

Na, wenn das so weitergeht fliegt meine 3090 doch noch raus. :ROFLMAO:
 
Ich habe nun erstmal auf dem Gebrauchtmarkt der vorherigen Generation zugeschlagen und bleibe vorerst unterhalb 4k. Die Preise gehe ich nicht mit.
 
Oben Unten