Zahltag: Katerstimmung nach dem Launch der GeForce RTX 4080, Mondpreise und ein rotes Wunder mit Fragezeichen

Hmm,

für Alyx brauchts m. E. aber keine High-End-Grafikkarte der neuen Generation. Bei mir läuft das sowohl mit einer 3090 als auch einer 6800 XT problemlos und flüssig. Kann ich auf meiner HP Reverb G2 oder meiner Pico 4 (per Virtual Desktop) spielen, beide mit einer Auflösung von 2160 x 2160 pro Auge.

An meine Setting in Alyx kann ich mich gerade nicht erinnern, aber das müsste dicht an "alles auf Anschlag" sein.
Normal nicht, Alyx lief seinerzeit auf einer 2080ti mit dem Ultra Preset schon auf 3000x3000 nah an den 120FPS in den 99er Perzentilen xD
Da dürfte schon alles was es aktuell an High End und Enthusiasten Karten vor der 4090 gegeben hat recht gelangweilt sein.
 
Was ich nicht versteh und was immer völlig ausgeblendet wird, niemand braucht eine 4090-4080 7950-7900er um vernünftig zu zocken.

Als ob man mit nichts anderem gut spielen könnte.

Klar kann ich nicht mit einer Ente am Grandprix Teilnehmen.

Aber wie lange hab ich total zufrieden mit 1080p und 1440 gezockt. Und würde ich das Heute noch tun, würde die Welt davon nicht untergehen.

Und genau dafür gibt es doch aktuell eine Menge guter und günstiger Karten. Thema hatten wir doch Gestern schon.

Alles von 6650Xt bis 6800er liegen doch in einer guten Preisrange und sind verfügbar.

Klar, es ist mein Hobby und ich neige diesbezüglich zum Fanatismus aber macht es wirklich den Rießenunterschied im Spielspaß ob ich mit einem 34 Zoll in 2.5 K mit 144 Frames oder einem 32 in WQHD mit 60 Frames zocke?

Es ist sicher Nice to have aber nicht zwingend.

Wenn ich so an die ersten 3D Games denke, da waren heute Frameztahlen ähm sehr weit weg... Die Auflösung war ja dagegen zu heute Unterirdisch... Ab wann das dann zu alles unter 60FPS ist unspielbar gekippt ist ka. Inzwischen scheint es bei manchen in dem Punkt nur um den längeren Balken/größere Zahl usw. zu gehen. Hab hier 2 Monitore direkt nebeneinander, einmal 144Hz und einmal 60Hz. Merke da jetzt nicht den Unterschied... vllt bin ich auch einfach zu alt :cool:

Ich musste z.b. auch meine RTX 3080 ti FE und später den 2. Versuch, eine 3080 FTW3 Ultra in den Freundeskreis weiter geben weil ich - und ich habe keine Ahnung wieso - mit derselben Hardware abseits der GPU - an meinem PC Kopfschmerzen und Augenbrennen bekommen habe. Mit AMD Karten habe ich das Phänomen nicht, mit Intel steht der Test noch aus.
Das kann aus der Kombination Monitor Grafikkarte resultieren, auch schon gehabt bei einem FHD Monitor. Der hat an manchen GPUs geflimmert/unscharfe bzw verwaschene Schrift gebracht und an anderer GPU nicht mehr. Weiß bis heute nicht wo dort das Problem war...
 
Ab 60 konstant geht sag ich mal. Aber den Unterschied zwischen 60 und 100 oder 120 Hz seh ich mit 40 auch noch am Windows Mauszeiger...
Aber 100 oder 144 trau ich mir dann ehrlich gesagt nicht mehr zu, da fall ich beim Blindtest sicher durch :)
 
Dass man es sehen kann, wenn man darauf achtet und sich darauf konzentriert, bezweifle ich nicht.

Ich merke auch, dass knapp 100 fps (mein Monitor läuft mit 98Hz) flüssiger wirkt als 60 fps.

Dennoch: BRAUCHEN tu ich das nicht. Es ist nett, aber ich kann alle Spiele problemlos in 60 fps spielen und in der Hitze des Gefechts merke ich auch den Unterschied keinesfalls.

Viel wichtiger ist VRR.
 
Zuletzt bearbeitet :
Ach war das damals mit den Röhren doch viel entspannter :LOL::cool: OK, unter 85hz-Monitoren konnte es minimal flackern, aber sowas hatte niemals wirklich sichtbaren Einfluss auf die Frames/Ruckler oder sonstiges, zumindest hab ich da nie was bemerkt... ;)
 
Ich musste z.b. auch meine RTX 3080 ti FE und später den 2. Versuch, eine 3080 FTW3 Ultra in den Freundeskreis weiter geben weil ich - und ich habe keine Ahnung wieso - mit derselben Hardware abseits der GPU - an meinem PC Kopfschmerzen und Augenbrennen bekommen habe. Mit AMD Karten habe ich das Phänomen nicht, mit Intel steht der Test noch aus.
Das ist ja mal was Neues - Nvidia macht Kopfschmerzen, AMD nicht. :) Poste das in den entsprechenden fanboy-foren bei CB, da werden dir sofort dutzende Leute beipflichten. Da wird dein Monitor wohl nicht Gsync-kompatibel gewesen sein. Deshalb habe ich von einer 3090 auf eine 6900XT gewechselt. Bei der neuen Karte spielt das keine Rolle mehr, schafft durchgehend mehr fps als der Monitor verarbeiten kann.
 
Zuletzt bearbeitet :
  • Like
Bewertungen: ***
Aber den Unterschied zwischen 60 und 100 oder 120 Hz seh ich mit 40 auch noch am Windows Mauszeiger...

Respekt.

Ich zocke mit gelockten (oder gelogten?) - hat ja nix mit haaren zu tun - 61 fps am 144hz Display in 1080p auf 17 zoll am Laptop. Ich sehe da keine großen unterschiede zu 144fps und der lärm der Lüfter mich aber ankotzt, wenn ich aufdrehe, da der unterschied in fps mehr lärm verursacht, da es einen unterschied macht, ob ich 80 Watt oder 150 Watt nur für die GPU verbrate. So bin ich meistens bei 80 Watt für das System und bei meinen Games, reicht das.

Selbst Star Citizen, kann man damit spielen. Das will dann aber auch seine 120 Watt für das System und die Lüfter sind dann schon fast unangenehm. :D

First world problems :D

btt:

Schön, dass der Kunde etwas macht, was man im englischen als "vote with your wallet" bezeichnet.

Weiter machen!

mfg

p.s.

Wer sich jetzt fragt, warum ich 61 eingestellt habe, hat die Funktionsweise von GSync nicht verstanden ;D
 
Zuletzt bearbeitet :
Wenn ich so an die ersten 3D Games denke, da waren heute Frameztahlen ähm sehr weit weg... Die Auflösung war ja dagegen zu heute Unterirdisch... Ab wann das dann zu alles unter 60FPS ist unspielbar gekippt ist ka. Inzwischen scheint es bei manchen in dem Punkt nur um den längeren Balken/größere Zahl usw. zu gehen. Hab hier 2 Monitore direkt nebeneinander, einmal 144Hz und einmal 60Hz. Merke da jetzt nicht den Unterschied... vllt bin ich auch einfach zu alt :cool:


Das kann aus der Kombination Monitor Grafikkarte resultieren, auch schon gehabt bei einem FHD Monitor. Der hat an manchen GPUs geflimmert/unscharfe bzw verwaschene Schrift gebracht und an anderer GPU nicht mehr. Weiß bis heute nicht wo dort das Problem war...

Selbst wenn dus nicht siehst; was du zu sehen bekommst ist uU ein Ziel ~9,7 ms früher....

Aber wie gesagt; 9ms beim monitor gespart und dafür 80 beim inet liegen gelassen ist auch... ähh, begrenzt clever.
 
Zuletzt bearbeitet :
Das ist ja mal was Neues - Nvidia macht Kopfschmerzen, AMD nicht. :) Poste das in den entsprechenden fanboy-foren bei CB, da werden dir sofort dutzende Leute beipflichten. Da wird dein Monitor wohl nicht Gsync-kompatibel gewesen sein. Deshalb habe ich von einer 3090 auf eine 6900XT gewechselt. Bei der neuen Karte spielt das keine Rolle mehr, schafft durchgehend mehr fps als der Monitor verarbeiten kann.

Naja, mein LG ist eigentlich Gsync Kompatibel - mir war aber aufgefallen das ich dennoch in diversen Spielen Schlierenbildung hatte, obwohl es aktiv war (Warthunder und Everspace 2 vor allem). Ich kann nicht sagen woran das liegt - kannte das Problem vorher gar nicht.

Habe zwischenzeitlich sogar das DP Kabel gewechselt gehabt da es über die Jahre "nen Knacks" hatte (Bild wurde bei der kleinsten Bewegung von Rechner oder Monitor kurz schwarz) - aber das hatte an der Problematik dennoch nichts geändert.

Mit der 6950 jetzt überhaupt keine Probleme mehr... Dafür kann ich jetzt nicht die aktuellsten Treiber nehmen weil in Everspace 2 und Elite: Dangerous die AMD Treiber Bugs haben. 🤦🏻

Wie man es macht... 😮‍💨
 
Von wegen die RTX 4090 Preise gehen runter.... :D

Blackweek Schnäpchen? :D

1669216047953.png
 
Das geht doch noch voll, greif zu. :)
 
Mit fast 400 Spielen in Steam & Co wäre der Wechsel für mich komplett inakzeptabel, da ich gern auch mal die alten Schinken wieder durchdaddele :D

Wobei ich für viele Tests auch Hardware durchaus selbst erwerben muss. Die kann ich dann hinterher schon auch mal in private Systeme einbauen. So gesehen ist das schon auch ein Stück weit ein Luxusproblem, was man dann am besten nimmt. Allerdings sind die Rechner der Kids und meiner Frau reine Privatinvestments. Ich kennen die Preise also durchaus und kotze nicht weniger als die normalen Kunden. :(
Würde mir auch schwer falle, auch wenn ich nur ca.60 Spiele auf Steam habe. Allerdings bin ich vor gut 3 Jahren auf 4k umgestiegen und das möchte ich nicht mehr missen. Dummerweise muss ich dadurch meine GraKa immer auf hohem Niveau halten damit das dann in 4k auch spielbar ist. Trotzdem werde ich bei den Mondpreisen nicht auf eine 4090 aufrüsten. Da schaue ich dann mal was in 2 Jahren so "geht"

MfG
Quarks
 
Da im Sommer erst eine 3070 in den Rechner eingezogen ist, gucke ich mir das Spiel bis Mitte 2024 erstmal von der Seitenlinie aus an.

Wenn es die Hersteller da dann immer noch so bunt treiben, drehe ich nochmal ein Jahr eine Runde um den Platz ... Und falls es dann immer noch nicht besser ist... drehe ich noch mehr Jahresrunden bis die Hersteller vernünftig werden. Oder eine Karte aus dem Bereich 5-600 Euro mindestens 50% mehr Leistung bietet als die 3070. Mehr Geld gibt es dafür von mir nicht!
 
Würde mir auch schwer falle, auch wenn ich nur ca.60 Spiele auf Steam habe. Allerdings bin ich vor gut 3 Jahren auf 4k umgestiegen und das möchte ich nicht mehr missen. Dummerweise muss ich dadurch meine GraKa immer auf hohem Niveau halten damit das dann in 4k auch spielbar ist. Trotzdem werde ich bei den Mondpreisen nicht auf eine 4090 aufrüsten. Da schaue ich dann mal was in 2 Jahren so "geht"

MfG
Quarks
Ich habe grade ganz bewusst zurück auf WQHD umgestellt (von 4K). Auf 27" mit DP sieht man so gut wie keinen Unterschied. Zur Not steht noch ein 4K OLED TV bereit, auch den bespielt die 6900XT mit Einschränkungen bei den FPS ganz ordentlich. Aber mit dem Umstieg erspare ich mir jeglichen Aufrüst-Hazzle.
 
Hmm,

für Alyx brauchts m. E. aber keine High-End-Grafikkarte der neuen Generation. Bei mir läuft das sowohl mit einer 3090 als auch einer 6800 XT problemlos und flüssig. Kann ich auf meiner HP Reverb G2 oder meiner Pico 4 (per Virtual Desktop) spielen, beide mit einer Auflösung von 2160 x 2160 pro Auge.

An meine Setting in Alyx kann ich mich gerade nicht erinnern, aber das müsste dicht an "alles auf Anschlag" sein.
Also, meine PIMAX 8KX steht an FoV und Auflösung derzeit doch recht weit oben mit den Anforderungen, z.B.
HP Reverb mit 2160x2160 per-eye und PIMAX 8KX
mit 3840x2160 per-eye.
 
Ich weiß, dass es billiger wird. Vorgestern 4090er noch für 1725 netto angeboten bekommen. Heute schon für 1696 netto ohne jede Mengenbegrenzung. Das wird nicht gemacht, wenn das Zeug aus den Händen gerissen wird. Und ich kaufe halt eineinhalb Stufen (Generalimporteur für einen Boardpartner, der gleichzeitig Distri ist) vor dem Endkunden. Was bei mir passiert, passiert beim Endkunden ein paar Tage später.
Leider hat sich bis dato weder an Preisen noch an der Verfügbarkeit etwas verändert :(
Ich hoffe deine Vorhersage tritt noch ein :p
 
Noch ist es das einzige Produkt in seiner Klasse, da werden die Händler natürlich die Preissenkungen soweit herauszögern wie es geht. Ich denke spätestens wenn die neuen AMD-Produkte kommen wird sich im Preis was tun. Außer es wird genügend gekauft und die Händler bleiben nicht wirklich darauf sitzen, dann wird der Preis natürlich so bleiben.

Ich frag mich nur, was die Händler machen wenn man die Teile nicht mit Gewinn verkaufen kann, nichts mehr nachbestellen, wenn sie Verlust beim Verkauf machen? Preise der Netzteile und restlichen Peripherie stark anheben um das auszugleichen?
 
...

Dennoch bleibe ich dabei. Wer ernsthaft geglaubt hat, es wird eine günstige UVP geben und der Markt wird dafür liefern hat aus dem letzten Launch 0.0 begriffen und unserer Marktwirtschaft komplett nicht verstanden. Das kannst du dann nennen wie du möchtest, ändert an den Fakten aber nichts. Das Prinzip Hoffnung und kapitalische Marktwirtschaft ist ein Wiederspruch in sich ...
Kapitalismus gibt es doch nicht erst seit 2018 - oder ?
Bis dahin fand ich den Markt und die Preisentwicklung bei Nvidia eher unauffällig bzw nachvollziehbar.
Seit 2018 ist damit Schluß. Es gibt mehrere Gründe, aber sicher nicht weil die Produktions kosten um 50% oder mehr gestiegen sind.
Und langsam wird es auffällig und unverschämt, wenn man den Hintergrund beleuchtet. Aber korrekt ist leider, dass das viele bisher offensichtlich nicht stört oder diesen gar auffällt. Ich versenke jedenfalls nicht mein Geld in eine 2k teure Grafikkarte - weil zu schnell veraltet und zu hoher Wertverlust in kurzer Zeit! Ich vermute, dass das bald auch die Scalper festellen werden, darunter auch Nvidia. Die Zeit arbeitet für den geduldigen Kunden und gegen Nvidia,
 
Zuletzt bearbeitet :
Oben Unten