Frage 2080 Super?

Meine Vermutung: Markt zu klein. Macht dann schon Sinn, Fernseher anzubieten, die sich auch als Monitore nutzen lassen.
 
Ich würde auch meinen, dass der Markt zu sehr Nische ist, zocken in 4k/UHD ist nicht wirklich weit verbreitet.

Macht dann schon Sinn, Fernseher anzubieten, die sich auch als Monitore nutzen lassen.
Auch zum arbeiten? Da war doch irgendwas mit "Chroma-Subsampling" und/oder wie die Pixel aufgebaut sind, damit man am Desktop keinen Pixelmatsch zu sehen bekommt!?
 
Blöd nur, wenn man die von der einen Ecke der Wohnung in die andere schleppen muss (oder den Rechner). Oder jemand parallel Fernseh glotzen will ;)
Die Situation ist ziemlich dumm: um die Grafik-Features wirklich lecker nutzen zu können, benötigt man einen entsprechenden Monitor. Mit Sync. Und natürlich den entsprechenden Unterbau. Da bin ich mit alles und scharf mittlerweile bei 4T €. Für Gothic 3 hat noch ne 7900GTO, ein Core2Duo 6600 und mein 4:3 Flatscreen (1.280x1.024) gereicht. Und ich hab gestaunt. Heute zahl ich für die Grafikkarte den System-Preis... Verdammt!
 
Die Frage ist eh - bleibe ich bei WQHD oder gehe ich dann auf 4K. Und mit was soll 4K befeuert werden? Im Moment mit nix. Und die 2080S reicht dafür auch nur bedingt.
 
Meine Empfehlung aus eigener Erfahrung & wenn es keinen zwingenden Grund für eine Neuanschaffung gibt: Lass das. Jedenfalls erstmal und bis bekannt ist, was die nächsten GPUs können werden. 4K macht selbst mit einer 2080Ti nur bedingt Spaß. Borderlands 3 ist bei ca. 50FPS, mehr als 60FPS per se selten und oft nur mit Anpassungen bei den Einstellungen.

Dieser Performance-Verlust macht auf 27" meines Erachtens übrigens überhaupt keinen bis wenig Sinn, weil man bei der Größe den Unterschied von WQHD zu 4K (meiner bescheidenen Meinung nach) kaum sieht.
 
@Besterino Du schreibst "aus eigener Erfahrung" - wie sieht denn deine Erfahrung aus?Ich finde nämlich nur Kaufberatungen für Monitore, die mir Paneltechnik und Auflösung erklären. Aber nirgends einen Vergleich von Auflösung, HDR on/off usw. @Igor Wallossek Ich weiß, das hier ist nicht Prad, aber das wär mal ein cooler Vergleichstest. Ich kann mich gerne beteiligen.
 
Hahaha! Arbeiten... Ich arbeite da hauptsächlich Spiele dran ab 🤓
Meine Frau ist da regelmäßig mit ihrem Architektur-Gedöns dran, aber wir haben zwei Screens (noch nen ollen FullHD). Ein Monitorkauf wäre schon interessant, weil man den dieses Jahr bis 800,- € als Werbungskosten komplett anrechnen lassen kann. Von wegen Corona-Homeoffice.
 
Auch Big Navi/ RTX 3000-er Serie wird nur 50 bis 70 fps schaffen
und all die Monitore mit 144 Hz für Ultra HD sind Nischen und erst in mind. 2 Jahren sinnvoll ausnutzbar.
Zwar geht langsam mehr als 60+ Hz aber die Spiele werden immer grafikintensiver... und da geigen derzeitige Karten, auch die RTX 2080TI bei 35 bis 40fps rum.
 
Kommst ihr über die 2x 1000 € - Pauschale Werbungskosten?
 
Für mich ist dank Freesync-Kompatibilität meines Monitors auch mit NVIDIA-Karte ab ca. 50FPS gut spielbar. Genauer: ab 48FPS/Hz, weil der Monitor darunter nicht mehr syncen kann. Falle ich unter die 50FPS merkt man das tatsächlich spürbar negativ im Spielgeschehen.

Viele Spiele schaffen das mit ach und Krach, aber Spaß ist anders und von den 120Hz die der Monitor kann sind wir meilenweit entfernt.

Wie schon öfter geschrieben wären für mich 70-80FPS auf Max-Settings (mit HDR) eine vernünftige Zielgröße - das wäre mit etwa 30% Performance-Plus ggü. der 2080Ti machbar und schon 20% echt super.

Ganz vielleicht (!) würde ich auch nochmal einen SLI-Versuch wagen, aber das hätte dann wieder Konsequenzen für das Gesamtsystem... denn dann bräuchte ich (schon wieder) min. einen PCIe-Slot mehr... besser 2. Das ginge dann fast nur noch mit einer 2-Sockel-Plattform, also XeonSP oder Epyc - und das wäre selbst mir dann vermutlich „too much“, zumal es (fast?) keine vernünftig hoch taktenden CPUs dafür gibt.
 
Nun, Cousin hat auch einen Neuen 32 Zoll 4K Curved 16:9 geholt,-
Modell Philips 328E1CA /00

auch jener nur FreeSync Bereich zu 48 bis 60 Hz
Darunter geht gar nix, nicht mal 1 Hz nach unten korrigierbar.
 
Für mich ist dank Freesync-Kompatibilität meines Monitors auch mit NVIDIA-Karte ab ca. 50FPS gut spielbar. Genauer: ab 48FPS/Hz, weil der Monitor darunter nicht mehr syncen kann. Falle ich unter die 50FPS merkt man das tatsächlich spürbar negativ im Spielgeschehen.

Viele Spiele schaffen das mit ach und Krach, aber Spaß ist anders und von den 120Hz die der Monitor kann sind wir meilenweit entfernt.

Wie schon öfter geschrieben wären für mich 70-80FPS auf Max-Settings (mit HDR) eine vernünftige Zielgröße - das wäre mit etwa 30% Performance-Plus ggü. der 2080Ti machbar und schon 20% echt super.

Ganz vielleicht (!) würde ich auch nochmal einen SLI-Versuch wagen, aber das hätte dann wieder Konsequenzen für das Gesamtsystem... denn dann bräuchte ich (schon wieder) min. einen PCIe-Slot mehr... besser 2. Das ginge dann fast nur noch mit einer 2-Sockel-Plattform, also XeonSP oder Epyc - und das wäre selbst mir dann vermutlich „too much“, zumal es (fast?) keine vernünftig hoch taktenden CPUs dafür gibt.

Danke für die offenen Worte. Das hilft sehr. Dann warte ich jetzt erstmal ab, was die Next Gen Grafikchips kann. Ich gehe auch davon aus, dass die 4K-Displays mittelfristig günstiger werden. Und der Aufpreis für G-Sync entfällt zugunsten einer "offenen" Technologie a là FreeSync. Die Kompatibilitätsangaben sind ja schon ein erster Schritt in die Richtung.
 
Das dicke gsync ist glaub schon noch besser als „Freesync Compatible“... HDR, kann auch noch niedrigere FPS (und höhere) usw... aber da gibt’s halt bei Monitoren irgendwie nix mit OLED. Und DAS ist mal geiler als alle anderen Gimmiks zusammen.

Disclaimer: Meiner Meinung nach. Ich bin jetzt für immer verdorben, „schlechter“ als OLED will ich bei meinem Monitor definitiv nie wieder. Beim TV ist auch 08/15 LED für
mich absolut akzeptabel, aber am Monitor leider nicht mehr. ;) Hab seit Herbst 2019 ein Dauergrinsen vor dem Rechner - jedenfalls solange ich die FPS nicht einblende oder mindestens 48 hab. :p
 
Käme denn auch UWQHD in Betracht? Das sind ja auch deutlich weniger Pixel als 4k/UHD?
ZB: https://geizhals.de/asus-rog-swift-pg348q-90lm02a0-b01370-a1276261.html?hloc=de
Im Prinzip schon. Curved ist nicht so meins. Aber @Besterino hat schon Recht: ich bleibe vorerst bei meinem Setup. Aufgerüstet wird, wenn mit Brief und Siegel belegt ist, dass die GPU >WQHD auch wirklich schnell und in chic darstellt. Worauf ich aber nicht mehr verzichten werde ist eine passende Sync-Technologie. Das kompensiert wirklich ein paar Hundert Euro für die GraKa. AMD hat hier ein überzeugendes Paket (Preis/Leistung). Leider ist das nicht für die Grünen und Roten umgesetzt (zumindest nicht mit meinem Monitor). Ich hab mit der 2080S im Prinzip einen sehr ähnlichen Look wie mit der gesynchten 5700XT für > 300€ erkauft. Wenn ich Raytracing mal außen vor lasse.

Gab eigentlich genau zwei Möglichkeiten: 1. ich setze auf Nvidia und schaffe ein teures G-Sync Display an, die Kohle kann ich dann bei der GraKa sparen (z. B. 2070S) oder 2. ich setze auf offen und AMD (hab ich ja zunächst gemacht) und freue mich bis der Treiber abk*ckt.
Die Situation zeigt eigentlich nur, dass in dem Bereich auf beiden Seiten noch Luft nach oben ist. Nvidia sollte einen offenen Standard zumindest mit anbieten und AMD sollte wen finden, der ihnen funktionierende Treiber programmiert. Dann haben wir endlich wirklich eine Wahl (sorry fürs pathetisch werden).
 
Ne Wahl hast Du doch auch jetzt: nur nicht zwischen zwei guten Alternativen, sondern eben zwischen Pest und Cholera. Sozusagen. ;)

Wer weiß, vielleicht kommt Intel ja als überraschender Ritter in glänzender Rüstung um die Ecke. Ich hab aber irgendwie das ungute Gefühl, dass das Erstlingswerk mit mediocrer Hardware um die Ecke kommt, die nix gescheit kann, und gleichzeitig mit beschissenen Treibern „glänzt“... worst of both worlds.

Was würde ich mich freuen, wenn ich mich irrte!
 
Ich sehe es mit einem lachenden und einem weinenden Auge, dass ihr alle ähnliche Probleme und Wünsche wie ich habt. Einfach (!) saubere und flüssig laufende Grafikdarstellung, die immer weiter ausgefeilt wird. Natürlich wird es immer ein wenig besser werden. Auch wenn OLED oder etwas vergleichbares mal im Mainstream angekommen ist, wird es noch immer hohes Verbesserungspotential geben. Nvidia, AMD, Intel und Konsorten werden noch lange Zeit die Grafikleistung erhöhen müssen.
 
Ein Wunder!
Mir ist gestern zum zweiten Mal Metro abgeschmiert. Wieder kurz vorm Leuchtturm in der Wüste. Bildschirmfreeze und nix geht mehr. Könnte am Einbau mit der Riserkarte liegen, denn Temps lagen bei 82°. Das hatte ich nicht mal im Furmark. Obwohl die Karte da auch schon senkrecht eingebaut war. Hab dann den Treiber aktualisiert (war aus dem März, der aktuelle datiert vom 15.April) und siehe da: als ich nach der Neuinstallation meine Einstellungen eingetragen hab, war im Synch Menü plötzlich das Kästchen zur Aktivierung von Adaptive Sync vorhanden. Ich so: anhak und auf "Übernehmen" klick. Dann hat sichs aufgehängt. Hab's geschlossen, neu geöffnet und siehe da, war noch aktiviert. Ich hab's kurz getestet, allerdings mit Elex. Ich baue heute die Karte "normal" ein und teste dann alles nochmal. Kann tagsüber nicht Metro nicht anschmeißen der Kinder wegen.
 
Zuletzt bearbeitet :
Oben Unten