Reviews G-Sync Ultimate Hardware seziert am AOC Agon AG353UCG | Investigativ

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.803
Bewertungspunkte
8.707
Punkte
1
Standort
Redaktion
Seit den ersten G-Sync Monitoren von Nvidia hat sich einiges getan. G-Sync mit Nvidia Grafikkarten lässt sich schon seit längerem auch mit günstigeren „Freesync“ Monitoren betreiben. Der Unterschied ist hier, dass die Frame-Synchronisierung zwischen GPU und Monitor lediglich über das DisplayPort-Protokoll erfolgt und keine zusätzliche Hardware auf Seiten des Monitors notwendig ist. Aber diese spezielle...
Hier den ganzen Artikel lesen
 
vor allem dass man ein GSync Panel ohne tollen GSync Prozessor von NVidia hat, es aber komischerweise trotzdem funktioniert.
Diese Erkentniss ist ungefähr 6 Jahre alt. Dass das Modul auch eher dafür da ist andere Hersteller auszuschließen hatte ich auch schon weiter oben angemerkt.
Was mich wundert, ist dass es keinen Freesync oder Gsync Compatible Monitor gibt, der tatsächlich variable Overdrive beherscht.
Notebooks mit Gsync ohne Modul können das wohl. Ist das patentierte Technik? Wobei patentiert im ersten Moment ja auch nicht bedeutet dass andere Hersteller ausgeschlossen werden.
 
@quantaro
Natürlich geht das. Wenn ich eine Zeitspanne von 30ms habe und das Bild alle 10ms aktualisiert wird, empfange ich die Informationen aus drei Bildern, nicht nur aus einem.
Jetzt sag mir nur, dass du hier keinen Unterschied siehst:
 
Dann sind sie ein Übermensch! Das Auge sieht sogar 100 Bilder (wenn sie farblich nicht zu aufwendig gestaltet sind), aber das Hirn kann sie nicht verarbeiten und was macht eine GPU bspw. mit den restlichen Bildern im Buffer bei VRR? Verwerfen! So tut es das Hirn auch, sie kommen ja erst gar nicht an. Sie sehen auf dem Bildschirm in 30ms bei 144Hz einen Refresh in welcher Höhe? Wie viele Bilder werden verworfen? Sie haben ja keine multiplen Nerven, oder parallelisierte. Diese übertragen bei einem Reiz genau ein Signal.

Das Polling bzw. die Rate bzw. Reaktionszeit der (CP) Maus ist wieder ein ganz anderes Thema, aber was solls. Vielleicht überlegen sie mal warum das bei einer höheren Ausgabefrequenz sichtbar bessere Ergebnisse liefert. Ausgabefrequenz gleich Abtastrate? Und könnte man diese sogar unter 60Hz verändern?
 
Das Hirn arbeitet nicht fest nach Hz oder in ms. Es wird auch nichts verworfen. Woher hast du so einen Blödsinn? Es gibt durchaus eine Triggergrenze, nach der wir einen Lichtblitz nicht mehr wahrnehmen, wenn dieser zu kurz ist, sprich unsere Augen benötigen eine gewisse Intensität und Dauer eines Impulses, damit dieser wahrgenommen wird. Und es gibt auch eine gewisse Trägheit, bevor ein neuer Impuls als solcher aufgenommen wird. Darum funktionieren auch Leuchtstoffröhren und per PWM gedimmte LED, wobei manche Leute tatsächlich empfindlicher sind und insbesondere in Bewegung ein Flackern wahrnehmen können. Gleichfalls der Regenbogeneffekt bei DLP Beamern.

Passiert mir beispielsweise bei den ersten VW LED Rücklichtern, ich glaube bei Golf und Passat, diese runden? PWM gedimmt als Fahrlicht und 100% als Bremslicht. Wenn es regnet, waren das tausende kleine, flackernde Punkte auf meiner Frontscheibe (zwischen dem Wischvorgang), schrecklich!

Und was man sehr schön sogar schon auf dem Vorschaubild sieht, ist dass während eines Frames der aufnehmenden Kamera (30Hz = 33,33ms) bereits 4 Cursor zu sehen sind auf dem 60Hz Panel, abzüglich Reaktionszeit des Panels, daher sind die ersten und letzten Cursor schwächer zu sehen. Anders gesagt: Wenn sich während der Zeitspanne etwas verändert, wird das mit aufgenommen, sowohl vom Auge/Hirn, als auch von einer Kamera, selbst wenn es nur einen Bruchteil der Zeitspanne zu sehen ist.

Nachtrag:
Aber da das hier alles überhaupt gar nichts mit dem eigentlichen Thema G-Sync zu tun hat (oder allgemein A-Sync/FreeSync, hierbei geht es eigentlich um die Beseitigung von Tearing, indem man den Monitor das Bild nur dann auffrischen lässt, wenn die Grafikkarte auch eins fertig hat), werde ich mich ebenfalls aus dieser Diskussion zurückziehen.
 
Zuletzt bearbeitet :
Das Auge > Hirn braucht 30ms, mit etwas Training wohl auch nur 28ms. Und bei hohen Reaktionszeiten der Pixelprozessoren eines Panels kann man eine hohe Bildrate vernachlässigen. Der Trick mit der Maus ist ein Programm das es mittlerweile in Win10 geschafft hat, findet man in der Systemkonfiguration unter Mausspur!

Und falls es sie interessiert, sind Asic's die Inhalte mit 48Hz ausgeben auf das Filmformat in Kinos angepasst, übrigens geht es 144Hz da genauso (als vielfaches von 24fps), wobei die Bilder in Kinos mit 48Hz ausgegeben werden, (dazwischen mit hell > dunkel Phasen, also gedoubelt um das Auge entsprechend zu reizen), unterstützen aber auch die 60Hz Standards, wie 240 oder 360Hz.

Bei LCDs hat man dort gegenüber den Kinoformaten und deren Ausgabe ein Problem, da Pixel eines LCD fast zu gleichhell ausgeleuchtet werden. Ist ja technisch bedingt.

Das ändert alles nichts daran, dass man GSync eigentlich gar nicht bräuchte und das Modul in meinem Laptop fehlt, und hier der normale eDP Standard von NVidia seit Jahren als GSync verkauft wird und selbst unter Ultimate 1Frame pro Sec ruckelt, weil der Mensch wohl ab 18 bis 20 fps braucht um eine Bewegung im Bild als nicht ruckelt wahrzunehmen (denn die 30ms Auge > Hirn sind auch gewisse Grenze für Bewegtbilder). Da diese Displays alle den 60Hz Standard unterstützen (eher nicht NTSC), einigte man sich dann auf 30Hz gleich 30fps, als womöglich niedrigste Ausgabegrenze bei LCDs. Wenn die Pixelprozessoren ausreichend schnell reagieren ist auch unter 30Hz kein Ruckeln wahrzunehmen. Derzeit ist es aber eher so, dass man billigste Technik verwendet und mit hohen Frameraten den Effekt kaschiert. Dies aber zu Höchstpreisen im Markt absetzt.

Der Rest sind Mythen und Märchen von den ewig Besserwissenden, und vor allem persönliche Eindrücke die als Fachwissen verkauft werden, inklusive viel PR und Marketing.
 
Zuletzt bearbeitet von einem Moderator :
Der Rest sind Mythen und Märchen von den ewig Besserwissenden
Also ganz ehrlich, deine geistigen Ergüsse hier sind so wirr und sprunghaft es ist eine beleidigung das zu Lesen und dann kommst du mit so einer Aussage?
Das Auge > Hirn braucht 30ms, mit etwas Training wohl auch nur 28ms
Möglich (Beleg ausbleibend), Relevanz aber sowieso nicht vorhanden.
Und falls es sie interessiert, sind Asic's die Inhalte mit 48Hz ausgeben auf das Filmformat in Kinos angepasst, übrigens geht es 144 Hz da genauso (als vielfaches von 24fps), wobei die Bilder in Kinos mit 48Hz ausgegeben werden, (dazwischen mit hell > dunkel Phasen, also gedoubelt um das Auge entsprechend zu reizen), unterstützen aber auch die 60Hz Standards, wie 240 oder 360Hz.
Es ist schlicht unmöglich einen roten Faden zu erkennen, das ist einfach eine Ansammlung von mal mehr oder weniger wahren Aussagen. Strobing/Blackframe insertion gibt es auch bei Monitoren um das Bild "einzufrieren". Damit kann man trotz niedrigerer Refreshrate eine gute Bewegungsschärfe erzielen, die man sonst eben nur mit einer höheren Refreshrate und FPS Kombination erreicht.
Der Trick mit der Maus ist ein Programm das es mittlerweile in Win10 geschafft hat, findet man in der Systemkonfiguration unter Mausspur!
Die Mausspur gibt es schon lange, aber hat mit den Vorteilen höherer Refreshrates aber mal auch absolut nichts zu tun.
Bei LCDs hat man dort gegenüber den Kinoformaten und deren Ausgabe ein Problem, da Pixel eines LCD fast zu gleichhell ausgeleuchtet werden.
Mal wieder keinen Schimmer was du damit aussagen möchtest.
und selbst unter Ultimate 1Frame pro Sec ruckelt, weil der Mensch wohl ab 20 fps braucht um einen Bewegung im Bild als nicht ruckelt wahrzunehmen.
Weiß nicht auf was für Ruckler du da ansprichst, aber Filme gibt es in 24 FPS weil es ausreicht für eine als flüssig wahrgenommene Bewegung bei einer fixen gleichmäßigen Bildrate. Jetzt sind Spiele für die diese diversen Sync Methoden gedacht sind aber weder in einer fixen Bildrate noch haben sie ein gleichmäßiges Framepacing.
Du schmeißt hier so viel zusammen und spielst dich gleichzeitig auf als hättest du die Weißheit mit dem Löffel gefresse, das ist einfach nur peinlich.
 
Den Unsinn schrieben sie aber widerholt, Spiele haben eine fixe Bildrate!, weil dies unabhängig von der Ausgabefrequenz ist, damit fps und Hz nicht gleichhoch sein müssen (und das war schon immer so). Ja, in der Tat und genau solche Aussagen sind wirklich peinlich.

Hz und fps orientieren sich seit Jahren an den Kinofilmformaten und genau dafür werden auch Asic's entwickelt. Damit sie diese Rate real wiedergeben können, weil 48Hz unter 60Hz und damit 60 Bildern ruckeln kann. Warum können sie ausrechnen, denn 60 geteilt durch 24 ist wieviel? Dann muss die GPU ein Bild dazwischenschieben oder weglassen und genau das kann abgehakt wirken.

Die Kino-Filme werden in "48Hz" also jedes BILD ZWEIMAL wiedergegeben. Was den 60Hz Standard angeht, liegt diesen Phänomen in den einst Röhrenmonitoren begraben, um das Flimmern unter Zeilensprungverfahren zu minimieren (Vollbildrate > Halbbildrate). Das bedeutet dieser Monitor gibt ein Bild zweimal aus, die Frequenz entspricht nicht der fps Rate (25i/30i fps bei 50 oder 60Hz).
 
Zuletzt bearbeitet von einem Moderator :
Und Kino ist jetzt die Referenz für menschliches Sehen?

Ich steige hier aus.
 
Nein 30ms. Schon 20mal hier geschrieben, weil das ein Wert für die visuelle Wahrnehmung von Licht (Helligkeit) ist. Es wird dazwischen nichts gespeichert oder gepuffert. Zudem muss das Gehirn die Information von beiden Augen zu einem Bild zusammenfügen. Dies lässt sich sicherlich noch trainieren, weil das Gehirn bei der Bewertung von 3D Objekten auf abstrakte Modelle zurückgreift. Dieser Wert wird trotzdem nie weit unter 30ms liegen, früher ging man davon aus das dieser viel höher liegt, 100 oder 200ms. Also ist man dann von dem Wert ausgehend in der Lage 33 Bilder pro sec auch wahrzunehmen und zu verarbeiten, zu sehen. Immer wenn man dann ein Bild geliefert bekommt ist es günstiger weise sinnvoll. Die Chance steigt mit der Bildrate, wir aber nicht von jedem so wahrgenommen.

Die höheren Frameraten dienen ja nicht nur der visuellen Wahrnehmung, sondern minimieren Verzögerungen, den technisch bedingten Lag, helfen also auch der Auge > Hirn > Hand Koordination (wieder innerhalb abstrakter Modelle bei gewissem Training oder Wiederholungen), bis Eintritt des von Spielern gewünschten Effekte oder Ergebnis.
 
Zuletzt bearbeitet von einem Moderator :
Spiele haben eine fixe Bildrate!
Haben sie nicht, hatten sie auch noch nie. Vielleicht verwechselst du das mit einem FPS Cap, aber nur weil ein Cap existiert bedeutet das nicht dass man das immer erreicht oder das Framepacing gleichmäßig ist.
Hz und fps orientieren sich seit Jahren an den Kinofilmformaten und genau dafür werden auch Asic's entwickelt.
L M A O. Lebst du vll. in einer Parallelwelt?
Das bedeutet dieser Monitor gibt ein Bild zweimal aus, die Frequenz entspricht nicht der fps Rate (25i/30i fps bei 50 oder 60Hz).
Wenn man heutzutage eine Monitore oder Fernseher Hz Angabe findet, dann geht man von progessive also Vollbild aus, sofern nicht abweichend angegeben.
Die Kino-Filme werden in "48Hz" also jedes BILD ZWEIMAL wiedergegeben.
Es gibt native 48 FPS Filme, da wird nichts gedoppelt. Einfach nur einen Frame wiederholen würde genau garnichts bringen. Ich bin mir nichtmal sicher ob es überhaupt Filme mit 24 FPS und Blackframe insertion gibt, wie weiter oben erwähnt, weil der Effekt sich unterhalb von 60Hz eher negativ auswirken kann.
Nein 30ms. Schon 20mal hier geschrieben
Schreibs noch 50 mal davon wird es nicht relevanter oder überhaupt wahrer.
Ich weiß nicht wie man so an der realität vorbei Diskutieren kann. Ja nichtmal diskutieren kann man das nennen, denn die Antworten sind konstant am Thema vorbei und überschwänglich einfach kompletter Unsinn.
 
Don’t feed the troll. Ignore oder einfach nicht drauf eingehen und Ruhe ist. Bringt ja nix.
 
Was mich wundert, ist dass es keinen Freesync oder Gsync Compatible Monitor gibt, der tatsächlich variable Overdrive beherscht.
Wie schon einmal geschrieben, nvidia hält die eigenen Kunden für dumm. Anderst kann man das schlicht nicht mehr nennen.
Als es um Tests LFC vs frame doubling ging, wurde AMDs LFC an der wirklichen Panel Frequenz "getestet", die wurde ja auch angegeben. Nvidias frame doubling aber eben nicht, da war diese schwelle schon überschritten. Und hier ließen sich "Tester" für dumm verkaufen.

Auch bist du ein gutes Beispiel für jemanden der sich auf der suche nach einem Vorteil für das überteuerte Modul an den nvidia Werbeaussagen festklammert.

Unterstützen FreeSync fähige Monitore variables Übertakten?
FreeSync Technologie war schon immer kompatibel mit variablem Übertakten. Variables Übertrakten ist eine Funktion, die unsere FreeSync Monitorpartner implementieren können, um ihr Angebot abzuheben. Das variable Übertakten ist nicht von der Zusammenarbeit mit unseren Treibern und GPUs abhängig und erfordert diese nicht für ein korrektes Funktionieren. Wir verpflichten Monitor-OEMs nicht, variables Übertrakten zu implementieren, aber wir empfehlen es. Es gibt Monitor-Scaler-Bauteile, die in vielen FreeSync Monitoren zum Einsatz kommen und variables Übertrakten unterstützen. Es haben jedoch nicht alle Monitor-Scaler diese fortschrittlichen Möglichkeiten. FreeSync Technologie hält die Kosten niedrig, denn es wird kein teures Modul im Monitor benötigt, das den standardmäßigen Monitor-Scaler ersetzt.
 
Der Trick mit der Maus ist ein Programm das es mittlerweile in Win10 geschafft hat, findet man in der Systemkonfiguration unter Mausspur!
Da gibt es keinen Trick, die Mausspur ist aus. Davon ab gibt es das nicht erst seit Windows 10 und war meines Wissens auch noch nie ein eigenständiges Programm xD

Du redest doch selbst immer von deinen 30ms. Jetzt nimm halt mal selbst dein Handy zur Hand, stelle es auf irgendeine Auflösung @30FPS und nimm deinen eigenen Mauszeiger auf während du ihn kreisend bewegst und sieh dir das Ergebnis an. Du wirst sehen, es sieht genau so aus wie im verlinkten Video. Und bitte mach es! Komm mir nicht mit "Das brauche ich nicht machen, ich weiß schon dass es anders aussieht!" MACH ES!

Und dann schmeißt du wieder Dinge durcheinander, bzw. springst von Kinofilmen zur Signallaufzeit vom Auge zum Hirn hin und her, dann haben Pixelprozessoren nichts mit der Bildwiederholrate zu tun, wtf? Was das zur Problematik zur Sache tut, kann ich nicht nachvollziehen.

Die höheren Frameraten dienen ja nicht nur der visuellen Wahrnehmung, sondern minimieren Verzögerungen, den technisch bedingten Lag, helfen also auch der Auge > Hirn > Hand Koordination (wieder innerhalb abstrakter Modelle bei gewissem Training oder Wiederholungen), bis Eintritt des von Spielern gewünschten Effekte oder Ergebnis.
DAS ist so ziemlich das einzige, worin wir uns hier auf dieser Seite einig sind. Witzigerweise gibst du mit dem Satz auch gleich zu, dass eine höhere FPS zu einer besseren visuelle Wahrnehmung beiträgt, das hast du bisher vehement verleugnet xD

Spiele haben eine fixe Bildrate!, weil dies unabhängig von der Ausgabefrequenz ist, damit fps und Hz nicht gleichhoch sein müssen
Bitte was? Dann hätte sich Igor also in den letzten Tests die Mühe für die Aufdröselung und Darstellung der Frametimes sparen können? LOL

Und ja, Spiele müssen nicht exakt die gleiche Bildwiederholrate haben, wie der Monitor. Dann zuckelt es halt. Oder man hat Tearing. Gegen Tearing gab es seit vielen Jahren schon VSync. Da hatte man dann besser eine Grafikkarte, die die Bildwiederholrate des Monitors auch mit links geschafft hat, sonst zuckelte es wieder oder es wurde gleich auf den halben Wert (meistens dann ja 30FPS) gedrosselt. Und genau hier setzen ASYNC, FreeSync und G-Sync an: Ein vollständiges Bild ohne Tearing und an das Spiel angepasste Bildwiederholraten vom Monitor.

Und Filme haben hier überhaupt nichts zur Thematik beizutragen. Film- und Fotokameras haben eine Belichtungszeit, Shutter. Und was passiert, wenn sich ein schnelles Objekt vor der Kamera bewegt? Es wird in Bewegungsrichtung unscharf. Das haben Spiele nicht! Es sei denn, man stellt die Bewegungsunschärfe in den Optionen ein, die genau das simuliert: Ein sich bewegendes Objekt in einem Shutterzeitfenster.

Ach ja, ich wollte ja nichts mehr dazu sagen xD
 
an den nvidia Werbeaussagen festklammert
Ich habe zwei Freesync Monitore (1080p 240Hz), hatte mich bei dem neueren von denen aber tatsächlich umgeschaut ob es A) einen alternativen Monitor mit Gsync Modul gibt der Preislich nicht völlig aus dem Rahmen fällt oder B) einen Freesync Monitor der eben variable Overdrive kann.
Gefunden habe ich weder noch. Dass es dies pauschal auch bei Freesync gibt war mir nicht bewusst und wird auch generell nicht beworben. Kannst du mir da ein paar Modelle nennen, bei denen es nachvollziebar ist dass es funktioniert. Dann wäre das eine Wissenslücke meinerseits.
 
Da gibt es keinen Trick, die Mausspur ist aus.
Ja dann passt Win10 sie automatisch an.
Du redest doch selbst immer von deinen 30ms. Jetzt nimm halt mal selbst dein Handy zur Hand, stelle es auf irgendeine Auflösung @30FPS.
Das macht das Handy von ganz allein, merken sie es? Wohl eher nicht.
Und dann schmeißt du wieder Dinge durcheinander, bzw. springst von Kinofilmen zur Signallaufzeit vom Auge zum Hirn hin und her, dann haben Pixelprozessoren nichts mit der Bildwiederholrate zu tun, wtf? Was das zur Problematik zur Sache tut, kann ich nicht nachvollziehen.

DAS ist so ziemlich das einzige, worin wir uns hier auf dieser Seite einig sind. Witzigerweise gibst du mit dem Satz auch gleich zu, dass eine höhere FPS zu einer besseren visuelle Wahrnehmung beiträgt, das hast du bisher vehement verleugnet xD
Weil sie den Zusammenhang nicht verstehen, genau deshalb haben Asics eine VRR Range ab 48Hz und nicht 1Hz. Und 60Hz ist ein vielfaches von 30, genauso wie 120 und 144Hz ist ein vielfaches von 24 (ich habe es jetzt schon drei mal geschrieben). Glauben sie an eine Zufälligkeit? Ich nämlich nicht. Die Monitore eigen sich dann expliziet für die Ausgabe von Kinoformaten, ohne das VRR eingreift.
Und ja, Spiele müssen nicht exakt die gleiche Bildwiederholrate haben, wie der Monitor.
Stimmt. (korrigiert)

Übrigens habe nie etwas "verleugnet", sondern behauptet man sieht nicht jedes Bild, weil man es gar nicht verarbeiten kann. Und habe wegen dem Fehlen eines GSync Moduls in meinem Laptop behauptet (was ich übrigens mit einem ähnlichen Zusammenhang per Video eines renommierten Portals nachwies, die Gleiches feststellten), dass es auch völlig ohne dem funktioniert, genauso wie Adative Sync, das NVidia dann GSync nennt (nicht GSync Compatible).

Was passiert wenn ich eine GPU fps Rate von 79 habe, aber ein Display mit 144Hz und diesen Refresh auch angewählt habe? Sinkt dann die Bildrate auf 79Hz oder werden weiterhin 144 Bilder ausgebeben? Besser wäre als Beispiel 100fps, aber das wird kaum jede GPU schaffen an der ein 144Hz Panel steckt.
 
Zuletzt bearbeitet von einem Moderator :
Wie schon einmal geschrieben, nvidia hält die eigenen Kunden für dumm. Anders kann man das schlicht nicht mehr nennen.
Vermutlich ist es genau das was man hier nicht ansprechen darf. Da muss man sich schon mal als Troll betiteln lassen. Aber natürlich ist NVidia damit nicht allein, das ist ein Trend in der gesamten Industrie. Wird aber auch angenommen und immer wo etwas angenommen wird, wird auch geliefert. Bin leider selbst darauf reingefallen.
 
Zuletzt bearbeitet von einem Moderator :
L M A O. Lebst du vll. in einer Parallelwelt?
Nein, aber sie. Schon mal was von eingeschränktem Dynamikumfang bei LCD Panelen gehört und wozu HDR eingeführt wurde? Das hängt mit der Helligkeit der Hintergrundbeleuchtung zusammen und damit der Ausleuchtung der Pixel.

Bei den Filmen meinen sie das HRF Format (60Hz als Kinoformat, was man nicht mehr verwendet und es einen einzigen Film gab) und ich behaupte, das die Projektoren in Kinos jedes Bild zwei mal ausgeben, das bedeutet 24fps in 48Hz, weil das ein Standard dafür ist. Und 48Hz (48fps) Filmmaterial wird nach dem HRF 3D Standard entwickelt.

Im Hobbybereich setzen sich bei Camcordern dann irgendwann 50 und 60Hz durch (25i/25p/30i/50p/60p), womit auch die gesamte Entwicklung im Zusammenhang steht. UHD Filme kann man unter 60Hz speichern, muss beim abspielen aber auf 3D oder HRF verzichten. Zuletzt hat YT Videos auf 60Hz formatiert. Wenn ein Browser es unterstützt kann man sich das dann real ansehen.
 
Zuletzt bearbeitet von einem Moderator :
Was passiert wenn ich eine GPU fps Rate von 79 habe, aber ein Display mit 144Hz und diesen Refresh auch angewählt habe? Sinkt dann die Bildrate auf 79Hz oder werden weiterhin 144 Bilder ausgebeben? Besser wäre als Beispiel 100fps, aber das wird kaum jede GPU schaffen an der ein 144Hz Panel steckt.
Ohne Sync? Dann Refresht der Monitor 144 mal die Sekunde, der Inhalt kann dann halt tearen und manche Frames werden wiederholt.
Ob eine GPU genügend FPS liefern kann kommt immer auf die GPU und enstprechende Anwendung an. Gibt viele ältere Spiel wo 144 FPS oder auch deutlich mehr auch mit schwächeren Karten ohne Probleme ausgegeben werden.
Ja dann passt Win10 sie automatisch an.
Nein, das sind einfach die extra Refreshes vom Monitor. Das ist an der Stelle auch spürbar flüssiger.
genau deshalb haben Asics eine VRR Range ab 48Hz und nicht 1Hz
Haben sie nicht unbedingt, da gibt es vieles, auch ab 30Hz. Zwar richten die sich tatsächlich an die genannten gängigen Formate, was aber nicht bedeutet dass man mit was krummen direkt Probleme bekommt.
wegen dem Fehlen eines GSync Moduls in meinem Laptop behauptet dass es auch völlig ohne dem funktioniert
Das war übrigens auch eine der wenigen Aussagen die nicht angezweifelt wurden, deswegen müssen wir darüber nicht diskutieren.
Schon mal was von eingeschränktem Dynamikumfang bei LCD Panel gehört und wozu HDR eingeführt wurde?
Klar. Was hat das mit dem Abschnitt zu tun den ich explizit zitiert hatte. Mal wieder nichts, an einen zufall glaube ich da nicht.
Da wird einfach irgendwas aus der Tasche gezogen, am besten so abstrus wie möglich.
 
Dann wissen sie ja, dass bestimmte Displays nicht flächendeckend ausgeleuchtet werden (HDR Array).

Bevor ich es vergesse: ja "NVidia", es ist das mieseste 1080p GSync Display das ich je zu Gesicht bekommen habe, mittlerweile mit sattem IPS Glow, in einem 2,5K Gerät ganz ohne tollem GSync Prozessor (Modul). Vielleicht liegt es ja daran. Habe ich einmal gekauft und nie wieder. An eine Zertifzierung glaube ich daher nicht, oder die Qualitätskontrolle hat ein Problem. Gabs ja bei der 2080ti auch schon.

So nun bin ich los.:)
 
Zuletzt bearbeitet von einem Moderator :
Mein letzter Beitrag zu dem Thema. Da das Kommunikationsniveau zusehend abstürzt.

Da hatte ich mich wohl zu früh gefreut. Leider ist @quantaro an der Stelle nicht so konsequent wie bei der verheerenden Rechtschreibung, die das Lesen fast noch unerträglicher machen als die konstanten Beleidigungen gepaart mit extrem selbstsicher vorgetragenen Falschbehauptungen.

Danke an @Besterino für den Tipp mit "Ignorieren" hier im Forum - den werde ich nun auch das erst Mal benutzen.
 
Oben Unten