Reviews G-Sync Ultimate Hardware seziert am AOC Agon AG353UCG | Investigativ

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.816
Bewertungspunkte
8.790
Punkte
1
Standort
Redaktion
Seit den ersten G-Sync Monitoren von Nvidia hat sich einiges getan. G-Sync mit Nvidia Grafikkarten lässt sich schon seit längerem auch mit günstigeren „Freesync“ Monitoren betreiben. Der Unterschied ist hier, dass die Frame-Synchronisierung zwischen GPU und Monitor lediglich über das DisplayPort-Protokoll erfolgt und keine zusätzliche Hardware auf Seiten des Monitors notwendig ist. Aber diese spezielle...
Hier den ganzen Artikel lesen
 
@quantaro das ist einfach alles nur daneben. Da fehlt es offensichtlich bereits an Lesekompetenz. Und Latenz ist übrigens wieder was anderes und es hilft auch nicht, bei Fehlern in der eigenen Darstellung / Argumentation nur neue Nebenkriegsschauplätze aufzumachen, die an der Sache sowas von vorbeigehen, dass es weh tut.

Latenz - zumindest im IT-umfeld - ist ein Begriff, um VERZÖGERUNG zu beschreiben, oder auch eine SIGNALLAUFZEIT. In keinem Fall ist damit eine inhaltliche Veränderung oder Modifikation des Signals verbunden: Auch bei einer hohen "Latenz" kommen trotzdem noch alle Informationen genauso an, nur eben später. Daher würde auch ein Bild mit Tearing genauso mit Tearing bei meinem Hirn ankommen... wenn's vorher flackert, ruckelt oder zerrissen ist, flackert, ruckelt oder ist es zerrissen in meinem Hirn auch 10000ms später. Manmanman. Und die ganze Diskussion um was auch immer zwischen Auge und zwischen Hirn oder im Hirn passiert, ist eh von großer Ahnungslosigkeit geprägt. Gsync oder FreeSync kommen aber ursprünglich aus einer ganz anderen Ecke: da ging es erst überhaupt nicht um Latenz - das kam dann erst später, um die ganzen doofen Gamerkiddies zu befrieden, die glauben, für sie würde ein Unterschied von wenigen ms "Latenz" (von wo nach wo auch immer) im Spielgeschehen über Sieg oder Niederlage entscheiden.

Macht aber nix, ich bin hier raus. Für Rechthaberei gepaart mit völliger Ahnungslosigkeit ist mir meine Zeit zu schade. Viel Spässeken noch.
 
Zuletzt bearbeitet :
Ich sags ja gerne noch einmal: Es geht bei den Hz nicht darum, wie viele davon das Auge aufnimmt und das Hirn verarbeiten kann, sondern was in der Zeitspanne zu sehen ist, also wie viele Informationen in der Auge/Hirn Aufnahmephase dargestellt werden können.

Angenommen ich könnte mit der Maus einen perfekten Kreis ziehen in einer bestimmten Geschwindigkeit, sehe ich auf einem 60Hz Monitor im Idealfall 60 Mauscursor, die zusammen eine Kreisbewegung vollziehen. Auf einem 144Hz Monitor eben schon 144 Cursor und auf einem 360Hz Monitor? Kann man sich jetzt denken, ne? Und je mehr Hz, desto "runder" wird dieser Kreis, die Abstände zwischen den Mauscursorn verringert sich.
 
Das Hirn arbeitet nicht fest nach Hz oder in ms. Es wird auch nichts verworfen. Woher hast du so einen Blödsinn? Es gibt durchaus eine Triggergrenze, nach der wir einen Lichtblitz nicht mehr wahrnehmen, wenn dieser zu kurz ist, sprich unsere Augen benötigen eine gewisse Intensität und Dauer eines Impulses, damit dieser wahrgenommen wird. Und es gibt auch eine gewisse Trägheit, bevor ein neuer Impuls als solcher aufgenommen wird. Darum funktionieren auch Leuchtstoffröhren und per PWM gedimmte LED, wobei manche Leute tatsächlich empfindlicher sind und insbesondere in Bewegung ein Flackern wahrnehmen können. Gleichfalls der Regenbogeneffekt bei DLP Beamern.

Passiert mir beispielsweise bei den ersten VW LED Rücklichtern, ich glaube bei Golf und Passat, diese runden? PWM gedimmt als Fahrlicht und 100% als Bremslicht. Wenn es regnet, waren das tausende kleine, flackernde Punkte auf meiner Frontscheibe (zwischen dem Wischvorgang), schrecklich!

Und was man sehr schön sogar schon auf dem Vorschaubild sieht, ist dass während eines Frames der aufnehmenden Kamera (30Hz = 33,33ms) bereits 4 Cursor zu sehen sind auf dem 60Hz Panel, abzüglich Reaktionszeit des Panels, daher sind die ersten und letzten Cursor schwächer zu sehen. Anders gesagt: Wenn sich während der Zeitspanne etwas verändert, wird das mit aufgenommen, sowohl vom Auge/Hirn, als auch von einer Kamera, selbst wenn es nur einen Bruchteil der Zeitspanne zu sehen ist.

Nachtrag:
Aber da das hier alles überhaupt gar nichts mit dem eigentlichen Thema G-Sync zu tun hat (oder allgemein A-Sync/FreeSync, hierbei geht es eigentlich um die Beseitigung von Tearing, indem man den Monitor das Bild nur dann auffrischen lässt, wenn die Grafikkarte auch eins fertig hat), werde ich mich ebenfalls aus dieser Diskussion zurückziehen.
 
Zuletzt bearbeitet :
Der Rest sind Mythen und Märchen von den ewig Besserwissenden
Also ganz ehrlich, deine geistigen Ergüsse hier sind so wirr und sprunghaft es ist eine beleidigung das zu Lesen und dann kommst du mit so einer Aussage?
Das Auge > Hirn braucht 30ms, mit etwas Training wohl auch nur 28ms
Möglich (Beleg ausbleibend), Relevanz aber sowieso nicht vorhanden.
Und falls es sie interessiert, sind Asic's die Inhalte mit 48Hz ausgeben auf das Filmformat in Kinos angepasst, übrigens geht es 144 Hz da genauso (als vielfaches von 24fps), wobei die Bilder in Kinos mit 48Hz ausgegeben werden, (dazwischen mit hell > dunkel Phasen, also gedoubelt um das Auge entsprechend zu reizen), unterstützen aber auch die 60Hz Standards, wie 240 oder 360Hz.
Es ist schlicht unmöglich einen roten Faden zu erkennen, das ist einfach eine Ansammlung von mal mehr oder weniger wahren Aussagen. Strobing/Blackframe insertion gibt es auch bei Monitoren um das Bild "einzufrieren". Damit kann man trotz niedrigerer Refreshrate eine gute Bewegungsschärfe erzielen, die man sonst eben nur mit einer höheren Refreshrate und FPS Kombination erreicht.
Der Trick mit der Maus ist ein Programm das es mittlerweile in Win10 geschafft hat, findet man in der Systemkonfiguration unter Mausspur!
Die Mausspur gibt es schon lange, aber hat mit den Vorteilen höherer Refreshrates aber mal auch absolut nichts zu tun.
Bei LCDs hat man dort gegenüber den Kinoformaten und deren Ausgabe ein Problem, da Pixel eines LCD fast zu gleichhell ausgeleuchtet werden.
Mal wieder keinen Schimmer was du damit aussagen möchtest.
und selbst unter Ultimate 1Frame pro Sec ruckelt, weil der Mensch wohl ab 20 fps braucht um einen Bewegung im Bild als nicht ruckelt wahrzunehmen.
Weiß nicht auf was für Ruckler du da ansprichst, aber Filme gibt es in 24 FPS weil es ausreicht für eine als flüssig wahrgenommene Bewegung bei einer fixen gleichmäßigen Bildrate. Jetzt sind Spiele für die diese diversen Sync Methoden gedacht sind aber weder in einer fixen Bildrate noch haben sie ein gleichmäßiges Framepacing.
Du schmeißt hier so viel zusammen und spielst dich gleichzeitig auf als hättest du die Weißheit mit dem Löffel gefresse, das ist einfach nur peinlich.
 
Spiele haben eine fixe Bildrate!
Haben sie nicht, hatten sie auch noch nie. Vielleicht verwechselst du das mit einem FPS Cap, aber nur weil ein Cap existiert bedeutet das nicht dass man das immer erreicht oder das Framepacing gleichmäßig ist.
Hz und fps orientieren sich seit Jahren an den Kinofilmformaten und genau dafür werden auch Asic's entwickelt.
L M A O. Lebst du vll. in einer Parallelwelt?
Das bedeutet dieser Monitor gibt ein Bild zweimal aus, die Frequenz entspricht nicht der fps Rate (25i/30i fps bei 50 oder 60Hz).
Wenn man heutzutage eine Monitore oder Fernseher Hz Angabe findet, dann geht man von progessive also Vollbild aus, sofern nicht abweichend angegeben.
Die Kino-Filme werden in "48Hz" also jedes BILD ZWEIMAL wiedergegeben.
Es gibt native 48 FPS Filme, da wird nichts gedoppelt. Einfach nur einen Frame wiederholen würde genau garnichts bringen. Ich bin mir nichtmal sicher ob es überhaupt Filme mit 24 FPS und Blackframe insertion gibt, wie weiter oben erwähnt, weil der Effekt sich unterhalb von 60Hz eher negativ auswirken kann.
Nein 30ms. Schon 20mal hier geschrieben
Schreibs noch 50 mal davon wird es nicht relevanter oder überhaupt wahrer.
Ich weiß nicht wie man so an der realität vorbei Diskutieren kann. Ja nichtmal diskutieren kann man das nennen, denn die Antworten sind konstant am Thema vorbei und überschwänglich einfach kompletter Unsinn.
 
Interessanter Artikel. Jetzt verstehe ich auch den hohen Preis der G-Sync Monitore. Nur verstehe ich nicht so ganz wann und ob man das braucht 😅. (Vs Free-Sync)
 
Zuletzt bearbeitet :
Kann man bestimmt gut mit Minen 😅

Ganz schön hoher aufwand für Gesyncte Frames.
 
>> Aber diese spezielle Hardware ist nicht ohne Grund in den offiziellen „G-Sync“ Produkten verbaut, wenn es nach Nvidia geht. Geringere Latenz, bessere Performance in niedrigen FPS Bereichen und HDR Kompatibilität sind Features, die nur mit Nvidias dedizierter Hardware möglich sind und seither als „G-Sync Ultimate“ zertifiziert werden. <<

Eine Anregung zu Deiner Schreibe:

Wenn Du einen Hersteller (oder auch irgendwen sonst) in letztlich indirekter Form wie oben zitierst, solltest Du dir meines Erachtens unbedingt angewöhnen, den Konjunktiv zu setzen, wenn es sich nicht um eine offensichtliche Tatsachenfeststellung wie etwa "und seither als „G-Sync Ultimate“ zertifiziert werden." handelt. Oben solltest Du also hier etwa "die nur mit Nvidias dedizierter Hardware möglich seien (bzw. je nach Sprachgefühl auch: wären)" schreiben.

Das ist nicht zu Unrecht eine professionelle, (nicht nur) journalistische Grundregel und beugt Missverständnissen und Missklängen weitaus besser vor, als der vorangehende Satz allein, in dem die Quelle nVidia benannt wurde.
 
Hallo Xavar,

interessanter Artikel. Da ich selbst einen G-Sync Monitor habe, und das ist schon der zweite, kann ich deine Feststellung nicht teilen. Weder der in die Tage gekommene MSI Oculux NXG252R noch der ASUS ROG Swift PG279QM haben in igrendeiner Form krach gemacht.

Was ich besonders bemerkenswert finde, dass der PG279QM sogar AMD Karten mit der 240 Hz Bildwiederholrate bzgl VRR (FreeSync) unterstützt. Was ich bei einem G-Sync Modul so noch nicht gehört bzw. gesehen habe! Der PG279QM ist ein HDR 400 zertifizierter Monitor, kann halt mit seinem local dimming (nicht FALD), ein wenig HDR um es mal milde auszudrücken. Aber das reicht auch, denn der eigentliche Job ist 1440p 240 Hz und geiles Panel mit sehr guter Farbabdeckung!

Meine Vermutung, das AOC hier die günstige Kühllösung verbaut hat...
 
Zuletzt bearbeitet :
Die Kühllösung scheint mir recht aufwändig. Wenn ich das richtig sehe, liegt auf dem Prozessor eine Vapor-Chamber. Diese gibt die Wärme dann an 5 Heatpipes und an einige Kühllamellen ab, die darauf montiert sind. Die Heatpipes gehen dann zu einem Kühlblock der belüftet wird.

So eine Konstruktion plant man nicht, wenn man nur 5 - 10 Watt wie bei einem Chipsatz abführen müsste. Dann würde man nur einen gepressten Kühlkörper aufkleben und eventuell einen Lüfter daneben schrauben.
 
Die Kühllösung scheint mir recht aufwändig. Wenn ich das richtig sehe, liegt auf dem Prozessor eine Vapor-Chamber. Diese gibt die Wärme dann an 5 Heatpipes und an einige Kühllamellen ab, die darauf montiert sind. Die Heatpipes gehen dann zu einem Kühlblock der belüftet wird.

So eine Konstruktion plant man nicht, wenn man nur 5 - 10 Watt wie bei einem Chipsatz abführen müsste. Dann würde man nur einen gepressten Kühlkörper aufkleben und eventuell einen Lüfter daneben schrauben.
Eine Vapor Chamber ist es tatsächlich nicht, sondern "nur" eine Baseplate aus Kupfer, auf der die Heatpipes aufgelötet sind. Aber ja, sehr aufwändig der Kühler und irgendwie auch ein bisschen unschön gelöst, wenn man bedenkt wie viel Bauraum zwischen Panel und Gehäuse eigentlich noch ist.

Und selbst wenn man es so bauen müsste: Ein leiser, Temperatur-gesteuerter Lüfter wäre schon angebracht. 2000 Euro Monitor und es wird am 1 Euro Lüfter gespart...
 
Ein Kumpel hat sich den super teuren Asus Monitor gekauft, 4k, 144hz, HDR 1400, etc., der hat auch einen Lüfter. Den ersten musste er aber zurück senden, weil er sich andauernd abgeschaltet hat. Das zweite Modell ist aber in Ordnung und der Lüfter ist auch leiser, bzw. gar nicht zu hören.

Die aktuellen G-sync Ultimate Monitore scheinen echte Hitzköpfe zu sein.
 
Also einen Chip zu designen und auch noch auf Silizium zu bringen ist schon einiges an Aufwand. Einen FPGA wird kurz gefüttert und ab geht's.

Gerade wenn es um kleine Mengen geht kann der FPGA Unterumständen sogar günstiger sein.

Oder die Nachfrage ist so hoch aber die bestellte Menge bei der Foundry viel zu wenig gewesen. Dann musst so eine Lösung bauen.

FPGAs sind in den letzten Monaten extrem teuer geworden. Waren noch nie günstig.
 
Schade das hier der größte Nachteil nicht mal eine Erwähnung in einem Nebensatz findet:

G-Sync Ultimate ist nicht kompatibel mit HDMI 2.1.
 
NVidia bleibt ja nicht nur schudig zu erklären, wozu man das braucht, kein HDR Monitor braucht neben seiner eigenen Elektronik einen weiteren VRR Asic, nein. Es ist auch bekannt das die Asic in Ultimate Versionen massiv überhitzen und die Lüfter ziemlich laut werden können. Hitze bedeutet dabei zusätzliche Leistungsaufnahme. Einen spezifischen Asic gegen ein universelles Modell auszutauschen, scheint dann alles andere als glücklich zu sein.

Ich habe ein Laptop mit GSync, 144Hz. Dieser hat keinen GSync Asic, ist aber auch nicht GSync Compatible. Frage an NVidia, wie wird das da gelöst? An den Autor gerichtet, das übernimmt übrigens nicht das eDP Protokoll, weil das nur Vorausetzungen sind, die einen allgemeinen Standard beschreiben, sondern die GPU.

PhysX und Cuda Gameworks lassen grüßen, dedizierter Kram den real kein Mensch braucht, aber zu Höchstpreisen anschafft.
 
Ich habe auch nen G-Sync Monitor, allerdings kein "Ultimate". Stelle mir jetzt natürlich die Frage, ob da ebenfalls Hardware verbaut ist oder doch "nur" die FreeSync-Technik genutzt wird, also die Adaptive Frame/Frequenz-Anpassung, die sowieso an Bord ist. FreeSync hat bei meiner 5700XT damals super funktioniert.
 
Meine Vermutung, das AOC hier die günstige Kühllösung verbaut hat...
Naja, vielleicht haben deine Geräte ja auch eine geringere Bandbreite. So ein FPGA braucht schon etwas Futter, dass er auch arbeitet. Passiv lassen sich die Dinger heutzutage nur noch mit großen Kühlern kühlen. Vielleicht haben deine Monitore noch einen älteren/kleineren FPGA verbaut, der einfach weniger verbraucht und damit passiv gekühlt werden kann.

Was mich mal interessieren würde: Wie viel braucht der Bildschirm eigentlich dann beim HDR Gamen?
 
Ich habe ja nur den

AG352UCG6​


und der hat keinen Lüfter.

Nun stellt sich mir die Frage wo der Unterschied im G-Sync Modul ??

Okay meiner macht nur 100 HZ, können die 44 soviel an Wäre mehr ausmachen ?
 
Oben Unten