Reviews G-Sync Ultimate Hardware seziert am AOC Agon AG353UCG | Investigativ

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.833
Bewertungspunkte
8.892
Punkte
1
Standort
Redaktion
Seit den ersten G-Sync Monitoren von Nvidia hat sich einiges getan. G-Sync mit Nvidia Grafikkarten lässt sich schon seit längerem auch mit günstigeren „Freesync“ Monitoren betreiben. Der Unterschied ist hier, dass die Frame-Synchronisierung zwischen GPU und Monitor lediglich über das DisplayPort-Protokoll erfolgt und keine zusätzliche Hardware auf Seiten des Monitors notwendig ist. Aber diese spezielle...
Hier den ganzen Artikel lesen
 
Ja, ab dem x570S nicht mehr. Gab anfänglich nur zwei Hersteller die das per Heatpipe lösten. Alle anderen verbauten Lüfter, wobei man das Profil auch "silent" abstimmen konnte. Der Lüfter dient zur Sicherheit, was man aber bei 4 Heatpipes in Ultimate getrost ausschließen kann, das Teil wird stet vor sich hin säuseln (wurde auch schon vielfach kritisiert).

Mittlerweile gibt es 20 Platinen ohne. War auch nur ein Beispiel. Der Arria 10 AX048 ist ein programmierbarer ARM Asic von Intel. Der kostet NVidia keine 500$, das Modul mit 3GiB DDR4 und dem Asic kostet in etwa soviel, verteuert die Monitore also deutlich.

Dann müsste man also Intel Inside auf den Bildschirm drucken.:)

Die lüfterlosen Varianten hat AMD über AGESA, vermutlich mit zusätzlichen Stromsparmechnismen freigegeben. Könnte Herr Wallossek ja mal erfragen.
 
Zuletzt bearbeitet von einem Moderator :
Einen Monitor mir Lüfter würde ich direkt retounieren, erst recht zu so einem Preis. Bei 35" ist mehr als genug Fläche da um das passiv zu kühlen.
Das mag sein, aber der Lüfter ist garantiert um einiges billiger.

Zum Thema: Kann mir jemand erklären, was es an G-SYNC Hardware-Revisionen gibt? Ich habe einen ASUS ROG PG279, der hat G-SYNC hardware, aber ich höre da keinen Lüfter. Ist das eine ältere Version? Wo liegen die Unterschiede?
 
Mir ist AMD grundsätzlich sympathischer. Die haben nur ein mieses Timing und bis vor 1 Jahr kein vergleichbares Produkt.
Die Geschichte mit den Monitoren ist schnell erzählt: 5700XT mit FreeSync, Leistung war eh am Limit (WQHD) und dann hatte die Karte nen Defekt. Also 2080S gekauft, Display war aber alt und nicht mal G-Sync kompatibel. Also IPS mit G-Sync gekauft, damit die Karte ein paar Jahre hält. Bisher hat sich das gelohnt. Müsste ich jetzt aufrüsten würde ich 6900XT plus FReeSync / Adaptive Sync nehmen, da bestes P/L-Verhältnis. Muss ich aber nicht.
Besitze seit 4 Jahren nen G-Sync Monitor von Viewsonic und der wird weiterhin bleiben.
Im Grunde war er für mich, eine der besten Anschaffungen im HW Bereich.
Würde mich mal interessieren, was den in den alten Gsync Monitoren verbaut ist?
 
Den besitze ich auch. Elite irgendwas.
 
Ich habe einen ASUS ROG PG279, der hat G-SYNC hardware, aber ich höre da keinen Lüfter
Die Lüfter gabs erst für G-Sync Ultimate(HDR), du hast ein normales G-Sync Modul.

Das uprsprüngliche G-Sync Modul hat auch auf ein Altera FPGA gesetzt wobei da böse Zungen von gesprochen haben dass es primär andere Hersteller ausschließen sollte. Was G-Sync zu anderen VRR absetzt ist variable Overdrive, was schon sinnvoll ist umso größer die verwendete Range ist.
 
Und beim Vesa Standard oder Freesync wird da im niedrigen FPS Bereich nicht gedoppelt/verdreifacht oder was? Das Freesync überhaupt Frames verfielfachen kann wurde doch erst nachgereicht, existiert da aber jetzt genauso. Klar sind die Hz bis runter zu 1 bei G-Sync eher Marketing als nützliche Range, aber das kann man der anderen Technik genauso vorwerfen.

Edit: Woher hast du das mit der Freesync Range eig.? Ich habe auf die schnelle kein Display gefunden was unter 30Hz als Range angibt, dafür viele die deutlich weiter oben Anfangen. Mit was aber geworben wird ist LFC (jetzt rate mal für was das steht). Wer hat überhaupt diese Diskussion angetreten?

Woher hast du das 2,4:1 Verhältniss? Das erinnert mich an eines der Ausschlusskriterium von Nvidia für Gsync Compatible Zertifizierungen, weil anfangs manche Freesync Monitore eine deutlich kleinere Range hatten.
 
Zuletzt bearbeitet :
Du wirfst hier so ungefähr alles durcheinander was man nur so durcheinander werfen kann.
Low Framerate Compensation sieht bei Nvidia ähnlich aus wie bei AMD, nur gabs die bei AMD am Anfang nichtmal.
Stand jetzt werden Monitore mit Gsync Modul mit einer Range ab 1Hz angegeben und ich finde kein einziges Freesync Display dass unter 30Hz geht.
Es gibt Monitore mit Gsync Modul die von 1-360Hz gehen. Erklär mir gerne inwiefern da jetzt die Freesync Range größer ist.
Das ist bisher nur ohne Begründung in irgendeiner Form dahingestellt, also erachte ich es als falsch bis ich einen Beleg dafür sehe.
Freesync ist genauso wenig ein offener Standard wie Gsync. Beide basieren auf dem Vesa Standard, nur ist das was Nvidia mit Gsync Modul verkauft tatsächlich nicht offen für andere Hersteller.

Gsync Compatible Zertifizierungen haben laut Nvidia diverse Vorraussetzungen und diese Regel mit mindestens 2,4:1 Verhältniss von der minimalen Refreshrate zur maximalen wurde dabei noch nicht gebrochen und sogar offen von Nvidia kommuniziert. Dass es keine Artefakte oder Flackern geben darf gehört natürlich ebenso dazu.
Eine Range bevorzugung in dem Sinne sehe ich jetzt nicht, die haben ja alle bei Freesync als auch Gsync die gleiche Range.
 
Wenn ich fies wäre: "investigativ" im Titel für am Ende nicht mehr als ein simpler Teardown mit ein paar zusammengetragenen Google-Ergebnissen geschlossen mit einem "nichts Genaues weiss man auch nicht" ist doch etwas hochtrabend, riecht eigentlich vor allem nach aufgewärmten alten Kamellen (die woanders besser / in diversen Einzelheiten nachzulesen sind) aus Anlass einer persönlichen Anschaffung locker 2 Jahre nach Release des "Untersuchungsgegenstands" (Monitor) und auch bei Gsync ist die Kuh bereits vor längerer Zeit von vielen, sehr hingebungsvoll und informativer durchs Dorf getrieben worden.

*Lufthol*

Bin aber nicht fies, daher abgemildert: Der Inhalt hat meine Erwartung nach dem Titel nicht erfüllt. Bitte beim nächsten Mal Anspruch und Wirklichkeit besser angleichen.

Ansonsten sag ich nur: Gsync =|= Gsync Ultimate =|= Gsync Compatible. Und zwar nicht nur HDR. Ist bei AMD übrigens auch so: FreeSync gibt's auch in verschiedenen Geschmacksrichtungen je nach Zusatz. Und dann gibt's da noch den allgemeinen Oberbegriff für die grundlegende Technik "an sich". Eine Diskussion über technische Details macht wenig Sinn, wenn man nichtmal die Begrifflichkeiten übereinander bekommt.

Und kann bitte @quantaro sich mal das pseudo-"Sie" abgewöhnen, oder es - wenn man es denn schon so formal halten möchte - bitte richtig (groß) schreiben? Gilt übrigens dann auch für "Ihr, Ihnen". Alles andere wirkt leider nur wie gewollt und doch daneben. Beim "Du" kann man es übrigens flexibler halten, da fallen dann immerhin auch solche Unsicherheiten nicht so auf...

Die VRR dient lediglich der Synchronisation der Bildinhalte in einer Range, die fürs menschliche Auge sinnvoll ist und da waren 24fps und ein vieles davon, in der Vergangenheit ziemlich wichtig.
Wieder einmal: Vermengung zweier unterschiedlichen Dinge mit unterschiedlicher Wirkung.

1. Eine "Range" im Sinne einer maximalen Frequenz von 24fps reicht nicht, auch 60fps nicht - das menschliche Auge ist eben doch nicht so schlecht, wie diverse Industrien und Hersteller uns das lange weismachen wollten - das hat inzwischen ja auch die Filmindustrie erkannt. Und 24 FPS werden auch nur geringfügig besser, wenn man Tearing vermeiden kann. Hat die GPU zu wenig Bumms und liefert absolut nicht genug Bilder pro Zeiteinheit, ist das für den Spaß kacke und bleibt kacke. Das Ruckeln sieht man dann immer noch in jeder Bewegung - nur halt ohne Tearing. Wo da die persönliche Schmerzgrenze bei "genug Bumms" liegt, kann man nur selbst entscheiden und ausprobieren.

2. Im übrigens ist das menschliche Auge und die "Range" bzw. die FPS-Zahl im Hinblick auf VRR aber auch erst einmal völlig wurst, da es bei VRR um die Synchronisation zwischen GPU und Monitor und die Vermeidung von TEARING geht (kein Bildrefresh während des Bildaufbaus am Monitor), nicht um die maximale darstellbare Frequenz. Selbst bei einem Standbild kann man niedrige Herzzahlen sehen, z.B. wenn man sich selbst bewegt...

Sorry, bin heute wohl auf Krawall gebürstet
 
Zuletzt bearbeitet :
Wozu ein Bild 360 mal pro Sekunde ausgeben, wenn es ein Standbild ist? Was für einen Sinn hat das überhaupt, reicht es nicht dieses 1 mal oder 30 mal oder 48 mal pro Sekunde zu wiederholen und dabei vielleicht auch nur einmal zu berechnen?

Erste FreeSync und GSync Display setzen noch auf LVDS, was mittlerweile durch HBR und Compression ersetzt wurde (4K120Hz), was klar ein eDP PSR Standard inklusive erhöhter Bitrate ist, wozu auch ASync gehört.
Ich versteh die Frage nicht in dem Kontext, ansich ist das ja ein kompletter Freeze bei der Graka unabhänig ob Free- oder G-Sync.
Da kann keiner der beiden irgendwas kompensieren.
360Hz ist ja erst sinnvoll um eben idealerweiße bis zu 360 verschiedene Frames Pro Sekund abzubilden.
Ich versteh nur nicht wo Freesync die größere Range als Gsync haben soll wenn die in der Realität bestenfalls gleichauf sind.
Reden wir vielleicht aneinander Vorbei oder hat einer von uns ein Verständnissproblem bei den verwendeten Begriffen?

Welche Relevanz hat der zweite Absatz hier?
 
Zuletzt bearbeitet :
Stand jetzt werden Monitore mit Gsync Modul mit einer Range ab 1Hz angegeben und ich finde kein einziges Freesync Display dass unter 30Hz geht.
Bei gsync (Modul) dürfen die Monitorhersteller nicht mit der tatsächlichen Panel Frequenz werben sondern MÜSSEN die minFrequenz mit Frame Doubling (multiply frames) angeben.
Bei FreeSync MÜSSEN die Monitorhersteller aber die tatsächlichen Panel Frequenz angeben und zusätzlich ob der Monitor Low Framerate Compensation unterstützt.
Offensichtlich hält nvidia seine User für dümmer als AMD seine User.
 
Was für einen Sinn hat das überhaupt, reicht es nicht dieses 1 mal oder 30 mal oder 48 mal pro Sekunde zu wiederholen und dabei vielleicht auch nur einmal zu berechnen?
In Games wird das Bild so häufig wie möglich neu berechnet oder so schnell, wie die Frequenz des Bildschirms wenn man es so einstellt. Alle anderen PC-Anwendungen berechnen das Bild nur neu, wenn sich etwas geändert hat. Die Grafikkarte zeigt dann einfach immer das selbe Bild aus dem selben Speicherbereich der Grafikkarte an. Es ist also durchaus möglich, nicht jede Sekunde ein neues Bild zu berechnen.

Der Bildschirm muss die Anzeige auf dem Panel aber mindestens etwa 30 mal pro Sekunde erneuern. Wenn die Elektronik des Bildschirms ein Pixel des Panels setzt, bleibt diese Information im Panel nicht lange erhalten. Wenn man die Pixel nicht andauernd erneuern würde, hätte man recht schnell kein Bild mehr. Das ist der Grund, weshalb die Bilder mehrmals angezeigt werden, wenn die Bildrate unter 30 FPS sinkt.
 
Offensichtlich hält nvidia seine User für dümmer als AMD seine User.
Macht das jetzt tatsächlich einen Unterschied ob man z.B. min 30Hz mit LFC ranschreibt oder die Range ab 1Hz angibt weil LFC bei Gsync immer inbegriffen ist?
Da würde ich auch nicht direkt von für Dumm verkaufen reden und ganz sicher nicht rumposaunen dass Freesync eine größere Range hätte, obwohl die sich in der Realität nichts geben in der Hinsicht.
Refresh eines Bildes bedeutet nicht gleich neue Bildausgabe, sondern man sieht ein Bild dann zweimal.
Was anderes hat er auch nicht geschrieben, weiß nicht warum du da falsch schreien musst und ihn dann nochmal wiederholst.
Aber ich sehe du springst hier von Punkt zu Punkt, weil du einfach nur irgendeinen zusammenhangslosen Käse schreiben kannst ohne irgendwas davon belegen zu wollen, oder tatsächlich zu können.
 
Das geht aber nicht, wenn nur alle 30ms ein Bild von Auge gesendet und vom Hirn verarbeitet werden kann, da ist es gefälliger weise nur sinnvoll genau in diesem Moment, der von Mensch zu Mensch variieren kann, ein Bild dargestellt wird. Das Auge könnte viel mehr Bilder verarbeiten, je nach Lichteinfall und Intensität der Helligkeit. Das gleiche Problem hat man technisch erläutert bei CPU- und GPU Limits. Der jeweilige Host könnte viel mehr verarbeiten, kann es aber nicht weil es einen "Signalstau" gibt.

Ein Pixelprozessor hat eine bestimmte "Trägheit" (Latenz, Verzögerung, Signallaufzeit, Verarbeitungszeit), weil sich LCD Kristalle in schlimmsten Fällen nicht schnell genug bewegen und bevor sie erneut geschaltet werden, erst ihre Ausgangsposition erreichen müssen, denn wenn das nicht passiert gibt es Ghosting. Deshalb variiert (modifiziert=verändert) man bspw. auch Signalspannungen.

Ehrlich, das hier ist kein Enthusiastforum, sondern ein "Kindergarten".

Was Hz betrifft, ist das eine Größe für die Anzahl von Wiederholungen und zwar pro sec, die in Abhängigkeit vom Bildinhalt und neuen Daten die verarbeitet werden müssen, steht. Es ist sinnvoll das diese Frequenz mit der Bildausgabe der GPU übereinstimmt, weil man dann ein "vollständiges" Bild zu Gesicht bekommt, was das Hirn dann auch als solches verarbeitet.

Das nimmt man dann als flüssig wahr!
Gehirne hassen diesen Trick:

Dann teste mal und überzeuge dich selbst. Stelle deinen Monitor auf 60Hz und mach Kreisbewegungen mit der Maus und immer schön den zeiger anschauen. Dann das gleiche mit 144 Hz. Du wirst staunen.
 
vor allem dass man ein GSync Panel ohne tollen GSync Prozessor von NVidia hat, es aber komischerweise trotzdem funktioniert.
Diese Erkentniss ist ungefähr 6 Jahre alt. Dass das Modul auch eher dafür da ist andere Hersteller auszuschließen hatte ich auch schon weiter oben angemerkt.
Was mich wundert, ist dass es keinen Freesync oder Gsync Compatible Monitor gibt, der tatsächlich variable Overdrive beherscht.
Notebooks mit Gsync ohne Modul können das wohl. Ist das patentierte Technik? Wobei patentiert im ersten Moment ja auch nicht bedeutet dass andere Hersteller ausgeschlossen werden.
 
@quantaro
Natürlich geht das. Wenn ich eine Zeitspanne von 30ms habe und das Bild alle 10ms aktualisiert wird, empfange ich die Informationen aus drei Bildern, nicht nur aus einem.
Jetzt sag mir nur, dass du hier keinen Unterschied siehst:
 
Und Kino ist jetzt die Referenz für menschliches Sehen?

Ich steige hier aus.
 
Don’t feed the troll. Ignore oder einfach nicht drauf eingehen und Ruhe ist. Bringt ja nix.
 
Was mich wundert, ist dass es keinen Freesync oder Gsync Compatible Monitor gibt, der tatsächlich variable Overdrive beherscht.
Wie schon einmal geschrieben, nvidia hält die eigenen Kunden für dumm. Anderst kann man das schlicht nicht mehr nennen.
Als es um Tests LFC vs frame doubling ging, wurde AMDs LFC an der wirklichen Panel Frequenz "getestet", die wurde ja auch angegeben. Nvidias frame doubling aber eben nicht, da war diese schwelle schon überschritten. Und hier ließen sich "Tester" für dumm verkaufen.

Auch bist du ein gutes Beispiel für jemanden der sich auf der suche nach einem Vorteil für das überteuerte Modul an den nvidia Werbeaussagen festklammert.

Unterstützen FreeSync fähige Monitore variables Übertakten?
FreeSync Technologie war schon immer kompatibel mit variablem Übertakten. Variables Übertrakten ist eine Funktion, die unsere FreeSync Monitorpartner implementieren können, um ihr Angebot abzuheben. Das variable Übertakten ist nicht von der Zusammenarbeit mit unseren Treibern und GPUs abhängig und erfordert diese nicht für ein korrektes Funktionieren. Wir verpflichten Monitor-OEMs nicht, variables Übertrakten zu implementieren, aber wir empfehlen es. Es gibt Monitor-Scaler-Bauteile, die in vielen FreeSync Monitoren zum Einsatz kommen und variables Übertrakten unterstützen. Es haben jedoch nicht alle Monitor-Scaler diese fortschrittlichen Möglichkeiten. FreeSync Technologie hält die Kosten niedrig, denn es wird kein teures Modul im Monitor benötigt, das den standardmäßigen Monitor-Scaler ersetzt.
 
Der Trick mit der Maus ist ein Programm das es mittlerweile in Win10 geschafft hat, findet man in der Systemkonfiguration unter Mausspur!
Da gibt es keinen Trick, die Mausspur ist aus. Davon ab gibt es das nicht erst seit Windows 10 und war meines Wissens auch noch nie ein eigenständiges Programm xD

Du redest doch selbst immer von deinen 30ms. Jetzt nimm halt mal selbst dein Handy zur Hand, stelle es auf irgendeine Auflösung @30FPS und nimm deinen eigenen Mauszeiger auf während du ihn kreisend bewegst und sieh dir das Ergebnis an. Du wirst sehen, es sieht genau so aus wie im verlinkten Video. Und bitte mach es! Komm mir nicht mit "Das brauche ich nicht machen, ich weiß schon dass es anders aussieht!" MACH ES!

Und dann schmeißt du wieder Dinge durcheinander, bzw. springst von Kinofilmen zur Signallaufzeit vom Auge zum Hirn hin und her, dann haben Pixelprozessoren nichts mit der Bildwiederholrate zu tun, wtf? Was das zur Problematik zur Sache tut, kann ich nicht nachvollziehen.

Die höheren Frameraten dienen ja nicht nur der visuellen Wahrnehmung, sondern minimieren Verzögerungen, den technisch bedingten Lag, helfen also auch der Auge > Hirn > Hand Koordination (wieder innerhalb abstrakter Modelle bei gewissem Training oder Wiederholungen), bis Eintritt des von Spielern gewünschten Effekte oder Ergebnis.
DAS ist so ziemlich das einzige, worin wir uns hier auf dieser Seite einig sind. Witzigerweise gibst du mit dem Satz auch gleich zu, dass eine höhere FPS zu einer besseren visuelle Wahrnehmung beiträgt, das hast du bisher vehement verleugnet xD

Spiele haben eine fixe Bildrate!, weil dies unabhängig von der Ausgabefrequenz ist, damit fps und Hz nicht gleichhoch sein müssen
Bitte was? Dann hätte sich Igor also in den letzten Tests die Mühe für die Aufdröselung und Darstellung der Frametimes sparen können? LOL

Und ja, Spiele müssen nicht exakt die gleiche Bildwiederholrate haben, wie der Monitor. Dann zuckelt es halt. Oder man hat Tearing. Gegen Tearing gab es seit vielen Jahren schon VSync. Da hatte man dann besser eine Grafikkarte, die die Bildwiederholrate des Monitors auch mit links geschafft hat, sonst zuckelte es wieder oder es wurde gleich auf den halben Wert (meistens dann ja 30FPS) gedrosselt. Und genau hier setzen ASYNC, FreeSync und G-Sync an: Ein vollständiges Bild ohne Tearing und an das Spiel angepasste Bildwiederholraten vom Monitor.

Und Filme haben hier überhaupt nichts zur Thematik beizutragen. Film- und Fotokameras haben eine Belichtungszeit, Shutter. Und was passiert, wenn sich ein schnelles Objekt vor der Kamera bewegt? Es wird in Bewegungsrichtung unscharf. Das haben Spiele nicht! Es sei denn, man stellt die Bewegungsunschärfe in den Optionen ein, die genau das simuliert: Ein sich bewegendes Objekt in einem Shutterzeitfenster.

Ach ja, ich wollte ja nichts mehr dazu sagen xD
 
Oben Unten