Reviews G-Sync Ultimate Hardware seziert am AOC Agon AG353UCG | Investigativ

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
474
Punkte
1
Standort
Redaktion
Seit den ersten G-Sync Monitoren von Nvidia hat sich einiges getan. G-Sync mit Nvidia Grafikkarten lässt sich schon seit längerem auch mit günstigeren „Freesync“ Monitoren betreiben. Der Unterschied ist hier, dass die Frame-Synchronisierung zwischen GPU und Monitor lediglich über das DisplayPort-Protokoll erfolgt und keine zusätzliche Hardware auf Seiten des Monitors notwendig ist. Aber diese spezielle...
Hier den ganzen Artikel lesen
 

Name

Mitglied
Mitglied seit
Feb 14, 2021
Beiträge
12
Punkte
1
Interessanter Artikel. Jetzt verstehe ich auch den hohen Preis der G-Sync Monitore. Nur verstehe ich nicht so ganz wann und ob man das braucht 😅. (Vs Free-Sync)
 
Zuletzt bearbeitet :

RedF

Urgestein
Mitglied seit
Jun 6, 2020
Beiträge
1.938
Punkte
114
Standort
am Main
Kann man bestimmt gut mit Minen 😅

Ganz schön hoher aufwand für Gesyncte Frames.
 

2Chevaux

Mitglied
Mitglied seit
Sep 30, 2020
Beiträge
95
Punkte
17
>> Aber diese spezielle Hardware ist nicht ohne Grund in den offiziellen „G-Sync“ Produkten verbaut, wenn es nach Nvidia geht. Geringere Latenz, bessere Performance in niedrigen FPS Bereichen und HDR Kompatibilität sind Features, die nur mit Nvidias dedizierter Hardware möglich sind und seither als „G-Sync Ultimate“ zertifiziert werden. <<

Eine Anregung zu Deiner Schreibe:

Wenn Du einen Hersteller (oder auch irgendwen sonst) in letztlich indirekter Form wie oben zitierst, solltest Du dir meines Erachtens unbedingt angewöhnen, den Konjunktiv zu setzen, wenn es sich nicht um eine offensichtliche Tatsachenfeststellung wie etwa "und seither als „G-Sync Ultimate“ zertifiziert werden." handelt. Oben solltest Du also hier etwa "die nur mit Nvidias dedizierter Hardware möglich seien (bzw. je nach Sprachgefühl auch: wären)" schreiben.

Das ist nicht zu Unrecht eine professionelle, (nicht nur) journalistische Grundregel und beugt Missverständnissen und Missklängen weitaus besser vor, als der vorangehende Satz allein, in dem die Quelle nVidia benannt wurde.
 

FritzHunter01

Moderator
Mitarbeiter
Mitglied seit
Sep 17, 2019
Beiträge
335
Punkte
64
Alter
41
Hallo Xavar,

interessanter Artikel. Da ich selbst einen G-Sync Monitor habe, und das ist schon der zweite, kann ich deine Feststellung nicht teilen. Weder der in die Tage gekommene MSI Oculux NXG252R noch der ASUS ROG Swift PG279QM haben in igrendeiner Form krach gemacht.

Was ich besonders bemerkenswert finde, dass der PG279QM sogar AMD Karten mit der 240 Hz Bildwiederholrate bzgl VRR (FreeSync) unterstützt. Was ich bei einem G-Sync Modul so noch nicht gehört bzw. gesehen habe! Der PG279QM ist ein HDR 400 zertifizierter Monitor, kann halt mit seinem local dimming (nicht FALD), ein wenig HDR um es mal milde auszudrücken. Aber das reicht auch, denn der eigentliche Job ist 1440p 240 Hz und geiles Panel mit sehr guter Farbabdeckung!

Meine Vermutung, das AOC hier die günstige Kühllösung verbaut hat...
 
Zuletzt bearbeitet :

Martin Gut

Urgestein
Mitglied seit
Sep 5, 2020
Beiträge
4.531
Punkte
112
Die Kühllösung scheint mir recht aufwändig. Wenn ich das richtig sehe, liegt auf dem Prozessor eine Vapor-Chamber. Diese gibt die Wärme dann an 5 Heatpipes und an einige Kühllamellen ab, die darauf montiert sind. Die Heatpipes gehen dann zu einem Kühlblock der belüftet wird.

So eine Konstruktion plant man nicht, wenn man nur 5 - 10 Watt wie bei einem Chipsatz abführen müsste. Dann würde man nur einen gepressten Kühlkörper aufkleben und eventuell einen Lüfter daneben schrauben.
 

skullbringer

Veteran
Mitglied seit
Sep 14, 2020
Beiträge
221
Punkte
44
Die Kühllösung scheint mir recht aufwändig. Wenn ich das richtig sehe, liegt auf dem Prozessor eine Vapor-Chamber. Diese gibt die Wärme dann an 5 Heatpipes und an einige Kühllamellen ab, die darauf montiert sind. Die Heatpipes gehen dann zu einem Kühlblock der belüftet wird.

So eine Konstruktion plant man nicht, wenn man nur 5 - 10 Watt wie bei einem Chipsatz abführen müsste. Dann würde man nur einen gepressten Kühlkörper aufkleben und eventuell einen Lüfter daneben schrauben.
Eine Vapor Chamber ist es tatsächlich nicht, sondern "nur" eine Baseplate aus Kupfer, auf der die Heatpipes aufgelötet sind. Aber ja, sehr aufwändig der Kühler und irgendwie auch ein bisschen unschön gelöst, wenn man bedenkt wie viel Bauraum zwischen Panel und Gehäuse eigentlich noch ist.

Und selbst wenn man es so bauen müsste: Ein leiser, Temperatur-gesteuerter Lüfter wäre schon angebracht. 2000 Euro Monitor und es wird am 1 Euro Lüfter gespart...
 

DHAmoKK

Urgestein
Mitglied seit
Aug 14, 2018
Beiträge
1.589
Punkte
114
Standort
Da bei "Das gibts doch gar nicht!"
Ein Kumpel hat sich den super teuren Asus Monitor gekauft, 4k, 144hz, HDR 1400, etc., der hat auch einen Lüfter. Den ersten musste er aber zurück senden, weil er sich andauernd abgeschaltet hat. Das zweite Modell ist aber in Ordnung und der Lüfter ist auch leiser, bzw. gar nicht zu hören.

Die aktuellen G-sync Ultimate Monitore scheinen echte Hitzköpfe zu sein.
 

konkretor

Veteran
Mitglied seit
Okt 31, 2019
Beiträge
159
Punkte
43
Also einen Chip zu designen und auch noch auf Silizium zu bringen ist schon einiges an Aufwand. Einen FPGA wird kurz gefüttert und ab geht's.

Gerade wenn es um kleine Mengen geht kann der FPGA Unterumständen sogar günstiger sein.

Oder die Nachfrage ist so hoch aber die bestellte Menge bei der Foundry viel zu wenig gewesen. Dann musst so eine Lösung bauen.

FPGAs sind in den letzten Monaten extrem teuer geworden. Waren noch nie günstig.
 

ssj3rd

Mitglied
Mitglied seit
Okt 30, 2020
Beiträge
38
Punkte
7
Schade das hier der größte Nachteil nicht mal eine Erwähnung in einem Nebensatz findet:

G-Sync Ultimate ist nicht kompatibel mit HDMI 2.1.
 
Q

quantaro

Guest
NVidia bleibt ja nicht nur schudig zu erklären, wozu man das braucht, kein HDR Monitor braucht neben seiner eigenen Elektronik einen weiteren VRR Asic, nein. Es ist auch bekannt das die Asic in Ultimate Versionen massiv überhitzen und die Lüfter ziemlich laut werden können. Hitze bedeutet dabei zusätzliche Leistungsaufnahme. Einen spezifischen Asic gegen ein universelles Modell auszutauschen, scheint dann alles andere als glücklich zu sein.

Ich habe ein Laptop mit GSync, 144Hz. Dieser hat keinen GSync Asic, ist aber auch nicht GSync Compatible. Frage an NVidia, wie wird das da gelöst? An den Autor gerichtet, das übernimmt übrigens nicht das eDP Protokoll, weil das nur Vorausetzungen sind, die einen allgemeinen Standard beschreiben, sondern die GPU.

PhysX und Cuda Gameworks lassen grüßen, dedizierter Kram den real kein Mensch braucht, aber zu Höchstpreisen anschafft.
 

grimm

Urgestein
Mitglied seit
Aug 9, 2018
Beiträge
1.524
Punkte
114
Standort
Wiesbaden
Ich habe auch nen G-Sync Monitor, allerdings kein "Ultimate". Stelle mir jetzt natürlich die Frage, ob da ebenfalls Hardware verbaut ist oder doch "nur" die FreeSync-Technik genutzt wird, also die Adaptive Frame/Frequenz-Anpassung, die sowieso an Bord ist. FreeSync hat bei meiner 5700XT damals super funktioniert.
 

Oberst

Veteran
Mitglied seit
Jul 23, 2018
Beiträge
179
Punkte
27
Meine Vermutung, das AOC hier die günstige Kühllösung verbaut hat...
Naja, vielleicht haben deine Geräte ja auch eine geringere Bandbreite. So ein FPGA braucht schon etwas Futter, dass er auch arbeitet. Passiv lassen sich die Dinger heutzutage nur noch mit großen Kühlern kühlen. Vielleicht haben deine Monitore noch einen älteren/kleineren FPGA verbaut, der einfach weniger verbraucht und damit passiv gekühlt werden kann.

Was mich mal interessieren würde: Wie viel braucht der Bildschirm eigentlich dann beim HDR Gamen?
 

Dummbatz

Veteran
Mitglied seit
Okt 1, 2020
Beiträge
201
Punkte
29
Ich habe ja nur den

AG352UCG6​


und der hat keinen Lüfter.

Nun stellt sich mir die Frage wo der Unterschied im G-Sync Modul ??

Okay meiner macht nur 100 HZ, können die 44 soviel an Wäre mehr ausmachen ?
 
Q

quantaro

Guest
Ich habe auch nen G-Sync Monitor, allerdings kein "Ultimate". Stelle mir jetzt natürlich die Frage, ob da ebenfalls Hardware verbaut ist oder doch "nur" die FreeSync-Technik genutzt wird, also die Adaptive Frame/Frequenz-Anpassung, die sowieso an Bord ist. FreeSync hat bei meiner 5700XT damals super funktioniert.
FreeSync hat damit eigentlich nichts zu tun, eher wenn dann ASync. Die Ultimate Monitore müssen vor allem den Vesa1000 HDR Standard erfüllen, den NVidia zuletzt auch nicht mehr vorschreibt, sondern nur noch HDR600 was eher Spielerei ist.

Die Non Ultimate GSync Modelle sind dann wesentlicher billiger, weil sie nicht so eine aufwendige Hintergrundbeleuchtung verbaut bekommen (fernab von HDR1000) und die Panele die Helligkeitswerte so nicht erreichen, also von wegen Ultimate. Betrug am Kunden mehr nicht, der out of von Standards vermarktet wird, um ihn los zu werden. Ist mir persönlich keinen Cent wert, weil man gar nicht weiß was man da kauft. Wo also Ultimate draufsteht muss noch lange nicht Vesa1000 HDR drin sein, auch wenn's draufsteht.

Lieber in open source wie Freesync oder GSync Compatible investieren, geht ja bei NVidia genauso. Dauert wahrscheinlich noch ein bis zwei Jahre dann redet über GSync oder Ultimate kein Mensch mehr, weil sich dann ASync durchgesetzt hat.

Wenn man also heute einen Monitor kaufen muss, darauf achten das die Kompatibilität zu Standards sichergestellt bleibt. Auch irgendwelche "übertaktete Modelle", wo die Hersteller im Spielebereich werben, braucht kein Mensch.
 
Zuletzt bearbeitet von einem Moderator :

grimm

Urgestein
Mitglied seit
Aug 9, 2018
Beiträge
1.524
Punkte
114
Standort
Wiesbaden
Danke für die Belehrungen. Der Monitor ist ja nun schon ein knappes Jahr alt und die Kosten gingen eher für das Panel als für die Nvidia Technik drauf. Displays sind eh ein leidiges Thema, denn wer nicht solche Summen raushauen will wie der Schreiber, der muss Kompromisse eingehen. Was das mit "Betrug am Kunden" zu tun hat, bleibt dein Geheimnis.
 
Q

quantaro

Guest
Was das mit "Betrug am Kunden" zu tun hat, bleibt dein Geheimnis.
Das erklärt, sich eigentlich von selbst: GSync Ultimate steht für Vesa1000 HDR, wobei NVidia diesen Standard mit Ultimate gar nicht erfüllt, weil man die Anforderungen auf HDR600 senkte. Was soll das sonst sein, freundliche Aufmerksamkeit?

Dem geneigten NVidiakäufer scheint sein Kosumverhalten dabei völlig egal zu sein, NVidia hat ja versprochen. Was nur? Man weicht also einen Standard auf, den mal als HDR1000 einführte und sich auch die hochpreisigen Panele begründen, ihn dann aber nachträglich nicht wirklich umsetzt, weil die eigenen Forderungen zu hoch gesetzt sind und die Monitorhersteller diesen in seiner Umsetzbarkeit nicht annehmen (gibt wohl ganze 10 Monitore am Markt, alle ziemlich teuer), dies aber dem Kunden gar nicht mitteilt, sondern weiterhin Ultimate Logos auf die Monitore druckt.

Erinnert an die GTX970, its not a Bug. Nein.

Man kauft also in bestimmten Fällen eine Mogelpackung für viel Geld.
 
Zuletzt bearbeitet von einem Moderator :

jo-82

Mitglied
Mitglied seit
Aug 3, 2018
Beiträge
42
Punkte
8
Einen Monitor mir Lüfter würde ich direkt retounieren, erst recht zu so einem Preis. Bei 35" ist mehr als genug Fläche da um das passiv zu kühlen.
 
Oben Unten