Gaming Hardware Monitors Practice Reviews

G-Sync Ultimate hardware dissected on the AOC Agon AG353UCG | Investigative

A lot has happened since the first G-Sync monitors from Nvidia came out. G-Sync with Nvidia graphics cards has also been possible with cheaper “Freesync” monitors for a long time. The difference here is that the frame synchronization between GPU and monitor is only done via the DisplayPort protocol and no additional hardware is required on the monitor side. 

But this particular hardware is built into the official “G-Sync” products for a reason, if Nvidia has its way. Lower latency, better performance in low FPS ranges and HDR compatibility are features that are only possible with Nvidia’s dedicated hardware and have since been certified as “G-Sync Ultimate”.

I recently bought such a “G-Sync Ultimate” monitor privately. As a sysadmin and gamer, such a large investment is still unreasonable, but at least justifiable – or so I tell myself. At 1800 Euro for the AOC Agon AG353UCG I bought it after a long time of consideration, which should replace my previous Acer XB270HU – a G-Sync monitor of the first hour.

After using the AG353UCG for the first time, I immediately noticed the internal fan, which is not mentioned on the product page, but which immediately makes the new monitor a source of disturbance at my otherwise quiet workplace. My astonishment was immediately followed by the urge to get to the bottom of it all and disassemble the monitor.

A few screws and dozens of plastic clips later this sight opened up to me. 5 heatpipes, a massive copper heatsink and a radial fan, as known from mobile workstation notebooks, actually provide active cooling in this monitor, and not too scarce.

Simply unplugging the power from the fan and relying on passive cooling, AMD X570S style, turned out to be a bad idea pretty quickly. After about 30 minutes of gaming in HDR at lowest brightness, a “Critical Temperature – Emergency Shutdown” message appears on the display’s OSD and it shuts down. The monitor can only be restarted by disconnecting and reconnecting the power supply. As a result, the waste heat should be significantly higher than I initially suspected and honestly hoped.

So I disassembled the monitor again and took a look at what was underneath the cooling copper construction. The result is on the one hand very viscous thermal paste between the base plate and the actively cooled chip, and underneath a black board, which resembles with layout and components at first sight a graphics card in MXM format, as it is also known from notebooks.

Then, underneath the raw amounts of cement-like paste, an “Altera Arria 10” chip emerges, with the model number 10AX048H2F34E1HG. After a short research it turns out to be a field-programmable gate array, or FPGA for short, which is simply a microchip with programmable functions. These FPGAs are relatively expensive compared to traditional fixed-function microchips because of their programmability. The advantage of FPGAs is that you don’t have to produce special chips and that the functionality can be programmed afterwards via software.


Fortunately the datasheet for this chip is public and as manufacturer beside Altera also Intel comes to light. The product number documentation can then be used to find out the exact variant of the Arria 10 chip that is installed here. 



So this A10X is a 17.4 Gbps transciever type with 480K logic elements, 24 transceivers with a speed grade of “2”, built into an FBGA package with 1152 pins on 35 mm x 35 mm. In addition, the chip has an operating temperature of 0 – 100 °C, FPGA Speed Grade of “1”, the power level “High Performance” and “RoHS6” classification. Voltage and power consumption depend on the respective programming and can therefore not be determined more exactly without further ado, but to conclude from the cooling needs it should be more than a normal desktop chipset with e.g. 15 W.

Throw the chip number into Google in search of the list price and you’re amazed. Over 2000 Euro or 2500 USD are called for it on sides like Digi-Key, whereby a quantity discount must be still deducted with higher numbers of items, of course. Moreover, Nvidia, as a bulk buyer, will probably not buy from such intermediaries, but directly from Intel.

Nevertheless, even if one would put a hypothetical purchase price of “only” 1000 USD in the room, Nvidia still has to program the FPGA, buy the remaining components, have the module manufactured and then resell the finished G-Sync module to the monitor manufacturers. A cheaper “G-Sync Ultimate” monitor like the LG UltraGear 34GP950G-B is already available for about 1250 euro, and that includes the panel and all the other stuff.

So the question is, how can such an expensive FPGA be installed in a monitor that is even cheaper than the FPGA in the list price? Do monitor manufacturers bear the cost of the G-Sync module? I don’t think so. Is Nvidia swallowing a lot of the cost of the FPGA and selling the G-Sync modules at a loss in exchange for pushing the G-Sync ecosystem with their GeForce graphics cards? That sounds more plausible.

And why does Nvidia use an FPGA at all and not have special chips made instead, which would be more expensive to design but cheaper to buy – are the G-Sync Ultimate quantities really that low? We don’t have the answers to all of these questions yet, but interesting discussion material it certainly is.

Lade neue Kommentare



11 Kommentare 0 Likes

Interessanter Artikel. Jetzt verstehe ich auch den hohen Preis der G-Sync Monitore. Nur verstehe ich nicht so ganz wann und ob man das braucht 😅. (Vs Free-Sync)

Antwort Gefällt mir



1,738 Kommentare 690 Likes

Kann man bestimmt gut mit Minen 😅

Ganz schön hoher aufwand für Gesyncte Frames.

Antwort 1 Like



92 Kommentare 73 Likes

>> Aber diese spezielle Hardware ist nicht ohne Grund in den offiziellen „G-Sync“ Produkten verbaut, wenn es nach Nvidia geht. Geringere Latenz, bessere Performance in niedrigen FPS Bereichen und HDR Kompatibilität sind Features, die nur mit Nvidias dedizierter Hardware möglich sind und seither als „G-Sync Ultimate“ zertifiziert werden. <<

Eine Anregung zu Deiner Schreibe:

Wenn Du einen Hersteller (oder auch irgendwen sonst) in letztlich indirekter Form wie oben zitierst, solltest Du dir meines Erachtens unbedingt angewöhnen, den Konjunktiv zu setzen, wenn es sich nicht um eine offensichtliche Tatsachenfeststellung wie etwa "und seither als „G-Sync Ultimate“ zertifiziert werden." handelt. Oben solltest Du also hier etwa "die nur mit Nvidias dedizierter Hardware möglich seien (bzw. je nach Sprachgefühl auch: wären)" schreiben.

Das ist nicht zu Unrecht eine professionelle, (nicht nur) journalistische Grundregel und beugt Missverständnissen und Missklängen weitaus besser vor, als der vorangehende Satz allein, in dem die Quelle nVidia benannt wurde.

Antwort 6 Likes

Klicke zum Ausklappem


112 Kommentare 97 Likes

Ich warte auf die ersten Viren, welche die Firmware verändern und tatsächlich dann minen 😁

Antwort 2 Likes



329 Kommentare 271 Likes

Hallo Xavar,

interessanter Artikel. Da ich selbst einen G-Sync Monitor habe, und das ist schon der zweite, kann ich deine Feststellung nicht teilen. Weder der in die Tage gekommene MSI Oculux NXG252R noch der ASUS ROG Swift PG279QM haben in igrendeiner Form krach gemacht.

Was ich besonders bemerkenswert finde, dass der PG279QM sogar AMD Karten mit der 240 Hz Bildwiederholrate bzgl VRR (FreeSync) unterstützt. Was ich bei einem G-Sync Modul so noch nicht gehört bzw. gesehen habe! Der PG279QM ist ein HDR 400 zertifizierter Monitor, kann halt mit seinem local dimming (nicht FALD), ein wenig HDR um es mal milde auszudrücken. Aber das reicht auch, denn der eigentliche Job ist 1440p 240 Hz und geiles Panel mit sehr guter Farbabdeckung!

Meine Vermutung, das AOC hier die günstige Kühllösung verbaut hat...

Antwort 1 Like

Klicke zum Ausklappem
Martin Gut


4,185 Kommentare 1,510 Likes

Die Kühllösung scheint mir recht aufwändig. Wenn ich das richtig sehe, liegt auf dem Prozessor eine Vapor-Chamber. Diese gibt die Wärme dann an 5 Heatpipes und an einige Kühllamellen ab, die darauf montiert sind. Die Heatpipes gehen dann zu einem Kühlblock der belüftet wird.

So eine Konstruktion plant man nicht, wenn man nur 5 - 10 Watt wie bei einem Chipsatz abführen müsste. Dann würde man nur einen gepressten Kühlkörper aufkleben und eventuell einen Lüfter daneben schrauben.

Antwort 1 Like



200 Kommentare 188 Likes

Eine Vapor Chamber ist es tatsächlich nicht, sondern "nur" eine Baseplate aus Kupfer, auf der die Heatpipes aufgelötet sind. Aber ja, sehr aufwändig der Kühler und irgendwie auch ein bisschen unschön gelöst, wenn man bedenkt wie viel Bauraum zwischen Panel und Gehäuse eigentlich noch ist.

Und selbst wenn man es so bauen müsste: Ein leiser, Temperatur-gesteuerter Lüfter wäre schon angebracht. 2000 Euro Monitor und es wird am 1 Euro Lüfter gespart...

Antwort 2 Likes



1,573 Kommentare 500 Likes

Ein Kumpel hat sich den super teuren Asus Monitor gekauft, 4k, 144hz, HDR 1400, etc., der hat auch einen Lüfter. Den ersten musste er aber zurück senden, weil er sich andauernd abgeschaltet hat. Das zweite Modell ist aber in Ordnung und der Lüfter ist auch leiser, bzw. gar nicht zu hören.

Die aktuellen G-sync Ultimate Monitore scheinen echte Hitzköpfe zu sein.

Antwort Gefällt mir



150 Kommentare 115 Likes

Also einen Chip zu designen und auch noch auf Silizium zu bringen ist schon einiges an Aufwand. Einen FPGA wird kurz gefüttert und ab geht's.

Gerade wenn es um kleine Mengen geht kann der FPGA Unterumständen sogar günstiger sein.

Oder die Nachfrage ist so hoch aber die bestellte Menge bei der Foundry viel zu wenig gewesen. Dann musst so eine Lösung bauen.

FPGAs sind in den letzten Monaten extrem teuer geworden. Waren noch nie günstig.

Antwort Gefällt mir



29 Kommentare 9 Likes

Schade das hier der größte Nachteil nicht mal eine Erwähnung in einem Nebensatz findet:

G-Sync Ultimate ist nicht kompatibel mit HDMI 2.1.

Antwort Gefällt mir

Danke für die Spende

Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Xaver Amberger (skullbringer)