Gaming Hardware Monitors Practice Reviews

G-Sync Ultimate hardware dissected on the AOC Agon AG353UCG | Investigative

A lot has happened since the first G-Sync monitors from Nvidia came out. G-Sync with Nvidia graphics cards has also been possible with cheaper “Freesync” monitors for a long time. The difference here is that the frame synchronization between GPU and monitor is only done via the DisplayPort protocol and no additional hardware is required on the monitor side. 

But this particular hardware is built into the official “G-Sync” products for a reason, if Nvidia has its way. Lower latency, better performance in low FPS ranges and HDR compatibility are features that are only possible with Nvidia’s dedicated hardware and have since been certified as “G-Sync Ultimate”.

I recently bought such a “G-Sync Ultimate” monitor privately. As a sysadmin and gamer, such a large investment is still unreasonable, but at least justifiable – or so I tell myself. At 1800 Euro for the AOC Agon AG353UCG I bought it after a long time of consideration, which should replace my previous Acer XB270HU – a G-Sync monitor of the first hour.

After using the AG353UCG for the first time, I immediately noticed the internal fan, which is not mentioned on the product page, but which immediately makes the new monitor a source of disturbance at my otherwise quiet workplace. My astonishment was immediately followed by the urge to get to the bottom of it all and disassemble the monitor.

A few screws and dozens of plastic clips later this sight opened up to me. 5 heatpipes, a massive copper heatsink and a radial fan, as known from mobile workstation notebooks, actually provide active cooling in this monitor, and not too scarce.

Simply unplugging the power from the fan and relying on passive cooling, AMD X570S style, turned out to be a bad idea pretty quickly. After about 30 minutes of gaming in HDR at lowest brightness, a “Critical Temperature – Emergency Shutdown” message appears on the display’s OSD and it shuts down. The monitor can only be restarted by disconnecting and reconnecting the power supply. As a result, the waste heat should be significantly higher than I initially suspected and honestly hoped.

So I disassembled the monitor again and took a look at what was underneath the cooling copper construction. The result is on the one hand very viscous thermal paste between the base plate and the actively cooled chip, and underneath a black board, which resembles with layout and components at first sight a graphics card in MXM format, as it is also known from notebooks.

Then, underneath the raw amounts of cement-like paste, an “Altera Arria 10” chip emerges, with the model number 10AX048H2F34E1HG. After a short research it turns out to be a field-programmable gate array, or FPGA for short, which is simply a microchip with programmable functions. These FPGAs are relatively expensive compared to traditional fixed-function microchips because of their programmability. The advantage of FPGAs is that you don’t have to produce special chips and that the functionality can be programmed afterwards via software.

 

Fortunately the datasheet for this chip is public and as manufacturer beside Altera also Intel comes to light. The product number documentation can then be used to find out the exact variant of the Arria 10 chip that is installed here. 

gsync_ultimate_a10_overview

 

So this A10X is a 17.4 Gbps transciever type with 480K logic elements, 24 transceivers with a speed grade of “2”, built into an FBGA package with 1152 pins on 35 mm x 35 mm. In addition, the chip has an operating temperature of 0 – 100 °C, FPGA Speed Grade of “1”, the power level “High Performance” and “RoHS6” classification. Voltage and power consumption depend on the respective programming and can therefore not be determined more exactly without further ado, but to conclude from the cooling needs it should be more than a normal desktop chipset with e.g. 15 W.

Throw the chip number into Google in search of the list price and you’re amazed. Over 2000 Euro or 2500 USD are called for it on sides like Digi-Key, whereby a quantity discount must be still deducted with higher numbers of items, of course. Moreover, Nvidia, as a bulk buyer, will probably not buy from such intermediaries, but directly from Intel.

Nevertheless, even if one would put a hypothetical purchase price of “only” 1000 USD in the room, Nvidia still has to program the FPGA, buy the remaining components, have the module manufactured and then resell the finished G-Sync module to the monitor manufacturers. A cheaper “G-Sync Ultimate” monitor like the LG UltraGear 34GP950G-B is already available for about 1250 euro, and that includes the panel and all the other stuff.

So the question is, how can such an expensive FPGA be installed in a monitor that is even cheaper than the FPGA in the list price? Do monitor manufacturers bear the cost of the G-Sync module? I don’t think so. Is Nvidia swallowing a lot of the cost of the FPGA and selling the G-Sync modules at a loss in exchange for pushing the G-Sync ecosystem with their GeForce graphics cards? That sounds more plausible.

And why does Nvidia use an FPGA at all and not have special chips made instead, which would be more expensive to design but cheaper to buy – are the G-Sync Ultimate quantities really that low? We don’t have the answers to all of these questions yet, but interesting discussion material it certainly is.

Kommentar

Lade neue Kommentare

N
Name

Mitglied

75 Kommentare 14 Likes

Interessanter Artikel. Jetzt verstehe ich auch den hohen Preis der G-Sync Monitore. Nur verstehe ich nicht so ganz wann und ob man das braucht 😅. (Vs Free-Sync)

Antwort Gefällt mir

RedF

Urgestein

4,640 Kommentare 2,540 Likes

Kann man bestimmt gut mit Minen 😅

Ganz schön hoher aufwand für Gesyncte Frames.

Antwort 1 Like

2
2Chevaux

Veteran

100 Kommentare 79 Likes

>> Aber diese spezielle Hardware ist nicht ohne Grund in den offiziellen „G-Sync“ Produkten verbaut, wenn es nach Nvidia geht. Geringere Latenz, bessere Performance in niedrigen FPS Bereichen und HDR Kompatibilität sind Features, die nur mit Nvidias dedizierter Hardware möglich sind und seither als „G-Sync Ultimate“ zertifiziert werden. <<

Eine Anregung zu Deiner Schreibe:

Wenn Du einen Hersteller (oder auch irgendwen sonst) in letztlich indirekter Form wie oben zitierst, solltest Du dir meines Erachtens unbedingt angewöhnen, den Konjunktiv zu setzen, wenn es sich nicht um eine offensichtliche Tatsachenfeststellung wie etwa "und seither als „G-Sync Ultimate“ zertifiziert werden." handelt. Oben solltest Du also hier etwa "die nur mit Nvidias dedizierter Hardware möglich seien (bzw. je nach Sprachgefühl auch: wären)" schreiben.

Das ist nicht zu Unrecht eine professionelle, (nicht nur) journalistische Grundregel und beugt Missverständnissen und Missklängen weitaus besser vor, als der vorangehende Satz allein, in dem die Quelle nVidia benannt wurde.

Antwort 6 Likes

Smartengine

Veteran

145 Kommentare 134 Likes

Ich warte auf die ersten Viren, welche die Firmware verändern und tatsächlich dann minen 😁

Antwort 2 Likes

FritzHunter01

Moderator

1,138 Kommentare 1,542 Likes

Hallo Xavar,

interessanter Artikel. Da ich selbst einen G-Sync Monitor habe, und das ist schon der zweite, kann ich deine Feststellung nicht teilen. Weder der in die Tage gekommene MSI Oculux NXG252R noch der ASUS ROG Swift PG279QM haben in igrendeiner Form krach gemacht.

Was ich besonders bemerkenswert finde, dass der PG279QM sogar AMD Karten mit der 240 Hz Bildwiederholrate bzgl VRR (FreeSync) unterstützt. Was ich bei einem G-Sync Modul so noch nicht gehört bzw. gesehen habe! Der PG279QM ist ein HDR 400 zertifizierter Monitor, kann halt mit seinem local dimming (nicht FALD), ein wenig HDR um es mal milde auszudrücken. Aber das reicht auch, denn der eigentliche Job ist 1440p 240 Hz und geiles Panel mit sehr guter Farbabdeckung!

Meine Vermutung, das AOC hier die günstige Kühllösung verbaut hat...

Antwort 1 Like

Martin Gut

Urgestein

7,740 Kommentare 3,555 Likes

Die Kühllösung scheint mir recht aufwändig. Wenn ich das richtig sehe, liegt auf dem Prozessor eine Vapor-Chamber. Diese gibt die Wärme dann an 5 Heatpipes und an einige Kühllamellen ab, die darauf montiert sind. Die Heatpipes gehen dann zu einem Kühlblock der belüftet wird.

So eine Konstruktion plant man nicht, wenn man nur 5 - 10 Watt wie bei einem Chipsatz abführen müsste. Dann würde man nur einen gepressten Kühlkörper aufkleben und eventuell einen Lüfter daneben schrauben.

Antwort 1 Like

skullbringer

Veteran

306 Kommentare 328 Likes

Eine Vapor Chamber ist es tatsächlich nicht, sondern "nur" eine Baseplate aus Kupfer, auf der die Heatpipes aufgelötet sind. Aber ja, sehr aufwändig der Kühler und irgendwie auch ein bisschen unschön gelöst, wenn man bedenkt wie viel Bauraum zwischen Panel und Gehäuse eigentlich noch ist.

Und selbst wenn man es so bauen müsste: Ein leiser, Temperatur-gesteuerter Lüfter wäre schon angebracht. 2000 Euro Monitor und es wird am 1 Euro Lüfter gespart...

Antwort 2 Likes

Corro Dedd

Urgestein

1,806 Kommentare 662 Likes

Ein Kumpel hat sich den super teuren Asus Monitor gekauft, 4k, 144hz, HDR 1400, etc., der hat auch einen Lüfter. Den ersten musste er aber zurück senden, weil er sich andauernd abgeschaltet hat. Das zweite Modell ist aber in Ordnung und der Lüfter ist auch leiser, bzw. gar nicht zu hören.

Die aktuellen G-sync Ultimate Monitore scheinen echte Hitzköpfe zu sein.

Antwort Gefällt mir

konkretor

Veteran

295 Kommentare 300 Likes

Also einen Chip zu designen und auch noch auf Silizium zu bringen ist schon einiges an Aufwand. Einen FPGA wird kurz gefüttert und ab geht's.

Gerade wenn es um kleine Mengen geht kann der FPGA Unterumständen sogar günstiger sein.

Oder die Nachfrage ist so hoch aber die bestellte Menge bei der Foundry viel zu wenig gewesen. Dann musst so eine Lösung bauen.

FPGAs sind in den letzten Monaten extrem teuer geworden. Waren noch nie günstig.

Antwort Gefällt mir

ssj3rd

Veteran

214 Kommentare 142 Likes

Schade das hier der größte Nachteil nicht mal eine Erwähnung in einem Nebensatz findet:

G-Sync Ultimate ist nicht kompatibel mit HDMI 2.1.

Antwort Gefällt mir

G
Guest

NVidia bleibt ja nicht nur schudig zu erklären, wozu man das braucht, kein HDR Monitor braucht neben seiner eigenen Elektronik einen weiteren VRR Asic, nein. Es ist auch bekannt das die Asic in Ultimate Versionen massiv überhitzen und die Lüfter ziemlich laut werden können. Hitze bedeutet dabei zusätzliche Leistungsaufnahme. Einen spezifischen Asic gegen ein universelles Modell auszutauschen, scheint dann alles andere als glücklich zu sein.

Ich habe ein Laptop mit GSync, 144Hz. Dieser hat keinen GSync Asic, ist aber auch nicht GSync Compatible. Frage an NVidia, wie wird das da gelöst? An den Autor gerichtet, das übernimmt übrigens nicht das eDP Protokoll, weil das nur Vorausetzungen sind, die einen allgemeinen Standard beschreiben, sondern die GPU.

PhysX und Cuda Gameworks lassen grüßen, dedizierter Kram den real kein Mensch braucht, aber zu Höchstpreisen anschafft.

Antwort Gefällt mir

grimm

Urgestein

3,080 Kommentare 2,030 Likes

Ich habe auch nen G-Sync Monitor, allerdings kein "Ultimate". Stelle mir jetzt natürlich die Frage, ob da ebenfalls Hardware verbaut ist oder doch "nur" die FreeSync-Technik genutzt wird, also die Adaptive Frame/Frequenz-Anpassung, die sowieso an Bord ist. FreeSync hat bei meiner 5700XT damals super funktioniert.

Antwort Gefällt mir

O
Oberst

Veteran

335 Kommentare 130 Likes

Naja, vielleicht haben deine Geräte ja auch eine geringere Bandbreite. So ein FPGA braucht schon etwas Futter, dass er auch arbeitet. Passiv lassen sich die Dinger heutzutage nur noch mit großen Kühlern kühlen. Vielleicht haben deine Monitore noch einen älteren/kleineren FPGA verbaut, der einfach weniger verbraucht und damit passiv gekühlt werden kann.

Was mich mal interessieren würde: Wie viel braucht der Bildschirm eigentlich dann beim HDR Gamen?

Antwort Gefällt mir

Dummbatz

Veteran

292 Kommentare 90 Likes

Ich habe ja nur den

AG352UCG6​

und der hat keinen Lüfter.

Nun stellt sich mir die Frage wo der Unterschied im G-Sync Modul ??

Okay meiner macht nur 100 HZ, können die 44 soviel an Wäre mehr ausmachen ?

Antwort Gefällt mir

G
Guest

FreeSync hat damit eigentlich nichts zu tun, eher wenn dann ASync. Die Ultimate Monitore müssen vor allem den Vesa1000 HDR Standard erfüllen, den NVidia zuletzt auch nicht mehr vorschreibt, sondern nur noch HDR600 was eher Spielerei ist.

Die Non Ultimate GSync Modelle sind dann wesentlicher billiger, weil sie nicht so eine aufwendige Hintergrundbeleuchtung verbaut bekommen (fernab von HDR1000) und die Panele die Helligkeitswerte so nicht erreichen, also von wegen Ultimate. Betrug am Kunden mehr nicht, der out of von Standards vermarktet wird, um ihn los zu werden. Ist mir persönlich keinen Cent wert, weil man gar nicht weiß was man da kauft. Wo also Ultimate draufsteht muss noch lange nicht Vesa1000 HDR drin sein, auch wenn's draufsteht.

Lieber in open source wie Freesync oder GSync Compatible investieren, geht ja bei NVidia genauso. Dauert wahrscheinlich noch ein bis zwei Jahre dann redet über GSync oder Ultimate kein Mensch mehr, weil sich dann ASync durchgesetzt hat.

Wenn man also heute einen Monitor kaufen muss, darauf achten das die Kompatibilität zu Standards sichergestellt bleibt. Auch irgendwelche "übertaktete Modelle", wo die Hersteller im Spielebereich werben, braucht kein Mensch.

Antwort Gefällt mir

grimm

Urgestein

3,080 Kommentare 2,030 Likes

Danke für die Belehrungen. Der Monitor ist ja nun schon ein knappes Jahr alt und die Kosten gingen eher für das Panel als für die Nvidia Technik drauf. Displays sind eh ein leidiges Thema, denn wer nicht solche Summen raushauen will wie der Schreiber, der muss Kompromisse eingehen. Was das mit "Betrug am Kunden" zu tun hat, bleibt dein Geheimnis.

Antwort 1 Like

G
Guest

Das erklärt, sich eigentlich von selbst: GSync Ultimate steht für Vesa1000 HDR, wobei NVidia diesen Standard mit Ultimate gar nicht erfüllt, weil man die Anforderungen auf HDR600 senkte. Was soll das sonst sein, freundliche Aufmerksamkeit?

Dem geneigten NVidiakäufer scheint sein Kosumverhalten dabei völlig egal zu sein, NVidia hat ja versprochen. Was nur? Man weicht also einen Standard auf, den mal als HDR1000 einführte und sich auch die hochpreisigen Panele begründen, ihn dann aber nachträglich nicht wirklich umsetzt, weil die eigenen Forderungen zu hoch gesetzt sind und die Monitorhersteller diesen in seiner Umsetzbarkeit nicht annehmen (gibt wohl ganze 10 Monitore am Markt, alle ziemlich teuer), dies aber dem Kunden gar nicht mitteilt, sondern weiterhin Ultimate Logos auf die Monitore druckt.

Erinnert an die GTX970, its not a Bug. Nein.

Man kauft also in bestimmten Fällen eine Mogelpackung für viel Geld.

Antwort Gefällt mir

jo-82

Mitglied

54 Kommentare 21 Likes

Einen Monitor mir Lüfter würde ich direkt retounieren, erst recht zu so einem Preis. Bei 35" ist mehr als genug Fläche da um das passiv zu kühlen.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Xaver Amberger (skullbringer)

Werbung

Werbung