Gaming Hardware Monitor und Desktop Praxis Testberichte

G-Sync Ultimate Hardware seziert am AOC Agon AG353UCG | Investigativ

Seit den ersten G-Sync Monitoren von Nvidia hat sich einiges getan. G-Sync mit Nvidia Grafikkarten lässt sich schon seit längerem auch mit günstigeren „Freesync“ Monitoren betreiben. Der Unterschied ist hier, dass die Frame-Synchronisierung zwischen GPU und Monitor lediglich über das DisplayPort-Protokoll erfolgt und keine zusätzliche Hardware auf Seiten des Monitors notwendig ist. 

Aber diese spezielle Hardware ist nicht ohne Grund in den offiziellen „G-Sync“ Produkten verbaut, wenn es nach Nvidia geht. Geringere Latenz, bessere Performance in niedrigen FPS Bereichen und HDR Kompatibilität sind Features, die nur mit Nvidias dedizierter Hardware möglich sind und seither als „G-Sync Ultimate“ zertifiziert werden.

Einen solchen „G-Sync Ultimate“ Monitor habe ich mir vor kurzem privat zugelegt. Als Sysadmin und Gamer ist so ein großes Investment zwar noch immer unvernünftig, aber zumindest verargumentierbar – rede ich mir zumindest ein. Bei 1800 Euro für den AOC Agon AG353UCG habe ich dann nach langer Überlegung zugeschlagen, der meinen bisherigen Acer XB270HU – ein G-Sync Monitor erster Stunde – ablösen soll.

Nach erster Inbetriebnahme des AG353UCG ist mir sofort der interne Lüfter aufgefallen, der zwar auf der Produktseite nicht erwähnt wird, den neuen Monitor sofort zu einer Störquelle an meinem sonst stillen Arbeitsplatz macht. Meiner Verwunderung folgte sogleich der Tatendrang, dem ganzen auf den Grund zu gehen und den Monitor zu zerlegen.

Ein paar Schrauben und dutzende Kunststoff-Clips später eröffnete sich mir dann dieser Anblick. 5 Heatpipes, ein massiver Kühlkörper aus Kupfer und ein Radial-Lüfter, wie man sie von mobilen Workstation-Notebooks kennt sorgen hier in diesem Monitor für tatsächlich für aktive Kühlung, und das nicht zu knapp.

Einfach die Stromversorgung vom Lüfter abzustecken undà la AMD X570 Chipsatz auf die passive Kühlung zu vertrauen, stellte sich ziemlich schnell als schlechte Idee heraus. Nach ca. 30 Minuten Gaming im HDR bei niedrigster Helligkeit erscheint eine „Critical Temperature – Emergency Shutdown“ Meldung auf dem OSD des Displays und es schaltet sich ab. Nur durch ein Trennen und Wieder-Verbinden der Stromversorgung lässt sich der Monitor wieder in Betrieb nehmen. Demzufolge dürfte die Abwärme deutlich höher sein, als zunächst von mir vermutet und ehrlich gesagt gehofft.

Also habe ich den Monitor wieder zerlegt und einmal untersucht, was sich unter der kühlenden Kupfer-Konstruktion befindet. Das Ergebnis ist zum einen sehr viskose Wärmeleitpaste zwischen der Bodenplatte und dem aktiv gekühlten Chip, und darunter eine schwarze Platine, die mit Layout und Komponenten auf den ersten Blick einer Grafikkarte im MXM Format ähnelt, wie man es ebenfalls von Notebooks kennt.

Unter den rohen Mengen Zement-ähnlicher Paste kommt dann ein „Altera Arria 10“ Chip zum Vorschein, mit der Modellnummer 10AX048H2F34E1HG. Nach kurzer Recherche entpuppt sich dieser als Field-programmable Gate Array oder kurz FPGA, also einfach gesagt ein Mikrochip mit programmierbarer Funktion. Diese FPGAs sind aufgrund ihrer Programmierbarkeit relativ teuer verglichen mit herkömmlichen Mikrochips mit fester Funktion. Der Vorteil von FPGAs ist aber eben, das man keine speziellen Chips eigens herstellen muss und sich die Funktionsweise nachträglich via Software programmieren lässt.

 

Glücklicherweise ist das Datenblatt zu diesem Chip öffentlich und als Hersteller kommt neben Altera auch Intel zum Vorschein. Mit der Dokumentation zur Produktnummer lässt sich dann die genaue Variante des Arria 10 Chips herausfinden, der hier installiert ist. 

gsync_ultimate_a10_overview

 

Es handelt sich also bei diesem A10X um einen 17,4 Gbps Transciever-Typ mit 480K Logik Elementen, 24 Transceivern mit einer Speed Grade von „2“, verbaut in einen FBGA Package mit 1152 pins auf 35 mm x 35 mm. Zudem hat der Chip eine Betriebstemperatur von 0 – 100 °C, FPGA Speed Grade von „1“, die Leistungsstufe „High Performance“ und „RoHS6“ Klassifizierung. Spannung und Leistungsaufnahme hängen von der jeweiligen Programmierung ab und können also ohne weiteres nicht genauer bestimmt werden, aber vom Kühlköpers zu schließen dürfte es schon mal mehr sein als ein normaler Desktop-Chipsatz mit z.B. 15 W.

Wirft man die Chipnummer in Google auf der Suche nach dem Listenpreis, staunt man nicht schlecht. Über 2000 Euro bzw. 2500 USD werden hierfür auf Seiten wie Digi-Key aufgerufen, wobei ein Mengenrabatt bei höheren Stückzahlen natürlich noch abgezogen werden muss. Zudem wird Nvidia als Großabnehmer wohl nicht bei solchen Zwischenhändlern, sondern direkt bei Intel, einkaufen.

Trotzdem, auch wenn man einen hypothetischen Einkaufspreis von „nur“ 1000 USD in den Raum stellen würde, muss Nvidia dann noch den FPGA programmieren, die restlichen Komponenten einkaufen, das Modul fertigen lassen und das fertige G-Sync Modul dann an die Monitor-Hersteller weiter verkaufen. Ein günstigerer „G-Sync Ultimate“ Monitor wie der LG UltraGear 34GP950G-B ist schon ab ca. 1250 Euro zu haben und da sind Panel und das ganze Drumherum ja auch schon mit dabei.

Also stellt sich die Frage, wie wird hier ein Schuh draus bzw. wie kann ein so teurer FPGA in einem Monitor verbaut sein, der im Listenpreis sogar günstiger als der FPGA ist? Tragen die Monitor-Hersteller die Kosten des G-Sync Moduls? Wohl kaum. Schluckt Nvidia einen Großteil der Kosten des FPGA und verkauft die G-Sync Module mit Verlust, um im Gegenzug das G-Sync Ecosystem mit ihren GeForce-Grafikkarten zu pushen? Das klingt schon plausibler.

Und wieso verwendet Nvidia überhaupt einen FPGA und lässt nicht stattdessen spezielle Chips fertigen, die in der Herstellung zwar aufwändiger, aber dafür im Einkauf günstiger wären – sind die G-Sync Ultimate Stückzahlen wirklich so gering? Die Antworten auf alle diese Fragen haben wir noch nicht, aber interessanter Diskussions-Stoff ist es auf jeden Fall.

Lade neue Kommentare

N
Name

Mitglied

11 Kommentare 0 Likes

Interessanter Artikel. Jetzt verstehe ich auch den hohen Preis der G-Sync Monitore. Nur verstehe ich nicht so ganz wann und ob man das braucht 😅. (Vs Free-Sync)

Antwort Gefällt mir

RedF

Urgestein

1,741 Kommentare 691 Likes

Kann man bestimmt gut mit Minen 😅

Ganz schön hoher aufwand für Gesyncte Frames.

Antwort 1 Like

2
2Chevaux

Mitglied

92 Kommentare 73 Likes

>> Aber diese spezielle Hardware ist nicht ohne Grund in den offiziellen „G-Sync“ Produkten verbaut, wenn es nach Nvidia geht. Geringere Latenz, bessere Performance in niedrigen FPS Bereichen und HDR Kompatibilität sind Features, die nur mit Nvidias dedizierter Hardware möglich sind und seither als „G-Sync Ultimate“ zertifiziert werden. <<

Eine Anregung zu Deiner Schreibe:

Wenn Du einen Hersteller (oder auch irgendwen sonst) in letztlich indirekter Form wie oben zitierst, solltest Du dir meines Erachtens unbedingt angewöhnen, den Konjunktiv zu setzen, wenn es sich nicht um eine offensichtliche Tatsachenfeststellung wie etwa "und seither als „G-Sync Ultimate“ zertifiziert werden." handelt. Oben solltest Du also hier etwa "die nur mit Nvidias dedizierter Hardware möglich seien (bzw. je nach Sprachgefühl auch: wären)" schreiben.

Das ist nicht zu Unrecht eine professionelle, (nicht nur) journalistische Grundregel und beugt Missverständnissen und Missklängen weitaus besser vor, als der vorangehende Satz allein, in dem die Quelle nVidia benannt wurde.

Antwort 6 Likes

Klicke zum Ausklappem
Smartengine

Veteran

112 Kommentare 97 Likes

Ich warte auf die ersten Viren, welche die Firmware verändern und tatsächlich dann minen 😁

Antwort 2 Likes

FritzHunter01

Moderator

329 Kommentare 271 Likes

Hallo Xavar,

interessanter Artikel. Da ich selbst einen G-Sync Monitor habe, und das ist schon der zweite, kann ich deine Feststellung nicht teilen. Weder der in die Tage gekommene MSI Oculux NXG252R noch der ASUS ROG Swift PG279QM haben in igrendeiner Form krach gemacht.

Was ich besonders bemerkenswert finde, dass der PG279QM sogar AMD Karten mit der 240 Hz Bildwiederholrate bzgl VRR (FreeSync) unterstützt. Was ich bei einem G-Sync Modul so noch nicht gehört bzw. gesehen habe! Der PG279QM ist ein HDR 400 zertifizierter Monitor, kann halt mit seinem local dimming (nicht FALD), ein wenig HDR um es mal milde auszudrücken. Aber das reicht auch, denn der eigentliche Job ist 1440p 240 Hz und geiles Panel mit sehr guter Farbabdeckung!

Meine Vermutung, das AOC hier die günstige Kühllösung verbaut hat...

Antwort 1 Like

Klicke zum Ausklappem
M
Martin Gut

Urgestein

4,187 Kommentare 1,511 Likes

Die Kühllösung scheint mir recht aufwändig. Wenn ich das richtig sehe, liegt auf dem Prozessor eine Vapor-Chamber. Diese gibt die Wärme dann an 5 Heatpipes und an einige Kühllamellen ab, die darauf montiert sind. Die Heatpipes gehen dann zu einem Kühlblock der belüftet wird.

So eine Konstruktion plant man nicht, wenn man nur 5 - 10 Watt wie bei einem Chipsatz abführen müsste. Dann würde man nur einen gepressten Kühlkörper aufkleben und eventuell einen Lüfter daneben schrauben.

Antwort 1 Like

skullbringer

Veteran

200 Kommentare 188 Likes

Eine Vapor Chamber ist es tatsächlich nicht, sondern "nur" eine Baseplate aus Kupfer, auf der die Heatpipes aufgelötet sind. Aber ja, sehr aufwändig der Kühler und irgendwie auch ein bisschen unschön gelöst, wenn man bedenkt wie viel Bauraum zwischen Panel und Gehäuse eigentlich noch ist.

Und selbst wenn man es so bauen müsste: Ein leiser, Temperatur-gesteuerter Lüfter wäre schon angebracht. 2000 Euro Monitor und es wird am 1 Euro Lüfter gespart...

Antwort 2 Likes

DHAmoKK

Urgestein

1,573 Kommentare 500 Likes

Ein Kumpel hat sich den super teuren Asus Monitor gekauft, 4k, 144hz, HDR 1400, etc., der hat auch einen Lüfter. Den ersten musste er aber zurück senden, weil er sich andauernd abgeschaltet hat. Das zweite Modell ist aber in Ordnung und der Lüfter ist auch leiser, bzw. gar nicht zu hören.

Die aktuellen G-sync Ultimate Monitore scheinen echte Hitzköpfe zu sein.

Antwort Gefällt mir

konkretor

Veteran

150 Kommentare 115 Likes

Also einen Chip zu designen und auch noch auf Silizium zu bringen ist schon einiges an Aufwand. Einen FPGA wird kurz gefüttert und ab geht's.

Gerade wenn es um kleine Mengen geht kann der FPGA Unterumständen sogar günstiger sein.

Oder die Nachfrage ist so hoch aber die bestellte Menge bei der Foundry viel zu wenig gewesen. Dann musst so eine Lösung bauen.

FPGAs sind in den letzten Monaten extrem teuer geworden. Waren noch nie günstig.

Antwort Gefällt mir

ssj3rd

Mitglied

29 Kommentare 9 Likes

Schade das hier der größte Nachteil nicht mal eine Erwähnung in einem Nebensatz findet:

G-Sync Ultimate ist nicht kompatibel mit HDMI 2.1.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Xaver Amberger (skullbringer)

Werbung

Werbung