Gaming Hardware Monitor und Desktop Praxis Testberichte

G-Sync Ultimate Hardware seziert am AOC Agon AG353UCG | Investigativ

Seit den ersten G-Sync Monitoren von Nvidia hat sich einiges getan. G-Sync mit Nvidia Grafikkarten lässt sich schon seit längerem auch mit günstigeren „Freesync“ Monitoren betreiben. Der Unterschied ist hier, dass die Frame-Synchronisierung zwischen GPU und Monitor lediglich über das DisplayPort-Protokoll erfolgt und keine zusätzliche Hardware auf Seiten des Monitors notwendig ist. 

Aber diese spezielle Hardware ist nicht ohne Grund in den offiziellen „G-Sync“ Produkten verbaut, wenn es nach Nvidia geht. Geringere Latenz, bessere Performance in niedrigen FPS Bereichen und HDR Kompatibilität sind Features, die nur mit Nvidias dedizierter Hardware möglich sind und seither als „G-Sync Ultimate“ zertifiziert werden.

Einen solchen „G-Sync Ultimate“ Monitor habe ich mir vor kurzem privat zugelegt. Als Sysadmin und Gamer ist so ein großes Investment zwar noch immer unvernünftig, aber zumindest verargumentierbar – rede ich mir zumindest ein. Bei 1800 Euro für den AOC Agon AG353UCG habe ich dann nach langer Überlegung zugeschlagen, der meinen bisherigen Acer XB270HU – ein G-Sync Monitor erster Stunde – ablösen soll.

Nach erster Inbetriebnahme des AG353UCG ist mir sofort der interne Lüfter aufgefallen, der zwar auf der Produktseite nicht erwähnt wird, den neuen Monitor sofort zu einer Störquelle an meinem sonst stillen Arbeitsplatz macht. Meiner Verwunderung folgte sogleich der Tatendrang, dem ganzen auf den Grund zu gehen und den Monitor zu zerlegen.

Ein paar Schrauben und dutzende Kunststoff-Clips später eröffnete sich mir dann dieser Anblick. 5 Heatpipes, ein massiver Kühlkörper aus Kupfer und ein Radial-Lüfter, wie man sie von mobilen Workstation-Notebooks kennt sorgen hier in diesem Monitor für tatsächlich für aktive Kühlung, und das nicht zu knapp.

Einfach die Stromversorgung vom Lüfter abzustecken undà la AMD X570 Chipsatz auf die passive Kühlung zu vertrauen, stellte sich ziemlich schnell als schlechte Idee heraus. Nach ca. 30 Minuten Gaming im HDR bei niedrigster Helligkeit erscheint eine „Critical Temperature – Emergency Shutdown“ Meldung auf dem OSD des Displays und es schaltet sich ab. Nur durch ein Trennen und Wieder-Verbinden der Stromversorgung lässt sich der Monitor wieder in Betrieb nehmen. Demzufolge dürfte die Abwärme deutlich höher sein, als zunächst von mir vermutet und ehrlich gesagt gehofft.

Also habe ich den Monitor wieder zerlegt und einmal untersucht, was sich unter der kühlenden Kupfer-Konstruktion befindet. Das Ergebnis ist zum einen sehr viskose Wärmeleitpaste zwischen der Bodenplatte und dem aktiv gekühlten Chip, und darunter eine schwarze Platine, die mit Layout und Komponenten auf den ersten Blick einer Grafikkarte im MXM Format ähnelt, wie man es ebenfalls von Notebooks kennt.

Unter den rohen Mengen Zement-ähnlicher Paste kommt dann ein „Altera Arria 10“ Chip zum Vorschein, mit der Modellnummer 10AX048H2F34E1HG. Nach kurzer Recherche entpuppt sich dieser als Field-programmable Gate Array oder kurz FPGA, also einfach gesagt ein Mikrochip mit programmierbarer Funktion. Diese FPGAs sind aufgrund ihrer Programmierbarkeit relativ teuer verglichen mit herkömmlichen Mikrochips mit fester Funktion. Der Vorteil von FPGAs ist aber eben, das man keine speziellen Chips eigens herstellen muss und sich die Funktionsweise nachträglich via Software programmieren lässt.

 

Glücklicherweise ist das Datenblatt zu diesem Chip öffentlich und als Hersteller kommt neben Altera auch Intel zum Vorschein. Mit der Dokumentation zur Produktnummer lässt sich dann die genaue Variante des Arria 10 Chips herausfinden, der hier installiert ist. 

gsync_ultimate_a10_overview

 

Es handelt sich also bei diesem A10X um einen 17,4 Gbps Transciever-Typ mit 480K Logik Elementen, 24 Transceivern mit einer Speed Grade von „2“, verbaut in einen FBGA Package mit 1152 pins auf 35 mm x 35 mm. Zudem hat der Chip eine Betriebstemperatur von 0 – 100 °C, FPGA Speed Grade von „1“, die Leistungsstufe „High Performance“ und „RoHS6“ Klassifizierung. Spannung und Leistungsaufnahme hängen von der jeweiligen Programmierung ab und können also ohne weiteres nicht genauer bestimmt werden, aber vom Kühlköpers zu schließen dürfte es schon mal mehr sein als ein normaler Desktop-Chipsatz mit z.B. 15 W.

Wirft man die Chipnummer in Google auf der Suche nach dem Listenpreis, staunt man nicht schlecht. Über 2000 Euro bzw. 2500 USD werden hierfür auf Seiten wie Digi-Key aufgerufen, wobei ein Mengenrabatt bei höheren Stückzahlen natürlich noch abgezogen werden muss. Zudem wird Nvidia als Großabnehmer wohl nicht bei solchen Zwischenhändlern, sondern direkt bei Intel, einkaufen.

Trotzdem, auch wenn man einen hypothetischen Einkaufspreis von „nur“ 1000 USD in den Raum stellen würde, muss Nvidia dann noch den FPGA programmieren, die restlichen Komponenten einkaufen, das Modul fertigen lassen und das fertige G-Sync Modul dann an die Monitor-Hersteller weiter verkaufen. Ein günstigerer „G-Sync Ultimate“ Monitor wie der LG UltraGear 34GP950G-B ist schon ab ca. 1250 Euro zu haben und da sind Panel und das ganze Drumherum ja auch schon mit dabei.

Also stellt sich die Frage, wie wird hier ein Schuh draus bzw. wie kann ein so teurer FPGA in einem Monitor verbaut sein, der im Listenpreis sogar günstiger als der FPGA ist? Tragen die Monitor-Hersteller die Kosten des G-Sync Moduls? Wohl kaum. Schluckt Nvidia einen Großteil der Kosten des FPGA und verkauft die G-Sync Module mit Verlust, um im Gegenzug das G-Sync Ecosystem mit ihren GeForce-Grafikkarten zu pushen? Das klingt schon plausibler.

Und wieso verwendet Nvidia überhaupt einen FPGA und lässt nicht stattdessen spezielle Chips fertigen, die in der Herstellung zwar aufwändiger, aber dafür im Einkauf günstiger wären – sind die G-Sync Ultimate Stückzahlen wirklich so gering? Die Antworten auf alle diese Fragen haben wir noch nicht, aber interessanter Diskussions-Stoff ist es auf jeden Fall.

Kommentar

Lade neue Kommentare

N
Name

Mitglied

75 Kommentare 14 Likes

Interessanter Artikel. Jetzt verstehe ich auch den hohen Preis der G-Sync Monitore. Nur verstehe ich nicht so ganz wann und ob man das braucht 😅. (Vs Free-Sync)

Antwort Gefällt mir

RedF

Urgestein

4,664 Kommentare 2,553 Likes

Kann man bestimmt gut mit Minen 😅

Ganz schön hoher aufwand für Gesyncte Frames.

Antwort 1 Like

2
2Chevaux

Veteran

100 Kommentare 79 Likes

>> Aber diese spezielle Hardware ist nicht ohne Grund in den offiziellen „G-Sync“ Produkten verbaut, wenn es nach Nvidia geht. Geringere Latenz, bessere Performance in niedrigen FPS Bereichen und HDR Kompatibilität sind Features, die nur mit Nvidias dedizierter Hardware möglich sind und seither als „G-Sync Ultimate“ zertifiziert werden. <<

Eine Anregung zu Deiner Schreibe:

Wenn Du einen Hersteller (oder auch irgendwen sonst) in letztlich indirekter Form wie oben zitierst, solltest Du dir meines Erachtens unbedingt angewöhnen, den Konjunktiv zu setzen, wenn es sich nicht um eine offensichtliche Tatsachenfeststellung wie etwa "und seither als „G-Sync Ultimate“ zertifiziert werden." handelt. Oben solltest Du also hier etwa "die nur mit Nvidias dedizierter Hardware möglich seien (bzw. je nach Sprachgefühl auch: wären)" schreiben.

Das ist nicht zu Unrecht eine professionelle, (nicht nur) journalistische Grundregel und beugt Missverständnissen und Missklängen weitaus besser vor, als der vorangehende Satz allein, in dem die Quelle nVidia benannt wurde.

Antwort 6 Likes

Smartengine

Veteran

146 Kommentare 134 Likes

Ich warte auf die ersten Viren, welche die Firmware verändern und tatsächlich dann minen 😁

Antwort 2 Likes

FritzHunter01

Moderator

1,155 Kommentare 1,572 Likes

Hallo Xavar,

interessanter Artikel. Da ich selbst einen G-Sync Monitor habe, und das ist schon der zweite, kann ich deine Feststellung nicht teilen. Weder der in die Tage gekommene MSI Oculux NXG252R noch der ASUS ROG Swift PG279QM haben in igrendeiner Form krach gemacht.

Was ich besonders bemerkenswert finde, dass der PG279QM sogar AMD Karten mit der 240 Hz Bildwiederholrate bzgl VRR (FreeSync) unterstützt. Was ich bei einem G-Sync Modul so noch nicht gehört bzw. gesehen habe! Der PG279QM ist ein HDR 400 zertifizierter Monitor, kann halt mit seinem local dimming (nicht FALD), ein wenig HDR um es mal milde auszudrücken. Aber das reicht auch, denn der eigentliche Job ist 1440p 240 Hz und geiles Panel mit sehr guter Farbabdeckung!

Meine Vermutung, das AOC hier die günstige Kühllösung verbaut hat...

Antwort 1 Like

Martin Gut

Urgestein

7,780 Kommentare 3,576 Likes

Die Kühllösung scheint mir recht aufwändig. Wenn ich das richtig sehe, liegt auf dem Prozessor eine Vapor-Chamber. Diese gibt die Wärme dann an 5 Heatpipes und an einige Kühllamellen ab, die darauf montiert sind. Die Heatpipes gehen dann zu einem Kühlblock der belüftet wird.

So eine Konstruktion plant man nicht, wenn man nur 5 - 10 Watt wie bei einem Chipsatz abführen müsste. Dann würde man nur einen gepressten Kühlkörper aufkleben und eventuell einen Lüfter daneben schrauben.

Antwort 1 Like

skullbringer

Veteran

306 Kommentare 328 Likes

Eine Vapor Chamber ist es tatsächlich nicht, sondern "nur" eine Baseplate aus Kupfer, auf der die Heatpipes aufgelötet sind. Aber ja, sehr aufwändig der Kühler und irgendwie auch ein bisschen unschön gelöst, wenn man bedenkt wie viel Bauraum zwischen Panel und Gehäuse eigentlich noch ist.

Und selbst wenn man es so bauen müsste: Ein leiser, Temperatur-gesteuerter Lüfter wäre schon angebracht. 2000 Euro Monitor und es wird am 1 Euro Lüfter gespart...

Antwort 2 Likes

Corro Dedd

Urgestein

1,814 Kommentare 674 Likes

Ein Kumpel hat sich den super teuren Asus Monitor gekauft, 4k, 144hz, HDR 1400, etc., der hat auch einen Lüfter. Den ersten musste er aber zurück senden, weil er sich andauernd abgeschaltet hat. Das zweite Modell ist aber in Ordnung und der Lüfter ist auch leiser, bzw. gar nicht zu hören.

Die aktuellen G-sync Ultimate Monitore scheinen echte Hitzköpfe zu sein.

Antwort Gefällt mir

konkretor

Veteran

298 Kommentare 301 Likes

Also einen Chip zu designen und auch noch auf Silizium zu bringen ist schon einiges an Aufwand. Einen FPGA wird kurz gefüttert und ab geht's.

Gerade wenn es um kleine Mengen geht kann der FPGA Unterumständen sogar günstiger sein.

Oder die Nachfrage ist so hoch aber die bestellte Menge bei der Foundry viel zu wenig gewesen. Dann musst so eine Lösung bauen.

FPGAs sind in den letzten Monaten extrem teuer geworden. Waren noch nie günstig.

Antwort Gefällt mir

ssj3rd

Veteran

218 Kommentare 155 Likes

Schade das hier der größte Nachteil nicht mal eine Erwähnung in einem Nebensatz findet:

G-Sync Ultimate ist nicht kompatibel mit HDMI 2.1.

Antwort Gefällt mir

G
Guest

NVidia bleibt ja nicht nur schudig zu erklären, wozu man das braucht, kein HDR Monitor braucht neben seiner eigenen Elektronik einen weiteren VRR Asic, nein. Es ist auch bekannt das die Asic in Ultimate Versionen massiv überhitzen und die Lüfter ziemlich laut werden können. Hitze bedeutet dabei zusätzliche Leistungsaufnahme. Einen spezifischen Asic gegen ein universelles Modell auszutauschen, scheint dann alles andere als glücklich zu sein.

Ich habe ein Laptop mit GSync, 144Hz. Dieser hat keinen GSync Asic, ist aber auch nicht GSync Compatible. Frage an NVidia, wie wird das da gelöst? An den Autor gerichtet, das übernimmt übrigens nicht das eDP Protokoll, weil das nur Vorausetzungen sind, die einen allgemeinen Standard beschreiben, sondern die GPU.

PhysX und Cuda Gameworks lassen grüßen, dedizierter Kram den real kein Mensch braucht, aber zu Höchstpreisen anschafft.

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,038 Likes

Ich habe auch nen G-Sync Monitor, allerdings kein "Ultimate". Stelle mir jetzt natürlich die Frage, ob da ebenfalls Hardware verbaut ist oder doch "nur" die FreeSync-Technik genutzt wird, also die Adaptive Frame/Frequenz-Anpassung, die sowieso an Bord ist. FreeSync hat bei meiner 5700XT damals super funktioniert.

Antwort Gefällt mir

O
Oberst

Veteran

337 Kommentare 131 Likes

Naja, vielleicht haben deine Geräte ja auch eine geringere Bandbreite. So ein FPGA braucht schon etwas Futter, dass er auch arbeitet. Passiv lassen sich die Dinger heutzutage nur noch mit großen Kühlern kühlen. Vielleicht haben deine Monitore noch einen älteren/kleineren FPGA verbaut, der einfach weniger verbraucht und damit passiv gekühlt werden kann.

Was mich mal interessieren würde: Wie viel braucht der Bildschirm eigentlich dann beim HDR Gamen?

Antwort Gefällt mir

Dummbatz

Veteran

292 Kommentare 90 Likes

Ich habe ja nur den

AG352UCG6​

und der hat keinen Lüfter.

Nun stellt sich mir die Frage wo der Unterschied im G-Sync Modul ??

Okay meiner macht nur 100 HZ, können die 44 soviel an Wäre mehr ausmachen ?

Antwort Gefällt mir

G
Guest

FreeSync hat damit eigentlich nichts zu tun, eher wenn dann ASync. Die Ultimate Monitore müssen vor allem den Vesa1000 HDR Standard erfüllen, den NVidia zuletzt auch nicht mehr vorschreibt, sondern nur noch HDR600 was eher Spielerei ist.

Die Non Ultimate GSync Modelle sind dann wesentlicher billiger, weil sie nicht so eine aufwendige Hintergrundbeleuchtung verbaut bekommen (fernab von HDR1000) und die Panele die Helligkeitswerte so nicht erreichen, also von wegen Ultimate. Betrug am Kunden mehr nicht, der out of von Standards vermarktet wird, um ihn los zu werden. Ist mir persönlich keinen Cent wert, weil man gar nicht weiß was man da kauft. Wo also Ultimate draufsteht muss noch lange nicht Vesa1000 HDR drin sein, auch wenn's draufsteht.

Lieber in open source wie Freesync oder GSync Compatible investieren, geht ja bei NVidia genauso. Dauert wahrscheinlich noch ein bis zwei Jahre dann redet über GSync oder Ultimate kein Mensch mehr, weil sich dann ASync durchgesetzt hat.

Wenn man also heute einen Monitor kaufen muss, darauf achten das die Kompatibilität zu Standards sichergestellt bleibt. Auch irgendwelche "übertaktete Modelle", wo die Hersteller im Spielebereich werben, braucht kein Mensch.

Antwort Gefällt mir

grimm

Urgestein

3,084 Kommentare 2,038 Likes

Danke für die Belehrungen. Der Monitor ist ja nun schon ein knappes Jahr alt und die Kosten gingen eher für das Panel als für die Nvidia Technik drauf. Displays sind eh ein leidiges Thema, denn wer nicht solche Summen raushauen will wie der Schreiber, der muss Kompromisse eingehen. Was das mit "Betrug am Kunden" zu tun hat, bleibt dein Geheimnis.

Antwort 1 Like

G
Guest

Das erklärt, sich eigentlich von selbst: GSync Ultimate steht für Vesa1000 HDR, wobei NVidia diesen Standard mit Ultimate gar nicht erfüllt, weil man die Anforderungen auf HDR600 senkte. Was soll das sonst sein, freundliche Aufmerksamkeit?

Dem geneigten NVidiakäufer scheint sein Kosumverhalten dabei völlig egal zu sein, NVidia hat ja versprochen. Was nur? Man weicht also einen Standard auf, den mal als HDR1000 einführte und sich auch die hochpreisigen Panele begründen, ihn dann aber nachträglich nicht wirklich umsetzt, weil die eigenen Forderungen zu hoch gesetzt sind und die Monitorhersteller diesen in seiner Umsetzbarkeit nicht annehmen (gibt wohl ganze 10 Monitore am Markt, alle ziemlich teuer), dies aber dem Kunden gar nicht mitteilt, sondern weiterhin Ultimate Logos auf die Monitore druckt.

Erinnert an die GTX970, its not a Bug. Nein.

Man kauft also in bestimmten Fällen eine Mogelpackung für viel Geld.

Antwort Gefällt mir

jo-82

Mitglied

54 Kommentare 21 Likes

Einen Monitor mir Lüfter würde ich direkt retounieren, erst recht zu so einem Preis. Bei 35" ist mehr als genug Fläche da um das passiv zu kühlen.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Xaver Amberger (skullbringer)

Werbung

Werbung