Reviews G-Sync Ultimate Hardware seziert am AOC Agon AG353UCG | Investigativ

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.835
Bewertungspunkte
8.895
Punkte
1
Standort
Redaktion
Seit den ersten G-Sync Monitoren von Nvidia hat sich einiges getan. G-Sync mit Nvidia Grafikkarten lässt sich schon seit längerem auch mit günstigeren „Freesync“ Monitoren betreiben. Der Unterschied ist hier, dass die Frame-Synchronisierung zwischen GPU und Monitor lediglich über das DisplayPort-Protokoll erfolgt und keine zusätzliche Hardware auf Seiten des Monitors notwendig ist. Aber diese spezielle...
Hier den ganzen Artikel lesen
 
Ich habe auch nen G-Sync Monitor, allerdings kein "Ultimate". Stelle mir jetzt natürlich die Frage, ob da ebenfalls Hardware verbaut ist oder doch "nur" die FreeSync-Technik genutzt wird, also die Adaptive Frame/Frequenz-Anpassung, die sowieso an Bord ist. FreeSync hat bei meiner 5700XT damals super funktioniert.
FreeSync hat damit eigentlich nichts zu tun, eher wenn dann ASync. Die Ultimate Monitore müssen vor allem den Vesa1000 HDR Standard erfüllen, den NVidia zuletzt auch nicht mehr vorschreibt, sondern nur noch HDR600 was eher Spielerei ist.

Die Non Ultimate GSync Modelle sind dann wesentlicher billiger, weil sie nicht so eine aufwendige Hintergrundbeleuchtung verbaut bekommen (fernab von HDR1000) und die Panele die Helligkeitswerte so nicht erreichen, also von wegen Ultimate. Betrug am Kunden mehr nicht, der out of von Standards vermarktet wird, um ihn los zu werden. Ist mir persönlich keinen Cent wert, weil man gar nicht weiß was man da kauft. Wo also Ultimate draufsteht muss noch lange nicht Vesa1000 HDR drin sein, auch wenn's draufsteht.

Lieber in open source wie Freesync oder GSync Compatible investieren, geht ja bei NVidia genauso. Dauert wahrscheinlich noch ein bis zwei Jahre dann redet über GSync oder Ultimate kein Mensch mehr, weil sich dann ASync durchgesetzt hat.

Wenn man also heute einen Monitor kaufen muss, darauf achten das die Kompatibilität zu Standards sichergestellt bleibt. Auch irgendwelche "übertaktete Modelle", wo die Hersteller im Spielebereich werben, braucht kein Mensch.
 
Zuletzt bearbeitet von einem Moderator :
Danke für die Belehrungen. Der Monitor ist ja nun schon ein knappes Jahr alt und die Kosten gingen eher für das Panel als für die Nvidia Technik drauf. Displays sind eh ein leidiges Thema, denn wer nicht solche Summen raushauen will wie der Schreiber, der muss Kompromisse eingehen. Was das mit "Betrug am Kunden" zu tun hat, bleibt dein Geheimnis.
 
Was das mit "Betrug am Kunden" zu tun hat, bleibt dein Geheimnis.
Das erklärt, sich eigentlich von selbst: GSync Ultimate steht für Vesa1000 HDR, wobei NVidia diesen Standard mit Ultimate gar nicht erfüllt, weil man die Anforderungen auf HDR600 senkte. Was soll das sonst sein, freundliche Aufmerksamkeit?

Dem geneigten NVidiakäufer scheint sein Kosumverhalten dabei völlig egal zu sein, NVidia hat ja versprochen. Was nur? Man weicht also einen Standard auf, den mal als HDR1000 einführte und sich auch die hochpreisigen Panele begründen, ihn dann aber nachträglich nicht wirklich umsetzt, weil die eigenen Forderungen zu hoch gesetzt sind und die Monitorhersteller diesen in seiner Umsetzbarkeit nicht annehmen (gibt wohl ganze 10 Monitore am Markt, alle ziemlich teuer), dies aber dem Kunden gar nicht mitteilt, sondern weiterhin Ultimate Logos auf die Monitore druckt.

Erinnert an die GTX970, its not a Bug. Nein.

Man kauft also in bestimmten Fällen eine Mogelpackung für viel Geld.
 
Zuletzt bearbeitet von einem Moderator :
Einen Monitor mir Lüfter würde ich direkt retounieren, erst recht zu so einem Preis. Bei 35" ist mehr als genug Fläche da um das passiv zu kühlen.
 
Einen Monitor mir Lüfter würde ich direkt retounieren, erst recht zu so einem Preis. Bei 35" ist mehr als genug Fläche da um das passiv zu kühlen.
Geht nur nicht, wenn NVidia einen "Quirl" vorschreibt. Siehe X570 bei AMD. Natürlich kann man das locker passiv kühlen, auch unter 35".

Was noch viel bemerkenswerter ist, NVidia schreibt: ..."mit den neusten NVidia GSYNC Prozessoren" (bzgl. des GSync Moduls) und verbauen einen Intel Asic. Schon das ist eine Lüge.

Da müsste stehen: ..."mit den neusten Intel Asic in einem GSync Modul erfüllen wir den HDR1000 Standard"....:), aber dann bricht man sich einen aus der Krone.
 
Zuletzt bearbeitet von einem Moderator :
Ah, es geht um Nvidia-Gebashe, verstehe. Ich hab halt keinen Ultimate Monitor gekauft. Ist doch gut für die, die das getan haben, dass sie wissen, dass da auch die entsprechende Hardware verbaut ist. Ein offener Standard (Adaptive Sync) wäre mir auch am liebsten. Bei der Next Gen dann wieder.
 
Was für NVidia Gebashe wenn, man die Wahrheit schreibt, die für sie nur nicht aktzeptabel erscheint und seine eigenen Schlüsse daraus? Einfach mal einen Teardown machen und sehen was man überhaupt gekauft hat.

Monitore sind alle zertifiziert, weil sie nicht nur diese herstellerinternen Richtlinien erfüllen müssen (auch wenn NVidia dafür supertolle Namen erfindet, basieren sie vor allem auf allgemeine Standard's), aber sie können das gerne als Gebashe abtun und sich weiterhin Güter verkaufen lassen die selbst die eignen Zertifizierungen nicht erfüllen (übrigens für deutlich mehr Geld als Mitbewerberprodukte), ist ihnen ja vollkommen freigestellt das auszublenden. Nur damit unterstützen sie genau diese Vorgehensweise von Unternehmen.

Ich könnte ihnen in diesem Zusammenhang übrigens auch unterstellen, dass sie diese Vorgehensweise begrüßen, weil sie "Pro NVidia" sind. Vor ein paar Minuten wussten sie nicht mal, welches Modul in welchem Panel verbaut wird und was GSync, FreeSync und AdaptivSync überhaupt ist.
 
Mir ist AMD grundsätzlich sympathischer. Die haben nur ein mieses Timing und bis vor 1 Jahr kein vergleichbares Produkt.
Die Geschichte mit den Monitoren ist schnell erzählt: 5700XT mit FreeSync, Leistung war eh am Limit (WQHD) und dann hatte die Karte nen Defekt. Also 2080S gekauft, Display war aber alt und nicht mal G-Sync kompatibel. Also IPS mit G-Sync gekauft, damit die Karte ein paar Jahre hält. Bisher hat sich das gelohnt. Müsste ich jetzt aufrüsten würde ich 6900XT plus FReeSync / Adaptive Sync nehmen, da bestes P/L-Verhältnis. Muss ich aber nicht.
 
Hatte gerade ein Déjà-vu beim Lesen. Das ging doch vor ein paar Jahren schon durch die News als der Kram neu war.
pcper hatte damals schon deutlich niedriger spekuliert für das FPGA aber auch bemerkt, dass es sicher nicht günstig ist.
 
Da müsste stehen: ..."mit den neusten Intel Asic in einem GSync Modul erfüllen wir den HDR1000 Standard"....:), aber dann bricht man sich einen aus der Krone.

Sorry, aber das ist doch kompletter Quatsch. Müsste es dann nicht statt Intel heißen, der ASIC von "FabXYZ"? Oder direkt das Silizium?

Ein komplett PC von DELL ist dann auch eine Lüge, weil das ausschließlich Hardware von anderen Herstellern drin ist?

Nvidia schnürt hier ein Gesamtpaket aus Produkten, Service, Software, Support und Marketing und nennt das G-Sync Ultimate.

Das kann man kaufen, oder nicht.
 
Naja, vielleicht haben deine Geräte ja auch eine geringere Bandbreite. So ein FPGA braucht schon etwas Futter, dass er auch arbeitet. Passiv lassen sich die Dinger heutzutage nur noch mit großen Kühlern kühlen. Vielleicht haben deine Monitore noch einen älteren/kleineren FPGA verbaut, der einfach weniger verbraucht und damit passiv gekühlt werden kann.

Was mich mal interessieren würde: Wie viel braucht der Bildschirm eigentlich dann beim HDR Gamen?

Ich habe bisher noch gar nicht HDR gespielt. HDR 400 ist jetzt nicht wirklich HDR… bei IPS oder VA Panel geht bzgl HDR unterhalb FALD und 1000 nits auch nicht wirklich was! Da brauchst du schon OLED… dann geht was mit 700-800 nits.

Der Stromverbrauch des PG279QM liegt bei ca. 40 Watt. Das G-Sync Modul und die RGB Beleuchtung ziehen schon kräftig mit an der Steckdose!
 
Sorry, aber das ist doch kompletter Quatsch. Nvidia schnürt hier ein Gesamtpaket aus Produkten, Service, Software, Support und Marketing und nennt das G-Sync Ultimate.
War das so undeutlich, sie schreiben "die neusten NVidia GSYNC Prozessoren! Welche sollen das sein, die von Intel? Das ist doch eine Lachnummer. Wenn man Modul oder was auch immer geschrieben hätte, wäre es noch verständlich.

Da kann man mal sehen wie Marketinglügen funktionieren und sogar angenommen werden. Genauso geht um NVidia ließe unter compatible Freesync auf GSync zu, dabei geht es lediglich um Adaptive Sync und dazu sind NVidias GPUs selbstverständlich kompatibel. Letztlich erfüllen sie den Standard nach eDP, dem Adaptive Sync entstammt und mehr nicht. Aber für tolle Markennamen zahlt man dann schon mal mehr, als man müsste.

Wenn NVidia jedes Display oder jeden Monitor tatsächlich zertifizieren würde, würde ihnen auffallen das bei einigen Monitoren der Ultimate Serie der Lüfter nerft. Ist ihnen entweder egal, oder deren Schmerzgrenze liegt weit über dem was sich Käufer vorstellen.

Das ist Kritik die berechtigt ist und kein Gebashe, zumal der Kunde nun gar nicht weiß was er tatsächlich kauft.

Dann soll man sein Gesamtprodukt auch so benennen und nicht so einen Unsinn verbreiten. Zuletzt wars wieder der Praktikant der was falsch verstanden hat, aber zugleich Webmaster ist, der Werbeinhalte auf der GSync Seite veröffentlich darf.

NVidia PR hat gesagt. :
"Mit den neuesten NVIDIA G-Sync-Prozessoren, die das beste Gaming-Erlebnis bieten, darunter realistisches HDR, atemberaubender Kontrast, filmische Farben und Gameplay mit extrem niedriger Latenz.

Zudem ist 1000nits und damit Vesa1000 HDR Geschichte, weil das kaum im Markt ankommt. Man hatte Ultimate aber eingeführt um genau diesen Standard als Enthusiast zu verkaufen. Wer zahlt denn für ein 600HDR Display 2000 Euro?
 
Interessant. Ich dachte das wäre längst allgemein bekannt dass für GSync an der Stelle FPGAs von Altera verwendet werden.

Ixh wusste das in der Tat schon länger und ich bilde mir ein dass Altera damit sogar schon geworben hätte.
 
Ja beim Thema Monitore bin ein sehr kritischer Kunde... ich kaufe nix, was ich nicht vorab von vertrauenswürdigen Testern verifiziert und für gut befunden bekomme! Da es im deutschsprachigen Raum außer Prad nichts in der Art gibt, würde ich das hier bei Igor auf der HP gerne zukünftig machen wollen.

Ich denke, dass man bei IgorsLab in Form von Videos oder Artikeln alles getestet und bewertet bekommt. Die einzig wirklich Lücke ist das Thema Montiore... Aber genau das Thema brennt vermutlich den Meisten unter den Nägeln oder sehe ich das falsch?

Aus meiner Sicht gibt es nichts schlimmers als sich einen teuren Monitor zu kaufen und dann merkt man erst, dass die 1 ms Responce Time mal wie immer nur als Werbe-Spaß auf die Packung gedruckt wurde!

Wer wirklich 240 Hz erleben will und das OHNE inverse ghosting und overshot, der muss sich darüber im Klaren sein, wenn der Monitor nicht im Bereich der 4 ms Responce Time liegt und eine single overdrive experiance über die VRR bietet, wird den Kauf schnell bereuen!
 
Zuletzt bearbeitet :
Nachtrag: in der Tat finde ich Artikel die teilweise 5 Jahre oder älter sind und in denen bereits erwähnt wird das Altera FPGAs in GSync Monitoren verbaut sind
 
Eine Vapor Chamber ist es tatsächlich nicht, sondern "nur" eine Baseplate aus Kupfer, auf der die Heatpipes aufgelötet sind.
Ich habe es auf dem Foto nicht genau gesehen und bin mal von einer guten Lösung ausgegangen. Wenn die Wärme erst durch 2 - 3 mm Kupfer zu den Heatpipes wandern muss und der Weg von dort zu den Lamellen noch länger ist, wird es trotz recht grossem Aufwand warm genug werden.

Die Triebwerklüfter mag ich auch nicht.
 
Oben Unten