Reviews G-Sync Ultimate Hardware seziert am AOC Agon AG353UCG | Investigativ

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.818
Bewertungspunkte
8.816
Punkte
1
Standort
Redaktion
Seit den ersten G-Sync Monitoren von Nvidia hat sich einiges getan. G-Sync mit Nvidia Grafikkarten lässt sich schon seit längerem auch mit günstigeren „Freesync“ Monitoren betreiben. Der Unterschied ist hier, dass die Frame-Synchronisierung zwischen GPU und Monitor lediglich über das DisplayPort-Protokoll erfolgt und keine zusätzliche Hardware auf Seiten des Monitors notwendig ist. Aber diese spezielle...
Hier den ganzen Artikel lesen
 
Einen Monitor mir Lüfter würde ich direkt retounieren, erst recht zu so einem Preis. Bei 35" ist mehr als genug Fläche da um das passiv zu kühlen.
Geht nur nicht, wenn NVidia einen "Quirl" vorschreibt. Siehe X570 bei AMD. Natürlich kann man das locker passiv kühlen, auch unter 35".

Was noch viel bemerkenswerter ist, NVidia schreibt: ..."mit den neusten NVidia GSYNC Prozessoren" (bzgl. des GSync Moduls) und verbauen einen Intel Asic. Schon das ist eine Lüge.

Da müsste stehen: ..."mit den neusten Intel Asic in einem GSync Modul erfüllen wir den HDR1000 Standard"....:), aber dann bricht man sich einen aus der Krone.
 
Zuletzt bearbeitet von einem Moderator :
Ah, es geht um Nvidia-Gebashe, verstehe. Ich hab halt keinen Ultimate Monitor gekauft. Ist doch gut für die, die das getan haben, dass sie wissen, dass da auch die entsprechende Hardware verbaut ist. Ein offener Standard (Adaptive Sync) wäre mir auch am liebsten. Bei der Next Gen dann wieder.
 
Was für NVidia Gebashe wenn, man die Wahrheit schreibt, die für sie nur nicht aktzeptabel erscheint und seine eigenen Schlüsse daraus? Einfach mal einen Teardown machen und sehen was man überhaupt gekauft hat.

Monitore sind alle zertifiziert, weil sie nicht nur diese herstellerinternen Richtlinien erfüllen müssen (auch wenn NVidia dafür supertolle Namen erfindet, basieren sie vor allem auf allgemeine Standard's), aber sie können das gerne als Gebashe abtun und sich weiterhin Güter verkaufen lassen die selbst die eignen Zertifizierungen nicht erfüllen (übrigens für deutlich mehr Geld als Mitbewerberprodukte), ist ihnen ja vollkommen freigestellt das auszublenden. Nur damit unterstützen sie genau diese Vorgehensweise von Unternehmen.

Ich könnte ihnen in diesem Zusammenhang übrigens auch unterstellen, dass sie diese Vorgehensweise begrüßen, weil sie "Pro NVidia" sind. Vor ein paar Minuten wussten sie nicht mal, welches Modul in welchem Panel verbaut wird und was GSync, FreeSync und AdaptivSync überhaupt ist.
 
Mir ist AMD grundsätzlich sympathischer. Die haben nur ein mieses Timing und bis vor 1 Jahr kein vergleichbares Produkt.
Die Geschichte mit den Monitoren ist schnell erzählt: 5700XT mit FreeSync, Leistung war eh am Limit (WQHD) und dann hatte die Karte nen Defekt. Also 2080S gekauft, Display war aber alt und nicht mal G-Sync kompatibel. Also IPS mit G-Sync gekauft, damit die Karte ein paar Jahre hält. Bisher hat sich das gelohnt. Müsste ich jetzt aufrüsten würde ich 6900XT plus FReeSync / Adaptive Sync nehmen, da bestes P/L-Verhältnis. Muss ich aber nicht.
 
Hatte gerade ein Déjà-vu beim Lesen. Das ging doch vor ein paar Jahren schon durch die News als der Kram neu war.
pcper hatte damals schon deutlich niedriger spekuliert für das FPGA aber auch bemerkt, dass es sicher nicht günstig ist.
 
Da müsste stehen: ..."mit den neusten Intel Asic in einem GSync Modul erfüllen wir den HDR1000 Standard"....:), aber dann bricht man sich einen aus der Krone.

Sorry, aber das ist doch kompletter Quatsch. Müsste es dann nicht statt Intel heißen, der ASIC von "FabXYZ"? Oder direkt das Silizium?

Ein komplett PC von DELL ist dann auch eine Lüge, weil das ausschließlich Hardware von anderen Herstellern drin ist?

Nvidia schnürt hier ein Gesamtpaket aus Produkten, Service, Software, Support und Marketing und nennt das G-Sync Ultimate.

Das kann man kaufen, oder nicht.
 
Naja, vielleicht haben deine Geräte ja auch eine geringere Bandbreite. So ein FPGA braucht schon etwas Futter, dass er auch arbeitet. Passiv lassen sich die Dinger heutzutage nur noch mit großen Kühlern kühlen. Vielleicht haben deine Monitore noch einen älteren/kleineren FPGA verbaut, der einfach weniger verbraucht und damit passiv gekühlt werden kann.

Was mich mal interessieren würde: Wie viel braucht der Bildschirm eigentlich dann beim HDR Gamen?

Ich habe bisher noch gar nicht HDR gespielt. HDR 400 ist jetzt nicht wirklich HDR… bei IPS oder VA Panel geht bzgl HDR unterhalb FALD und 1000 nits auch nicht wirklich was! Da brauchst du schon OLED… dann geht was mit 700-800 nits.

Der Stromverbrauch des PG279QM liegt bei ca. 40 Watt. Das G-Sync Modul und die RGB Beleuchtung ziehen schon kräftig mit an der Steckdose!
 
Sorry, aber das ist doch kompletter Quatsch. Nvidia schnürt hier ein Gesamtpaket aus Produkten, Service, Software, Support und Marketing und nennt das G-Sync Ultimate.
War das so undeutlich, sie schreiben "die neusten NVidia GSYNC Prozessoren! Welche sollen das sein, die von Intel? Das ist doch eine Lachnummer. Wenn man Modul oder was auch immer geschrieben hätte, wäre es noch verständlich.

Da kann man mal sehen wie Marketinglügen funktionieren und sogar angenommen werden. Genauso geht um NVidia ließe unter compatible Freesync auf GSync zu, dabei geht es lediglich um Adaptive Sync und dazu sind NVidias GPUs selbstverständlich kompatibel. Letztlich erfüllen sie den Standard nach eDP, dem Adaptive Sync entstammt und mehr nicht. Aber für tolle Markennamen zahlt man dann schon mal mehr, als man müsste.

Wenn NVidia jedes Display oder jeden Monitor tatsächlich zertifizieren würde, würde ihnen auffallen das bei einigen Monitoren der Ultimate Serie der Lüfter nerft. Ist ihnen entweder egal, oder deren Schmerzgrenze liegt weit über dem was sich Käufer vorstellen.

Das ist Kritik die berechtigt ist und kein Gebashe, zumal der Kunde nun gar nicht weiß was er tatsächlich kauft.

Dann soll man sein Gesamtprodukt auch so benennen und nicht so einen Unsinn verbreiten. Zuletzt wars wieder der Praktikant der was falsch verstanden hat, aber zugleich Webmaster ist, der Werbeinhalte auf der GSync Seite veröffentlich darf.

NVidia PR hat gesagt. :
"Mit den neuesten NVIDIA G-Sync-Prozessoren, die das beste Gaming-Erlebnis bieten, darunter realistisches HDR, atemberaubender Kontrast, filmische Farben und Gameplay mit extrem niedriger Latenz.

Zudem ist 1000nits und damit Vesa1000 HDR Geschichte, weil das kaum im Markt ankommt. Man hatte Ultimate aber eingeführt um genau diesen Standard als Enthusiast zu verkaufen. Wer zahlt denn für ein 600HDR Display 2000 Euro?
 
Interessant. Ich dachte das wäre längst allgemein bekannt dass für GSync an der Stelle FPGAs von Altera verwendet werden.

Ixh wusste das in der Tat schon länger und ich bilde mir ein dass Altera damit sogar schon geworben hätte.
 
Ja beim Thema Monitore bin ein sehr kritischer Kunde... ich kaufe nix, was ich nicht vorab von vertrauenswürdigen Testern verifiziert und für gut befunden bekomme! Da es im deutschsprachigen Raum außer Prad nichts in der Art gibt, würde ich das hier bei Igor auf der HP gerne zukünftig machen wollen.

Ich denke, dass man bei IgorsLab in Form von Videos oder Artikeln alles getestet und bewertet bekommt. Die einzig wirklich Lücke ist das Thema Montiore... Aber genau das Thema brennt vermutlich den Meisten unter den Nägeln oder sehe ich das falsch?

Aus meiner Sicht gibt es nichts schlimmers als sich einen teuren Monitor zu kaufen und dann merkt man erst, dass die 1 ms Responce Time mal wie immer nur als Werbe-Spaß auf die Packung gedruckt wurde!

Wer wirklich 240 Hz erleben will und das OHNE inverse ghosting und overshot, der muss sich darüber im Klaren sein, wenn der Monitor nicht im Bereich der 4 ms Responce Time liegt und eine single overdrive experiance über die VRR bietet, wird den Kauf schnell bereuen!
 
Zuletzt bearbeitet :
Nachtrag: in der Tat finde ich Artikel die teilweise 5 Jahre oder älter sind und in denen bereits erwähnt wird das Altera FPGAs in GSync Monitoren verbaut sind
 
Eine Vapor Chamber ist es tatsächlich nicht, sondern "nur" eine Baseplate aus Kupfer, auf der die Heatpipes aufgelötet sind.
Ich habe es auf dem Foto nicht genau gesehen und bin mal von einer guten Lösung ausgegangen. Wenn die Wärme erst durch 2 - 3 mm Kupfer zu den Heatpipes wandern muss und der Weg von dort zu den Lamellen noch länger ist, wird es trotz recht grossem Aufwand warm genug werden.

Die Triebwerklüfter mag ich auch nicht.
 
Ja, ab dem x570S nicht mehr. Gab anfänglich nur zwei Hersteller die das per Heatpipe lösten. Alle anderen verbauten Lüfter, wobei man das Profil auch "silent" abstimmen konnte. Der Lüfter dient zur Sicherheit, was man aber bei 4 Heatpipes in Ultimate getrost ausschließen kann, das Teil wird stet vor sich hin säuseln (wurde auch schon vielfach kritisiert).

Mittlerweile gibt es 20 Platinen ohne. War auch nur ein Beispiel. Der Arria 10 AX048 ist ein programmierbarer ARM Asic von Intel. Der kostet NVidia keine 500$, das Modul mit 3GiB DDR4 und dem Asic kostet in etwa soviel, verteuert die Monitore also deutlich.

Dann müsste man also Intel Inside auf den Bildschirm drucken.:)

Die lüfterlosen Varianten hat AMD über AGESA, vermutlich mit zusätzlichen Stromsparmechnismen freigegeben. Könnte Herr Wallossek ja mal erfragen.
 
Zuletzt bearbeitet von einem Moderator :
Einen Monitor mir Lüfter würde ich direkt retounieren, erst recht zu so einem Preis. Bei 35" ist mehr als genug Fläche da um das passiv zu kühlen.
Das mag sein, aber der Lüfter ist garantiert um einiges billiger.

Zum Thema: Kann mir jemand erklären, was es an G-SYNC Hardware-Revisionen gibt? Ich habe einen ASUS ROG PG279, der hat G-SYNC hardware, aber ich höre da keinen Lüfter. Ist das eine ältere Version? Wo liegen die Unterschiede?
 
Mir ist AMD grundsätzlich sympathischer. Die haben nur ein mieses Timing und bis vor 1 Jahr kein vergleichbares Produkt.
Die Geschichte mit den Monitoren ist schnell erzählt: 5700XT mit FreeSync, Leistung war eh am Limit (WQHD) und dann hatte die Karte nen Defekt. Also 2080S gekauft, Display war aber alt und nicht mal G-Sync kompatibel. Also IPS mit G-Sync gekauft, damit die Karte ein paar Jahre hält. Bisher hat sich das gelohnt. Müsste ich jetzt aufrüsten würde ich 6900XT plus FReeSync / Adaptive Sync nehmen, da bestes P/L-Verhältnis. Muss ich aber nicht.
Besitze seit 4 Jahren nen G-Sync Monitor von Viewsonic und der wird weiterhin bleiben.
Im Grunde war er für mich, eine der besten Anschaffungen im HW Bereich.
Würde mich mal interessieren, was den in den alten Gsync Monitoren verbaut ist?
 
Den besitze ich auch. Elite irgendwas.
 
Oben Unten