Intel Intel unterstützt VESA Adaptive Sync

Jakob Ginzburg

Urgestein
Mitglied seit
Jun 17, 2018
Beiträge
843
Bewertungspunkte
290
Punkte
63
Adaptive Sync - bei AMD als FreeSync und von Nvidia als G-Sync bekannt - ist eine Technik mit der die Ausgabequalität zum Teil erheblich verbessert werden kann. Das stellen die Hersteller durch die Darstellung eines jeden Datenframes sicher, das an den Monitor weitergeleitet wird, sobald ein solcher Datenframe vollständig berechnet wurde.

FreeSync-1024x531.jpg




Ohne diesen Ansatz wird die Darstellung von Spielen entweder „zerreißen“ (wenn V-Sync deaktiviert ist) oder eine deutlich sichtbare Linie, die längs über dem Bildschirm verläuft, ist zu sehen. Auch Animationen stocken durch fehlende Frames oder schlicht duplizierte (weil nicht berechnet) Frames. Die mehrfache Darstellung bzw. der sich wiederholende Animationsverlaufen erzeugt einen sichtbaren Lags (Stottereffekte), da der Monitor auf das fertige Bild wartet, dieses aber nicht von der Grafikkarte bekommt. Unternehmen wie AMD und Nvidia haben, basierend auf offenen VESA-Standards, Lösungen entwickelt, die dieses Problem vermeiden...

>>> Den Originalbeitrag lesen <<<
 
Sehr schöner Artikel. Wenn ich es richtig gesehen habe könntest du noch auf den "Trick" mit der APU und der Nvidia Karte hinweisen, womit ein FreeSync Monitor derzeit läuft :D. Nvidia hat absolut keine Ausrede, außer WIR WOLLEN MEHR VON EUREM GELD! *hust* ... tschuldigung.
 
Das Treiber-Dings wird garantiert mit der nächsten Version gefixt. ;)
 
Auf jeden Fall. Genau wie damals AMD als Hauptkarte und Nvidia nur für PhysX. Ging auch nur noch über Umwege. Fand den Hinweis nur als weitere "Untermauerung" interessant :D
 
Der Aufpreis von 100 - 150 USD gilt ja nur für die erste Generation von G-Sync.
Die nächste Entwicklungsstufe "G-Sync HDR" soll ja ~500 € Aufpreis für das Modul ausmachen :ROFLMAO:
Im Jahr 2015 fand ich den von Linus Sebastian ( Linus Tech Tips ) durchgeführten Input Lag Vergleich zwischen Freesync und G-Sync interessant und frage mich ob es jetzt immer noch seine Gültigkeit hat.
Zum Thema PhysX, seit Windows 10 nutze ich es ohne mods und brauche dazu nur ein HDMI-Dummy um die Nvidia Einstellungen zu öffnen.
Wenn Nvidia den Trick mit Freesync mit der nächsten Version fixt, dann wird zurück gepatcht :)
 
Zu allem Überfluss brauchen manche G-Sync-Monitore mit hoher Auflösung auch noch aktive Kühlung. Danke, aber ich bleibe da lieber bei Freesync. Mein Monitor hat 350 € gekostet. Dafür gibt es zwar nur 60 Hz, aber ein IPS-Panel in 27" mit 4K Auflösung. Für mich ist das damit das deutlich rundere Paket.

Bei den beiden hier gezeigten Monitoren bietet der G-Sync-Monitor auf jeden Fall schonmal 144 Hz, ist also zumindest in dem Punkt besser als der Freesync-Monitor. Trotzdem finde ich die Aufpreise von Nvidia absurd. Auch dank des ursprünglich geplanten GPP werde ich in absehbarer Zeit nichts mehr von denen kaufen. Eine dGPU von Intel kommt mir aber nach dem Verhalten von Intel der letzten Jahre auch nicht ins Haus. Zudem muss Intel erstmal wettbewerbsfähige Grafikkarten mit brauchbaren Treibern liefern ...
 
Ich steh ja schon auf das Grafikgedöns und trage mich mit dem Gedanken, nen 4k-Panel mitsamt GraKa anzuschaffen. Der G-Sync Aufpreis verhindert jedoch den Kauf, da mir dann die Kohle für eine Grafikkarte fehlt, die 4K auch darstellen kann. Zum Glück kommt die neue Generation bald raus - zu entsprechenden Preisen. Ich komme bei Nvidia immer wieder in die "Was ist mir das eigentlich wert" Falle. Das war lange Jahre nicht so, aktuell übertreiben sie es mit dem Geld machen.
 
Zu behaupten, dass die Kühlung durch G-Sync benötigt wird ist schon extrem abenteuerlich. Du kannst ja mal deinen 08/15 60Hz Monitor hinten anpacken und dir überlegen ob das vielleicht bei extrem leistungsstarken Monitoren etwas wärmer wird.

Zum Glück spart man bei Nvidia G-Sync den Aufpreis an der Grafikkarte selbst. Dadurch das ich die Grafikkarte öfter neukaufe als einen Monitor würde ich am Ende auf die selbe Ersparnis kommen. Muss halt jeder selber wissen, ob er an der Grafikkarte oder am Monitor auf Preis/Leistung verzichten will. Und um ehrlich zu sein wäre der beste Kompromiss einfach die Nvidia Grafikkarte zu kaufen und auf G-Sync zu verzichten.
 
Zum Glück spart man bei Nvidia G-Sync den Aufpreis an der Grafikkarte selbst. Dadurch das ich die Grafikkarte öfter neukaufe als einen Monitor würde ich am Ende auf die selbe Ersparnis kommen.
Echt? Kurz überschlagen gilt das wohl nur bei schlechten Preisen. Mining war da jetzt mal kurz ein Schlag ins Gesicht, aber in einem funktionierenden Markt sollte das P/L Verhältnis bei ebenbürtigen Karten (1060/580) ähnlich sein. Wenn man da also über 3 GraKa Wechsel 150€ spart, sind das 50€ P/L Vorteil pro Karte. Ich denke nicht dass das von Rot oder Grün gewollt ist, 50€ Unterschied auf die direkte Konkurrenz.

Oder ich hab das komplett missverstanden.
 
Gerade bei CB eine News zu den aktuellen Grafikkartenpreisen gelesen: https://www.computerbase.de/2018-09/grafikkarten-preise-september-2018/
Dort kosten 580/1060 sowie Vega56/1070 und auch Vega64/1080 jeweils (fast) exakt gleich viel. Und bei den neuen Nvidia-Karten der 20X0er Serie ist zumindest erstmal ein deutlicher Aufpreis zu erwarten.

Ja, durch den Mining-Boom waren gerade die Vega-Karten extrem überteuert, aber derzeit ist Nvidia nicht (mehr) günstiger.

Und bezüglich der Abwärme: Wenn ich das richtig verstanden habe wird explizit nur das G-Sync-Modul aktiv gekühlt. Jeder Monitor hat Abwärme, aber abgesehen von wenigen G-Sync-Modellen ist mir keiner mit aktiver Kühlung bekannt.
 
Vega 56 - 400€
1070Ti - 380€

1070Ti ~ 5% schneller. Also besserer Preis, bei besserer Leistung.

Vega 64 - 470€
1080 - 460€

1080 ~ 5% schneller. Also besserer Preis, bei besserer Leistung.
 
@ Plitz: ist das so gemeint, dass du den teureren Moni wegen der verbauten Technik mit schwächeren Karten betreiben möchtest, an denen du dann den Aufschlag sparst?
Also: 1440p-Moni mit G-Sync für meinethalben 500.- statt 200.- bis 250.-, dafür dann aber nur ne 1060 6 Gb (ab 250.-) statt ner 1070 (ab 380.-), was du dann über die Nutzungsdauer des Monis 3x machst?
 
Nein. Ich meine damit einfach auf FreeSync/G-Sync zu verzichten und einfach die Grafikkarte mit dem besten Preis/Leistungsverhältnis zu kaufen.
 
Wer einmal mit adaptive Sync gezockt hat, wird sicher nicht mehr zurückwollen ;)
 
Wo sparst du denn dann?
 
Ich bezog mich auf die Preise bei CB. Selbst wenn die von dir angegebenen bis zu 20€ pro Karte sind, musst du dir ca. 10 Grafikkarten kaufen, bis du den Aufpreis für den Monitor raushast. Also ich habe mir seit 2009 insgesamt 3 Grafikkarten und 3 Monitore gekauft. 2 Monitore waren davon allerdings gleich, weil ich eine Zeit lang mit 2 Monitoren nebeneinander gearbeitet habe.
 
Da lässt du jetzt aber die Mehrleistung weg, welche man zwar nicht direkt spart, aber zu einem gewissen Grad mit anrechnen sollte. Aber auch wenn man nicht auf die vollen 150€ kommt, so muss man doch auch anrechnen, dass G-Sync auch gewisse Vorteile gegenüber FreeSync hat. Einfach nur in die Welt zu setzen "150€ mehr? Das geht mal garnicht!" ist eben nicht die ganze Wahrheit. Man muss eben die Grafikkarte gegenrechnen und dann schauen was übrig bleibt ... und dann ist es eben die Frage ob der verbliebene Mehrpreis durch die Vorteile aufgewogen wird und das muss jeder für sich selbst entscheiden.
 
RX Vega 64 = schneller als GTX 1080, teilweise ist Vega gleich mit GTX 1080 Customs...
 
Wie kommt man von "teilweise ist sie gleichschnell wie Customs" zu "Vega 64 = schneller"? Die beiden Aussagen stehen in direktem Widerspruch! Wenn die Vega64 in manchen Anwendungsfällen gleichziehen kann, dann kann sie nicht allgemein vorbeiziehen!
 
Oben Unten