Intel Intel unterstützt VESA Adaptive Sync

@Plitz : Schön dich im neuen Forum so gut in Form zu lesen wie im Alten...
Besonders deine Meinungen...

@Dark_Knight : siehe Post 39...
 
Es ist aber so. Zumindest bei den aktuell vorhandenen Gsync?2? Modulen.

Meines Wissens betrifft das ausschließlich den 4K highfresh Totalschaden eines Monitors von ASUS, für schlappe 2.500€(+).

Sprich, ist (vorerst) ein Einzelfall, außer du kennst noch andere Panels.


Einzig wenn man das Spitzenmodell 1080Ti haben will, muss man überlegen G-Sync Aufschlag oder nicht.

Wieso das?

Als genau dieser Kartenbesitzer würde ich das allenfalls für 4K in Betracht ziehen. WQHD und FullHD steckt die Karte auch ohne Sync-Technologien ohne Weiteres weg. Wer in dem Bereich kauft wird vermutlich auch - bevor sich Sync sinnvoll einbringen kann - auf ein potenteres Modell springen, was die Sync Funktionaltität wieder untergräbt.

Im breiten Schnitt zumindest ;)

Und noch mal. Stand jetzt ist eine 1070/1070Ti bzw. die 1080 nicht schneller als deren Pendants von AMD. Welchen Vorteil, also einen wirklichen Vorteil, soll es bitte jetzt haben sich eine nVidia Karte zu kaufen (lassen wir die überteuerte neue Generation mal außen vor) und einen G-Sync Monitor für umgerechnet 150-300€ mehr, anstatt eine AMD/FreeSync Kombi, die nicht langsamer ist und eben jene 150-300€ einspart?

Einzig wenn man das Spitzenmodell 1080Ti haben will, muss man überlegen G-Sync Aufschlag oder nicht.

Hier muss man fairer halber den Verbrauch der AMD Karten anmerken, über X Jahre, wie viele auch immer, wird das G-Sync Pendant eine Nullrechnung, wenn nicht gar günstiger, zumindest dann, wenn man Stock betrachtet ohne manuelles Finetuning (Undervolting), um den Sachverhalt etwas zu relativieren.

Ich für meinen Teil halte es, unabhängig der Preislage, für recht dämlich sich mit propritärer Hardware an bestimmte Hardwarehersteller zu binden, weshalb ich FreeSync stets bevorzugen würde und vielleicht, irgendwann mal, wird Nvidia sich auch dazu herablassen.

Es ist ja nicht so als ob sie es nicht könnten als der einfache Fakt, dass sie es nicht wollen.
 
Ich weiß, das Totschlagargument Verbrauch.
Das würde aber halt immer nur ziehen, wenn alle Referenzmodelle nutzen würden bei nVidia Karten und keiner OCen würde. Ebenso müssten im Gegenzug die Vega Karten über Stunden jeden Tag im Anschlag laufen und eben das von dir genannte Undervolting weglassen.

Das Problem ist halt an dem Argument des Verbrauchs, der wird immer nur dann ins Spiel gebracht, wenn kein anderer Grund mehr vorhanden ist, der gegen den Kaufen von Polaris oder Vega sprechen würde (Preis außen vor gelassen, da dieser ja schwanken kann).
Denn früher hat es bei nVidia Karten, die sich auch je nach Generation gut Strom genehmigt haben auch keinen Interessiert bzw. wurde kritisch bewertet.

Und nein, selbst wenn man eine AMD Karte mit Freesync über sagen wir 5 Jahre betreibt, wird man immer noch am Ende günstiger rauskommen gegenüber einer nVidia Karte mit einem G-Sync Monitor für min. 150€ mehr. Grund habe ich ja genannt.
 
Also das Thema der News deckt sich irgendwie schon seit Seite 1 nicht mehr mit dem was diskutiert wird. :unsure:

Es ist wichtig, dass Intel sich auch dem offenen Standard annimmt. Gerade als der Hersteller, der am meisten GPUs verkauft (auch wenn es nur in CPU integrierte GPUs sind), hilft es ungemein einen gemeinsamen Standard endlich zu erschaffen. Denn an dem können sich alle orentieren. Und am Ende profitieren alle davon (außer der doch etwas gierige GPU Hersteller, der seine Kundschaft stärker melken will als alle anderen).

Hat Intel explizit die iGPUs für Adaptive Sync genannt? Die basteln ja auch an ner dedizierten. Es wäre ihnen zuzutrauen das Sync nur für diese kommt.
Aber generell ein gutes Zeichen. Sollte es auch für iGPUs kommen, könnte es sich auch auf Fernseher ausweiten. Leistungsbedingt vermutlich nur auf 1080p, aber mas que nada.
 
@Moeppel: Überschlagen wir das ganze mal. Wenn es 100 W höherer Verbrauch ist und man im Durchschnitt 3 Stunden pro Tag unter Volllast spielt (von mir für Otto-Normalverbraucher angenommen, ich selbst habe zu viele Hobbys, um im Durchschnitt auf 3 Stunden pro Tag zu kommen), dann sind das durchschnittlich 9 Cent mehr für Strom am Tag. Also muss man mehr als 1600 Tage (~4,5 Jahre) jeden Tag 3 Stunden spielen, um auf 150 € zu kommen. So lange habe ich bisher keinen Monitor benutzt. Zudem muss man gucken, ob man mit 150 € überhaupt auskommt. Wenn es beispielsweise ein 27" 4K-Monitor sein soll, was ich persönlich als für mich optimal ansehe, dann geht es bei Freesync ab 250 € los (https://www.computerbase.de/preisvergleich/?cat=monlcd19wide&sort=p&xf=11939_27~11992_Adaptive+Sync/AMD+FreeSync~14591_38402160), bei Nvidia zahlt man über 300 € mehr (https://www.computerbase.de/preisvergleich/?cat=monlcd19wide&xf=11939_27~11992_NVIDIA+G-Sync~14591_38402160&sort=p). Das wären 9 Jahre. Ich kann mir weiß nicht, ob jemand länger als 9 Jahre seinen Monitor verwendet. Die 2500 € Monitore von Asus und Acer lasse ich jetzt mal außen vor.

Für jemanden, der e-Sportler von Beruf ist und den ganzen Tag spielt, mag sich das ganze rechnen. Aber das dürfte nicht all zu viele Leute betreffen.

Wenn jetzt der Aufpreis für das G-Sync-Modul 500 $ beträgt https://www.computerbase.de/2018-06/uhd-monitore-144-hz-g-sync-modul-kosten/, dann hat Otto-Normalverbraucher den Aufpreis nach rund 15 Jahren (!) eingespart. So lange wird wahrscheinlich kein Monitor halten.

Ergänzung: @Affenzahn: Gerade auch bei iGPUs würde sich Adaptive Sync lohnen. Einfache und ältere Spiele sind damit durchaus spielbar, aber auch mit reduzierten Details teilweise nur mit weniger als 60 FPS. Das wäre für Adaptive Sync eigentlich das ideale Anwendungsgebiet, denn da schätze ich den Vorteil deutlich größer ein als im Bereich von 60 bis 144 FPS.
 
Selbst in diesen 3 Stunden täglich, läuft eine Grafikkarte nur für einen kleinen Teil der Zeit unter Volllast. Es ist und bleibt ein Milchmädchen Argument, das immer nur dann gebracht wird, wenn alle anderen Argumente ausgegangen sind.
Und wenn auch das entkräftet wird, dann wird wieder bei den angeblich schlechten Treibern von vorne begonnen. So dass man sich am Ende nur im Kreis dreht. Es kann jeder nVidia kaufen, wenn es für ihn das bessere Paket ist. Aber dadurch sind und bleiben die AMD Karten nicht schlechter. Denn sie liefern genau das was auch nVidia Karten machen, sie bringen vernünftige Leistung.
 
Mehrverbrauch bedeutet automatisch auch höhere Wärmeentwicklung und somit auch Lautstärke. Im Winter vielleicht ganz angenehm, aber im Sommer? Und da sind wir wieder bei substanzlosem Gequatsche ohne TIEFER in die Materie einzusteigen.

Alles was pro Nvidia ist? MESSTOLERANZ UND UNBRAUCHBAR FÜR DEN NUTZER!
Alles was negativ AMD ist? MESSTOLERANZ UND FÜR DEN VERBRAUCHER VERNACHLÄSSIGBAR!

Versuch doch wenigstens mal die Sachen zu verstehen und nicht alles einfach als unwichtig abzustempeln.

Und um noch mal auf euren bescheuerten CB Vergleich zurückzukommen und mal wieder tiefer in die Materie einzusteigen, wofür einige hier absolut NICHT in der Lage sind:

Es wurde eine 1080 Gaming X gegen eine Vega 64 Strix gestellt.
1. Eine 1080 Strix ist etwa 2-3% schneller als eine 1080 Gaming X
2. Die 1080Ti und Vega Versionen der Strix haben eine sehr viel potentere Kühlungslösung als es noch die 1080 Strix hat, welches noch mal 2% Mehrleistung liefert.
Plötzlich wirken die 2% mehr der Vega 64 gar nicht mehr soooo toll oder? Ist immer schön einfach nur auf die bunten Balken zu schauen und nicht drüber nachzudenken ... aber wir wollen euch heute mal nicht zu viel zu denken mitgeben!

Doch, über Eins dürft ihn noch grübeln: Wenn man jetzt noch gegenrechnet, dass die Vega 64 Strix 575€ kostet und die 1080 Gaming X nur 534€ ... Dann sind das alles plötzlich wieder nur Messtoleranzen :D
 
Zuletzt bearbeitet von einem Moderator :
Meines Wissens betrifft das ausschließlich den 4K highfresh Totalschaden eines Monitors von ASUS, für schlappe 2.500€(+).

Sprich, ist (vorerst) ein Einzelfall, außer du kennst noch andere Panels.



.

Nein, es gab auch noch nen zweiten, der das Gleiche aufwändige Modul hatte. Es handelte sich hier wirklich ums GSync Modul, dass irgendeinen teuren Chip drauf hat, der auch noch aktiv gekühlt werden muss. Man spekulierte aber, dass wohl nur die ersten Modelle diese Lösung haben werden.
 
Prozentunterschiede von 1-3% werden bei vielen Techseiten die die Produkte testen als Messtoleranz betitelt. Beschwer dich bei diesen.

Desweiteren wurde nie die Leistungsfähigkeit von nVidia GPUs in Frage gestellt, anders als die Leistungsfähigkeit von Vega Karten von deiner Seite aus.
Und noch mal, sowohl die aktuelle GTX Generation als auch die Vega Generation leisten das wofür sie entwickelt wurden. Bei keinem Spiel ist die eine Kartenserie als auch die andere unbrauchbar, solange man eben beachtet für welche der jeweiligen Leistungsklassen sie ausgelegt ist.
Somit ist alles am Ende eine rein subjektive Ansicht welche Karte einem lieber ist.
Das du dies nicht akzeptierst ist deine Sache. Aber Objektiv bist du damit nicht. Auch ist es sehr hinderlich, wenn von dir immer dasselbe kommt.

Dich interessiert Vega + FreeSync nicht. Deine Meinung, darfst du haben. Aber missionieren solltest du damit nicht wirklich. Denn sowohl das eine wie auch das andere (Also FreeSync wie G-Sync) hat bestimmte Vor wie auch Nachteile.
Wenn du nicht akzeptieren kannst, das eben viele den Aufpreis nicht zahlen wollen, den nVidia verlangt um Exklusiver und hochwertiger zu wirken, bin ich irritiert was du in einem Forum wo eben viele eine andere Meinung haben, erreichen willst.

Es wird hier keiner deiner Ansicht blind zu stimmen. Jeder hat eben seine eigene Sicht der Dinge. Und anders als es eben deine eigene Meinung ist, orentieren sich viele an neutralen Tests. Und diese belegen eben, das es keine erhältliche Kartenserie egal ob von der einen Firma oder der anderen es schafft sich ab zu setzen. Somit gibt es keine guten nVidia Karten und schlechten AMD Karten. Und auch andersherum gibt es nicht.
 
Du verstehst es immer noch nicht oder? An keiner Stelle habe ich Vega noch FreeSync versucht zu verunglimpfen, ich habe lediglich versucht dein etwas komisches Weltbild etwas geradezurücken, das einzig und allein darauf beschränkt ist, dass G-Sync Mist ist, weil 150€. Du akzeptierst währenddessen KEIN einziges Argument, sei es auch noch so schlüssig. Nvidia Grafikkarten sind schneller? Unwichtig! Nvidia Grafikkarten sind Günstiger? Unwichtig! G-Sync ist besser als FreeSync? Unwichtig! Alles unwichtig!

Ich fordere auch nicht das du mir blind zustimmst ... aber du könntest zumindest versuchen die Argumente zu verstehen ohne diese sofort ohne Hirnschmalz anzustrengen einfach abzustempeln! Hier sind Leute die behaupten das die Vega schneller als die GTX sind, aufgrund von 2% auf CB! Ich habe hier jetzt schlüssig erklärt das selbst der CB Test die GTX Karten schneller wertet, WENN man sich das Thema genauer anschaut. 2% pro Vega sind ein deutliches "Vega ist schneller als GTX", aber 3% und mehr für GTX ist einfach nur "Messungenauigkeit!"? Es sind immer wieder gegensprüchliche Aussagen!
 
Dabei fällt mir nur ein: “Herr Ober! Zwei Gabeln bitte, die Damen wollen streiten!“
Ein Schelm, wer jetzt was böses denkt!
 
Nvidia Grafikkarten sind schneller? Unwichtig! Nvidia Grafikkarten sind Günstiger? Unwichtig!

Pauschalisierung - wenn man lange genug sucht, dann findet man bestimmt eine AMD Karte die in Sachen Preis vs. Leistung eine vergleichbare Nvidia Karte hinter sich lässt - zumindest nach dem das Thema Mining langsam vom Tisch kommt...

Was ich sagen will, AMD ist aktuell, (meiner Meinung nach) etwas zu teuer - wenn man aber den Mining Aufschlag mal raus rechnet - dann macht AMD genau eins - ca. 10 % hinter Nvidia liegen, mit 8-12 % Preisdifferenz nach unten... auch ein rein theoretisches Konstrukt, eben weil die AMDs u.a. durch die bessere Speicheranbindung die besseren Miner sind (/waren)...

Wir sind uns sicher alle einig- rein beim FPS balken hat Nvidia die Nase vorn - preislich muß AMD das logischerweise unterbieten, hatten Sie aber eben wegen des Minings in der jüngeren Vergangenheit nicht nötig.

es ist am Ende auch total egal ob man nun G-Sync oder FreeSync besser findet und was der Unterschied ist - Fakt ist aber, wenn Intel zusagt einen offenen Standard zu unterstützen, dann ist das per se erst mal gut, was wir Verbraucher am Ende davon haben - das ist Glaskugel, Wunschdenken und ein wenig Glaube an das Gute ;)
 
Vorteil G-Sync?

In der Regel bei niedrigeren und höheren FPS nutzbar ( 30 vs 45 und 144 vs 90)
(...)
Bitte nicht pauschalisieren: Die ersten Monitore hatten das Problem, aber mittlerweile können auch FreeSync Monitore einen großen Bereich abdecken ohne sie in zwei Teilbereiche zu zerschneiden. Das, und der exorbitant hohe Preis vom damals einzig brauchbaren Monitor von Eizo, hat mich den Kauf erst abwarten lassen. Der AOC Agon AG241QX, den ich mir schlussendlich gekauft habe, kann FreeSync nahtlos zwischen 35 und 144Hz.
 
Von 96 Monitoren die FreeSync und 144Hz haben schaffen es ganze 8 bis auf 35Hz runter zu gehen. 30Hz erreichen nur noch 4 Monitore. Bei 40Hz sind es immerhin schon 20 Bildschirme. Also ich würde schon sagen, dass mein "In der Regel" nicht ganz falsch ist. "In der Regel" ist auch keine Pauschalisierung! Die 144Hz Marke haben die neuen FreeSync Modelle jetzt schon gut im Griff. Also nicht mehr "In der Regel", aber es war eine Zeit lang so.

Wenn man jetzt aber zu den G-Sync Modellen geht, dann erreichen 100% die 30Hz und 100% die 144Hz.

Ich verstehe jetzt aber auch nicht so wirklich wieso du abgewartet hast mit dem Kauf ... der Unterschied zwischen den 45Hz und 30Hz kann man als Kunde doch gar nicht wahrnehmen, bzw. als Messungenauigkeit abschreiben. Und der Unterschied zwischen 144Hz und 90Hz ist für den Kunden doch auch vernachlässigbar. So habe ich das zumindest verstanden. Gut zu wissen das es dir nicht so unwichtig war wie es manche hier darstellen wollen und du dich für ein gutes Modell entschieden hast ;)
 
Von 96 Monitoren die FreeSync und 144Hz haben ...

Der Preisvergleich von Geizhals listet gerade mal 53 Monitore die überhaupt G-Sync unterstützen https://geizhals.de/?cat=monlcd19wide&xf=11992_NVIDIA+G-Sync gegenüber >300 Modellen mit FreeSync und davon schaffen gerade mal 36 überhaupt 144 Hz. Bei beiden Technologien gibt es übrigens laut Geizhals genau einen Monitor, der auch bis auf 24 Hz herunter kommt. Preisdifferenz: knapp 290 €. https://geizhals.de/?cat=monlcd19wide&sort=p&xf=11992_Adaptive+Sync/AMD+FreeSync~11993_24 https://geizhals.de/?cat=monlcd19wide&sort=p&xf=11992_NVIDIA+G-Sync~11993_24
 
Immernoch? Dachte, das man das Thema, was eigentlich komplett OffTopic ist, langsam mal fertig hat.

Interessant ist doch einzig, wird Intel es nur für die dGPU nutzen, oder auch deren integrierte GPUs damit zukünftig ausstatten. Wenn nur ersteres wird nVidia noch eine ganze Weile ihre G-Sync Module verkaufen können. Sollte Intel aber auch die integrierten für Adaptive Sync öffnen, dann wird nVidia ganz schnell dies ebenso machen. Oder halt einen anderen Weg finden, das G-Sync in Kombination mit nVidia GPUs besser läuft. Treiber lassen sich ja immer in die eine oder andere Richtung entwickeln. ;)
 
Oben Unten