Intel Intel unterstützt VESA Adaptive Sync

Mehrleistung ist sehr anwendungsspezifisch und meist theoretischer Natur. Die 70ti ist in Spielen 5% schneller als die 56, aber merkst du von den 10 FPS was? Eher nicht. Wohl aber von den besseren Frametimes.
Und je nachdem was ich aber außer spielen anstellen will (Forschung, Entwicklung, Rendern) sieht das wieder anders aus.

Ich versteh dein Argument glaub und es ergibt in einem gewissen Rahmen auch Sinn. Man kann schon auch mal auf 3 Grafikkarten 50€ sparen und hätte dann den Aufpreis für GSync drin und hat vermutlich noch 2 AAA Games im Angebot mit dabei.
Allerdings ist das eine Wette auf die Zukunft.
Gsync kostet direkt Geld, die GraKa Ersparnisse können kommen, müssen aber nicht. Jetzt lass AMD im Februar mal den heiligen Gral der Grafikchips präsentieren, da stehst mit Gsync auf einmal ganz schön blöd da (können Gsync Monitore auch Freesync?idk, vermutlich nicht).
 
"Allerdings ist das eine Wette auf die Zukunft. "
"Jetzt lass AMD im Februar mal den heiligen Gral der Grafikchips präsentieren "

Ich hoffe das verzeihst du mir :D

Halten wir fest: Derzeit ist Nvidia bei den Grafikkarten besser aufgestellt was Preis/Leistung angeht, dafür sind G-Sync Monitore unverschämt teurer. Sowohl mit G-Sync als auch FreeSync muss man derzeit Wetten für die Zukunft abschließen und einfach hoffen, dass AMD als auch Nvidia weiter die gebotene Leistung liefern können oder sogar ausbauen kann.

Alles was ich sagen will ... 150€ ist eine Aussage die so einfach nicht zu 100% korrekt ist, da einige Rahmenbedingungen weggelassen werden.
 
was mir in der ganzen Diskussion auffällt, wo ist denn der große Vorteil von G-Sync der die benannten 150 € aufwiegt? - wenn wir das mal komplett von der Graka abkoppeln...

mal davon abgesehen - das ich aktuell beispielsweise auch nen 144 Hz 32" Freesync mit ner 980ti nutze... ich schau halt, das die Karte immer mindestens stabil 60 FPS bringt (durch die individuellen Graphikeinstellungen der Spiele) und limitiere Sie aber dahingehend, das ich bei 120 FPS nen Limit drin habe, damit Sie im Mittel kühler + leiser läuft...

Mein Ansicht ist, das die Publisher / Softwareschmieden hier noch Nachholbedarf haben... wenn ich in Spielen Grenzwerte für min und max FPS vorgeben könnte und das Spiel in einem eigenen Testparcour mal prüft, sollten die Einstellungen sich super darauf hin ausrichten lassen... am besten dann noch so wie es WOW macht - da gibt es ein eigenes 2tes Setting für Raids / intensive Zonen... und schon wäre adaptive sync gar nicht mehr sooo wichtig, immernoch nice to have aber eben nicht must have ;)
 
Vorteil G-Sync?

In der Regel bei niedrigeren und höheren FPS nutzbar ( 30 vs 45 und 144 vs 90)
“frequency dependent variable overdrive” - Welches Ghosting verringert, welches ein großes Problem bei diesen hohen Frequenzen ist.

Zudem wird jeder Monitor von Nvidia zertifiziert und muss gewisse Mindestanforderungen erfüllen. Während FreeSync einfach überall reingeballert werden kann. Okay, das ist nicht unbedingt ein Vorteil, aber dadurch hast du mit G-Sync zumindest eine Garantie, dass der Monitor ein Mindestmaß an Qualität und Features bietet, während der FreeSync Monitor einfach auch jeder mögliche Supermarkt Grabbelkisten Restposten sein kann.
 
[...]dass der Monitor ein Mindestmaß an Qualität und Features bietet, während der FreeSync Monitor einfach auch jeder mögliche Supermarkt Grabbelkisten Restposten sein kann.

Gingen G-Sync / Nvidia ungeschollten aus dem AU Optronics WQHD Panel Massaker hervor?

Hab hier immer noch meinen trusty Crossover Koreaner rumstehen, weshalb ich die Welle der überpreisten WQHD Panel-Lotterie ausgesetzt habe.

Die meisten Marken haben sich erst mal schön durch den Schlamm ziehen lassen, Aufgrund mangeldem/fragwürdigen Panel QA.
 
Vega 64 - 470€
1080 - 460€

1080 ~ 5% schneller. Also besserer Preis, bei besserer Leistung.

Es kommt natürlich immer auf die Spiele und die Auflösung an, aber laut CB ist die 1080 im Mittel kein Stück schneller als die Vega 64, die 1070 ist langsamer als die Vega 56 und die 1060 ist langsamer als die 580. Die 1070 Ti ist ein Stück teurer als die Vega 56 und nicht proportional schneller. Ja, die Unterschiede sind minimal, daher schrieb ich auch "(fast) exakt gleich schnell". Aber von den 5% Mehrleistung sehe ich im Durchschnitt nichts. Und selbst wenn es in einem Spiel mal 5% sind, dann ist mir das keinen 150€ teureren Monitor wert. https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-1920-1080
 
Das tut mir ja sehr leid für CB, aber in der Regel ist man nicht auf Caseking beschränkt, sondern kann dort kaufen wo es am Billigsten ist. Die Preisliste bei CB ist jedenfalls nicht der Rede wert, da absolut falsch.

1080Ti laut CB: 669€, Realität: 599€
1080 laut CB: 469€, Realität: 459€
1070Ti laut CB: 429€, Realität: 380€
1070 laut CB: 389€, Realität: 378€
1060 laut CB: 249€, Realität: tatsächlich 249€ :D
1050Ti laut CB: 159€, Realität: tatsächlich 159€ :D

Und:

Vega 64 laut CB: 469€, Realität: Tatsache, 469€
Vega56 laut CB: 399€, Realität: 439€
RX580 laut CB: 249€, Realität: 199€ oder 289€ ... egal welche Version der 580 man nimmt, der Preis stimmt Null.
RX570 laut CB: 179€, Realität: tatsächlich 179€
RX560 laut CB: 136€, Realität: 127€

So pfleglich wie man mit der Preisliste umgeht geht man vielleicht ja auch mit den Benchzahlen um ...
 
Zuletzt bearbeitet von einem Moderator :
Ich habe die Quellen genannt, auf der meine Aussagen basieren. Selbst wenn die 1080 wie von dir geschrieben 10 € billiger ist, (Post #11), dann musst du sehr viele Karten kaufen, die billiger sind, um den Aufpreis des Monitors auszugleichen. Und nach derzeitigem Stand ist davon auszugehen, dass die nächste Generation von Nvidia eher teurer wird. Zudem ist G-Sync rein auf Nvidia beschränkt, ob Nvidia in Zukunft auf diesem eigenen Standard bleiben wird, wird sich zeigen.

PS: Du wirfst 5% Mehrleistung in den Raum, ohne eine Quelle anzugeben.
 
Ob du es glaubst oder nicht, meine 5% Mehrleistung kommt von den original Benches die CB geliefert hat ...

Wenn du mitlesen würdest habe ich eingeräumt, dass es auch mit diesen Ersparnissen der Grafikkarte vielleicht nicht die 150€ erreicht ... aber hey, FreeSync = G-Sync und so und keine Unterschiede und so ... und alles das gleiche, aber eins kostet 150€ mehr! WOW!

Die nächste Generation von Nvidia kennen wir noch nicht die Preise, bzw. ist dort sehr viel Verwirrung noch im Raum (Danke Nvidia und Founders und verschiedene Folien die verschiedene Zahlen wiedergeben), aber auch wenn sie teurer werden, ist noch nicht bekannt wie sich die Mehrleistung bemerkbar machen wird. Nur weil etwas einfach teurer ist heißt es doch nicht, dass die Preis/Leistung auch schlechter wurde/wird.

FreeSync ist rein auf AMD beschränkt, ob AMD in Zukunft auf diesem eigenen Standard bleiben wird, wird sich zeigen. Was jedoch klar ist, ist das Nvidia High-End liefern kann, was AMD erst noch beweisen muss.


https://www.computerbase.de/2017-08...-test/4/#diagramm-performancerating-2560-1440
https://www.computerbase.de/2017-11/geforce-gtx-1070-ti-test/3/

ich hab sogar in beiden Fällen die Zahlen auf 5% abgerundet ... die Ergebnisse von CB waren nämlich noch etwas einseitiger ...
 
Zuletzt bearbeitet von einem Moderator :
(können Gsync Monitore auch Freesync?idk, vermutlich nicht).
??
"Allerdings ist das eine Wette auf die Zukunft. "
"Jetzt lass AMD im Februar mal den heiligen Gral der Grafikchips präsentieren "

Ich hoffe das verzeihst du mir :D
Niemals! :D Ist bewusst überspitzt um das Argument zu verdeutlichen. Außerdem wird man ja wohl noch träumen dürfen ^^

Mein Ansicht ist, das die Publisher / Softwareschmieden hier noch Nachholbedarf haben... wenn ich in Spielen Grenzwerte für min und max FPS vorgeben könnte und das Spiel in einem eigenen Testparcour mal prüft, sollten die Einstellungen sich super darauf hin ausrichten lassen.
Ich bin ja schon glücklich wenn es ein 60FPS lock gibt.
Das wäre tatsächlich mal etwas womit man anfangen könnte. Problem ist, dass sich damit kein Geld verdienen lässt aber es Mehraufwand bedeutet. Variable Grafiksettings die von der FPS abhängen sollten allerdings den Entwicklern gefallen, da man somit ja garantiert ein flüssiges Spielgefühl bekommt.
Was jedoch klar ist, ist das Nvidia High-End liefern kann, was AMD erst noch beweisen muss.
Haben sie schon beweisen, mehrfach.
Warum geht denn jeder immer blind davon aus dass AMD weiterhin High-End Karten für Spieler herstellt?
Stand jetzt hat es für mich den Anschein als versuchen die eher auf Server und Machine Learning umzuschwenken, weil da mehr Geld dahintersteckt. Gaming kann man auf Polaris Niveau weiterlaufen lassen, das ist der größte Teil des Marktes. Alles darüber frisst nur Geld, das man u.U. besser in anderen Geschäftsfeldern investiert.
 
Vielleicht sind die Werte hier vertrauenswürdiger, wenngleich n büschen älter:
https://www.igorslab.de/2018/07/02/...-heisser-kampfzwerg-mit-dickem-kuehlpanzer/3/
Unabhängig davon: solange man bei AMD x Monate warten muß, bis die Karten durch die ganzen Treiber die anfänglich fehlende Leistung dann schließlich doch bieten, ist die ganze Diskussion doch etwas albern.
Ich seh das Szenario schon: die 20xx mit oder ohne Zusatz ist seit ner Weile raus und dann kommen die neuen AMD-Karten, hinken hinterher uswusf. und alle hoffen, dass sie - ja, in was? Knapp einem Jahr? - dann endlich gleichziehen. Braucht kein Mensch.
 
Vega 64 - 470€
1080 - 460€

1080 ~ 5% schneller. Also besserer Preis, bei besserer Leistung.

Laut CB ist bei FHD nahezu Gleichstand im Mittel und in 4K ist das Referenzdesign der Vega 64 5% schneller als das Referenzdesign der 1080. Bei den Customdesigns schrumpft der Vorsprung von Vega auf 2%. https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-3840-2160

Freesync ist im Gegensatz zu G-Sync kostenlos, benötigt keine speziellen Zusatzchips und ist laut dem Originalartikel keineswegs nur auf AMD beschränkt "Vor drei Jahren versprach Intel, AMDs FreeSync (auch bekannt als VESA Adaptive Sync) in zukünftigen Produkten zu unterstützen – tat das bisher aber mit keinem einzigen Produkt."

Wo sich die Preise von den 20X0er Karten am Ende einpendeln werden, das kann man natürlich noch nicht abschätzen. Wo sie leistungsmäßig landen werden, wissen wir auch erst nach dem Fall des NDA. In den bisherigen Leaks ist von größenordnungsmäßig 40% mehr Leistung die Rede, wobei ich das nur als Hinweis sehe, nicht als konkreten Messwert. Aber basierend auf den Vorbestellpreisen würde der Preis deutlich stärker ansteigen als die Leistung.

Edit: @Derfnam: Ja, das Zwischenfazit deckt sich ziemlich genau mit CB. Allerdings mittels Toms Hardware (aus gutem Grund) nicht über alle getesteten Spiele. Daher nahm ich CB als Quelle, um einen Zahlenwert angeben zu können.
 
Haben sie schon beweisen, mehrfach.
Warum geht denn jeder immer blind davon aus dass AMD weiterhin High-End Karten für Spieler herstellt?
Stand jetzt hat es für mich den Anschein als versuchen die eher auf Server und Machine Learning umzuschwenken, weil da mehr Geld dahintersteckt. Gaming kann man auf Polaris Niveau weiterlaufen lassen, das ist der größte Teil des Marktes. Alles darüber frisst nur Geld, das man u.U. besser in anderen Geschäftsfeldern investiert.

So gerne ich auch haben würde, dass Hardware einfach irgendwann mal "reicht", so wenig entspricht das leider der bitteren Realität. Es werden Mittel und Wege gefunden uns neue Hardware aufzuzwingen (und das nicht nur über optionale zuschaltbare Optionen). Winamp das damals auf nem PIII 500 ultraschnell lief ist heute auf nem 6 Kerner mit 4GHz pro Kern absolut unbrauchbar. Das gleiche passiert leider auch in der Spielewelt. Spiele werden nicht auf die Hardware optimiert die beim Kunden ist, die Spiele werden ja nicht mal für Hardware optimiert die am Markt verfügbar ist, sondern Spiele werden für Hardware optimiert die irgendwann mal am Markt sein wird.

Aber wie auch immer. Wenn man eine neue Graka kauft, dann hat man in der Regel eine gewisse Mehrleistung im Sinn. Joa, vor einigen Generationen konnte AMD noch super High-End liefern. Aber irgendwie ... Wer damals eine dieser Karten gekauft hat hat in den letzten Jahren kein Upgrade von AMD zur Verfügung gestellt bekommen.

Edit: Ach wäre das doch schön, wenn User auch Unterschiede zwischen Strix und Gaming X ausmachen könnten. Eine davon auf Ultimative Geschwindigkeit gepresst, während die andere versucht einen gesunden Kompromiss aus Lautstärke und Temperaturen zu liefern. Custom =/= Custom
 
Zu behaupten, dass die Kühlung durch G-Sync benötigt wird ist schon extrem abenteuerlich. Du kannst ja mal deinen 08/15 60Hz Monitor hinten anpacken und dir überlegen ob das vielleicht bei extrem leistungsstarken Monitoren etwas wärmer wird.

Es ist aber so. Zumindest bei den aktuell vorhandenen Gsync?2? Modulen.
 
Zu behaupten, dass die Kühlung durch G-Sync benötigt wird ist schon extrem abenteuerlich. Du kannst ja mal deinen 08/15 60Hz Monitor hinten anpacken und dir überlegen ob das vielleicht bei extrem leistungsstarken Monitoren etwas wärmer wird.

Mein 08/15 Monitor (4K, 60 Hz, halbes Jahr alt) fühlt sich auch nach mehreren Stunden Zocken an der Rückseite wie auch im Bereich der Lüftungsschlitze genau so kalt an wie der Standfuß. Der mit Abstand größte Energiefresser dürfte wohl die Hintergrundbeleuchtung sein, das Panel ist flächig gerade so fühlbar warm vielleicht gefühlte 5 °C wärmer als der Monitorfuß. Und das ist überall der Fall, auch da, wo das < 1cm dicke Gehäuse offensichtlich keine Elektronik beherbergen kann.

Und ich kann mir kaum vorstellen, dass die Elektronik in einem 144 Hz-Monitor so viel aufwendiger ist, dass dort eine aktive Kühlung notwendig ist. Daher schließe ich darauf, dass es nur das G-Sync-Modul sein kann. Außerdem meine ich in einer Newsmeldung gelesen zu haben, dass die Kühlung explizit für das G-Sync-Modul ist. Vielleicht habe ich das aber auch falsch in Erinnerung.

Edit: CB schreibt hier https://www.computerbase.de/2018-06/uhd-monitore-144-hz-g-sync-modul-kosten/ im vorletzten Abschnitt, dass das G-Sync-Modul selbst explizit gekühlt werden muss.
 
Zuletzt bearbeitet :
Also das Thema der News deckt sich irgendwie schon seit Seite 1 nicht mehr mit dem was diskutiert wird. :unsure:

Fakt ist, sowohl GTX1070/GTX1070Ti/Vega56 als auch GTX1080/Vega64 geben sich nichts. In einem Spiel sind die einen schneller in einem anderen Spiel die anderen. Somit steht hier einzig FreeSync/AdaptiveSync gegenüber G-Sync. Und nur letzteres kostet eben je nach Monitor 150-300€ Aufschlag.
Es gibt somit keinen Mehrwert am Ende für den User, außer den nVidia Aufschlag. Den geringen Vorteil den man durch den zusätzlichen Chip hat, kann man wie es auf CB immer so schön heißt, als Messtoleranz ignorieren. Anders als der Unterschied von 60Hz zu 144Hz Monitor merkt den nämlich der User nicht am Ende.

Und hier andauernd darauf hinweisen, das nVidia ja X% schneller ist und Preis/Leistungssieger ist zwar eine schöne eigene Meinung, aber leider halt nur eben bedingt richtig. Hatte die Hoffnung, das dieses ständige nVidia hörige Verhalten eher auf CB bleibt und hier mehr wertneutraler die Sache angegangen wird von allen.

Das dazu.

Um zum eigentlichen Topic zurück zu kommen:

Es ist wichtig, dass Intel sich auch dem offenen Standard annimmt. Gerade als der Hersteller, der am meisten GPUs verkauft (auch wenn es nur in CPU integrierte GPUs sind), hilft es ungemein einen gemeinsamen Standard endlich zu erschaffen. Denn an dem können sich alle orentieren. Und am Ende profitieren alle davon (außer der doch etwas gierige GPU Hersteller, der seine Kundschaft stärker melken will als alle anderen).
 
Nicht schlecht die Diskussion... Wenn ich mir meinen FluSi ansehe, mit insgesamt 5 Monitoren und ich jedes mal den Nvidia Aufschlag hätte Löhnen müssen... Danke aber NEIN Danke!!!
Klar hängt ein Doppelpack 1080ti hinter aber des passt scho... Der Flaschenhals hier ist eher das Nachladen von Google Earth...
 
Meinst du mit Wertneutral etwa dieses stumpfe "G-Sync bietet nichts was FreeSync nicht kann und kostet 150€ mehr"? Sorry, aber ich habe versucht etwas Substanz in dieses absolut leere Nvidia Bashing und die AMD Hochlobung zu bringen. Wenn du Substanz haben willst, dann musst du die Sachen eben durchleuchten.

Wenn man sich die Kühllösung von Asus und Acer anschaut, dann sieht man aber auch, dass dies auch passiv möglich wäre ... Und das Acer absolut Mist gebaut hat haben die ja schon zugegeben. Vielleicht etwas weniger Schickimicki an die Rückseite ballern? Da sieht es doch eh niemand! Einmal nur die Funktionalität und nicht den Transformer in den Mittelpunkt stellen. Ist das so schwer? Anscheinend schon :(

Edit: @Dark_Knight Achso, du selbst bist der Meinung, dass man einfach alle Vorteile streichen kann und das alles einfach auf die 150€ runterstreichen kann. So Wertneutral also? Alles nur Messtoleranzen und für den Kunden absolut nichts außer Mehrkosten ... Wertneutral ... Irgendwas beißt sich hier massiv.
 
Zuletzt bearbeitet von einem Moderator :
Na ist doch ganz simpel und gilt für so manches im Leben: Die Messlatte ist das kostenlose Produkt. Punkt.
Wenn etwas, was kostenlos ist, nun beim Mitbewerber auf einmal Geld kostet, dann muss der Aufpreis sich lohnen. Kann ja sein und ist vollkommen legitim.
Wenn der Aufpreis so hoch ist, das er in keinem Fall dem Nutzen entspricht und somit im Verhältnis zum kostenlosen Produkt nur dem Hersteller nutzt, so ist dies Abzocke. Punkt.
Wer das dann noch unterstützt hat a) keine Ahnung, b) soviel Geld, das es ihn eh nicht interessiert oder c) er ist, wie man hier sagt, mit dem Klammerbeutel gepudert!

Bezugnehmend auf die Debatte hier ist meine Meinung: pro Nvidia = Klammerbeutel

Aber was sagte mein Prof. damals schon: Meinungen sind wie A****löcher. Jeder hat eins...
 
Welcher Vorteil? Wirklich bietet dir ein Chip der 150-300€ Aufpreis bedeutet etwas Bahnbrechendes, was andere nicht bieten? Eher nicht so. Es geht halt anders als FreeSync/Adaptive noch ein paar Hz runter beim Syncen. Dir ist das offentlich ein Aufpreis wert. Den meisten anderen halt nicht.

Viele nehmen nur einen G-Sync Monitor, weil sie eine nVidia Karte haben um überhaupt Sync nutzen zu können. Ansonsten würde sich jeder den Aufpreis sparen und direkt ein FreeSync Monitor nehmen.
Und noch mal. Stand jetzt ist eine 1070/1070Ti bzw. die 1080 nicht schneller als deren Pendants von AMD. Welchen Vorteil, also einen wirklichen Vorteil, soll es bitte jetzt haben sich eine nVidia Karte zu kaufen (lassen wir die überteuerte neue Generation mal außen vor) und einen G-Sync Monitor für umgerechnet 150-300€ mehr, anstatt eine AMD/FreeSync Kombi, die nicht langsamer ist und eben jene 150-300€ einspart?

Einzig wenn man das Spitzenmodell 1080Ti haben will, muss man überlegen G-Sync Aufschlag oder nicht.

Bis jetzt sehe ich zwar gute Gamingkarten von nVidia, aber einfach keinen Grund den Aufpreis zu zahlen, nur weil nVidia noch mal zusätzlich melken will.
Und ich sehe dich halt vehement dieses doppelt und dreifach melken zu verharmlosen. Ist dir das ein besonders wichtiges Anliegen? Weil wenn nicht, akzeptiere es einfach, das dies viele eben nicht gutheißen. Wenn doch, falsches Thema dafür. Aber ein eigener Thread für das Für und Wider von G-Sync, ist ja schnell eröffnet. ;)
 
Oben Unten