Grundlagenartikel Grafikkarten-Preisfrage: Warum vieles einfach viel kostet und am Ende doch keiner davon so recht profitiert | Editorial

Kenn mich damit nicht aus, aber grundsätzlich sollte es ein Leichtes für die Hersteller sein, (maximal) anliegende Taktraten, Spannungen usw. mitzuloggen und irgendwo für den Nutzer unsichtbar abzuspeichern.
 
Den einzigen Ort den ich mir vorstellen, der unauffällig genug wäre, wäre der Speicher vom Bios.

Sobald ein extra Speicher nötig ist, ist es aus meiner Sicht eine Frage der Zeit, bis jemand drauf kommt.
 
Für mich fühlt sich das aktuell subjektiv so an, als hätte Nvidia und AMD während des Mining Booms gemerkt, dass viel höhere Preise für Grafikkarten von potentiellen Käufern bezahlt werden, als man bisher verlangt hat, dabei aber übersehen dass Gamer kein Geld verdienen, während Miner den Kaufpreis wieder reingeholt haben. Im Zuge einer Preisfindung ist man dann davon ausgegangen, dass man relativ gefahrlos das Portfolio nach oben erweitern kann, weil es ohnehin bezahlt wird. Anstatt wie bisher also mit einer neuen Generation deutlich mehr Leistung für (in etwa) das gleiche Geld anzubieten (damit Kunden auch neue Produkte kaufen, obwohl sie schon ein altes Produkt besitzen), ist man dazu übergegangen den technischen Fortschritt zu reduzieren und nur noch geringe Steigerungen fürs gleiche Geld in neue Generationen zu packen und die Mehrleistung fast 1:1 in höhere Preise umzuwälzen. Das ist meines Erachtens aber ein Trugschluss und geht nach Hinten los. Bei Prozessoren gab es vom 2600K bis zum 7700K über 6 Jahre fast keinen Fortschritt und demnach haben Besitzer eines 2600K auch nicht aufgerüstet. Bei Intel war das kein Problem, weil deren Kunden überwiegend Firmen sind, welche ohnehin PCs als Ganzes alle 5 Jahre neu kaufen und da der Fortschritt selbst nicht besonders relevant ist. Die (überwiegende) Kundschaft von Grafikkarten sind allerdings Privatpersonen (Gamer) und die rüsten nicht auf, wenn es keine (hohe) Mehrleistung gibt, die man mit seinem Budget erreichen kann.

Während also durchaus einige Käufer von Maxwell auf Pascal umgestiegen sind, steigen nur absolute Enthusiasten von Pascal auf Turing um. Man beschränkt die Zielgruppe weitestgehend auf Neukäufer und Aufrüster älterer Generationen (Kepler, Maxwell). Außerdem darf man nicht automatisch annehmen, dass ein potentieller GTX 1080@600€ Käufer jetzt automatisch auch eine RTX 2080@800€ kauft, vielleicht kauft dieser Käufer auch nur eine RTX2070@500€.

Der Fokus auf Ray Tracing ist meines Erachtens obendrein völlig am Markt vorbei entwickelt worden, der Trend für stationäre Gaming PCs ist aktuell eSport, die üblichen Tripple-A Spiele werden in der Masse doch auf Konsolen gespielt. Mit Sachen wie einem innovativem (automatischen) eSport Modus für Low Latency Input Lag hätte man punkten können. Auch eine Art "benutzerdefiniertes Overlay Fadenkreuz" für NoScope Spieler wäre interessant gewesen, hier ist man aktuell auf einen kompatiblen Monitor angewiesen. Man hätte neben G-Sync HDR auch G-Sync eSport einführen können, bei dem die Eingabeverzögerung und Signalverarbeitung optimiert wird, sodass der Inputlag noch geringer wird, zusammen mit einer inputlagfreien Frame Limitierung. Aktuell muss eine Game Engine einen FPS Limiter bieten, weil die Limiter über z.B. RivaTuner einen hohen Inputlag verursachen, der höher ist als bei V-Sync. Es gäbe so viel Möglichkeiten, wie man das Trendthema eSport vorran bringen könnte, da würde man einen rießigen Markt ansprechen.

Wenn ich mir die Steam Bestenliste anschaue, dann stehen da Dota 2, CSGO und PUBG, außerhalb von Steam dominieren Apex Legends und Fortnite. Hätte man hier eine spezielle Technologie für niedrigeren Maus Lag oder stabilere MinFPS im Bereich auch im Bereich hoher FPS (200+) wäre das für Millionen von Käufer hochinteressant. Ray Tracing mit Performanceverlusten im Bereich von 50% interessieren doch selbst Enthusiasten nur zu einem geringen Teil.
 
Zuletzt bearbeitet von einem Moderator :
@Stunrise: Das hast du schön zusammengefasst. Der Markt ist in der Tat viel komplexer, als die Produktpalette erahnen lässt. Ein Update der 1080 (Ti) zum gleichen Preis - und ich hätte zugeschlagen.
 
Das ist das Hauptproblem, was Nvidia gnadenlos unterschätzt hat. Die Käufer einer 1080TI wären bei + 50% Leistung zum fast gleichen Preis sicher viel Upgradewilliger gewesen. Bei der jetzigen Preispolitik bekommen Sie jetzt die Quittung mit Umsatzeinbrüchen. Bleibt nur zu hoffen das Nvidia daraus lernt und seine Zielgruppe mit der nächsten Gen positiv überrascht. So richtig optimistisch bin ich hier leider nicht. Hab das Gefühl das wir wieder 2 Jahre Stillstand haben und dann ggf. erneut mit 30% Leistungssteigerung bedient werden - und wenn es ganz blöd läuft auch erneut wieder teurer in der Leistungsoberklasse. Hoffentlich liege ich daneben ;)
 
Die 1080TI war ein deutlicher Sprung zur 980TI. Die war halt einfach zu gut um solch einen Sprung gleich zu wiederholen.

Kein Grund zur Sorge:
Wenn erst mal ausreichend Fertigungskapazität für 7nm zur Verfügung steht, dann wird es eine 2180TI geben in 7nm LPP oder ähnlichem Prozess. Dann wird es schneller und billiger.
Zweimal +30% sind dann auch +70% (gegenüber der 1080TI) ;-)
 
Hoffe ich erwische wirklich eine mit Samsung HBM und Kirsche wäre noch "molded" dann kann ich auf die komplette Fläche Flüssigmetall schmieren. Bei "unmolded" könnte ich das nur auf die GPU und müsste für die HBM Dann eine gut Viskose Paste nehmen inkl. "Schraubfolgeanleitung" vom Igor :unsure:

Tu dir bitte selbst den gefallen und verwende auf KEINE FALL Flüssigmetall auf einen unmoldet Package!
Selbst auf einem moldet Package würde ich es nur mit Isolierung an den Rändern verwenden. Ein Tropfen auf den Interposer und deine GPU ist Schrott. Man kann theoretisch den T-Auschnitt des Packages mit WLPaste auffüllen. Das dürfte eine tragbare Lösung sein, machen würde ICH! es trotzdem nicht.Je nach höhenunterschied vom HBM zur GPU ist LM auch eher kontraproduktiv. Es steht dir natürlich frei das zu machen, aber handle with care!

@Igor Wallossek
Super,
- wäre nicht schlecht auch mal was zum Thema runtertakten um Effizienz zu steigern zu lesen.
Der Artikel mit dem Effizienzvergleich zwischen RX580 und RX590 war sehr interessant.
Da gab es eine Grafik die den Takt in Abhängigkeit des Stromverbrauchs zeigte.
Was ich mich eigentlich gefragt habe:
- Wie weit geht das nach links?
- Wenn man Takt/Stromverbrauch optimiert, bei welchem Takt landet man dann?

- Übertakten/Undervolting ist ja ganz spaßig, aber ab wann erlöschen gesetzliche Gewährleistung bzw. Hersteller Garantien
Nicht alles was man machen kann ist für jeden bzw. jede Situation sinnvoll.

Solche Kurven gewissenhaft zu erstellen und all die Werte auf Stabilität zu testen ist extrem aufwendig.
Optimieren liegt auch im Auge des Betrachters. Optimieren mit welchem Ziel ist ja die Frage. Minimaler Stromverbrauch? Kommt ein FPs Limiter zusätzlich zum Einsatz? Optimieren auf Basis der Stockleistung? Optimieren auf Sweetspot?

Über die Garantie brauchst du dir keine Gedanken zu machen bei OC/UV. Das kann niemand nachweisen und das wird auch nirgends mitgeloggt. Der Rufschaden der dabei entstehen würde wäre für den Hersteller der dies umgesetzt hat dermaßen gravierend, so dumm wird keiner sein.
 
Bei ESCOM fand ich lustig, als ein Kollege zu mir kam und meinte, die Kiste kackt ständig ab.
Hatte selbst niemals einen Highscreen oder Escom in den Fingern gehabt. Zu dem Zeitpunkt bin ich vom Amiga (Shapeshifter) direkt zum Apple gewechselt. Da war Apple technologisch eine andere Welt. Die Kiste konnte schon SVCDs direkt abspielen und bei den ersten Pentium Modellen ging das nur über eine separate Mpeg Karte für glaube 399DM. Später hatte ich dem Mac noch eine Voodoo 3 gegönnt, da es ein Bios gab um die Graka im Mac lauffähig zu bekommen. Unreal in Vollbild spielen. :-D
Hatte da auch eine S3 oder wie das Ding hieß = ein krasser 3D Entschleuniger.
Aber 3dfx erging es ja mit nVidia gleich, aufgekauft und ausgeschlachtet.
Also Igor, mein Mitleid hält sich da ein wenig in Grenzen. Da sind mal Manager gefragt die nicht nur den schnellen Euro im Kopf haben, was es quasi selten gibt. Jetzt gibt es halt eine Miningblase im GraKa Bereich. Und nvidia ist historisch betrachtet immer mit Vorsicht zu genießen. Solange ich als Nutzer einer solchen GraKa einen langen Treibersupport habe, wird mich das wenig interessieren. Denn das macht nVidia schließlich.
 
S3 Virge war irgendwie das was heute Turing ist - die konnte 3D zwar in schön aber nur langsam.
 
S3 Virge war irgendwie das was heute Turing ist - die konnte 3D zwar in schön aber nur langsam.

Da ist war dran, dann hoffen wir nur mal, dass Nvidia nicht das gleiche Schicksam erleidet.

Nvidia nimmt ja bereits Eintscheidungen welche bei anderen in die Hose gingen.

Ich sage mal ganz grob, als 3dfx fing es an richtig schlecht zu gehen als sie beschlossen ihre Karten selbst herzustellen (zu lassen) und zu vermarkten, folge der Ruin und wer hat 3dfx aufgekauft. Jetzt vidia Founders Edition...
 
Die Analyse der Situation ist richtig, die Ursachen liegen meiner Meinung nach ganz woanders.

Seit Jahren gibt es für den PC nur adaptierte Konsolenkost. Selbst nagelneue "AAA" Spiele laufen butterweich auf älterer Hardware.
z. Bsp. Metro Exodus. Ich war schon verwundert, dieses "Grafikhighlight" läuft in 3440x1440 (inkl. G-Sync) mit Ultra Setting, Hairworks und allen Verbesserungen auf Anschlag auf einer GTX-1080 und einem alten i7-6900K (Ebay ab 350 Euro) ohne einen einzigen Ruckler.

Das so wenig neue Grafikkarten verkauft werden. ist nicht nur eine Frage des Preises, sondern des Bedarfs. Für Besitzer einer Graka ab 1070ti aufwärts fehlt einfach der Grund zum Update.
Es gab Zeiten, da fing man bei der Ankündigung eines neuen Spieles von Chris Roberts schon an, für einen kompletten neuen High-End Rechner zu sparen. Weil man ihn dann brauchte, egal was man hatte.

Das sich die Grafikkartenbranche dann begierig auf jeden Trend stürzt ist da vorprogrammiert und meiner Meinung nach nicht nur Gier, sondern zu dem Zeitpunkt schon reiner Überlebenskampf. Der Miningboom war somit nicht der Auslöser, sondern nur eine Verzögerung des Niedergangs. Dazu kommt, Nvidia hat den Bedarf und die Leidensfähigkeit scheinbar völlig falsch eingeschätzt. Bei einer kpl. Marktsättigung, kann man ohne den Druck zum Update nicht auch noch horrende Preisvorstellungen umsetzen.
Diese Erfahrung musste ein bekannter Smartphone-Hersteller ja gerade auch erst machen.

Das die Spiele-Entwickler das Interesse an den PC-Spielern verloren haben, liegt allerdings an Diesen selbst (nicht alle, aber zu Viele). Wenn man nicht bereit ist, für gute Spiele auch etwas zu bezahlen, ist auch keiner motiviert Arbeit, Energie und Geld zu investieren. Wie viele haben z. Bsp. Witcher 3 oder Fallout 4 gespielt ohne dafür zu bezahlen... Gute Unterhaltung für lau, egal ob PC-Spiele, Filme oder Zeitungen, das kann nicht funktionieren.

Auslöser der Krise ist also die "Gier" vieler PC-Spieler. Ich wiederhole, nicht alle, aber viel zu Viele und ich glaube, der Point of no Return ist bei den Spiele-Entwicklern schon längst überschritten. Man nimmt die paar bezahlenden PC-Spieler noch mit, ohne großartig zu investieren.

So schließt sich der Kreis.

PS: Ich bin kein neuer User, ich habe nur nach der Umstellung erst jetzt einen neuen Account angelegt.
 
Zuletzt bearbeitet :
@Capt.Flint
Also The Witcher3 hat sich meines Wissens nach exzellent verkauft. Daher halte ich diesen Punkt für nicht haltbar. In anbetracht der immer weiter um sich greifenden Monetarisierung in Spielen halte ich eher die Publisher für zu gierig.

Beim Rest stimme ich größtenteils zu.
 
@Gurdi : Klasse, danke für den Tipp. Dem entsprechend gehe ich vorsichtig ran. Ich hab von meinem CPU DIE delid noch UHU für Hochtemps übrig. Vielleicht bastel ich da bissle rum und isoliere alles drum rum :p Muss es mir erst mal anschauen. Wenn es Klappt wäre das doch auch eine weitere Erkenntnis für die Community :) Zumindest den Chip und die HBMs per Paste. Spannend wäre es auf alle Fälle :cool:


...Seit Jahren gibt es für den PC nur adaptierte Konsolenkost. Selbst nagelneue "AAA" Spiele laufen butterweich auf älterer Hardware.
z. Bsp. Metro Exodus. Ich war schon verwundert, dieses "Grafikhighlight" läuft in 3440x1440 (inkl. G-Sync) mit Ultra Setting, Hairworks und allen Verbesserungen auf Anschlag auf einer GTX-1080 und einem alten i7-6900K (Ebay ab 350 Euro) ohne einen einzigen Ruckler.

Das so wenig neue Grafikkarten verkauft werden. ist nicht nur eine Frage des Preises, sondern des Bedarfs. Für Besitzer einer Graka ab 1070ti aufwärts fehlt einfach der Grund zum Update.
Es gab Zeiten, da fing man bei der Ankündigung eines neuen Spieles von Chris Roberts schon an, für einen kompletten neuen High-End Rechner zu sparen. Weil man ihn dann brauchte, egal was man hatte...

Ergo geht "Grafikhighlight" nach deiner Aussage auch mit guter Programmierung anstatt neueste non plus ultra Hardware für mehrere tausend Euro, was ich persönlich für den besseren Weg halte :p

Der Manager und Aktionär sieht das natürlich anders. Meiner Meinung nach wurde der "Sweetspot" einfach durch viele Faktoren überschritten aber hauptsächlich von den Managern, Publishern und Herstellern. Der Konsument "kann" das zwar steuern und klare Signale geben aber Entscheidungen treffen trotzdem die an der Spitze. Oft eben die Falschen durch Ignoranz und fehlende bzw. nicht für nötig gehaltene Weitsicht. Warum auch, die Leidtragenden sind sie ja eh nie. Das ist wenn dann IMMER das "Fußvolk". Friss oder stirb eben.
Es ist so wie mit dem Imunsystem und Impfungen. Wir sind Immun gegen "Dreistheit" werden aber langsam aber stetig "geimpft" unsere "Toleranz" zu verschieben und erachten langsam aber sicher Sachen die wir früher für "undenkbar" gehalten haben für "normal". Das leider mehr in "negativer Richtung als in die "Positive". Meine mal ein Forschungsergebnis gesehen zu haben wo man vom Faktor 17 fürs Negative sprach Tendenz steigend... Das ist heute aber leider ein allgemeines Problem und beschränkt sich nicht nur auf die Tech Branche...

Was die Techs brauchen ist nur ein Puffer den die großen ja eh haben. Denen ist es sogar grad Recht wenn einige Wenige dadurch zugrunde gehen.

Ich unterstelle mal sehr böswillig "Absicht" und "geplante Sache" von deren KI-Megarachnern. Alles ein Abgekartetes Spiel :ROFLMAO::ROFLMAO::ROFLMAO: Ich liebe Verschwörungstheorien :p:cool: *duck&weg*...
 
Zuletzt bearbeitet :
@Gurdi :
Ergo geht "Grafikhighlight" nach deiner Aussage auch mit guter Programmierung anstatt neueste non plus ultra Hardware für mehrere tausend Euro, was ich persönlich für den besseren Weg halte :p

Mit der bestmöglichen Hardware + "guter Programmierung" wäre das dann nochmal eine höhere Ebene.
Ich denke daran, was auf dem PC möglich wäre...
Wenn es für die Publisher/Entwickler finanziell interessant wäre, würden Sie Spiele für die Möglichkeiten des PC entwickeln und für Konsolen dann herunter konvertieren und nicht anders herum, wie es jetzt der Fall ist.
 
Zuletzt bearbeitet :
Man kann denn Sachverhalt auch aus einer positiven Perspektive betrachten , So schlecht ist es auch nicht das man nicht jedes Jahr ne neue GPU oder CPU kaufen muss um die neuen Spiele in annehmbarer Quali spielen zu können. Und der Zustand herrscht bei mir seit dem 2500K also ca. 8 Jahre da kommt was zusammen.

Wenn ich überlege was ich allein an Sockel 7+/A/370 CPUs und Boards innerhalb von ein paar Jahren hatte da war man nur am basteln und hat noch mit Kumpels quergetauscht zur Lan damit man den der den Dedi Server machen musste mit Ram und der Stärksten CPU im Kreis aufstockte.

Und jetzt sitzt ich hier mit ner CPU von 2014 sowie ner GPU von 2016 und mein größtes Problem ist mit dem gespartem Geld ist mal nen Game zu finden das ich nicht nach 2 mal anschauen wieder von der Platte lösche, nebenbei juckt mich noch sporadisch der Basteltrieb was dann in Sachen wie nen ITX ,Dual Xeon E5 2687W, Dual Xeon L 5640 oder X38 System gemündet sind ( bin in dem Bereich aber fast trocken obwohl eigendlich könnte die ITX Kiste ....).
 
Man kann denn Sachverhalt auch aus einer positiven Perspektive betrachten , So schlecht ist es auch nicht das man nicht jedes Jahr ne neue GPU oder CPU kaufen muss um die neuen Spiele in annehmbarer Quali spielen zu können.

Stimmt. Mein i5 760 hat sehr sehr lange gute Dienste verrichtet und die auch weiterhin verrichten dürfen (und bedingt auch können) wenn nicht zufällig Ryzen um die Ecke gekommen wäre. AAA war nicht mehr drin, aber für FIFA reicht der immer noch.

Fehlenden Fortschritt mit längerer "Lebensdauer" zu begründen ist aber eher was für die Marketingabteilung ;)
 
Mann muss den "Fortschritt" aber nicht unbedingt hochfrequent ansetzen bzw. was ich meine, jede "mini" (unreife) Entwicklung als "Neuheit" mit Gold aufwiegen und den Konsumenten early Adopter / Bug Reporter spielen lassen, wie es aktuell der Fall ist ;)
 
Ryzen wird für mich evtl. mit der 7nm Version f+ür das ITX Mopped interessant je nach dem wie die Taktraten ausfallen und ob sie die Baustelle mit den Latenzen in den Griff bekommen haben die Tests werden es zeigen.

Im übrigen war da kein fehlender Fortschritt vom i5 760 bis Ryzen du warst nur zu arm oder zu geizig dir einen 6 core i7 970 2010 oder einen 8 Core E5-2687W 2012 usw. zu holen wurde mir gerade von meiner Marketingabteilung gesagt :p
 
Mann muss den "Fortschritt" aber nicht unbedingt hochfrequent ansetzen bzw. was ich meine, jede "mini" (unreife) Entwicklung als "Neuheit" mit Gold aufwiegen und den Konsumenten early Adopter / Bug Reporter spielen lassen, wie es aktuell der Fall ist ;)

Da gebe ich dir recht. RT ist auch noch nicht den finanziellen Aufwand wert oder wirklich so reizvoll. Aber das war schon bei Hardware T&L so, das ja am Anfang auch nicht mehr als ein Marketinggag war, den aber jeder unbedingt haben muß. 3Dfx meinte, man müsse das erst umsetzen wenn es auch brauchbar ist. Das war dann einer der Sargnägel für 3Dfx. Wenn es die "must have" Fraktion aber nicht gäbe, würde bei einigen Ideen mit Zukunftspotential die Entwicklung nicht angeschubst. Auch wenn es noch nicht wirklich zu gebrauchen ist, AMD wird schon fieberhaft an einer RT Implementierung arbeiten. Egal ob das zum jetzigen Zeitpunkt Sinn macht oder nicht.
 
@Denniss ich hab früher eine S3 Virge 3d + Pentium 100 / 8MB Ram gehabt. Die 3D Leistung war sowas von unterirdisch lahm (Decent konnte man als Slideshow zocken) - ganz so schlimm ist das bei RTX Grafikkarten zum Glück nicht. Mit 3dfx (RIP) hatte der 3D spaß dann wirklich begonnen :) - trauere der Firma immer noch hinterher :-/
 
Oben Unten