NVidia Was wäre Euch das neue Top-Modell von Nvidia wert, wenn es schneller als eine GeForce GTX 1080 Ti wäre?

Was wäre Euch das neue Top-Modell von Nvidia wert, wenns schneller als eine GeForce GTX 1080 Ti wäre

  • von 700€ - 999€

    Stimmen : 9 18,8%
  • von 500€ - 699€

    Stimmen : 22 45,8%
  • von 350€ - 499€

    Stimmen : 7 14,6%
  • von 250€ - 349€

    Stimmen : 7 14,6%
  • bis 250€

    Stimmen : 1 2,1%
  • egal was es kostet, ich kaufs

    Stimmen : 2 4,2%

  • Anzahl der Umfrageteilnehmer
    48
Wobei man bei Retro-Preisvergleichen immer beachten sollte, dass die Grafikkarten meines Wissens nach damals in homeopatischen Stückzahlen verkauft wurden und die Entwicklungskosten dementsprechend wahrscheinlich umgelegt wurden.
 
Zitat von grimm: "1991 war das auch kein Massenmarkt... Der Vergleich hinkt."

Im Verhältnis verkaufte PC-Einheiten von damals waren Grafikkarten noch mehr Massenmarkt als heute, da es keine in CPUs integrierten GPUs gab.
Soll heissen:
Die verkaufte Anzahl Grafikkarten/PCs war 1:1, in der Industrie für CAD/CAE etc. meistens 2:1, da meist ein Monitor an einer Monochromkarte hing und einer an der Farbkarte.
Heute benötigen ca. 2/3 der PCs die verkauft werden überhaupt keine zusätzliche Grafikkarte, da in der CPU integriert. AMD und NVIDIA müssen von den restlichen ca. 33% leben.
Selbst PCs wie der Compaq PROLINEA, eine Art Minipc von damals, hatte einen Grafikchip auf dem Board aufgelötet, da verdiente wenigstens der Grafikchip-Hersteller noch etwas.

Was die Highend-Karten aus der Zeit Betrifft, lag der Anteil zu heute wahrscheinlich höher, da die Bildauflösung, Farben etc. von den Karten abhängig war.
Die Masse der Buerorechner hatte HGC, MDA Grafikadapter. Bei Farbdarstellung lag die Masse bei CGA, EGA, 8514/A.

Brauchte man Karten für Grafikperformance (2D) und Farbenanzahl kam man um Hersteller wie Spea, Videoseven (Später von Spea übernommen), Matrox etc. nicht herum.

Heute kauf ich einfach eine Karte der beiden Hersteller, 32 Bit Farbtiefe und bis zu 4K Auflösung und mehr kann jede. Solange ich nichts besonderes wie zertifizierte Treiber oder für wissenschaftliche Berechnungen (fuer die GPUs besser als CPUs geiegnet sind) benötige, ist es im Grunde egal was ich kaufe, Spiele mal außen vor, aber selbst die funktionieren mit Einschränkungen fast alle.

AMD und NVIDIA sind im Grunde Nischenhersteller, besonders mit ihren Highend-Produkten im 1. Quartal 19 wurden ca. 60 Mio Rechner verkauft der Weltmarkt von Grafikkartenherstellern (PC) teilt sich wie folgt auf:


Ca. 2/3 gehen an Intel das letzte 1/3 teilen sich AMD und NVIDIA, ca. jeweils ein 1/6 an Rot und Grün.

Bezieht man dann noch den Markt der Mobilgeräte mit ein, 2018 waren davon ca. 3.3 Milliarden im Umlauf, ist selbst Intel in der Grafikkarten-Sparte ein kleiner Fisch.

Und wie viel Prozent bzw. eher Promille davon fallen davon dann wohl auf Karten wie Radeon 7, 2080 ohne und mit TI?
Wie gesagt früher musste man die High-End Dinger kaufen, sonst blieb es dunkel bzw. sehr sehr unübersichtlich bei Tabellen und CAD.

P.S. Entschuldigung, hoffe das ganze ist jetzt verständlicher und Danke für den Hinweis bzgl. Schreibfehler
 
Zuletzt bearbeitet :
@100AG: sei so nett und editier bitte zweimal:
'Die Maße der Buerorechner hatte HGC, MDA Grafikadapter. Bei Farbdarstellung lag die Maße bei CGA, EGA, 8514/A.'
Ich hab die Zeile 4x lesen müssen bis mir aufging, dass da 'Masse' gemeint ist.
TIA schomma.
Zudem irritiert mich die (unvollständige?) Aussage:
'Im Verhältnis verkaufte PC-Einheiten von damals waren Grafikkarten noch mehr Massenmarkt als heute, da es keine in CPUs integrierten GPUs gab.'
Im Verhältnis zu was? Wie groß war welches Verhältnis auch immer wozu?
Bitte um Aufklärung :)
 
Frueher gab es, speziell Anfang bis Ende der 90er, eine wesentlich hoehere Auswahl.
Es gab sehr viele unterschiedlicher Hersteller von VGA/ S-VGA Chipsaetzen und noch mehr Hersteller, die die Karten zusammengeschustert haben, wenn ich mich recht entsinne.

Zumal es auch noch zig Ausfuehrungen gab. RAMDAC usw. war ja ebenfalls noch mal eine geschichte fuer sich, da dieser extra verbaut wurde. Bekannt ist mir aus dem Hinterkopf ?Brokethree? oder Alliance Semiconductor oder so?
 
Ahjo. Eigentlich gab es in Sachen 3D auch nur 2 Chiphersteller (3dfx und NVIDIA) und bei 2D wenn’s sein und noch bezahlbar sein sollte Matrox.
 
Danke, 100AG, nu is alles klar :)
 
Marktanteil ist alles eine Frage der Marktdefinition. Das wissen vor allem die Kartellrechtler... oder: glaube keiner Statistik, die du nicht selbst gefä... er... entworfen hast. :p
 
Naja, S3 und ATI, Tseng...
Fuer den Einsteigermarkt Cirrus/ trident usw. Matrox kam ja erst spaeter in den Endkundenmarkt, als 3D Top war. (Millentium/ Mystique) Davor war Matrox Premium-Segment und fuer Endnutzer komplett uninteressant.

Bei 3D hat sich, bis zum dann massentauglichen Riva 128, niemand fuer Nvidia interessiert. S3 Virge/ Matrox und 3DFX sowie PowerVR haben sich gepruegelt.
 
Jo... ich hatte von Mechwarrior 2 die Standard, Matrox und 3dfx Edition. :D

Sah aber trotzdem Ingame nie wie dieses einfach nur hammergeile Intro aus. :(
 
ATI xpert@work/play :cool:
 
Bei Mechwarrior 2 war der Softwarerenderer jedoch die beste Wahl. Die 3D-Beschleuniger konnten einige Sensortypen nicht darstellen :D oder es lief noch langsamer/ buggy.

Ich mochte dieses Spiel. Das Intro damals: Feine Sache :D
 
Meine Schmerzgrenze liegt bei 400 €. Ich kaufe seit Jahren nur AMD-Karten; ausschließlich von Sapphire und nicht gleich nach Marktstart. Die halten ausreichend lang, bis die nächste Generation erschwinglich oder sogar schon wieder im Abverkauf ist.

zuletzt waren es ne 6870 für 140 € im Jahre 2012, dann die r9 Fury und nun 'ne vega64 ... die hält sicher wieder ein paar jahre
 
sehe es wie 007 cobra_
immer gute mittelklasse gekauft und zufreiden gewesen.
zotac 9600 gt, gainward gtx 260 (mit 1800mb), gtx 570 msi twin frozr iii, evga gtx 970 ssc acx 2.0+ für 299 € und jetzt?
für 4k monitor muss was neues her, aber mehr als 350€ sehe ich nicht ein.
 
Für 4k rentiert es sich imo der sprung von 1080p ist pervers. 1080p ist einfach nur blurry
 
#254 vor dem Problem stand ich schon 2016, 4k Bildschirm gekauft um dann festzustellen das man richtig viel Geld in die Grafikkarte stecken muss, damit das einiger Maßen gut funktioniert. Der Qualitätsunterschied ist jedoch auch enorm, insbesondere wenn man auf einer großen Diagonale zockt (bei mir 40 Zoll). Unter eine RTX 2070 / RX 5700 würde ich für 4k jedoch nicht gehen, und auch das ist für viele aktuelle AAA Titel immer eine Kompromisslösung (mittlere bis hohe Details), für Ultra muss es schon eine RTX 2080 Super bzw. 2080 TI sein. Und selbst bei meiner 2080 TI muss ich vereinzelte Details runter stellen um konstante 60fps zu haben. (je nach Spiel)
 
  • Like
Bewertungen: Thy
Hast du den Monitor gekauft ohne dich vorher schlau zu machen, oder warum warst du so überrascht, dass man eine Highend Karte für eine Highend Auflösung benötigt um darauf vernünftig spielen zu können?
Weil es eigentlich auch schon 2016 klar war, das zu dem Zeitpunkt selbst eine GTX1080Ti nicht so einen Monitor kompromisslos befeuern konnte.
 
Ich habe das gleiche "Problem" wie @Eragoss ;). Ich hatte mir ebenfalls 2016 einen 4k Monitor zugelegt, als die Dinger allmählich günstiger wurden, da ich den Rechner nicht nur zum Zocken, sondern hauptsächlich zum Arbeiten nutze. Hierfür ist 4k ein deutlicher Gewinn. Ich spekulierte darauf, dass sich die Grafikkartenleistung schneller entwickeln würde, was aber leider nicht eintrat. Als dann die Preise für die neuen RTX-Karten bekannt gegeben wurden, verging mir die Lust an 4k-Gaming und ich blieb erstmal bei FHD, zumal ich in den letzten 2 Jahren sowieso nur selten länger als 1 Stunde am Stück zum Zocken gekommen bin.
 
Zuletzt bearbeitet :
#257 ich wusste schon das nativ 4k extrem fordernd ist. Hab aber gedacht, das für das zocken Full HD auf dem 4k Bildschirm ausreicht. Da der Sitzabstand deutlich kürzer ist und ich dann einige Spiele auf der schwächeren Grafikkarte in 4k angespielt hatte (mit sehr niedriger FPS) und es so verdammt gut aussah, musste dann doch eine bessere GPU her. Damals war es die GTX 980Ti, für die damaligen Titel hat es zumindest für +30fps gereicht. Skyrim, Fifa und einige weniger anspruchsvolle Titel liefen aber auch in 4k/60fps.
 
Ich habe mir den 4k Monitor auch für die Arbeit gekauft und hätte gedacht, mit der 1070 mit reduzierten Details noch ganz ordentlich zocken zu können. Das war aber ein Satz mit X, das habe ich stark unterschätzt, trotzdem möchte ich den Monitor nicht mehr missen.
 
Oben Unten