NVidia NVIDIA in der Komfortzone mit Zuckerbrot und Peitsche – Drei “neue” Grafikkarten, die Hintergründe, das 3. Newtonsche Gesetz und das GPP | Editorial

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.477
Punkte
1
Standort
Redaktion
Aktuell verkauft sich zwar alles, das einen Stecker hat, wie geschnitten Brot, aber als Hersteller muss man natürlich gewappnet sein und schaut deshalb auch nach Links (AMD) und Rechts (Intel). Immer schön nach dem “Was passiert dann”-Prinzip, das wir ja auch aus der Physik kennen. Erinnert sich noch wer an Actio = Reactio? Richtig, das...
Hier den ganzen Artikel lesen
 
Der Meinung kann ich mich leider nicht anschließen.
 
Noch in der Komfortzone, aber man sollte sich nicht zu weit zurücklehnen sonst kracht die Rückenlehne weg.
Die anderen werden wie immer nachziehen, Stichwort Stapelspeicher bzw. CPU/GPU stapeln. Wie auch immer, einen Stillstand kann sich keiner leisten.
 
Wie sinnvoll 12GB Ram bei einer 2060 sind wage ich doch zu hinterfragen. Bevor die annähernd gefüllt sind kotzt die Karte doch eh schon aus allen Löchern weil die Performance in den meisten neueren Spielen für FullHD nur mehr gerade so reicht.
 
Schöner Text. Klingt alles so plausibel wie deprimierend.
 
Wie sinnvoll 12GB Ram bei einer 2060 sind wage ich doch zu hinterfragen. Bevor die annähernd gefüllt sind kotzt die Karte doch eh schon aus allen Löchern weil die Performance in den meisten neueren Spielen für FullHD nur mehr gerade so reicht.
Technisch gesehen ist das Nonsens, aber fürs Marketing pures Gold. 12 GB mit GDDR6 und 14 Gbps reichen völlig aus, damit Knut-Kevin im Mädchen-Markt seine Mutter kreischend in den Kauf treibt. :D
 
Schöner Artikel, super aufgedröselt. Die 70er mit 16GB wäre eine sehr interessante Karte.
 
Keine Ahnung warum, aber immer wenn ich das Bild sehe, kommt mir spontan der Gedanke "warum trägt Jensen da Lippenstift?" o_O.
 
Wenn man bedenkt das heute FC6 raus ist und man auf einer 1200-1500 Euro Karte (Preise im Markt mal außen vor, ist eben so bei der 3080), nicht mehr voll aufdrehen kann hat sich NVidia mit seinem "Geiz ist geil für viel Marge" mal wieder selber aus der Komfortzone befördert. Vermutlich shrinken sie jetzt am Treiber und verlagern alles wenn möglich, in den RAM oder auf SSD. Was eine Ruckelshow auf UHD mit höchsten Texturen, da zuckt nicht mal die RX6800.

Wenn's Super kommt muss man wohl mehr Speicher drauf legen und genau deshalb kommen sie auch. Warten...

Light RT scheint den RX6000 auch nichts auszumachen, kein riesen Vorteil mehr für NVidia, wer hätte es gedacht? Was Devrel so alles ausmacht.:)

Froh locket wer eine RX des höheren Ranges schießen konnte, selbst die 3080ti sieht alt aus. Da muss man derzeit 2,5K in die Hand nehmen wenn es bei NVidia nicht ruckeln soll. Genau deshalb trägt Huang Lippenstift, alles richtig gemacht oder schei*egal, friss oder stirb Klingone.;)

*Falls sich jemand fragt, ersetzt höhere Bandbreite den festen Speicherausbau?: "nein tut es nicht, nirgends, das ist ein
Marketingmärchen".

*Achso, da war noch was: Artikel, die 6800XT(X) als Mitbewerberin der 3900? Hm, ob das stimmt? Besser RX6900XTX schreiben, nicht das Knut-Kevin seiner Mutter noch M*st erzählt, Vollausbau usw.. Davon gibt es sogar eine XTU.
 
Zuletzt bearbeitet von einem Moderator :
Warum ist die Radeon RX 6800XT die Konkurrenz für die 3090? Das ist doch eher die 6900XT, oder?

Und ja, das Konzept mit dem Speicher bei NVidia ist ein ziemliches Durcheinander und führt bestimmt in vielen Fällen bei Kunden zum "Verschaukelt vorkommen". Dieser Punkt scheint mir doch bei AMD wesentlich konsistenter gelöst zu sein. Na ja, ich habe Zeit zum Warten was sich da noch so alles tut (insbesondere beim Preis natürlich).
 
Ach ja, der Speicherausbau. Ich erinnere mich noch an einen Praktikanten damals, der sich eine GT 510 gekauft hat, aber mit 2GB Speicher und war voll davon überzeugt, dass die Karte richtig abgeht und damit echte Konkurrenz zu meiner damaligen GTX 570 mit "nur" 1280MB Speicher sei :D
 
Ja, es gab mal so alberne Karten mit atemberaubenden 2GB Speicherausbau DDR3 im MM. gern auch in den Fertig-PCs mit einem echten Intel (Pentium). Bauernfang eben. Waren aber noch ein paar Generationen älter :D
 
Die Situation ist eben die, daß es unterhalb der 3060 und unter € 400 kaum etwas zu kaufen gibt. Vielleicht hat NVIDIA auch ein Haufen 2060 Chips auf Halde? Ansonsten würde ein 2070 Super "Classic Edition" doch mehr Sinn machen, oder ist die dann zu nahe an der 3060 dran? Sowohl die 2060 als auch die 2070 (und Super) sind doch bei TSMC in 12 nm gefertigt, wenn ich es richtig weiß.
 
Ach ja, der Speicherausbau. Ich erinnere mich noch an einen Praktikanten damals, der sich eine GT 510 gekauft hat, aber mit 2GB Speicher und war voll davon überzeugt, dass die Karte richtig abgeht und damit echte Konkurrenz zu meiner damaligen GTX 570 mit "nur" 1280MB Speicher sei :D
Nun ist es aber dass dritte Spiel in Folge wo bei der 3080 der VRAM vollläuft und "mit unserem Treiber shrinken wir euch die Texturen schön" ist auch albern. Nicht desto trotz, gibt es mehr Spiele die in UHD VRAM fordern und wenn ich Karten für UHD bewerbe sollten sie auch uneingeschränkt geeignet sein, war sogar 8K dabei (vor allem bei den Preisen derzeit). Ja wer's glaubt.

Zurücklehnen und abwarten, glaubt nur NVidia dass das reicht. Su wird auch ohne Lippenstift, gerade feixen. Aber man kann sich alles schönreden. Ich finde es nicht so lustig. Ein Shadow of the Tombaider hat damals schon 13GIB volllaufen lassen wenn man alles voll aufgedreht hat und das möchte ich bei 1,5K. Zumal ein NVidia optimiertes Spiel. Nachtigall ick hör dir trapsen.

Das Gute daran ist, Texturen kosten nichts, nur VRAM und hübschen zuweilen das Bild auf, es wird ruhiger und man kann damit genauso wie mit DLSS Konturen und den Detailgrad erhöhen, was in niedriger aufgelösten Masken dem Pixelraster zum Opfer fällt. Sag mir einer das lässt man wegen "Geiz ist geil" liegen?

Wenn es seinerzeit Spiele gegeben hätte die die 1,3GIB der GTX570 gefüllt hätten, hätte die neben einer Billigkarte wie der GT510 ziemlich alt ausgesehen. Da helfen mehr Transistoren nämlich gleich null. Von wegen Wechselwirkungsprinzip und so.
 
Zuletzt bearbeitet von einem Moderator :
Oben Unten