News NVIDIAs große Speicherwochen im Dezember? GeForce RTX 3080 20 GB und RTX 3070 16 GB als mögliche Antwort auf AMD

Bliebe die Frage ob die dann doppelseitig bestückt wird mit 1GiB-Chips oder ob die neuen 2GiB-Chips verfügbar sind. Vermutlich gehen letztere aber primär in die Profiserien für Boards mit 48GiB
 
Danke für den Artikel, dann werde ich meinem Kumpel doch nochmal sagen, dass er die Bestellung für seine 3080 zurückziehen soll.
Persönlich hätte ich mit Februar oder März gerechnet, sofern das Gerücht um die Ankündigung stimmt, doch bei Igor kann man sich ja ziemlich sicher sein, zumindest zeigte sich dies bereits in der Vergangenheit :)
 
Ich würde schätzen, dass NVIDIA da nichts mehr neues dieses Jahr raus haut, zumindest solange AMD uns nicht von den Socken haut (man kann ja hoffen aber ich bin nicht soo zuversichtlich). Mit der 3080 und dann noch 3070 ist doch gerade erst was neues da, was erst mal beim Kunden ankommen muss. Wenn doch, dann scheint mir der normale 30er lunch doch nur ne art Vorverkauf/early access zu sein und das bei Hardware. Naja sind ja gerade eh komische Zeiten 🤷‍♂️

btw Ryzen Hype. Bin mal gespannt was heute Prozessortechnisch so aufgetischt wird.
 
Mein Fehler mit der 970 hat mir eins ganz deutlich beigebracht: Kaufe nie wieder eine GraKa mit weniger VRam als die derzeitige Konsolen haben.

Denn so sehr ich Konsolen verabscheue, so sehr muß ich leider eingestehen, das die AAA(aaaa) Games nun einmal genau für diese Brotkisten gemacht werden. Und somit auch deren Hardwarevorgaben nutzen. Nicht heute bzw bei Release der Konsolen .. aber sobald es irgend wie möglich ist.

Und die Technischen Gerüchte (Details) zu PS5/XboxX sind ja nu schon einige Tage im Umlauf gewesen. Von da her war mir persönlich klar: unter 16GB VRam läuft nix bei einer heutigen Neuanschaffung.
 
Also viel hilft viel und macht deutlich weniger Arbeit?
Genau💁‍♂️
Also, noch länger warten? Ne, wirklich nicht. Zocke ebenfalls in 1440p, da reichen mir die 10GB.
Darüberhinaus schöpft meine CPU, nicht mal das volle Potential der 3080 aus.
Zum Thema Cyberpunk 2020: Da erwarte ich einen hochoptimierten Titel.
 
Früher oder später werd ich wohl ne 20GB oder 3090 drin haben, die TUF 3080 hab ich zum Normalpreis bekommen die werd ich bei der aktuellen Liefersituation auch wieder grob zu dem Kurs gebraucht los daher entspannt abwarten.
Lustig war hab nen altes COD von 2015 gestartet das vorher nie starten wollte mit alter Karte und das hat einfach mal 8GB schon gefressen (von 2015!!!)
 
@funkdas
Es gibt da bei Grafiklastigen Anwendungen eine Besonderheit, das sind die Texturen. Je höher die Monitorauflösung, desto höher müssen die Texturen aufgelöst werden, sonst wirken sie pixelig. Man wendet da schon intelligente Methoden an, Auflösung in Abhängigkeit vom Abstand zu verringern, on the fly Kompression im Vram, aber an einem kommt man nicht vorbei: Der notwendige VRam skaliert mit der Bildauflösung und die hat sich von 1080p zu 4k vervierfacht. 4k ist reichlich sinnlos, wenn die Texturen bei 1080 bleiben, dann zeigen eben vier Monitorpixel den gleichen Farbwert, statt einem. Den Großteil des Vrams nehmen bei Spielen also Texturen ein.
1080p geht einigermaßen gut mit 4-6 GB Vram
WQHD benötigt eher 6-8 GB.
UWQHD sollte 8-12 GB haben,
4k sollte 12-16 GB haben - alles unter der Prämisse, das man die höhere Pixeldichte der Monitore auch für detailreichere Texturen ausnutzen will. Wer also mit der 3080 10 GB auf 4k spielen will, der wird nicht immer auf maximale Texturdetails gehen oder sich hochauflösende Texturmods installieren können, wie sie häufig in mods angeboten werden. Spätestens, sobald sich die Programmierer daran gewöhnt haben, das 12-16 Standard sind, muss man bei 10 GB etwas runter stellen.
 
Mich interessiert für meinen Zweitrechner allenfalls die 3070 mit 16 GB - als Ersatz für meine 2080 (nonsuper). Dies aber auch nur, wenn Sie preislich nicht über den 700 Euro der 3080 FE liegt. Sonst wird es die 3070 8 GB oder eine - wie auch immer geartete 3060Ti werden, die dann aber als Ersatz für die 2080 schon fast keinen Sinn mehr macht.
 
Hallo an die Werten Mitforisten und Fachleute, habe ja immer noch meinen stets treuen i7 4790K, läuft fix auf 4,4Ghz alle Kerne, mit einer Gtx 1080, Monitor FHD. Meine Frage wäre jetzt, auf eine 2080 umzusteigen, da es diese teils preisgünstig gibt. Der Prozessor wird doch für diese auch noch reichen, notfalls mit 4,5 oder 4,6 Ghz, alle Kerne. Das wäre bestimmt das Ende der Fahnenstange, was meint ihr? RAM ist schon max, 2400 MHz CL 11, 16 GByte. Danke im voraus für eure Expertise.
Gruß
Impaled
 
Das dürfte stark auf die Spiele ankommen. Kann dein Monitor denn mehr als 60Hz?
 
Das dürfte stark auf die Spiele ankommen. Kann dein Monitor denn mehr als 60Hz?
Nein, ist ein Asus S242HL, spiele eben Doom, Far Cry, Metro, Shadow of the tomb raider, eben sowas. Da bei den meisten Spielen die GPU 99% ausgelastet ist, denke ich, geht da noch was, oder?
 
Klar macht das Sinn. Die 2080 kann man dann immer noch auf ein 6 oder 8 Kernsystem umziehen. Es ist halt die Frage, was die Graka kosten soll. Mehr als 400 Euro würde ich da nicht reinstecken, die 3070 kommt mit 499,- und liegt auf 2080Ti Niveau.
Und die Leistungslücke zwischen 20er und 30er Serie wird mit dem Fortschreiten der Graphik Engines und der zunehmenden Nutzung der Features, die die Ampere Serie eher doppelt so schnell erledigt als die Turing Serie eher größer werden, als kleiner.
Ich prognostiziere mal, dass die Unreal Engine 5 hier nochmal einen ganz anderen Leistungssprung von Ampere oder auch Big Navi zeigen wird, als die aktuell verfügbaren Spiele im Vergleich zu den älteren Graphikkarten.
 
Klar macht das Sinn. Die 2080 kann man dann immer noch auf ein 6 oder 8 Kernsystem umziehen. Es ist halt die Frage, was die Graka kosten soll. Mehr als 400 Euro würde ich da nicht reinstecken, die 3070 kommt mit 499,- und liegt auf 2080Ti Niveau.
Und die Leistungslücke zwischen 20er und 30er Serie wird mit dem Fortschreiten der Graphik Engines und der zunehmenden Nutzung der Features, die die Ampere Serie eher doppelt so schnell erledigt als die Turing Serie eher größer werden, als kleiner.
Ich prognostiziere mal, dass die Unreal Engine 5 hier nochmal einen ganz anderen Leistungssprung von Ampere oder auch Big Navi zeigen wird, als die aktuell verfügbaren Spiele im Vergleich zu den älteren Graphikkarten.
So war das gedacht, will nur momentan nicht alles neu holen, Board, RAM etc, immer zur rechten Zeit. Ich denke die 3070 scheidet wohl aus, oder die CPU müsste weiter hoch getaktet werden, und das macht glaube ich wenig Sinn.
 
Bei den Spielen mit 60 fps dürfte die CPU noch passen. Ich würde aber auch die 3070 im Auge behalten, wenn du in der nächsten Zeit auch CPU, MB und RAM aufrüsten willst.
 
Bei den Spielen mit 60 fps dürfte die CPU noch passen. Ich würde aber auch die 3070 im Auge behalten, wenn du in der nächsten Zeit auch CPU, MB und RAM aufrüsten willst.
Nein, das soll die letzte GPU für den i7 sein, 60 fps, SOTTR liegt so bei 75 fps und mehr. Für eine 3070 ist die CPU aber zu schwach, oder? Neue CPU und Mobo vielleicht nächstes jahr
 
@Dragus: Ich gebe Dir grundsätzlich recht. Dass 4k-Texturen 4-fachen Bedarf bezüglich Full HD haben.

Ich glaube aber auch, dass mit mehr Programm-Intelligenz der Bedarf auch wieder sinken kann. Mit neuer Technik, anderen Verfahren, Echtzeitkomprimierung, auch Dinge wie DLSS werden sich langfristig auf Texturen auswirken.
Also so in dem Sinne: Wann brauche ich die kompletten Texturen im RAM oder gibt es Dinge die auch (natürlich schnell genug) erzeugt werden können?

Die Texturerstellung in 4k statt in Full-HD ist ,auch nicht 1:1 vergleichbar, 4k kann (aber muss nicht) mehr Aufwand bedeuten. Der kostet wieder. Auch ein Grund, warum ich glaube, dass 4k noch ein bisschen reifen wird.
 
@funkdas Von DLSS verspreche ich mir auch viel. Der nötige Texturspeicher für fotorealistische Darstellungen ist immens. Es hat seinen Grund, warum beinahe alle 3D Spiele so ausgelegt sind, das man sich den Objekten nicht auf weniger als ca. 0,5m annähern kann. Die Texturen haben Modi zum runter skalieren, wenn sie weiter weg sind, aber die maximale Qualität hängt eben von der original Textur in ihrer maximal vorliegenden Auflösung ab. Je näher man herangeht, desto höher muss die Auflösung sein. Das ist heute schon unmöglich zu schaffen, deswegen trickst man da rum, arbeitet sehr selektiv. Sobald man sich eine normale Wand, den Boden oder eine Pflanze ansieht, ist ganz schnell Schluss mit den hohen Details.

DLSS ist auf absehbare Zeit die einzige Technologie mit dem Potenzial, Texturdetails beim heranzoomen dynamisch zu bilden. Hoffen wir mal, dass sie dazu auch fähig sein wird, jedenfalls arbeitet man dran.
 
Zuletzt bearbeitet :
ich will aber nich mehr so lange warten :cry:

Cyberpunk is doch quasi schon da


kann man nur hoffen, das Big Navi doch besser wird als aktuell erwartet

Edit: klingt ja schonmal gut xD


Was haltet ihr davon?
XT auf 3080 Niveau und eine XTX mit "mehr" Shadern wird dann doch wohl mehr als 10% darüber liegen oder?

Gerne würde ich mir die 3090 schön reden aber ich glaube irgendwie nicht, dass AMD ebenfalls 1500€+ dafür haben will.
Außerdem habe ich noch keine "Titan Killer" - Werbung gesehen, weshalb ich ehrlich gesagt davon ausgehe dass die Werte in den AMD-Folien sich bereits auf die XTX und nicht die XT bezogen haben. Stand ja netterweise nicht dran ob das das Flaggschiff oder die zuerst erscheinende Karte war...
 
@BlubberLord
Ist das ein Wunschkonzert? Ich schreib mal AMD an, das sie uns die gewünschte Performance liefern😉
 
Ich meine, dass Tante Su von Big Navi geredet hat. Also gehe ich mal von Navi 21 aus.
Es ist aber schon genial wie so ein kleiner Teaser zündet;) Da zeigt Tante Su eine Grafik mit drei Balken und schon ist die Gemeinde in heller Aufregung :eek: "Die Big Navi ist ja viel besser als die 30XX. Ohje Ohje!"
Wartet doch erstmal ab, bis Igor eine Big Navi auf Herz und Nieren geprüft hat. Danach ist dann noch genug Zeit zum jammern.:p
 
Zuletzt bearbeitet :
Oben Unten