GeForce RTX 4090 und 2x RTX 4080 - Ada Lovelace startet ab Oktober

@Karma
Das Zauberwort heißt "Vollausbau". Fünftes Wort im zweiten Absatz.
Mir ist schon klar, dass aus den 104er Salvage-Chips "kleinere" Grafikkarten gebacken wurden. Der Fachbegriff hierfür heißt Binning.

@emulbetsup
Nebelkerze... Harsche Worte für so eine Kleinigkeit, finde ich. Ja, die kleineren Chips werden teilweise sogar über mehrere Generation mit unzähligen Bezeichnungen verwendet. Bei den größeren Chips hingegen war die Varianz einigermaßen übersichtlich und vorhersehbar.
 
Also solange mein 12 Jahre alter 46" Sony TV als Monitor in FHD durchhält, reicht mir auch die 580 mit 8 GB und der 5-3600.
Aber wenn ich mal nen neuen Monitor brauche.... dann kommt OLED und 4K und dann brauch ich wohl oder übel auch sone Etagenheizung, egal von welchem Anbieter. :unsure:
 
@emulbetsup
Nebelkerze... Harsche Worte für so eine Kleinigkeit, finde ich. Ja, die kleineren Chips werden teilweise sogar über mehrere Generation mit unzähligen Bezeichnungen verwendet. Bei den größeren Chips hingegen war die Varianz einigermaßen übersichtlich und vorhersehbar.

Die Frage ist ja nicht, ob ein Chip für mehrere Modelle verwendet wird und dann unterschiedliche Modellbezeichnungen trägt.

Die Frage ist, hat NV jemals bei zwei Produkten mit unterschiedlichem Chip die gleiche Modellbezeichung OHNE unterscheidendes Suffix wie "Super" oder "Ti" verwendet.
 
Zuletzt bearbeitet :
@
Das Zauberwort heißt "Vollausbau". Fünftes Wort im zweiten Absatz.
Okay, das habe ich (unbeabsichtigt) überlesen! Sorry.

Warum ist der Vollausbau bei Lovelace eigentlich der 103er Chip, den es vorher nie gegeben hat? ;) (Den Ampere-103S ignoriere ich mal, da der nur für Notebooks war.)
 
Die Frage ist ja nicht, ob ein Chip für mehrere Modelle verwendet wird und dann unterschiedliche Modellbezeichnungen trägt. Die Antwort auf diese Frage ist trivial.

Die Frage ist, hat NV jemals bei zwei Produkten mit unterschiedlichem Chip die gleiche Modellbezeichung OHNE unterscheidendes Suffix wie "Super" oder "Ti" verwendet.
die Antwort lautet, wenn ich mich nicht ganz irre, ja die RTX 3050. Dazu gab es auch von Igor mal einen Artikel. Die gibs wohl auch mit zwei unterschiedlichen Chips "GA106 und GA107"
 
Die Frage ist, hat NV jemals bei zwei Produkten mit unterschiedlichem Chip die gleiche Modellbezeichung OHNE unterscheidendes Suffix wie "Super" oder "Ti" verwendet.

Ja, bei Einsteiger-Grafikkarten und bei Grafiklösungen für Multimedia-Laptops.

Beispiele für dedizierte Grafikkarten ohne Änderung des Suffixes: die GTX 960 gab es mit GM204 und GM206; die GT 730 mit GF108 und GK208; die GT 640 mit GF116, GK107 und GK208; die GT 630 mit GK107, GF108 und GK208. Mobile Lösungen werde ich jetzt nicht aufzählen, das würde nämlich in Arbeit ausarten :D

Neu ist tatsächlich, dass das bei den Spitzenmodellen gemacht wird. Deswegen schrieb ich ja auch, dass bei der 16GB Variante der RTX 4080 eigentlich das "Ti" Suffix fehlt.
 
Danke! Hier bin ich auf dem falschen Dampfer unterwegs gewesen. Für die kleinen Karten habe ich mich nie interessiert. Danke auch für die Beispiele.

Ist bekannt, ob wenigstens auf den Retailverpackungen der jeweils verbaute Chip irgendwie vermerkt ist? Der Kunde muss ja im Laden erkennen können, dass es sich um zwei verschiedene Produkte handelt, die sich nicht nur in der Speicherausstattung unterscheiden.
 
@emulbetsup Alles gut!

Die Chip-SKU steht wohl nicht auf der Packung, zumindest kann ich mich nicht daran erinnern. Zu Zeiten der GeForce 600er und 700er Serie habe ich in einem kleinen Computerladen gearbeitet und musste deshalb immer genau recherchieren, was ich den Kunden einbauen konnte. Man will ja keinen Mist verkaufen.

Speziell wenn das Budget arg begrenzt war, hatten die Einsteigergrafikkarten von AMD und nVidia damals auch ihre Daseinsberechtigung. Heutzutage nimmt man einfach eine AMD APU und selbst die iGPU-Lösungen von Intel-Prozessoren reichen für einfache Spielereien und Multimedia vollkommen aus.
 
Naja 300W geht ja noch wenn man es vergleicht was die 4000er ziehen hab Glocken Läuten hören 500W+ und das geht für mich absolut gar nicht.

z.b 13900k + 4090 und es wird sicher noch eine TI Version kommen in einem Jahr dann kannst am Stromzähler zusehen wie das Rädchen sich dreht und spätestens hier wird es einfach nur noch bescheuert wenn ich schon eine PSU brauche mit 1200W+ eher wohl 1500W

Man muss sich das auf der Zunge zergehen lassen 1500w 1,5kW wo kommen wir denn hin?
Man darf da nicht so kleinlich sein. Kraft braucht Power.
Bei den aufgerufenen Preisen wird es diesen Winter keine neue GPU. Vielleicht bringt AMD ja noch was stromsparendes. Ansonsten gucke ich mal ob ich auf dem Gebrauchtmarkt eine Karte von einem Enthusiasten erstehen kann. Am besten schon mit Wasserblock.
Die wird aber auch nicht günstig. Eine 3090 wie meine mit Wakü und hochwertigen Pads wird kaum unter 1000 Euro über den Tisch gehen. Ansonsten baue ich sie lieber meiner Freundin ein, auch wenn die damit nur Word und Excel macht.

Und nein Pascal, du bist nicht meine neue Freundin ;)
Richtig erkannt! Nvidia wird auch weiterhin keine Alternative für AMD sein! Die 7900 wird mindestens so schnell sein wie die 4090, nur 999$ kosten und dabei maximal 300W verbrauchen. Es gibt weiterhin keinen grund für Nvidia. Außer man ist Fanboy mit zu viel Geld!
Was für ein Schwatz. AMD ist eigentlich nur Konkurrenzfähig wenn man hohe Auflösungen sowie RT und DLSS schlecht redet
und das komplette NVDIA Softwarepaket für obsolet erklärt. Ich bin eigentlich AMD Fan und NVDIA ist eine Sch..... FIrma die den Kunden den letzten Euro aus der Tasche zieht, trotzdem rennt AMD in Summe seit X-Jahren NVDIA mindestens eine Generation hinterher. Und das wird sich Imho auch nicht ändern. Ansonsten das reinste Wunschdenken. Über Tempo, Verbrauch und Leistung reden wir mal bei Release. Du scheinst zu vergessen, das AMD es in den letzten 2 Jahren auch von den lebendigen genommen hat. Mehr war aus der rückständigen Technik beim besten Willen nicht rauszupressen.
Ich sags ja ungern mehrmals: Die alten Karten sehen plötzlich weniger runzelig aus. :D

Mit den Preisen erreicht man zwei Dinge:
(1) kann man diejenigen abfassen, die unbedingt was Neues wollen und nicht auf den Preis schielen und
(2) die älteren Karten in einen begehrlicheren Licht erscheinen lassen.

Man schiebt die kleineren Kärtchen zeitlich nach 2023 und schaut zu, wie sich die 3xxxer noch abverkaufen. Das ist schon irgendwie nachvollziehbar, wenn auch unschön.
Naja, unschön ist eine Frage der Perspektive, für die 3000er Besitzer ist das OK. So gibt es noch ein paar Euro mehr für die alten High-End Karten.
@Gamer
Unabhängige (IgorWallossekische) Tests abwarten. Auf Basis meiner aktuellen Wissenslage kann ich weder die kommenden Nvidia Grafikkarten, noch die kommenden AMD Grafikkarten einschätzen.

Aktuell befürchte (ich weiß es aber nicht) ich aber, dass die kommenden AMD Radeon 7xxxx Grafikkarten, wenn überhaupt, nicht viel effizienter als die Nvidia RTX4xxx Grafikkarten sein werden.
Genauso sehe ich das auch.
2x Niere+ 50% der Leber
+ Erstgeborenem.
Aus meiner Sicht ist VR die neue Killerapplikation.
Aber leider: Wenn bei Nvidia keine DP2.1 Varianten angeboten werden, heißt es warten. Meine 3090 reicht kaum für mein Headset.
Genau das ist das Problem. Für meine steinaltes oculus Rift im Wohnzimmer hab ich mein Zweitsystem mit einer 3080TI nachgerüstet, weil Alyx meine 2080 Super schon auf der Zweithöchsten Detailstufe geräuchmäßig zum Sturzkampfbomber gemacht hat. Leider gab es für das Modell keine Wakü.
....technisch gesehen wohl nicht sehr viel. Wenn man es genau nimmt waren die meisten Dinge die angekündigt wurden nur Software Lösungen.

Hardwareseitig gibts nur mehr Transistoren und mehr Stromverbrauch.
Hat es jemals was anderes gegeben? Immerhin haben Sie die Tensorkerne.
Ich habe nie geschrieben, dass bei AMD nur Dilettanten arbeiten.

Wie Du schon sagst, sieht man bei den CPUs absolut wie sie Intel den Schneid abkaufen. Genau das wünsche ich mir für die GPUs auch.

In meinem Beitrag geht es um etwas ganz anderes. Ich kann die Community einfach nicht verstehen, die auf einen Hersteller einprügelt, weil er innovative Entwicklungen finanziert und die Technik vorantreibt. Das ist es, was wir und wünschen sollten.

Und dass ein Hersteller seine Investitionen proprietär vermarktet, wenn er der erste ist, ist nur zu natürlich - wer etwas anderes verlangt will wohl auch, dass ihm sein Gehalt geschenkt wird.

Hier geht es doch nur um den Preis. Man will es haben, aber nicht bezahlen. Und genau darum wird es schlecht geredet. War schon in de

Grundschule so.
Bei AMD musst du dir keine Sorgen machen. AMD steht für Understatement! Wenn AMD sagt 10% mehr leistung als X dann kannst du direkt mit 15% mehr Leistung rechnen. AMD ist eben ehrlich und lügt nicht wie Nvidia und Intel. Nvidia behauptet ja die 4090 ist 4x so schnell wie 3090. Will ich durchgängig sehen! Und AMD ist der unangrefochtene Effizientkönig.
Genau. AMD ist der wahre Heiland der Neuzeit. Glaubst du wirklich was du da schreibst? Zum Thema Effizienz kannst du dir ja mal eine 6950 anschauen. Und vielleicht auch wie das miese DLSS mit Framebegrenzer den Verbrauch senkt.
 
Zuletzt bearbeitet :
Also wenn ich in meinem Büro zocke, dann kann ich schon jetzt die Heizung abschalten. Der Raum ist aber mit 12m² auch eher klein.
Das ist genau mein Masterplan für den Winter! Ab ins kleine Büro und durchzocken, dann bleibts kuschelig warm um die Lauscher🥵🥳 Wer braucht schon Heizlüfter....
 
2x Niere+ 50% der Leber
Beim Wechsel einer Generation kehren doch alle Datacenter, Serverfarmen und Rechenzentren Hardware der letzten und vorletzten Generation vor die Tür sprich zum bergehohen Elektronikschrott *Unbedeuternder Planet weint leise vor sich hin* und die schaffen es dann irgendwie preiswert auf beliebige Marktplätze - vielleicht ist ja der Einsatz bewährter Hardware der Weg - die sind doch noch gut. Und vielleicht kann man die ja auch übertakten. Und die Restriktionen der Treiber kann doch bestimmt irgendein weisser Hacker aus dem Ostblock wegschaffen. Und irgendwo auf Youtube gitbs doch bestimmt ein Video dazu.
 
Warum ist der Vollausbau bei Lovelace eigentlich der 103er Chip, den es vorher nie gegeben hat?
Der Vollausbau ist immer der Chip der auf "0" endet, also GK110 oder GM200. Der GM200 war auch schon der letzte Vollausbau für uns Gamergewürm, diese Chips wandern seitdem immer in die Profisparte. Ja, ich weiß, es gab noch den GV100, das war für mich aber keine Gaming GPU mehr, es gab ja auch sonst keine Gamerkarten mit Volta GPU zu kaufen.

Danach kommen dann die Chips mit der "2" am Ende, das ist für uns Gamer der King of the Hill, The Best Of The Best, der Chef von der Bobbahn, daran wurde bisher auch nicht geruettelt, auch wenn die 3080 diesen Chip bekam. Dann kommen die Chips mit "4" am Ende, das waren die Chips für die gehobene Mittelklasse, die 70er und 80er Karten, TU106 war hier Ausnahme.

Jetzt gibt es mit AD103 eine neue Chipklasse und AD104 wird richtig klein gemacht und bekommt ein 192bit kleines SI, soll aber trotzdem gehobene Mittelklasse sein. Was an sich ja nicht so schlimm wäre, wenn nicht gleichzeitig ein Preis aufgerufen wird, der bisher der Oberklasse vorbehalten war.
 
Zuletzt bearbeitet :
Also solange mein 12 Jahre alter 46" Sony TV als Monitor in FHD durchhält, reicht mir auch die 580 mit 8 GB und der 5-3600.
Aber wenn ich mal nen neuen Monitor brauche.... dann kommt OLED und 4K und dann brauch ich wohl oder übel auch sone Etagenheizung, egal von welchem Anbieter. :unsure:
Nee, die kannste auch mit 6900XT oder 3090/Ti bespielen. Zumindest bei der AMD hält sich das mit dem Heizen in Grenzen.
 
Bis Spiele da sind, die mehr Rechenpower nötig machen, ist die 50XX oder auch die 60XXer Serie am Start (vgl. RT-Features ab 20XX).
Besser noch, bis dahin sind RDNA4 und RDNA5 MCM-Karten von AMD/RTG vielleicht auf dem Markt.

nVidia braucht es nicht unbedingt angesichts dessen wie die sich aufführen und wie sie die Kunden versuchen zu täuschen; das muss man nicht noch mit einem nVidia Produktkauf belohnen ;).
 
nVidia braucht es nicht unbedingt angesichts dessen wie die sich aufführen und wie sie die Kunden versuchen zu täuschen; das muss man nicht noch mit einem nVidia Produktkauf belohnen ;).
Das ist etwas zu kurz gesehen. Durch NVIDIA gibt es zumindest 2 große Grafikkarten-Hersteller. An sich ist das schon zu wenig, denn Konkurrenz belebt das Geschäft und bringt die Unternehmen auch dazu innovativ zu sein.

Wenn es nur AMD geben würde ohne Konkurrenz, sieht es für den Verbraucher eher noch düsterer aus, denn AMD ist nun mal wie Nvidia ein Börsennotiertes Unternehmen. Beide sind ausgerichtet darauf Gewinne zu machen und zu maximieren. Das ist leider so. Ich hatte gehofft das Intel als dritte Kraft dieses Duopol aufbrechen könnte, aber das wird wenn noch Jahre dauern.
 
Das ist etwas zu kurz gesehen. Durch NVIDIA gibt es zumindest 2 große Grafikkarten-Hersteller. An sich ist das schon zu wenig, denn Konkurrenz belebt das Geschäft und bringt die Unternehmen auch dazu innovativ zu sein.

Wenn es nur AMD geben würde ohne Konkurrenz, sieht es für den Verbraucher eher noch düsterer aus, denn AMD ist nun mal wie Nvidia ein Börsennotiertes Unternehmen. Beide sind ausgerichtet darauf Gewinne zu machen und zu maximieren. Das ist leider so. Ich hatte gehofft das Intel als dritte Kraft dieses Duopol aufbrechen könnte, aber das wird wenn noch Jahre dauern.
ich versteh die Aufregung auch nicht. Wir werden doch überall verarscht. Früher hat ein 450 SL eine 4.5 Liter Maschine und ein BMW 530i eine 3 Liter Maschine. Heute sagt die Zahl im Prinzip gar nichts und bei jeder neuer Generation must du dich erstmal einlesen, um zu Wissen was du bekommst.

Die Helden der Marketingabteilung haben irgendwann halt erkannt das gefühlt 90% der Menschheit zu dämlich ist ein Loch in den Schnee zu pinkeln und nutzt das nun weidlich aus. Wer keine Ahnung hat wird über den Leisten gezogen. War aber schon immer so. Siehe das Märchen "Hans im Glück". Früher hat man den Indianern Glasperlen für Gold gegeben und nun sind wir die Indianer und unsere Glasperlen sind Grafikkarten, Uhren, Parfüms, Stereoanlagen, Klamotten Urlaube oder Autos deren VK`s durch nichts mehr zu erklären sind. Diese Liste läst sich beliebig erweitern.

Die Frage ist halt immer. Wann und wo willst du wieviel Indianer sein? Und wieviel Indianer sein kannst oder willst du dir leisten?

Ich spare mir so ziemlich alles bis auf Stereoanlagen und Grafikkarten sowie Can Am Ryker und Spyder. ( Letzteres hab ich seit neuestem für mich entdeckt).

Ich denke, wenn auf meinem Grabstein steht: " Er hat nie zu viel bezahlt" und meine Erben mein erspartes verjubeln, war mein Leben auch nicht glücklicher.

Also kaufen oder nicht kaufen. Aber kaufen und meckern, meckern ohne kaufen, sich aufplustern und meckern, oder die bemeckern die kaufen ist völlig Sinnfrei.

Ich hätte auch gerne einen Porsche 911, aber ich will ihn mir nicht vom Mund absparen.

Aber kein Grund Porsche zu beschimpfen, oder den Händler oder die, die Porsche kaufen und fahren.

Und im übrigen glaube ich ernsthaft, das es niemanden interessiert, das ich mir keinen Porsche kaufe weil......

Und auch nicht, das ich mir nur einen kaufen werde, wenn......

In diesem Sinne,

Allen einen schönen Start ins Wochenende und lasst uns die Friedenspfeife rauchen. Vielleicht gibt es ja ab 2023 eine von der Regierung freigebene Spezialmischung, die uns das alles entspannter ertragen läst.;)
 
Zuletzt bearbeitet :
Interessanter Link, aber nix für Leute, denen solche Machenschaften egal sind:
It is far worse than 12GB 4080 should be called 4070...
It is actually a 4060ti
Was heist denn egal? Was sie tun ist nicht Illegal. Egal ob es dir passt oder nicht. Da hilft das ganze gezeter nix.

Die quintessence heißt halt für mich nicht rummeckern und sinnlos meine Zeit vertun sondern klar zu erkennen, das die einzig kaufbare Karte die 4090 ist.

Das war bei der vorigen Serie doch das gleiche. Da war es nicht der Chip, sondern die 10 GB.

Akzeptabel wurde es doch erst mit der 12 GB und/oder der TI.

Hätte man der 3080 bei Release 16 GB gegeben, wäre ich nie bei einer 3090 gelandet.

Aber der Wahnsinn hat auch Vorteile.

Wer seinerzeit eine 2080ti gekauft hat, ist heute noch bei WQHD gut im Rennen.

Mit meiner 3090 und 3080Ti kann ich entspannt alle Tests abwarten und werde dafür dann immer noch eine Menge Geld bekommen. Das wird die Schmerzen für ggf. 2 x 4090 lindern, alternativ kann ich auch eine Generation überspringen.

Aus meiner Sicht haben die immer alles richtig gemacht, die sich für das Flagschiff entschieden haben. Sie hatten immer den meisten Spaß, den höchsten Gegenwert und die besten Optionen bei jeder neuen Generation.

Die Zeit der 500 Euro High-End Karten ist erstmal vorbei. Punkt.

Und wenn ich alle 2 Jahre 1000 Euro für die State of the Art Karte über die Theke werfen muss, dann ist das ärgerlich aber machbar. Solange die Fortschritte in dem Rahmen laufen, ist das Ok.

Und wenn nicht, wird halt eine Generation ausgelassen.

1000 Euro zieht sich ein Raucher, der jeden Tag eine Schachtel raucht in 137 Tagen, respektive in viereinhalb Monaten durch die Lungen.
 
Oben Unten