NVIDIA GeForce RTX 4000 SUPER: Neues vom AD103, 16 GB und PCIe 5.1 für die neue Generation

Was ist denn HighEnd?
(nicht das da Einige HE mit Enthusiast verwechseln)

Eine 4090 ist High - End.
Mit Monis<4k reichen anscheinend den meisten AMD-Käufern die 7800xt statt der 7900xt bereits aus.
(beide sind mit 519€ bzw. 799€ gut bepreist, ... incl. Pandora sind das reale 449€ bzw. 729€ )

Anhang anzeigen 28960

gehe mal davon aus, das beide Grakas für SF oder demnächst Pandora gut reichen

Die 7900xtx läuft dann trotzdem noch besser als die XT, ... für die 4k-AMD-User anscheinend dann auch
150€ Aufpreis wert.
Das sich noch relativ viele RDNA2 ohne Pandora verkaufen ist erstaunlich, liegt vllt. am Preis.
(6950@599€ und 6800xt@499€ und 6800@399€)

Warum die NV-Käufer nicht auf Supi warten, who knows.
(wahrscheinlich keine Modder dabei, die mehr Vram ordentlich nutzen können wollen)
Das mag ja alles gerne so sein, die Verkaufszahlen sprechen allerdings irgendwie eine deutlich andere Sprache. Und genau das ist das Problem von AMD. Wenig Umsatz, wenig Geld für Entwicklungen. Im Schlimmstenfall wird der Rückstand noch größer.
 
Hat nix mit Schelmen oder irgendwelchen Lenzen zu tun. Entsprechender Berichterstattung zufolge sind etliche Händler nVidia gar zuvor gekommen und haben beträchtliche Kontingente kurzerhand nach China umgeroutet als sich das erweiterte Embargo abzeichnete. Das alleine wird schon aufgrund der verminderten Belieferung hier für steigende Preise gesorgt haben und natürlich schaut nVidia dem Treiben nicht tatenlos zu und will selbstredend mit seinen eigenen Produkten auch mitverdienen.
Bleibt zu hoffen, wenn das Embargo endlich greift, das die Preise wieder deutlich sinken. Ist aber im Weihnachtsgeschäft und aufgrund der Raffgier aller Beteiligten kurzfristig eher unwahrscheinlich.


Ergänzend zu

Ja, ganz offensichtlich, da AMD im HighEnd kaum was absetzen kann und sich gerade mal im einstelligen Prozentbereich bewegt, während der Rest auf nVidia-Produkte entfällt, wobei hier unklar ist ob JPR in seiner Marktanalyse möglicherweise auch noch die RTX 4070 Ti hinzuzählt. AMD hinkt hier, wie seit Jahren, funktions- und softwaretechnisch dem Marktführer hinterher und muss sich mit den üblichen, schon seit Jahren angewandten Mitteln behelfen ... mehr VRAM und niedrigerem Preis.
Mit der Strategie wird bei der nächsten Generation aber wohl die Luft dünn. Ich denke, da werden selbst die NVIDIA Karten für FHD UND WQHD genügend Ram haben. Da geht dann nur noch billiger. Und das deutlich.


Jetzt haben sie sich zudem bei RDNA4 vollkommen verzockt und müssen ihre Konkurrenzfähigkeit erst mal komplett auf Eis legen und irgendwie bis 2025+ überbrücken. Man kann nur hoffen, dass ihnen bereits mit dem verbleibenden RDNA4 ein wesentlicher Entwicklungsschritt gelingt und man danach endlich mal so halbwegs aufschließen kann, denn Intel wird sich mit Battlemage erst mal weiterhin absehbar nur die Low/Midrange-Marktsegmente vornehmen und in der oberen Markthälfte vermutlich erst frühestens mit Celestial eine Rolle spielen, d. h. wenn man dedizierte Consumer-GPUs nicht bis dahin schon wieder abgesägt hat ;-)
Die große Gefahr ist, das AMD möglicherweise zwischen NVDIA und INTEL marginalisiert wird. Wenn Intel im mittleren und unteren Marktsegment preiswerte Alternativen mit stabilem Treibersupport bietet und NVIDIA den High - End Bereich abdeckt bleibt eigentlich nur noch sowas wie die obere Mittelklasse.

Und genau da legt NVIDIA ja gerade mit den SUPER/TI Launches nach.

Die von nVidia vorangetriebene technologische Entwicklung ist zwar höchst erfreulich, dass die jedoch mit derart großem Abstand den Markt dominieren ist keinesfalls wünschenswert.

Genau das ist unser aller Problem. Bedeutet deutlich höhere Preise und längere Laufzeiten. Im Grunde genau das, was Intel während Ihrer CPU Dominanz mit den Kunden gemacht hat.

Bleibt nur zu hoffen, das AMD aufgrund der aktuellen Erfahrungen beim nächstenmal ein wirklich großer Wurf gelingt und nicht nur vollmundige Ankündigungen von sich gibt,

Aus meiner Sicht ist AMD spätestens seit der 480er immer Marketingtechnich gestartet wie Django und im Test geendet wie Else Strathmann.

Wäre einfach mal schön, wenn die veröffentlichen Zahlen nicht nur Top aussehen, sondern zur Abwechslung auch mal stimmen würden.
 
Das überhebliche Geschwurbel mit der 4090 als HighEnd im selben Topf wie RDNA3 ist nach m.E. in zu vielen Threads/Websites
und bei zu vielen Usern fehl am Platz.(der Riesenchip ist ne Ausnahme und daher der einzige Enthusiast)
Wieviele Leute(%) haben denn ne 4090, als ob dann Sowas entscheidend für das R&D-Budget sein könnte?
(da meine ich nicht die dt. gutsituierte Erbengeneration sondern den weltweiten Durchschnitt)

Die 4090 hat 90% mehr Shaderfläche auf dem Silizium und ist NICHT mit der wesentlich kleineren GCD einer 7900xtx vgl.bar.

Normalerweise wird unter 1k€ der Umsatz gemacht mit den grooooßen Stückzahlen.
Das die 4080 bisher zu teuer ist(>1k€) und selten die 4090 in den Verkaufszahlen übertreffen konnte, ... ist ein
hausgemachtes Problem von NV. Das jetzt der Preis der 4090 steigt ist der einzige Grund, warum mehr 4080 verkauft
werden.

Das NV jetzt mit H100+H200 überdurchschnittliche Gewinne macht ist ne ganz andere Sache.
AMD wird da sicherlich etwas kleinere Brötchen backen, aber aufgrund der Nachfrage auch partizipieren.
 

Anhänge

  • N31 vs AD102.jpg
    N31 vs AD102.jpg
    99,4 KB · Aufrufe : 8
Zuletzt bearbeitet :
Test
 
Zuletzt bearbeitet :
Das überhebliche Geschwurbel mit der 4090 als HighEnd im selben Topf wie RDNA3 ist nach m.E. in zu vielen Threads/Websites
und bei zu vielen Usern fehl am Platz.

Sorry, aber Du „schwurbelst“...
Spitzenklasse,Highend, Enthusiast ist alles das Gleiche.
Eben das was nach der Oberklasse kommt.

Dem Verbraucher ist die Chipoberfläche vollkommen egal.
In dieser Generation ist die 4090 einfach oben auf, egal wie das genannt wird.
Die 7900XTX ist dann eben im Generationen-vergleich einfach eine Klasse darunter.
Nennen kann man das dann von mir aus obere Oberklasse, wie auch die 4080.
Das kann man dann weiter nach unten ( Oberklasse 7900XT / 4070 TI ), usw usf fortsetzen

Und ganz nebenbei; obwohl der Chip der 4090 so viel größer ist,braucht er dennoch so viel weniger Energie um dieses Ergebnis zu erreichen.
Von den weiteren Vorteilen einer Nvidia Karte ( zertifizierte Treiber, RT und FG, DLLS,CUDA,..) will ich gar nicht erste anfangen.
 
Zuletzt bearbeitet :
Und ganz nebenbei; obwohl der Chip der 4090 so viel größer ist,braucht er dennoch so viel weniger Energie um dieses Ergebnis zu erreichen.
Und ?
Das ist überhaupt keine neue Erkenntnis, das ein größerer Chip effektiver sein kann.
(siehe RDNA2-Effizienzthread im Luxx, 6900>6800xt>6800, also nicht die kleine nonXT ist ideal)

 

Anhänge

  • 100Wtgp=120Wtbp.JPG
    100Wtgp=120Wtbp.JPG
    73,6 KB · Aufrufe : 10
Ist halt so, wer Kung Fu, für Unsinn hält:

Muss halt auch selbst, die Verantwortung Tragen...

...oder anders ausgedrückt: Angebot und Nachfrage.
Das wird der 7900XTX nicht passieren.
Nächstes Jahr gibt es die 4090 dann wieder für 1600 Euro.
 
...oder anders ausgedrückt: Angebot und Nachfrage.
Das wird der 7900XTX nicht passieren.
Nächstes Jahr gibt es die 4090 dann wieder für 1600 Euro.
Wer eine wollte spielt doch eh schon seit über einen Jahr damit. Damit haben sich doch eigentlich dann alle Diskussionen zum Thema Effizenz, Leistung etc. erledigt. Das wird doch erst mit der Release der 5090 wieder spannend. Erst dann interessiert mich auch der Preis wieder. War mit der 3090 doch genauso.
 
[...] denn Intel wird sich mit Battlemage erst mal weiterhin absehbar nur die Low/Midrange-Marktsegmente vornehmen und in der oberen Markthälfte vermutlich erst frühestens mit Celestial eine Rolle spielen, d. h. wenn man dedizierte Consumer-GPUs nicht bis dahin schon wieder abgesägt hat ;-) Die von nVidia vorangetriebene technologische Entwicklung ist zwar höchst erfreulich, dass die jedoch mit derart großem Abstand den Markt dominieren ist keinesfalls wünschenswert. [...]
...und damit "schädigt" Intel in erster Linie AMD, die ihre Schwäche im oberen Segment allenfalls mit Verkäufen im Midrange Sektor ausbügeln könnten. Und gerade da verderben viele Köche die Köchin, oder hier die Umsätze.
 
...und damit "schädigt" Intel in erster Linie AMD, die ihre Schwäche im oberen Segment allenfalls mit Verkäufen im Midrange Sektor ausbügeln könnten. Und gerade da verderben viele Köche die Köchin, oder hier die Umsätze.
Da sollte doch nächstes Jahr dann RDNA4@4nm auch ungefähr rauskommen.(Performance+Preis wie Battlemage)
... RX7600@6nm und RX6750@7nm ersetzen (die 6750-12GB kostet derzeit nur 329€ vs. A770-16GB=359€)
Das ist ein bisschen TikTok ala Intel früher bei den CPU´s.

Ob Intel die RX7800xt-16GB angreifen kann, ... mal schauen.(von AMD evtl. ein Refresh mit GDDR7 = wäre nice to have)
Und was wird eigentlich aus der 4070, = EOL und dann nur ne 4070s-12GB für 700€ erhältlich in Q2...H2/24?
Damit würde Jensen mal soo richtig zeigen, Wer Ihm am Herzen liegt, ... als Käufergruppe.
(4060 und 4060Ti-8GB sind eeh outdated, kaufen nur anspruchslose Gamer, = keine Zielgruppe von NV)

btw.
Bleiben noch die Treiber, wo ich bezweifel, das Intel die Käufer restlos überzeugen kann.(z.Bsp. in SF, ... aktuelle Messung von DF)
Je nach Game fehlen oft 20-33% zu AMD. (und das ist bei DF nur ne RX5700nonXT)

Und Was macht AMD eigentlich mit 3dCache?
Bei den CPU´s werden jetzt noch kleine Ryzen5000 aufgehübscht, ... ginge Das nicht auch bei den GPU´s?
(alternativ 4nm-MCD´s = mooore L3 = bessere Trefferquote für hohe Auflösungen)
 

Anhänge

  • older GPU in SF.JPG
    older GPU in SF.JPG
    143 KB · Aufrufe : 6
  • 6750@329€.JPG
    6750@329€.JPG
    20,1 KB · Aufrufe : 6
Zuletzt bearbeitet :

Die Paar Prozenz werden den Absatz auch nicht besser machen bei der 4080-er Super
und die RTX 4070 TI Super mit 16GB wird sich besser verkaufen lassen,- aber AMD wird wohl die 7800XT auf 519 Euro senken werden.
und möglich eine 7900XT auf 729 Euro herabstufen.
 
...und damit "schädigt" Intel in erster Linie AMD, die ihre Schwäche im oberen Segment allenfalls mit Verkäufen im Midrange Sektor ausbügeln könnten. Und gerade da verderben viele Köche die Köchin, oder hier die Umsätze.
"Verderben viele Köche" ... den Brei? - Warum sollte das so sein? Wenn Intel es produkt- und markt-/konkurrenztechnisch gar besser hinbekommen würde, könnten die AMD auch gerne aus dem Markt drängen. Letzten Endes interessiert nur das Produkt und nicht der Herstellername, denn der kann an Verbrauch und Leistung nichts ändern, auch wenn der so manchen psychologischen Effekt bei vereinzelten Käufern zu haben scheint. ;-)
Schlussendlich bedeutet das schlicht, dass AMD sich noch mehr anstrengen muss ... sollen sie ruhig, kann mir als Konsumenten nur recht sein ... und das gilt gleichermaßen selbstredend für Intel ... letzten Endes, Konkurrenz belebt das Geschäft.

AMD hat sich das selbst eingebrockt. Die haben safe gespielt mit dem Konsolen-Deal (2016-2018), denn dann ohne nennenswerte Weiterentwicklung als RNDA2 erst Ende 2020 veröffentlicht, da man sich vertraglich gebunden hatte und dementsprechend zog nVidia davon, während AMD mit Marketinggeschwafel der Art "der Markt ist noch nicht so weit" (u. Ä.) die Fanbase bei der Stange zu halten versuchte.
Dass ihnen die Felle wegschwimmen bekommt AMD ja nur allzu deutlich vom Markt vorgehalten, denn bspw. RDNA2 ist durchaus ein gutes Produkt geworden, verkaufte sich jedoch dennoch nur mäßig und man konnte trotz des relativen Leistungszugewinns keine Marktanteile gewinnen, bzw. verlor gar stellenweise noch Anteile *) und das, obwohl die Konkurrenzprodukte deutlich teuerer über die Ladentheke gingen.
Und bei RDNA3 wiederholte sich das Spiel gar erneut ... wieder ein guter Leistungszugewinn, der jedoch auf kein Gegenstück in der Marktentwicklung traf. Man baute die Shaderstruktur etwas um, ließ vermutlich aufgrund begrenzten Ressourcen größere Optimierungen bei modernen Features wie dem Raytracing und allem was damit zusammenhängt außen vor und versuchte sich an einem ersten MCM-Design und geriet hier schon in schwere Fahrwasser, da sich die Produktentwicklung deutlich verzögerte und man schließlich Navi31 mit einem Hardware-Bug veröffentlichen musste, den man nur im Treiber mit kleineren Leistungseinbußen kompensieren konnte. Witzigerweise gab es hier einen Gesellen im Forum, der im Rahmen einer ähnlichen (oder gar dieser?) Diskussion zu argumentieren versuchte, dass die 4090, also der strippedDown-Ausbau des AD102 ja keine reguläre GPU mehr sein sollte oder darf, sondern ein Ausnahmeprodukt, dass man nicht mehr in allgemeine Betrachtungen miteinbeziehen dürfte, nur hat dieser leider komplett außer Acht gelassen, dass alleine schon die beträchtlich teuere 4090 um ein Vielfaches öfters verkauft wird als AMDs-Topmodell (hat man ganz viel Pech, aber das werde ich jetzt nicht zu eruieren versuchen, wird alleine die 4090 gar trotz des immensen Preisaufschlags deutlich häufiger verkauft als Navi31 insgesamt. ;-) ).
Und bei RDNA4 hatte man es nun mit einem all-in **) versucht und das Projekt in den wirtschaftlichen Ruin gefahren, sodass eine Fortführung nicht mehr sinnvoll war. AMD wird sich eine offizielle Bestätigung sicherlich so lange wie möglich verkneifen, aber so wie es derzeit weiterhin aussieht, wird es anscheinend keine Konkurrenz im HighEnd mit RDNA4 geben, d. h. man kann nur hoffen, dass die zumindest bzgl. Raytracing hier so langsam die Kurve bekommen (was dann auch für zukünftige Gens gilt) und dass ihnen weitere Fehlschläge bei RDNA5 erspart bleiben, denn ansonsten geht ihnen irgendwann wirklich die Puste aus und sie canceln dedizierte Consumer-GPUs.

*) Anteile, die man dann erst mal wieder mit weiteren Preisnachlässen zurückgewinnen musste, am Ende eine Nullnummer und das vermutlich trotz gestiegener Investitionskosten, denn die komplexeren MCM-Designs werden für AMD entwicklungstechnisch zweifellos teuerer geworden sein.

**) Konkret einem deutlich komplexeren bzw. "echten" MCM, denn RDNA2 war ein vergleichsweise einfacher Aufbau, der immer noch mit einem monolithischen GCD arbeitete und lediglich das Speichersubsystem auslagerte, sodass keine echte Kernskalierung auf leicht Art möglich ist, wie sich dass so mancher Fan gerne im Vorfeld ausmalte und fabulierte, dass AMD dann ja "die Kernzahl beliebig hochskalieren könnte", wobei derart unsinnige Aussagen dann gleich noch den Verbrauch derartigen Siliziums gleichermaßen komplett ignorieren aber das ist dann ein anderes Thema.
Den Gerüchten zufolge versuchte man dann beim großen RDNA4-Design nun auch die Grafikengine modular aufzubauen, die Komplexität und damit steigende Fehleranfälligkeit wurde ihnen aber anscheinend zum Verhängnis.
 
"Verderben viele Köche" ... den Brei? - Warum sollte das so sein? Wenn Intel es produkt- und markt-/konkurrenztechnisch gar besser hinbekommen würde, könnten die AMD auch gerne aus dem Markt drängen.
Das könnten sie bestimmt, aber Warum ?
Die GPU Abteilung kommt von AMD, die intel Software Ingenieure machen einfach weiter wie bisher.

Niemand, wird irgendwann AMD irgendwo verdrängen.
Sonst haben sie einen PatenRechtStreit an der Backe. :)
 
@RX480:
Ich vermute wenn Intel mit RDNA4 mithalten können wird, können sie schon froh sein, jedoch bei Intel ist aktuell unklar, wie groß deren Entwickungschritt ausfallen wird, da hier zu viele Unbekannte im Spiel sind. Hier gibt es keinerlei Historie weil Alchemist die 1st Gen ist, man weiß nicht welche (wirtschaftliche) Zielsetzung sie haben und man kann bestenfalls vermuten, dass noch einige Verbesserungen ggü. der ursprünglichen Planung hinzugekommen sein könnten, da Battlemage ursprünglich mal als 2023-Produkt geplant und für 2024 bereits Celestial vorgesehen war. Hinzu kommen weitere Unbekannte aufgrund der internen Reorganisation und man weiß nicht so genau, wie viel Prio sie dem Projekt wirklich zuordnen. Vielleicht sieht man auch keine Synergieeffekte mehr zwischen der Consumer- und HPC-Entwicklung (?), sodass man das Engagement im Consumer-Segment wieder zurückgefahren hat?
Treibertechnisch würde ich mir keine allzu großen Sorgen mache, da die stetige Vebesserungen vorstellen können und zumeist bleibt zu vermuten, dass weniger Intel als eher die Entwickler das Problem sind, die nicht strikt DX-konform implementieren, sodass deren Treiberteam hier viel Kompensationsarbeit leisten muss. Wenn man Pech hat, ist das aber ein Henne-Ei-Problem, d . h. eine höhere Aufmerksamkeit durch die Entwickler erst bei größeren Marktanteilen aber um diese zu erreichen bedarf es wiederum guter Leistung, die eigentlich die Unterstützung der Entwickler bedarf ... und hier muss dann halt (vorerst übermäßig) Intels Treiberteam einspringen.
Wenn man will, könnte man zumindest das hohe Engagement in der Treiberentwicklung so werten, dass Intel seine Consumer-Entwicklung keinesfalls aufs Abstellgleis schieben will, dagegen wie weit dieses Indiz dafür herhalten kann um die tatsächlich Höhe deren Engagements bzw. der Priorität des Consumer-GPU-Projekts abzuschätzen, ist unklar.

*) Ergänzend, Intel könnte auch durchaus überraschen, denn die arbeiten schon von Anfang an auch an MCM-Designs im GPU-Bereich, auch mit Blick auf Consumer-GPUs. Jedoch würde ich aufgrund der Wirtschaftlichkeit mit Blick auf Battlemage eher nicht von einem entsprechenden Produkt ausgehen, vielleicht bei Celestial in 2026+ ? Hätte Intel AMDs Fail bei RDNA4 jedoch vorhersehen können, wer weiß, vielleicht hätten sie hier alles dran gesetzt das schon mit dem repositionierten 2024er-Battlemage in den Markt zu bringen, denn damit hätte man AMD leicht komplett ausboten können, aber das sind eher weniger absehbare, bzw. hochspekulative Ereignisse, die man eher nicht einplant.

Zum Thema gestapeltem Cache bei GPUs: Hier ist die Frage wie und wo man das implementiert. Direkt auf dem GCD macht es keinen Sinn weil hier die Verlustleistung viel zu hoch ist und das zusätzliche Silizium die Wärmeabfuhr beträchtlich einschränkt, sodass man früher in ein thermisches Limit läuft, was wiederum den Takt beschränkt.
Würde man die Speichercontroller in Form des MCD weiterhin auslagern, könnte man diesen darauf stacken, jedoch ist auch hier die Frage ob das einen echten Kosten-/Nutzen-Vorteil bieten würde, vermutlich eher nicht. So gab es anscheinend einen entsprechenden RDNA3-Prototypen, im Labor, dem eine "abysmal cost to benefit ratio" nachgesagt wurde. Hierbei ist zu berücksichtigen, dass man zusätzliches Silizium und damit Wafer-Fläche benötigt und weiterhin zusätzlich benötigt man auch noch teueren und zudem knappen Packaging/Stacking-Prozess und das nicht nur 1x (wie bspw. ein einem Ryzen) sondern bspw. bei Navi31 gleich für ganze sechs Chips unb man könnte das Produkt dennoch nicht übermäßig hochpreisig verkaufen, weil man AMD bei ihrem derzeitigen Entwicklungsstand solche Produkte einfach nicht abnimmt.
Zudem wird das Stacking vermutlich auch nicht übermäßig viel bringen, da einen schon grundsätlzich großen Cache noch ein wenig größer auszulegen (dafür aber auch mit etwas schlechterer Latenz) bringt i. d. R. eher wenig.
Vermutlich wird hier das erfolgversprechendere Rezept sein den L3$ im MCD behutsam zu vergrößern (wenn überhaupt?) und ergänzend schnelleres GDDR anzubinden. Am Ende ist der L3$ als Einzelkomponente per se komplett irrelevant und es geht hier lediglich um die insgesamt bereitgestellte Speicherbandbreite. Letzten Endes muss man berücksichtigen, dass der zusätzlich L3$ auf RDNA bisher lediglich den Zweck hatte ein komplexeres und damit teueres SI zu vermeiden und weil man keinen Zugang zu schnellem GDDR6 hatte, d. h. hätte man regulär auf Speicherbandbreite XY kommen wollen, hätte man das SI noch weiter verbreitern und noch mehr Speicherchips anbinden müssen, was zusätzliche Controller, PHY (damit Wafer-Fläche) und Verlustleistung und Speicherchips und insgesamt Kosten mit sich gebracht hätte.

*) Zum Gegenvergleich, nVidia hat sich dagegen entschieden und mit schlicht seinen L2$ zu vergrößern und offensichtlich eine gute Wahl getroffen. In Verbindung mit dem weiterhin monolithischen Design und dem deutlich breiteren Absatzmarkt wird man hier weitaus profitabler unterwegs sein als AMD und konnte sich bisher die unnötige Komplexität und Komplikationen eines MCM-Designs ersparen und konnte gar noch das leistungsfähigere und effizientere Design abliefern. - Unschön nur, dass der Platzhirsch derart alleine auf weiter Flur steht und dementsprechend auch freie Hand bei der Preisgestaltung hat. ;-)
 
Zuletzt bearbeitet :
@8j0ern: Richtig lesen und verstehen, dann wird dir auch klar wie überflüssig dein Posting war. ;-)
 
Oben Unten