Was die Leaks zu NVIDIAs neue Karten taugen, was stimmt und warum kopite7kimi manchmal scheinbar „falsch“ liegt.

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.829
Bewertungspunkte
8.870
Punkte
1
Standort
Redaktion
Nichts gegen Leaks, denn sie befriedigen ja in einem gewissen Maße die Neugier aller, im Gegenteil. Das weiß ich ja bekanntermaßen selbst recht gut. Viele dieser aktuelleren Informationen stammen auch von kopite7kimi und es war zudem so, dass sie sich in teilweiser schneller zeitlicher Abfolge zu widersprechen schienen. Jetzt kann man da natürlich auf die (read full article...)
 
Danke fürs Klarstellen!

Ich bin echt gespannt auf die nächste Generation.

Vor allem auch darauf, was AMD macht. Wer wird effizienter, wer muss mit der Brechstange ran und wie werden am Ende die Preise sein. Aber so lange die Lager noch voll mit Ampere Karten sind, wird man es sicher gar nicht mal sooo eilig haben, oder?


Grüße!
 
Sollten die Angaben zum Stromverbrauch stimmen, sind die Karten für mich nicht interessant. Einzig die 4070 wäre es noch einigermaßen, aber da sind es dann die nur 10GB, die stören. Und wenn die 4070 auf dem Niveau der 3080 sein soll, dann kann ich mir auch eine 6900XT kaufen, die braucht auch "nur" 300W, hat mehr Speicher und ist vllt. sogar schneller als die 4070, zumindest ohne Raytracing, wobei auch da eine 3080 schon jetzt nicht wirklich schneller als die 6900XT ist. Da bliebe dann nur noch der Preis, der sehr deutlich unter dem der 3080 liegen müsste.
 
Wenn es stimmen sollte, dass der Mitbewerber AMD die 7700XT als Gegenspieler der 4070 nur mit 8GB VRAM ausstatten sollte, trotz angeblicher 6900XT-Leistung, macht doch Nvidia alles richtig. Mehr Speicher als der Mitbewerber und trotzdem kanibalisiere ich nicht die stärkeren Karten, die mehr VRAM haben.
Da Intel vermutlich leistungsmäßig nicht mithalten kann, ist es egal falls die alle Karten mit 16GB ausstatten sollten.

Cunhell
 
Da schon die 6700XT 12GB hatte, halte ich das eher für unwahrscheinlich.

Man rechnet ja bei Navi 33 mit 6900XT Leistung, das wäre der dritte Chip von oben,
nach jetziger Zählweise wäre das die 7600XT. Dort sind 8GB absolut i.O.
Bei der 7700XT kann es gern was mehr sein.
 
Und währenddessen ist Intel komplett damit ausgelastet in der Nase zu bohren.

Ne 10GB 4070 ist natürlich nen absolut trauriger Witz.
 
... der Mitbewerber AMD die 7700XT als Gegenspieler der 4070 nur mit 8GB VRAM ausstatten sollte, trotz angeblicher 6900XT-Leistung, macht doch Nvidia alles richtig. Mehr Speicher als der Mitbewerber und trotzdem kanibalisiere ich nicht die stärkeren Karten, die mehr VRAM haben.

Aus unternehmerischer Sicht sicherlich clever seitens nVidia, aber aus Kundensicht wäre eine Verknappung auf nur 10GB - die jetzt schon für die erwartbare Rohleistung einer RTX 4070 zu knapp angesetzt würden bzgl. einiger aktueller Titel (mit oder ohne Texturen-Mods) - ein grosser Flaschenhals.

12 GB wären für mich das aktuell noch vertretbare absolute Speicherminimum und vielleicht macht es nVidia ähnlich wie AMD/RTG bei der RX 6700 (mit nur 10GB) und reicht andersherum eine RTX 4070Ti oder eine RTX 4070 Super mit 12GB wenig später nach einer auf 10GB künstlich beschnittenen RTX 4070 Markstart-Ausgabe nach (ähnlich wie bei der RTX 3080 geschehen, die eigentlich von Anfang an mit 12 GB hätte kommen sollen), wer weiss?

Ansonsten fährt man evt. dann mit einer RTX 3080(Ti) mit 12GB für weniger Geld zum RTX 4070 Marktstart (deutlich) besser, aber das wird man abwarten müssen.
Die RTX 4070 bei 12 GB zu belassen und eine RTX 4060Ti mit "nur" 10GB zu bestücken wäre m.E. der insgesamt deutlich stimmigere und erfolgsversprechendere Schritt (später dazu noch eine RTX 4070Ti oder Super mit 14GB), aber gut, das wird scheinbar nicht so kommen.

Der Preissprung von einer RTX 4070 zu einer RTX 4080 dürfte dann aber bei mutmasslichen 10 GDDR6 vs. 16GB GDDR6X RAM noch deutlicher ausfallen bei den Ada Lovelace Grafikkarten als bei Ampere GPUs.

Da würde schon ein ziemliches Loch klaffen, was den Speicherausbau angeht.

Das soll jetzt nicht als Kritik an kopite7kimi verstanden werden, denn dessen Gerüchte (und die anderer) sind für mich doch das Salz in der (GPU-)Suppe und die Lage kann sich ständig ändern und Gerüchte müssen dann angepasst werden, auch wenn das einige YT-Influencern - die sich gerne selbst beweihräuchern ob Ihrer Vorhersagen und so tun als wären deren z.T. schwammige Vorhersagen so gut wie immer richtig, auch wenn man dort auch manchmal mit den Bewertungen ziemlich daneben liegt ... schöner Gruss an MLID dahingehend - nicht passen sollte.

Ob AMD/RTG nicht doch noch in letzter Minute den Speicherausbau überarbeiten wird und nVidia in diesem "Katze und Maus" Spiel den Schneid abkaufen wird, wird interessant sein zu beobachten und ich hoffe am Ende profitiert der Kunde eher davon als dass sich beide Chipentwickler in Minimalausstattungen übertreffen und kommende GPU-Generationen bei zusätzlich abkühlender Weltkonjunktur daran kranken werden, denn damit täten sich nVidia und AMD/RTG beide keinen Gefallen am Ende.
 
Zuletzt bearbeitet :
MLID ist bei mir ständiger Chatparter, der will immer, dass ich ihm was bestätige :D

Und er löchert mich seit einem Jahr, mal einen Podcast mit ihm zu machen. Aber ich will nicht.
 
Ist ja nicht verkehrt etwas bestätigen zu lassen bevor man was veröffentlicht.
Dass Nvidia und ggf. sogar AMD mit dem Speicher geizen könnten ist beim derzeitigen (Speicher)Markt frech.
 
Sollten die Angaben zum Stromverbrauch stimmen, sind die Karten für mich nicht interessant. Einzig die 4070 wäre es noch einigermaßen, aber da sind es dann die nur 10GB, die stören. Und wenn die 4070 auf dem Niveau der 3080 sein soll, dann kann ich mir auch eine 6900XT kaufen, die braucht auch "nur" 300W, hat mehr Speicher und ist vllt. sogar schneller als die 4070, zumindest ohne Raytracing, wobei auch da eine 3080 schon jetzt nicht wirklich schneller als die 6900XT ist. Da bliebe dann nur noch der Preis, der sehr deutlich unter dem der 3080 liegen müsste.
Aktuell ist für mich bein den Leaks nur etwas klar. Da kann einiges wahr sein, aber definitiv nicht alles.

Laut kimi's aktuellsten Zahlen hat eine 4090 60% mehr Cores und 50% mehr RAM als eine 4080, boostet auf 2.5 Ghz und verbraucht dabei lächerliche 30W (7%) mehr Strom.
Läuft die 4080 dann mit 3.5 GHz? o_O
 
Der Speicher ist Wurst, die 2GB Module nehmen nur ca. 15 Watt mehr auf Der Rest ist der Takt und der kleinere, aufgeblasene Chip. Die Zahlen stimmen laut meinen Quellen, weil die Karten dort schon laufen (und saufen)
 
Aktuell ist für mich bein den Leaks nur etwas klar. Da kann einiges wahr sein, aber definitiv nicht alles.

Laut kimi's aktuellsten Zahlen hat eine 4090 60% mehr Cores und 50% mehr RAM als eine 4080, boostet auf 2.5 Ghz und verbraucht dabei lächerliche 30W (7%) mehr Strom.
Läuft die 4080 dann mit 3.5 GHz? o_O
Ich schätze mal, dass die 4080 auf jedenfall über 3GHz boosten soll, damit man damit schön die Werbetrommel rühren kann.
 
Läuft die 4080 dann mit 3.5 GHz?
Das wäre ja fast schon zu gute Skalierung 😄 Der zusätzliche Takt ist immer sehr teuer erkauft, die 4090 wird kaum so niedrig takten, dass da noch locker massig Taktspielraum nach oben wäre.


Warum gibts eigentlich kaum brauchbare Leaks zu RDNA3?
 
Das wäre ja fast schon zu gute Skalierung 😄 Der zusätzliche Takt ist immer sehr teuer erkauft, die 4090 wird kaum so niedrig takten, dass da noch locker massig Taktspielraum nach oben wäre.


Warum gibts eigentlich kaum brauchbare Leaks zu RDNA3?
12288 Shader, 384 Bit BUS, 192MB oder 384MB IC, über 3GHz, 375W-450W
 
@Igor Wallossek

Meinst du wirklich 16GB und nicht 12GB? Dann müsste die Version der 4070 ja auf AD103 basieren?

"Denn während kopite7kimi die GeForce RTX 4070 jetzt mit 10 GB Speicherausbau angibt, waren das ja auch schon einmal 16 GB.
Und ich kann bestätigen, dass es diese 16-GB-Karte als Testmuster bei den Boardpartnern (AIC) ebenfalls gab (und noch gibt)."
 
Salvage statt eigenem Chip. Die 4080 war ja offensichtlich auch mal als AD102 Mülleimer gedacht. Wenn jetzt jede Linie einen eigenen Chip bekommt, spricht das eher für den Prozess.
 
Wäre ja schön wenns noch ne 16GB 4070Ti gibt :D

Aber das wird dann wohl eher 12GB AD104 Vollausbau.
 
Ich weiß schon, dass es Leaks zu RDNA3 gibt, aber auf die kann man doch nichts geben. Da ist man sich ja noch nicht einmal beim Aufbau einig, sinds jetzt 2 Compute Dies und 1 Cache Die oder doch umgekehrt? Wenn selbst das nicht bekannt ist, kann man auf den Wahrheitsgehalt der restlichen Daten genau nichts geben

Bestes Beispiel, zwei ziemlich unterschiedliche Leaks:

12288 Shader, 384 Bit BUS, 192MB oder 384MB IC, über 3GHz, 375W-450W
 
Oben Unten