Grundlagenartikel Warum die Leistungssteigerung von Nvidias Ampere durchaus gewaltig sein könnte - die Boardpartner müssen bereits jetzt in die Übungsphase

Naja, selbst wenn. Keine Zweifel daran, daß NV liefern wird. Ob die das in 10++ machen oder 7, das ist für mich jetzt kein Qualitätsmerkmal. Obwohl mein Bias-O-Meter aktuell gar bei AMD GPUs liegt.

AMDs Auslobungen auf all den Keynotes bezüglich 7nm empfand ich immer eher als Fremdwerbung für TSMC ;) NV muss erstmal nichts tun ausser den fps-Verlust durch RT zu minimieren. Da kann/könnte man Ampere auch nur als Turing v2 machen und kein wirklich neues Design für und wegen EUV. Dafür käme 10++ eigentlich sehr gelegen, da man wohl viel vom Turing mit copy/paste übertragen könnte.

Aber... es sind halt nur Gerüchte. "Abwarten" ist daher ein brauchbares Stichwort ;)
 
Zuletzt bearbeitet :
Glaube nicht, dass „alles bleibt gleich nur RT wird schneller“ irgendwen aus dem Endverbrauchersegment substantiell zum Kauf bewegt. Zu wenig Titel, zu wenig wirklich Sichtbares, zu lange schon.
 
Denke aber das ist so der Schwerpunkt, mit den +40%. RT2000 vs. RT3000. Daß eine 3000er ohne RT genauso viel bringt wie eine 3000er ohne RT, das glaub ich ja auch nicht ;) So war das nicht gemeint.

Das "Features-set" sehe ich vorerst auch erstmal als done. Oder wartet ihr noch auf etwas bestimmtes? Ich warte nur drauf, daß alles SINNIG genutzt wird, alles >60fps läuft, und alles bezahlbar wird ;)
 
Und weiter mit dem Verwirrspiel ;) (nicht meinem)
 
Macht 'mehr von allem' das Endprodukt nicht quasi automatisch schneller? Noch ist ja nicht raus, worum es sich hier genau handelt, aber 8192 Cudakerne im Vergleich zu 4608 bei der RTX 8000 Quadro sind ja schonmal heftig. Da kann man schon gespannt sein, welche Steigerung es bei den RT- und Tensorkernen geben wird.
 
Falls der Speckulatius diesmal richtig liegt... ;)
 
Die werden schon genug Mäuse fangen.
 
Denke auch. Nur die Daten auf 3DC sehen nicht so stark nach S-F aus wie woanders :)
 
Ich halte mich mal vornehm zurück ;)
 
Mach das mal. Bring dich ja nicht in Schwierigkeiten :)
Wobei wenn auch die höheren Gerüchte ungefähr stimmen sollten, erklärt das imho weiterhin nicht den Backdrill. Es bleibt spannend ;)

Oder diese Maxwerte gelten nur der 3000er Titan. Ist natürlich auch spannend, aber für die meisten Consumer dann eher weniger aufregend als die 2060 bis 2080 Pendants.
 
Zuletzt bearbeitet :
Neue Cuda-Einheit! 🤪 🤪 🤪


Grüße!
 
Angeblich soll der GA102-Chip 21 TeraFLOPS liefern, das wären über 50% mehr als TU102 ohne OC bringt, das RAM soll 40% schneller sein, am Ende soll eine 3080 ti dann in Rasterisierung mindestens 40% schneller sein als die 2080 ti.
 
Zuletzt bearbeitet :
3070 = 2080Ti + deutlich mehr RTX Power wird immer realistischer :love:

Sollte sich wirklich ein Sprung wie von Kepler auf Maxwell ergeben? Inkl. günstigerer Preise als beim Vorgänger? Ach ne, das wäre ja zu schön um wahr zu sein... aber bei der aktuellen Entwicklung wird die nächste Karte wohl mit an Sicherheit grenzender Wahrscheinlichkeit mal wieder eine Geforce.

Grüße!
 
Einen günstigeren Preis glaube ich erst, wenn ich ihn schwarz auf weiß sehe. Im Moment hat Nvidia ja keinerlei Grund die Preise oberhalb der 5700 XT zu senken.
 
Günstiger ist relativ, mit 25% Mehrpreis zur 2080ti für die 3080ti würde ich schon rechnen. Wäre für mich aber bei +50% renderleistung und +75% Raytracing okay.
 
Vermutlich gibst dann ja auch noch eine 3080 ohne ti. Wenn Nvidia beim bisherigen Schema bleibt wäre die dann 25% schneller als die jetzige 2080ti bei ähnlichem Preis.
 
Ich mache keine Versprechungen, die ich nicht halten kann.
 
Oben Unten