Reviews NVIDIA GeForce RTX 3090 Founders Edition Review: Zwischen Mehrwert und vermeintlicher Dekadenz - wenn der Preis nicht alles ist

Ja klar, haben wir das schon längst abgehandelt.
Zum Thema 2080Ti behalten: Das sehen halt einige (inklusive mir) etwas anders und die Begründung behalte ich jetzt mal für mich selber 😉

Wobei ein Wechsel einer 2080 Ti zu einer 3080 deutlich unsinniger ist, als der von einer 1080 Ti zu einer 2080 Ti war. Denn Turing unterschied sich wegen RTX und den Tensoreinheiten deutlich zu Pascal. Ampere und Turing sind so gesehen nahe zu identisch. Schon im laufe des Jahr 2019, gerade mal weniger als ein Jahr nach Markteinführung, ist die Leistung der 1080 Ti massiv eingbrochen und war sogar langsamer als eine 2070. Zumal Spiele wie Control über FHD hinaus fast unspielbar waren und auch kein RTX möglich war. Das wird mit einer 2080 Ti nicht passieren, denn auch in RTX ist die 3080 nämlich nicht bedeutend schneller und DLSS wird auch mit einer 3090 benötigt. In zwei Jahren kann man dann auf die neue Generation wechseln. Die 3080 wird dank fehlenden Speicher auch nicht länger als für zwei Jahre interessant bleiben, zumindest wenn man nicht deutlich die Auflösung und Details senken möchte.
 
@QuFu
Die "unausgereifte" Ampere bringt die Leistung der 2080ti mit der 3070 für um die 220W. Noch etwas undervolten, dann hast du sie bei 180-200W. Viele Konsumenten machen sich schon lange etwas vor, reden ständig von sparsamen Modellen, um sich dann das dickste Ding zu kaufen, gleich die Kritik nachschiebend, das die sparsameren Modelle ja nicht so "Toll" sind.
Also was nun? Entweder man kauft sparsame Modelle oder die Spitzenklasse. Die Auswahl ist da, das Problem ist wohl eher ein Psychologisches, als ein Angebotsorientiertes.
Drei mal darfst du raten, warum ich die 3070 nicht zusammen mit " unausgereifte 350W+ Monster" genannt habe. Und was Leistung und Vergleichbarkeit betrifft, würde ich mich noch nicht so weit aus dem Fenster lehnen. Das Rennen könnte nämlich ziemlich knapp werden, was irgendwann mal unabhängige Tests klären werden. Schön an der 3070 ist momentan nur der angesagte Preis im Gegensatz zur 2080ti. Aber bei einer 220W Karte erwarte ich einfach, dass sie einer 250W Karte der letzten Generation zumindest ebenbürtig sein wird. Bitte nicht falsch verstehen, für mich als WQHD Zocker ist die 3070 die interessanteste Karte vom 30xx Line-up. Aber noch gespannter bin ich darauf, was BN in dieser Klasse bieten wird.
 
Der Autor des Artikels scheint nicht soo tief in der Materie zu stecken.

Man könnte es auch so sehen:
nVidia bricht mit allen aktuellen Standards (1 FP32-Berechnung + 1 INT32-Berechnung pro Shader pro Takt) um AMD eins auszuwischen, die auf der "alten" Architektur festsitzen. Optimiert man jetzt Spiele, ca. 30% mehr FP32-Berechnungen parallel durchzuführen, werden AMDs INT32-Einheiten sich 30% mehr langweilen während die Fließkommarechenwerke nicht mehr hinterherkommen.

Auf der anderen Seite:
In Realität dürfte die Spieleperformance durch Optimierungen eben maximal um den Faktor zunehmen, um den aktuell INT parallel zu FP32 gerechnet werden konnte (von 1:2 bis 1:5 ist das Verhältnis wohl in Games). Denn die Ganzzahlen sind ja nicht in den TFLOP/s enthalten, haben aber trotzdem das Spiel beschleunigt. Es sei denn, die Integer-ALUs in der aktuellen Generation langweilten doch eigentlich die ganze Zeit, dann wird die Luft nach oben wesentlich größer (up to two times...).
Allein dadurch, dass nun die Hardware besser ausgelastet werden kann (vom Fließkomma- und Ganzzahl-Pfad muss jetzt nie einer untätig bleiben) sind schon zukünftige Performance-Zuwächse zu erwarten. Die "hohe Anzahl an Shadern" ist aber nach wie vor Augenwischerei, da die Vorgeneration demnach auch doppelt so viele Shader hatte, von denen die Hälfte aber 60-85% der Zeit aber nicht genutzt wurden.
Naja der Artikel behandelt genau das, dass die Software opimiert werden muss um die volle Leistung, die derzeit brach liegt nutzen kann.
Inwieweit da jeder Entwickler bereit ist, ist ne andere Frage.
Theoretisch kann Ampere nur besser werden, bleibt die Frage wie viel besser.

Wie es Mark Cerny (Sony) so schön gesagt hat, man kann die Tflops zwischen 2 Architekturen nur schwer vergleichen.
Ich warte sowieso AMD ab, da scheint ja was Ordentliches auf uns zuzukommen. Zumal ich erst mit Zen 3 eine neues System bauen werde.
Sollte ich mich aber für eine AMD GPU entscheiden müsste ich zwangsläufig den Monitor wechseln, da ich noch einen Gsync Monitor von 2017 habe der leider kein Freesync unterstützt *grml*

Wäre trotzdem gespannt, was Igor zu dem Thema zu sagen hat.
 
nVidia bricht mit allen aktuellen Standards (1 FP32-Berechnung + 1 INT32-Berechnung pro Shader pro Takt) um AMD eins auszuwischen, die auf der "alten" Architektur festsitzen.

Das ist kein Standard. Nirgendwo schreibt ein Standard vor, wie schnell oder langsam die Hardware für bestimmte Operationen sein darf. Das gegen NVidia zu verwenden ist schon recht absurd.
 
Wäre mir auch neu, dass es da einen Standard gibt. Somit sehe ich da keine Probleme wenn nVidia das Verhältnis ändert.

Und natürlich kann AMD nicht im Profibereich mithalten gerade wenn es um Cuda geht. nVidia hat da nun einmal einen nicht offenen Bereich geschaffen der eben auch mit Hilfe von Personal und Geld immer weiter verbreitet wurde. Ob dies nun positiv ist oder eher negativ wie bei anderen Dingen die nVidia so in den letzten 10 Jahren gemacht hat, sei dahin gestellt. Aber Cuda scheint zu laufen und das sehr gut.
Da kann AMD halt nicht mithalten schon allein was Geld und Personal angeht. Auch hat AMD oft genug versucht offene Standards zu schaffen, die auch von nVidia nutzbar wären. Wurden aber oft nicht von den Entwicklern angenommen. Am Ende kann eben kein Hersteller etwas auf den Markt bringen, wenn es nicht von den Entwicklern angenommen wird. Natürlich hilft da immer in gewisser weise Geld und/oder Personal was einem bei der Einarbeitung unterstützt.
 
Drei mal darfst du raten, warum ich die 3070 nicht zusammen mit " unausgereifte 350W+ Monster" genannt habe. Und was Leistung und Vergleichbarkeit betrifft, würde ich mich noch nicht so weit aus dem Fenster lehnen. Das Rennen könnte nämlich ziemlich knapp werden, was irgendwann mal unabhängige Tests klären werden. Schön an der 3070 ist momentan nur der angesagte Preis im Gegensatz zur 2080ti. Aber bei einer 220W Karte erwarte ich einfach, dass sie einer 250W Karte der letzten Generation zumindest ebenbürtig sein wird. Bitte nicht falsch verstehen, für mich als WQHD Zocker ist die 3070 die interessanteste Karte vom 30xx Line-up. Aber noch gespannter bin ich darauf, was BN in dieser Klasse bieten wird.
Die 3080 ist genau so ausgereift wie die 3070, wie die 3060 und was noch alles an Ampere GPUs kommen wird. Es besteht lediglich der Zusammenhang, je mehr Leistung, desto größer muss der Chip sein bzw. desto höher taktet man ihn, was dann eben mehr elektrische Leistung benötigt. Dann zu behaupten, die 3080 sei nicht ausgereift bzw. nicht sparsam, nun ja. Selbst die 3080 Stock verbraucht weniger Watt/FPS als die 2080 ti. Nun braucht man nur noch das Power Target um 50 W reduzieren und auf die letzten ca. 5% Leistung verzichten, dann ist doch alles super.
Ähnlich wird das bei der 3070, man undervoltet etwas, begrenzt den Boost oder senkt das Power Target, schon hat man ca. 20-30% Leistung gespart. Wünschenswert wäre vielleicht ein Tool direkt von nVidia mit niedrigen Zugangshürden, wo man das ohne Risiko einstellen kann, vielleicht die Wahl zwischen 3 Betriebsmodi vorgibt. Sparsam-dauerbetrieb/ausgewogen/Max. Leistung.
 
Zuletzt bearbeitet :
@Dragus Du sprichst über die 3070/60 fast so, als hättest du sie schon ausgiebig getestet. Dazu bin ich leider noch nicht gekommen und kann kaum mehr gesicherte Erkenntnisse, als das aus dem Launch von mir geben. ;-) Apropos Launch... Ich erinnere mich nicht, dass Jensen irgendwann von einer "50 Watt weniger Karte" sprach. Und bei dem tollen UV Potential der 3080, frag ich mal anders rum: Warum meint NVidia diese Karte @stock so dermaßen hart außerhalb des sweet spots betreiben und verkaufen zu müssen? Ist nur eine der Ungereimtheiten, weshalb ich den Launch für missglückt halte. Gibt noch genug andere Gründe, auch hier im Forum schon mehrfach rauf und runter diskutiert. Ist halt meine Sichtweise.
 
@QuFu
Jetzt, wo man die 3080 und 3090 kennt, kann man die anderen Karten auch schätzen. Stock sind sie mir auch zu hoch getaktet. Januar 2021 haben wir die Quartalszahlen IV/2020, da wird man dann sehen, ob der Launch gut war oder nicht. Objektiv gemessen wird so etwas am Geschäftserfolg und im Vergleich zu den Konkurrenten.
 
Wenn man sie von der Steuer absetzen kann und es weniger Wartezeit bei der (bezahlten) Arbeit bedeutet nett.
Sonst unnütz und überflüssiger Umweltverschmutzer (100+W mehr für teils unter 10% mehr FPS ... schei auf Klimawandel!).

PS: Zur Erinnerung: 60W Glühbirnen (die alten Dinger aus Glas mit Glühfaden drin) wurden verboten und wir mußten alle auf Energiespar-5minwartenbishell-Lampen oder LED-Leuchten umstellen. Egal, haun wir uns halt statt den 60W nu 100W oder mehr zum Kaffeewärmen in den Rechner /ironie off.
 
@Schakar Deswegen ist UV die Maßnahme der Stunde für Ampere. Es gibt genug Beispiele in diversen Foren. wo es gezeigt wurde.
Würde mich freuen, wenn Igor da ebenfalls drauf einginge.
 
Ach, bei der 3090 find ich den exorbitanten Verbrauch (absolut) gar nicht so schlimm. Die ist ja gottseidank teuer und rar genug, dass sie nicht en masse in irgendwelchen Zockerkisten landen wird. Wenns schon sonst keiner tut, das Klima freut sich über die 3090 Preise. ;-) Aber trotzdem, auch ich finde die Tendenz bedenklich, das Nvidia hier spielend die 300 Watt hinter sich lässt. Die 3080 ist sich dafür ja auch nicht zu schade.
 
Nomen est und so. Vielleicht heißt irgendwann mal eine Ökospar.
 
Wenn man sie von der Steuer absetzen kann und es weniger Wartezeit bei der (bezahlten) Arbeit bedeutet nett.
Sonst unnütz und überflüssiger Umweltverschmutzer (100+W mehr für teils unter 10% mehr FPS ... schei auf Klimawandel!).

PS: Zur Erinnerung: 60W Glühbirnen (die alten Dinger aus Glas mit Glühfaden drin) wurden verboten und wir mußten alle auf Energiespar-5minwartenbishell-Lampen oder LED-Leuchten umstellen. Egal, haun wir uns halt statt den 60W nu 100W oder mehr zum Kaffeewärmen in den Rechner /ironie off.

Dadurch, dass die Karte aber schneller ist als andere, die in einer Augenblicksaufnahme weniger verbrauchen, zieht die Karte dann doch nicht so viel wie hier viele schreiben. Wenn nen Projekt einfach früher fertig ist, braucht sie nach beenden nix mehr, wobei eine langsamere Karte noch ne Stunde rechnen kann bis Ende und eben der vermeintliche Niedrigverbraucher auf einmal gar nicht mehr so gut da steht.

 
Zuletzt bearbeitet :
Nicht nur die Karte beendet das Projekt die genannte Stunde früher, sondern der ganze Rechner.
 
Deswegen schrab ich "absolut" in Klammern dazu. Effizient sind sie schon, sieht man ja in den Messungen vom Test. Aber Spiele werden trotzdem nicht schneller beendet, egal wie effizient die Karte die vielen schön Bilder raus pustet. Ja, Framelimiter und so, ich weiß... Gibt aber bestimmt genug Zocker, die da gar nix von halten, außer vielleicht im Sommer, um in ihrer Höhle keinen Hitzeschlag zu bekommen. Deswegen kann man ja auch den "umweltbewussten" Preis gut finden. ;-)
 
Naja, der Preis... Ich zitiere mal Techspot: Finally, for those gaming at 4K, the RTX 3090 offers on average 11% more performance over the RTX 3080. If you’re coming from an RTX 2080 Ti, that’s a very respectable 45% increase in performance for a 25% increase in price.
Quelle, zu finden mittig unter der Game Average-Tabelle 4k.
 
Ja, stimmt schon, wer bei Grakas gar nicht aufs Preisschild schaut, und bei Turing schon beherzt in die Vollen gegriffen hat, bekommt mit Ampere schon ordentlich Mehrwert geboten. Aber hier https://store.steampowered.com/hwsurvey/videocard/ kann man schon rauslesen, das diese Personengruppe nicht so zahlreich ist. Nach der 2080ti kommen fast(!) nur noch Exoten oder Unbrauchbares. Man kann von den Steam-Statistiken halten was man will, aber die Zahl der zockenden Klimasünder o_O scheint doch überschaubar zu sein.
 
Dass die Käufergruppe sshr überschaubar daherkam (2080 Ti) und anzunehmenderweise kommen wird (3090) diktiert natürlich der Preis. Aber im Grunde gilt das alles ja genauso für die 3080 und zwar nicht nur im Vergleich zur 2080, sondern auch im Vergleich zur 2080 Ti. Und man kann davon ausgehen, dass sogar die 3070 die 2080 Ti überholen wird und das ist dann tatsächlich Mehrwert.
 
Der einzige Pluspunkt bei sowohl der 3080, als auch der 3090 was das angeht. Dadurch, dass sie viel schneller in Anwendungen sind, verbrauchen sie auch nicht so viel, auf Dauer bei Anwendungen. Ändert aber eben halt nichts an der Tatsache, dass beide Karten gut über 350W schlucken und einige Custom Modelle sogar die 400W knacken und das nicht nur mal eben knapp.
Ist und bleibt einfach ein bitterer Nachgeschmack. Ginge definitiv besser, aber dann hätte man entweder länger an der GPU Pfeilen müssen, oder hätte sich weniger von der eigenen Vorgeneration absetzen können bzw. vom möglichen Gegenspieler AMD.

Und sollte AMD in denselben Verbrauchsbereich reingehen, wäre es auch für AMD kein Pluspunkt. Mir tun nur all jene leid, die jetzt echt gucken müssen ob ihre Netzteile eigentlich noch ausreichen um den PC mit einer solchen Karte betreiben zu können, ohne das die Kiste andauernd neu startet.
 
Oben Unten