Reviews NVIDIA GeForce RTX 3090 Founders Edition Review: Zwischen Mehrwert und vermeintlicher Dekadenz - wenn der Preis nicht alles ist

Wie gesagt, es kommt darauf an. Schreibt doch Igor selbst im Fazit. Es ist etwas dazwischen. Es gibt genug, die mit 3D-Software arbeiten, ohne die zertifizierten Treiber zu brauchen. Die sind grad froh um die Karte - und für die lohnt es sich.
Es handelt sich nicht um eine Karte für die Massen. Schreibt ja auch NVIDIA selbst.
Für Spezialisten lohnt sichs. Für den Zocker nur für den, der die meisten FPS braucht... Um jeden Preis.
 
Es gibt hier so einige Gamer, welche glauben, nVidia hätte die 3090 nur fürs Gaming entwickelt und welche diese nun abqualifizieren. Dabei machen schon die 24 GB Vram klar, das sie einen speziellen Kundenkreis jenseits des Gaming anspricht, da braucht man nicht erst die Werbung zu lesen. Profis, die keine zertifizierten Treiber brauchen, Raytracing als Hobby betreiben, games modden, Studenten, Streamer, Videoschnitt usw.
 
Game Changer eben. Was ja schon auf die 3080 mehr als deutlich zutrifft. Und genau in den Anwedungsbereichen sehe ich für AMD schwarz.
 
Das mit der Sinnfrage hat sich doch schon vor ner richtig guten Weile erledigt, oder?

Ja klar, haben wir das schon längst abgehandelt.
Zum Thema 2080Ti behalten: Das sehen halt einige (inklusive mir) etwas anders und die Begründung behalte ich jetzt mal für mich selber 😉
 
edit by helpstar
OT , sowie folgendes davon entfernt

@funkdas
Es ist eine RTX3090. Auch wenn nVidia sagt, sie ist nicht nur fürs Gaming da, wird von nVidia nicht klar gesagt: Ist eine Workstation Karte. Also wird die 3090 wie alle anderen Karten zum Gamingbereich geschoben. Und da muss sich die Karte eben auch dem entsprechenden P/L stellen. Wäre es klar als Workstationkarte beworben mit Features für eben diesen Bereich, die eine 3080 nicht hat. Dann wäre es klar. Aber so, wird einfach nur von dir und anderen nVidias Arbeit übernommen den Preis zu rechtfertigen.
Fakt ist, für das gebotene ist sie im Vergleich zur 3080, egal ob Gaming oder Anwendung, zu teuer. Und selbst wenn nVidia noch eine 3080Super/Ti, oder wie auch immer die 20GB Version heißen wird, für 1000€ dazwischen wirft. Die Karte bleibt trotzdem zu teuer. Das schöne ist. Jeder kann und soll sich die Karte kaufen, wenn er für sich der Ansicht ist, sie ist es ihm wert und er benötigt sie unbedingt. Ändert nur nichts an den Fakten.
 
Zitat NVIDIA:
GeForce RTX 3090, A “BFGPU” For Creators, Researchers and Extreme Gamers
Drei Zielgruppen.
Und eben an der Grenze zur Workstation interessant. Weil eben GÜNSTIGER als eine Workstation bei MEHR Leistung. Was ist daran so schwer zu verstehen?
Gamer werden gemolken. Das habe ich nie bestritten.
Und nur weil Du es nicht einsiehst ändert es nichts an den Fakten: Es kann sich für eine bestimmte Zielgruppe finanziell lohnen auf diese Karte zu setzen. Weil sie im Renderbereich einfach eine Wucht ist. Und damit übernehme ich nicht die Arbeit von NVIDIA, sondern das kann man einfach aus Diagrammen ablesen - völlig ohne Werbung und Marketingblabla.
 
Das mit den "Researchers" finde ich eher zweifelhaft. Due sind ja anscheinend teilweise mit Volta bei Berechnungen schon auf die Nase gefallen.
 
So, ich hab grade eine knappe Dreiviertelstunde damit verbracht, die Stelle zu finden, in der der Hausherr selber ziemlich eindeutig schrieb, dass AMD im Produktivbereich - ich muß jetzt sinngemäß interpretieren - nicht mehr mithalten kann, allerdings habe ich die Stelle nicht gefunden. Was aber auch nicht weiter schlimm ist, denn der Test zu 3080 alleine ist, was erwähnten Produktivbereich betrifft, schon aussagekräftig genug, wie funkdas ja auch schreibt. Die 3090 setzt da nur noch einen drauf.
Selbst die besten Pro-Karten von AMD können nur noch äußerst fußlahm hinterherhinken und stellen keine ernsthafte Konkurrenz mehr dar. Alles nachzulesen in den Tests der 3080 und 3090. Auch, dass es vorher schon so war. Außerdem verbitte ich mir hiermit offiziell, von dir noch einmal so unverschämt angeschrieben zu werden, @Dark_Knight. Deine Aversionen mir gegenüber sind extrem nervig und refelektieren wie all deine Posts nichts weiter als dein AMD-Fanboydasein, mit dem ich einfach nichts anfangen kann. Was mich dich auch ignorieren ließ und läßt. Insofern kannst du deine Beobachtungen, die du vermeintlich über mich gemacht hast, ganz charmant auf dich zurückspiegeln lassen, dann reflektiert wenigstens einmal was substanziell.
 
@Dark_Knight

Was ist denn ein großer Aufreger für Dich? Ich meine, alles was weniger als eine Liquidierung oder zumindest ein Einbruch des Umsatzes um 50% wäre, zählt für Dich vermutlich nicht.

Wie schon bei der 970er Sache damals hat das Netz so laut geschrien, dass man kaum noch in ein Forum gehen konnte ... und irgendwie schienen alle so frustriert, dass NVidia trotzdem weiter erfolgreich war.

Dagegen macht AMD ja nie was falsch und bringt ausschließlich abolut klasse, fehlerfreie, performante und perfekt funktionierende Produkte auf den Markt - und wird trotzdem von eben diesem Markt abgestraft.

Ist schon ungerecht, diese Welt ... :)
 
Gamer werden gemolken.

Gamer "werden" nicht gemolken. Die hängen sich alle selbst an die Melkmaschine. :p
Ich habe mit keinem Gamer Mitleid, der sich jetzt unbedingt eine RTX 3090 ergattern muss um für den 3-fachen Preis 10 % mehr Leistung zu bekommen und dann enttäust ist, das er die Karte nicht stärker übertakten kann als er gehofft hat. Es scheint einfach zu viele Leute zu geben, denen Geld keine Rolle spielt. Wenn diese mit ihren überteuerten Käufen die Enwicklung der Garfikkarten fördern, kann mir das nur recht sein.
 
Mitleid habe ich auch keines. Wird ja keiner gezwungen so viel Geld auszugeben :)
Ich wundere mich über die Zahl derer, die das mitmacht.
 
Gibt es für die 3090 extra Treiber, die die Karte klar als Creator/Workstation Karte deklaieren? Nein die gibt es nicht. Es sind die ganz normalen Treiber für alle Gaming Karten. Und auch AMD Karten konnte man bei GCN auch für Anwendungen nutzen, weil diese eben viel Sachen mit rumgeschleppt haben, die für Anwendungen ganz gut waren, aber für Gaming eher nichts gebracht haben. Wurden trotzdem als Gaming Karten vermarktet. Auch AMD hat schon Karten vermarktet, die man fürs Gaming und Creative nutzen konnte.

Da war es aber falsch. Hier ist es richtig. Hier ist es okay, dass eine Gamingkarte 1500€ und aufwärts kostet. Und von mir aus, kann das Ding 2000€ und mehr kosten. Ist ja euer Geld, dass ihr bereitwillig nVidia gebt. Ändert aber nichts an der Tatsache, dass die Karten einfach überteuert sind für das was sie mehr leisten zum nächst kleineren Model. Wenn euch das alles egal ist, euer Bier.

@Grestorn
Ja ich hab die lauten Schreie in den Foren noch im Kopf. Ach halt, so laut war es gar nicht und die meisten haben dann gesagt: Ach egal ist ja trotzdem eine gute Karte und mehr wie 3,5GB wird ja sowieso nie gebraucht (nVidia Treiber für die 970 sei dank). Und all die, die sich bei der 970 noch wenigstens aufgeregt haben, sind dann bei der nächsten Generation wieder freudestrahlend in die arme von nVidia gelaufen und haben deren Karten gekauft als wäre nie etwas gewesen. Also bitte, der Skandal um die 970 war genauso ein Sturm im Glas wie das tolle GPP. Ein kurzes echauffieren und dann ist alles wieder gut zwischen nVidia und deren Produktkäufern.

@Derfnam
Nö. Auf so vielen Ebenen einfach nur Nö. Vielleicht kommt es dir ja mal irgendwann in den Sinn, dass deine Art der Darstellung eben nicht von jedem einfach so hingenommen wird. Vor allem nicht deine Substanzlosen Einzeiler, die meist nicht einmal etwas zum Thema wirklich beitragen. Das du dich darüber auch noch ärgerst, zeigt mir ganz deutlich, dass ich da definitiv einen Wunden Punkt getroffen habe.
 
@Grestorn
Ja ich hab die lauten Schreie in den Foren noch im Kopf. Ach halt, so laut war es gar nicht und die meisten haben dann gesagt: Ach egal ist ja trotzdem eine gute Karte und mehr wie 3,5GB wird ja sowieso nie gebraucht (nVidia Treiber für die 970 sei dank). Und all die, die sich bei der 970 noch wenigstens aufgeregt haben, sind dann bei der nächsten Generation wieder freudestrahlend in die arme von nVidia gelaufen und haben deren Karten gekauft als wäre nie etwas gewesen. Also bitte, der Skandal um die 970 war genauso ein Sturm im Glas wie das tolle GPP. Ein kurzes echauffieren und dann ist alles wieder gut zwischen nVidia und deren Produktkäufern.

Da sieht man's: Dir kann das Geschrei nicht laut genug sein, am besten stellt man NVidia an den Pranger, federt und vierteilt ihn und treibt ihn durch's Dorf. Anschließend straft man ihn mit "nicht-kauf" bis er pleite geht.

Und die Tatsache, dass das nicht passiert frustriert Dich endlos.

Mich amüsiert das einfach nur.

Dabei ist es doch ganz einfach: Wenn die Karte crashed wird sie per RMA zurückgeschickt, und gut ist. Tut sie das nicht, muss man auch nicht jammern.

Ich will jetzt gar nicht mit Problemen bei AMD vergleichen, das ist kindisch, aber auch auf der anderen Seite des Zauns ist nicht alles Gold was glänzt. So ist das nun mal. Also lieber im eigenen Garten kehren als in Nachbars Garten zu scheißen. Wäre nett, wenn sich alle daran halten würden.
 
Natürlich gehört nVidia an den Pranger, für jedes mal wenn sie solch einen Mist verzapfen. Genauso wie AMD, Intel, Samsung, Apple usw. Jedes Unternehmen, das absichtlich den Kunden täuscht gehört angeprangert. Allein, dass so viele es akzeptieren, verarscht zu werden und weiter bereitwillig das Geld solchen Unternehmen zustecken, ist Grund genug frustriert zu sein.
Aber nein, pleite sollen die Unternehmen nicht gehen. Nur ihr Verhalten den Kunden gegenüber ändern. Und zwar dahingehend, dass man diesen nicht belügt, betrügt und gnadenlos abzieht. Aber das erreicht man halt als Kunde nur mit einer Art des Protests: Mit Verzicht auf die Produkte. Denn erst wenn die Einbußen durch das Fehlverhalten groß genug sind, erst dann wird sich ein solches Unternehmen es beim nächsten mal dreimal überlegen so etwas wieder ab zu ziehen.

Und mach dir da nichts vor, wenn AMD in denselben Haufen Mist reingreifen sollte, egal mit welchem Produkt, werden sie genauso kritisiert. Wer bereitwillig Unternehmen sein Geld gibt, die immer wieder Mist gebaut haben in dem Maße, die können das tun und keiner wird sie daran hindern. Aber die mögen dann auch bitte sich nicht auch noch schützend vor diese Unternehmen stellen.
 
Immer diese Einzeiler. Erkläre doch wenigstens warum du schwarz siehst für AMD [...]
Gemeint ist der Profi-Bereich.
Dank CUDA, Tensor- und RT-Cores werden Video- und Bildbearbeitungsprogramme sowie 3D-Animation etc. auf nVidias Karten zugeschnitten.
Bei KI und Raytracing hatte AMD nichts am Markt weshalb es eben mit nVidia eingebaut wurde.

Klar kann man die meisten Funktionen auch für AMD-Karten programmieren – ich bin aber kein Entwickler und habe als Nutzer von Profi-Software nicht die Wahl. Wer sich einmal in ein Ökosystem eingearbeitet hat, wechselt nicht so bald wieder. Und als (z.B.) GPU-Renderer groß wurden hatte nVidia große Vorteile durch die RT- und Tensor-Cores. Selbst wenn AMD jetzt was Gutes bringt werden die wenigsten Anwendungen umprogrammiert werden, da das ein Riesenhaufen Aufwand ist.
 
@Dark_Knight Verzicht auf Produkte... Wie toll das funktioniert, kann man ja auch gut zB. in der Automobil- oder Lebensmittelbranche beobachten. ;-) Beim Großteil der Konsumenten entscheidet aber nicht die Ideologie, sondern der Anreiz durch bessere Alternativen. Im Schnitt kam da leider nicht viel von AMD in den letzten Jahren bzgl. Grafikkarten. Aber vielleicht tut sich da jetzt was mit BN. Der Anreiz auf unausgereifte 350W+ Monster zu verzichten ist schon da, nicht nur bei mir, denke ich. Dann brauchst auch deine Windmühlen nicht mehr so zu beackern. :)
 
Überall wo CUDA zum Einsatz kommt, hat AMD natürlich keine Chance, weil das nicht unterstützt wird. Inwieweit AMDs Profi GPUs in Sachen KI mithalten können entzieht sich meiner Kenntnis. Raytracing kann im Prinzip jede GPU berechnen, Nvidia macht das halt wieder zusammen mit der RTX Software (APIs and SDKs), da kann AMD wieder nicht mithalten, weil zu klein. Ähnlich ist es ja auch bei den CPUs, hier ist Intel auch stark in der Software drin, was AMD Probleme bereitet, zB. die Math Kernel Library oder bei den Compilern.
 
@QuFu
Die "unausgereifte" Ampere bringt die Leistung der 2080ti mit der 3070 für um die 220W. Noch etwas undervolten, dann hast du sie bei 180-200W. Viele Konsumenten machen sich schon lange etwas vor, reden ständig von sparsamen Modellen, um sich dann das dickste Ding zu kaufen, gleich die Kritik nachschiebend, das die sparsameren Modelle ja nicht so "Toll" sind.
Also was nun? Entweder man kauft sparsame Modelle oder die Spitzenklasse. Die Auswahl ist da, das Problem ist wohl eher ein Psychologisches, als ein Angebotsorientiertes.

@HerrRossi
AMD hat auf den OpenGL standard gesetzt und die Anbieter damit alleine gelassen, die Treiber schlecht gepflegt. Also kann man AMD Karten nur bei Profianwendungen nutzen, die über ihre Lizenzen genug einnehmen, das sich der Aufwand lohnt. nVidia hat auf cudacore gesetzt, die Hersteller bei der Implementierung der Schnittstellen unterstützt und pflegt neue Modelle zeitnah und zuverlässig in die Treiber ein. Sie haben sich damit eine sehr breite Basis geschaffen.

Daneben gibt es noch DXR von Microsoft, das meist in Spielen für die RT Effekte verwendet wird. Das hat AMD bis jetzt für keine seiner Karten im Treiber freigeschaltet, während nVidia bei Markteinführung von Turing sogar rückwirkend für Pascal freigeschaltet hat, damit man schon mal mit den Funktionen experimentieren kann.
 
Zuletzt bearbeitet :

Der Autor des Artikels scheint nicht soo tief in der Materie zu stecken.

Man könnte es auch so sehen:
nVidia bricht mit allen aktuellen Standards (1 FP32-Berechnung + 1 INT32-Berechnung pro Shader pro Takt) um AMD eins auszuwischen, die auf der "alten" Architektur festsitzen. Optimiert man jetzt Spiele, ca. 30% mehr FP32-Berechnungen parallel durchzuführen, werden AMDs INT32-Einheiten sich 30% mehr langweilen während die Fließkommarechenwerke nicht mehr hinterherkommen.

Auf der anderen Seite:
In Realität dürfte die Spieleperformance durch Optimierungen eben maximal um den Faktor zunehmen, um den aktuell INT parallel zu FP32 gerechnet werden konnte (von 1:2 bis 1:5 ist das Verhältnis wohl in Games). Denn die Ganzzahlen sind ja nicht in den TFLOP/s enthalten, haben aber trotzdem das Spiel beschleunigt. Es sei denn, die Integer-ALUs in der aktuellen Generation langweilten doch eigentlich die ganze Zeit, dann wird die Luft nach oben wesentlich größer (up to two times...).
Allein dadurch, dass nun die Hardware besser ausgelastet werden kann (vom Fließkomma- und Ganzzahl-Pfad muss jetzt nie einer untätig bleiben) sind schon zukünftige Performance-Zuwächse zu erwarten. Die "hohe Anzahl an Shadern" ist aber nach wie vor Augenwischerei, da die Vorgeneration demnach auch doppelt so viele Shader hatte, von denen die Hälfte aber 60-85% der Zeit aber nicht genutzt wurden.
 
Zuletzt bearbeitet :
Oben Unten