Reviews NVIDIA GeForce RTX 3090 Founders Edition Review: Zwischen Mehrwert und vermeintlicher Dekadenz - wenn der Preis nicht alles ist

Hier noch mal ein Vergleich mit einer 2,1 GHz Ti, da lohnt sich die 3080 noch nicht mal in RTX oder DLSS

1601024845308.png
 
"Die sehr hohe elektrische Belastung durch die Geforce RTX 3090 ist offensichtlich. Das Netzteil sieht sich bereits ohne Übertaktung mit Spitzen von 14,5 Ampere (170 Watt) an der primären Strombuchse konfrontiert. Während das noch kein Problem darstellt, macht uns die Belastung des PCI-Express-Slots auf dem Mainboard etwas nervös: Zwar bleibt die durchschnittliche Belastung auf der 12-Volt-Schiene bei absolut vertretbaren 64 Watt, einzelne Spitzen schnellen jedoch auf bis zu 77 Watt hinauf - und somit über das, was spezifikationsgemäß selbst mit allen Toleranzen erlaubt ist.

Wer mithilfe des maximalen Powerlimits alles aus der RTX 3090 presst, stellt noch deutlich höhere Anforderungen den Stromspender. Die Spitzen klettern auf bis zu 15,5 Ampere (180 Watt) am ersten Strang. Regelrecht bedenklich ist, was am PEG-Slot des Mainboards passiert: Aus durchschnittlich 64 Watt (ohne OC) werden 73 Watt, was bereits über dem PCI-E-Sollwert von 66 Watt liegt, und mehr oder minder regelmäßige Spitzen schießen deutlich über 80 Watt hinaus. Die Peaks um 89 Watt sind keineswegs gesund, sodass wir Übertaktern dringend dazu raten, die Geforce RTX 3090 nur mit Undervolting zu betreiben. Dabei sinkt zwar kaum die Leistungsaufnahme, dafür taktet die GPU jedoch dauerhaft höher und die Ampere-Wogen glätten sich. Interessant: Bei der RTX 3080 FE sind es im OC-Betrieb sogar 17 Ampere auf dem ersten 12-Volt-Kabelstrang, allerdings fällt hier die Belastung des PEG-Slots am Mainboard geringer aus. Falls Ihr Rechner dabei zu sporadischen Neustarts oder gar spontanem Feierabend tendiert, ist die Sache klar: Die Schutzschaltungen des Netzteils schlagen Alarm.

355 Watt benötigt die Geforce RTX 3090 für die Leistungskrone respektive 100-Prozent-Marke im PCGH-Leistungsindex. Ein valides, nicht durch die übrige Infrastruktur beeinflusstes Performance-per-Watt-Rating lässt sich nur für die Ultra-HD-Auflösung erstellen. Hier gelingt es der RTX 3090, klar effizienter zu arbeiten als die RTX 3080: Dem Fps-Plus von durchschnittlich 15,6 Prozent steht ein Watt-Plus von nur 7,6 Prozent gegenüber. Es ist in den meisten Fällen effizienter, viele Rechenwerke geringer zu takten, als weniger Rechenwerke ans"

EDIT by helpstar:
Quelle: PCGH
 
Du machst es schon spannend... Eine 3080 mit 20GB. Ich kann schlecht zwischen den Zeilen lesen aber es hört sich echt so an als kommt die noch dieses Jahr... Auf der anderen Seite wäre ich schon absolut heiß auf die 3090... Schwierig.

Meine letzte Vollpreisgrafikkarte war die 980ti, meine 1080ti war "nur" gebraucht, somit wäre die Kriegskasse eigentlich gefüllt aber sinnlos Geld ausgeben will man da ja doch wieder nicht, ach verdammt.
 
Igor...wieso zum Teufel testest du hier mit teilweise mittleren Details :rolleyes: ??
 
Der Slot kann keine 75 Watt, wie oft denn noch? 5.5 Ampere, Ende Gelände :)

Moin Igor, danke für den sehr ausführlichen Test. Dein Fazit zu den Strömen über den PCIe-Slot ist ja nicht ganz so negativ wie bei der PCGH:

Die sehr hohe elektrische Belastung durch die Geforce RTX 3090 ist offensichtlich. Das Netzteil sieht sich bereits ohne Übertaktung mit Spitzen von 14,5 Ampere (170 Watt) an der primären Strombuchse konfrontiert. Während das noch kein Problem darstellt, macht uns die Belastung des PCI-Express-Slots auf dem Mainboard etwas nervös: Zwar bleibt die durchschnittliche Belastung auf der 12-Volt-Schiene bei absolut vertretbaren 64 Watt, einzelne Spitzen schnellen jedoch auf bis zu 77 Watt hinauf - und somit über das, was spezifikationsgemäß selbst mit allen Toleranzen erlaubt ist.

Wer mithilfe des maximalen Powerlimits alles aus der RTX 3090 presst, stellt noch deutlich höhere Anforderungen den Stromspender. Die Spitzen klettern auf bis zu 15,5 Ampere (180 Watt) am ersten Strang. Regelrecht bedenklich ist, was am PEG-Slot des Mainboards passiert: Aus durchschnittlich 64 Watt (ohne OC) werden 73 Watt, was bereits über dem PCI-E-Sollwert von 66 Watt liegt, und mehr oder minder regelmäßige Spitzen schießen deutlich über 80 Watt hinaus. Die Peaks um 89 Watt sind keineswegs gesund, sodass wir Übertaktern dringend dazu raten, die Geforce RTX 3090 nur mit Undervolting zu betreiben. Dabei sinkt zwar kaum die Leistungsaufnahme, dafür taktet die GPU jedoch dauerhaft höher und die Ampere-Wogen glätten sich. Interessant: Bei der RTX 3080 FE sind es im OC-Betrieb sogar 17 Ampere auf dem ersten 12-Volt-Kabelstrang, allerdings fällt hier die Belastung des PEG-Slots am Mainboard geringer aus. Falls Ihr Rechner dabei zu sporadischen Neustarts oder gar spontanem Feierabend tendiert, ist die Sache klar: Die Schutzschaltungen des Netzteils schlagen Alarm.

Sind die Unterschiede auf Messungenauigkeiten zurück zu führen oder wo liegt der Unterschied?

Andere Frage zu einer älteren Diskussion: Raff hatte ja auch gezeigt, dass es durchaus einen Unterschied bei den FPS macht ob nun PCIe 3.0 oder 4.0. Auch da bist du in deinem Grundlagen-Artikel zu einem anderen Ergebnis gekommen.

Ich möchte hier niemandem gegens Knie treten oder euch gegeneinander ausspielen. Ich würde nur gerne verstehen, wo diese Unterschiede her kommen.
 
Hier noch mal ein Vergleich mit einer 2,1 GHz Ti, da lohnt sich die 3080 noch nicht mal in RTX oder DLSS
Ich bin mit meiner Entscheidung, die 2080ti zu behalten und auf einen 1440p Monitor zu setzen weiterhin zufrieden. Klar, wenn ich früher reagiert und meine Karte frühzeitg verkauft hätte, dann hätte ich mit einem Wechsel zur 3080 einen kleinen Gewinn gemacht und jetzt etwas mehr Leistung, aber das habe ich verpennt. Da die Unterscheide aber nicht so extrem sind wie vorher gedacht, kann ich damit gut leben. Ich warte jetzt einfach auf die ersten MCM Grafikkarten.
 
Hey,
also erstens ist der Artikel bei PCGH von Philipp Reuther und zweitens steht bei dem Fazit das folgende:
Die Zugewinne durch PCI-E 4.0 sind auch mit einer RTX 3080 eher gering. Vor allem in höheren Auflösungen und bei verhältnismäßig niedrigen Bildraten erscheinen die Abweichungen kaum von Belang....

@HerrRossi ich bin auch der Meinung, dass das die richtige Entscheidung in deinem Fall ist. Von einer 2080 (Super/Ti) auf eine 3080 & 3090 zu wechseln macht auch nur begrenzt Sinn.
 
Das mit der Sinnfrage hat sich doch schon vor ner richtig guten Weile erledigt, oder?
 
Andere Frage zu einer älteren Diskussion: Raff hatte ja auch gezeigt, dass es durchaus einen Unterschied bei den FPS macht ob nun PCIe 3.0 oder 4.0. Auch da bist du in deinem Grundlagen-Artikel zu einem anderen Ergebnis gekommen.
der Artikel handelt ja vom x8 des B550 Chipsatzes bei PCIe 3.0 vs. PCIe4.0 bei Igor. Also nicht wirklich direkt vergleichbar, aber das Fazit ist dennoch ähnlich
 
Die CPU scheint wohl deutlich wichtiger sein als die PCIe-Bandbreite, hier hat Intel mit dem 10900K die Nase vorn.
 
wobei wir das mit der überlastung des pcie-anschlusses ja schonmal bei der konkurrenz hatten.

was gab das damals für einen riesen aufreger,

obwohl das alles durchaus handelbar war, da der bus ja für mehrere anschlüsse ausgelegt ist und wenn nur einer benutzt wird und 'überzoegen* wird, es trotzdem gut funktionieren dürfte....

mal sehn wie gross der aufschrei diesmal sein wird?...
 
der Artikel handelt ja vom x8 des B550 Chipsatzes bei PCIe 3.0 vs. PCIe4.0 bei Igor. Also nicht wirklich direkt vergleichbar, aber das Fazit ist dennoch ähnlich

Und Raff vergleicht 16x 3.0 mit 4.0, also wesentlich mehr Bandbreite als bei 8x 3.0 vs. 16x 3.0. Und trotzdem sind die gemessenen Auswirkungen größer.
 
Ich habe diejenigen, die sich eine Quadro (Ampere oder anderweitig), ja nie als "Bezahlvieh" bezeichnet, das war Dein Wort. "Captive Audience", wie das so schön heißt, ist es aber schon. Eine RTX kann eben doch in vielen Fällen als Quadro-Ersatz benützt werden, wie ja auch Igor hier schon gezeigt hat. Bestimmte Dinge gehen aber nur oder viel besser auf einer Quadro, auch weil genug VRAM da ist, und das rechtfertigt auch die Ausgaben dafür. Nur könnten die Karten ruhig etwas günstiger sein, aber das ist halt Angebot/Nachfrage, und da es nur einen Anbieter gibt, kann NVIDIA eben den Preis setzen. Die 3090 kann hier u.U. doch eine preiswertere Alternative sein, da sie auch 24 GB VRAM mitbringt. Und das war mein Punkt: warum soll NVIDIA es für uns billiger machen, wenn sie es denn nicht müssen?
 
Die Leistung der 3090 in CATIA und Siemens NX wird wahrscheinlich im Treiber beschnitten, Quelle "Linus Tech Tips". Ist aber auch irgendwo verständlich, denn wer würde dann noch eine teure Titan oder noch teurere Quadro Karte kaufen?
 
In den USA haben Leute von Montag bis Donnerstag Schlange gestanden, um eine 3090 zu bekommen:
😂

Und es gab nur 26 Stk. in diesem Micro Center-Geschäft.
 
@geist4711 Es wird keinen Aufreger geben. Weil es ist nVidia. Da wurden schon immer eklatante Fehler verziehen bzw. wurden von GPU Generation zu Generation wieder vergessen.

@Derfnam
Es ist bechämend das du wie viele andere lieber mit dem Finger auf andere zeigst. Anstatt auf die Kritik wirklich ein zu gehen, das 400Watt einfach mal verdammt viel sind (und gerade in Zeiten wo versucht wird, zumindest von einigen, dem Klimawandel entgegen zu wirken). Da kramst du lieber in der "Aber die anderen auch" Kiste. Dabei sind sowohl die Radeon VII als auch die 5000er Karten von AMD älter und somit auch technologisch nicht so aktuell, als auch dass dies keine vernünftige Ausrede ist, warum nVidia solch eine Säufergeneration raus bringt. Und das nVidia auch noch oft genug als technologisch ja so fortgeschritten hin gestellt wird, macht die Sache um so unverständlicher.


Was die 3090 an sich angeht. Ja wie zu erwarten eine gewisse Steigerung, aber nichts was mehr als den doppelten Preis rechtfertigt. Auch wenn man immer sagt, die letzten Prozent an Leistung sind eben teurer. So ist doch der Preis von 1500€ und mehr einfach mit absolut nichts zu rechtfertigen. Aber da es ja nVidia ist, gibt es ja genügend Ausreden warum man ja 1500€ und mehr verlangen darf. Aussage Nummer eins: Ja kann man auch zum arbeiten nutzen. Gegenaussage, nur weil man die Karte auch zum produktiven Arbeiten nutzen kann, ist dies eine Rechtfertigung mehr als das doppelte zu verlangen? Irgendwie immer wieder komisch so etwas. Gerade im Hinblick auf diese Generation wo 3080 und 3090 sogar denselben Chip nutzen und sonst nur mehr Ram und mehr Material für die Karte selbst sind. Naja wer sie brauch, soll sie kaufen. Denn sie bietet ja Vorteile, gerade im nicht Gaming Bereich. Aber preislich ist die Karte völlig überzogen.
 
Hallo. Ich bin der Typ aus Russland. Ich habe einen Test des RTX 3090FE gesehen. Wie würden Sie das kommentieren? Sollte ich besorgt sein? wenn ich übertakte?



Die sehr hohe elektrische Belastung durch die Geforce RTX 3090 ist offensichtlich. Das Netzteil sieht sich bereits ohne Übertaktung mit Spitzen von 14,5 Ampere (170 Watt) an der primären Strombuchse konfrontiert. Während das noch kein Problem darstellt, macht uns die Belastung des PCI-Express-Slots auf dem Mainboard etwas nervös: Zwar bleibt die durchschnittliche Belastung auf der 12-Volt-Schiene bei absolut vertretbaren 64 Watt, einzelne Spitzen schnellen jedoch auf bis zu 77 Watt hinauf - und somit über das, was spezifikationsgemäß selbst mit allen Toleranzen erlaubt ist.

Wer mithilfe des maximalen Powerlimits alles aus der RTX 3090 presst, stellt noch deutlich höhere Anforderungen den Stromspender. Die Spitzen klettern auf bis zu 15,5 Ampere (180 Watt) am ersten Strang. Regelrecht bedenklich ist, was am PEG-Slot des Mainboards passiert: Aus durchschnittlich 64 Watt (ohne OC) werden 73 Watt, was bereits über dem PCI-E-Sollwert von 66 Watt liegt, und mehr oder minder regelmäßige Spitzen schießen deutlich über 80 Watt hinaus. Die Peaks um 89 Watt sind keineswegs gesund, sodass wir Übertaktern dringend dazu raten, die Geforce RTX 3090 nur mit Undervolting zu betreiben. Dabei sinkt zwar kaum die Leistungsaufnahme, dafür taktet die GPU jedoch dauerhaft höher und die Ampere-Wogen glätten sich. Interessant: Bei der RTX 3080 FE sind es im OC-Betrieb sogar 17 Ampere auf dem ersten 12-Volt-Kabelstrang, allerdings fällt hier die Belastung des PEG-Slots am Mainboard geringer aus. Falls Ihr Rechner dabei zu sporadischen Neustarts oder gar spontanem Feierabend tendiert, ist die Sache klar: Die Schutzschaltungen des Netzteils schlagen Alarm.
 
Die 3090 ist signifikant schneller als eine NVIDIA Quadro RTX 6000. Die wird gerade so um die 4000 € gelistet. Da ist die 3090er ja ein Schnäppchen oder?
Solange NVIDIA die Karten aus der Hand gerissen werden, sind sie offensichtlich gut am Markt positioniert.

Mir persönlich ist sie zu teuer. Laßt einfach die Generalisierungen sein.

400 Watt sind richtig viel - aber bei der Performance pro Watt sieht die Lage schon wieder ganz anders aus. Auch da halte ich die generelle Aussage für unbrauchbar. Hier mit Kilmawandel zu argumentieren ist auch arg dünn. Wir reden von 100 Watt Unterschied zu den anderen Karten. Keine Plastikröhrchen mehr - wird dén Plastikberg im Meer auch nicht verkleinern.
 
Die Quadrokarten kannst du nicht direkt mit den normalen RTX-Karten vergleichen. Da zahlst du auch noch einen rechten Teil für die freigeschalteten Treibern, die bei professioneller Grafiksoftware gute Leistung ermöglichen. Man zahlt nicht nur die Hardware, sondern auch die Leistung, die man bekommt. Wenn man als privater Anwender die Leistung für professionelle Grafiksoftware nicht braucht, dann bezahlt man sie auch nicht. Wenn man diese Leistung als Betrieb braucht, dann ist man auch bereit für extra programmierte und garantiert funktionierende Treiber extra zu bezahlen.
 
Die Treiber der RTX funktionieren auch bei Profisoftware ausgezeichnet, lizenzierte Treiber bringen einen Vorteil bei wenigen Spezialanwendungen und dem Support. Was glaubst du denn, wie Igor die Leistung der 3090 in Maya/3D smax usw. getestet hat? Das funktioniert bei nVidia schon mit den Game-Treibern. Wer auf Nummer sicher gehen will, lädt die Studio-Treiber, die stabiler sind, da sie ohne die Game-Optimierungen daherkommen.
 
Oben Unten