Grafikkarten Professional Studio Testberichte VGA Workstation

NVIDIA GeForce RTX 3090 Ti FE im Studio- und Workstation-Alltag – Showdown gegen die RTX A6000 und die 300-Watt-Sparversion

Die NVIDIA RTX 3090 Ti FE hatte sich seinerzeit zum Launch als Sample leider recht rar gemacht und schaffte es erst viel später in mein gut sortiertes Archiv. Aber aufgeschoben ist nicht aufgehoben und da ich damals eher keinen Sinn darin sah, eine noch höher getaktete (und energetisch deutlich aufgeblasenere) Boardpartnerkarte in meiner Workstation zu testen, ist genau dieser Part seit längerer Zeit noch offen. Da es in letzter Zeit einige ähnliche Reviews mit mehr oder weniger knappem Inhalt gab, habe ich für heute einfach einmal einen GeForce-Showdown vorbereitet, bevor die nächste Generation scheibchenweise ab dem Herbst ins Rennen geschickt wird.

Und so treffen heute insgesamt 11 Karten aufeinander, wobei vor allem das Duell der GeForce RTX 3090 Ti FE gegen den anderen Vollausbau in Form der RTX A6000 interessant sein dürfte. Und weil mich immer wieder Zuschriften erreichten, dass ich das dann auch bitte mit der 300-Watt-Kappung für den Studio- und Workstation-Bereich machen möge, war es am Ende sogar noch ein gemeinsamer Aufwasch. Zur RTX 3090 Ti FE muss ich nicht mehr viel schreiben, diese ganzen Informationen hatte ich ja im Launchartikel genüsslich durchgekaut.

Die Test-Karte wurde mir vor einiger Zeit von NVIDIA zur Verfügung gestellt, um sie mit zu testen und man hat dort dem heutigen Vorhaben natürlich nicht negativ gegenüber gestanden, auch wenn man den Einsatz der RTX A6000 als Gegenpart wohl eher mit einem weinenden Auge gesehen haben dürfte. Es bestand somit keine Verpflichtung zur Veröffentlichung des heutigen Artikels, allerdings stelle ich mich der Herausforderung dieses Tests mehr als nur freiwillig, denn die Neugier verleiht ja bekanntlich Flügel und ich packe einfach mehrere Dinge zusammen in einen Artikel. Um hier jedoch objektiv zu bleiben, habe ich bewusst auf die Assets aus den Reviewer-Guides von NVIDIA verzichtet, sondern eigene Settings und Workloads bzw. bewährte Standard-Benchmarks aus der Industrie verwendet.

Betrachtet man die aktuellen Preise, dann hat das aktuelle Spitzenmodell nämlich ordentlich nachgegeben. Mit Straßenpreisen von reichlich 1400 bis knapp 1500 Euro sind einige der nicht so hoch übertakteten Boardpartnerkarten zwar immer noch keine Schnäppchen geworden, liegen aber mittlerweile schon wieder einigermaßen im Rahmen des Bezahlbaren. Im Gegensatz zur RTX A6000, die als zertifizierte Workstation-Karte natürlich eine völlig andere Klientel bedient. Wobei ja auch im Studio-Bereich die Grenzen immer mehr verschwimmen.

Leistungsbremse, Testsystem und Auswertungssoftware

Zur Spar-Variante als 12. Setting sollte ich doch noch kurz etwas schreiben. Ich habe auch diesmal wieder das Power Limit der Founders Edition  eingegrenzt, sowie auch die VF-Kurve angepasst. Als Blaupause diente mir die Kurve der NVIDIA RTX A6000 aus dem heutigen Test, die ebenfalls mit einem Power Limit von 300 Watt eingebremst wird und über den gleichen, unbeschnittenen GA102 verfügt. Dass ich mir die Mühe gemacht habe, die Consumer-Karte und die RTX A6000 zu testen liegt auch daran, dass die RTX A6000 nur über den deutlich langsameren GDDR6 RAM verfügt.

Das kostet, je nach Spiel, zwar zwischen 3 und rund 10% Performance, aber dafür ist der Speicherausbau mit 48 GB dann auch doppelt so groß. Und da es heute überwiegend um Studio-Anwendungen geht, ist auch dieser Vergleich durchaus interessant. Die GeForce RTX 3090 Ti FE hat übrigens auch den leistungsstärkeren Kühler, so dass der Nachteil der etwas höheren RAM-Leistungsaufnahme durch niedrigere Temperaturen (und damit auch höhere Booststeps) wieder kompensiert werden sollte.

Modifizierte 300-Watt-Kurve

Das mit der Frequenzvorgabe war übrigens diesmal einfacher, denn der Chip war nicht ganz so zickig wie der auf der MSI-Karte. Die Kurve ließ sich diesmal 1:1 übernehmen, was ordentlich Zeit gespart hat.

Das Benchmarksystem ist bekannt und steht redundant im Labor und im Redaktionsraum. Ich setze auf PCIe 4.0, das passende X570 Motherboard in Form eines MSI MEG X570 Godlike und einen selektierten Ryzen 9 5950 X. Dazu kommt schneller RAM in Workstation-Konfiguration auf 4 Bänken, sowie mehrere schnelle NVMe SSDs. Für das direkte Loggen während aller Spiele und Anwendungen nutze ich sowohl NVIDIAs PCAT als auch einen eigenen, Shunt-basierten Messaufbau, der alle Leitungen zu Grafikkarte und Motherboard überwachen kann (10-Kanäle), was den Komfort ungemein erhöht. Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

Test System and Equipment
Hardware:

Ryzen 9 5950X
MSI MEG X570 Godlike
4x 16 GB Patriot Viper DDR4 4000 @ DDR4 3200 CL16-20-20-40, FLCK 1600

1x 2 TB MSI Spatium M480
1x 2 TB Corsair MP660 Pro XT
Be Quiet! Dark Power Pro 12 1200 Watt

Cooling:
Alphacool XPX Pro, Custom Loop Water Cooling / Chiller
Alphacool Apex
Case:
Raijintek Paean
Monitor: LG OLED55 G19LA
Power Consumption:
MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)
NVIDIA PCAT and FrameView 1.1
OS: Windows 11 Pro (all updates/patches, NVIDIA Studio drivers 516.93 WHQL, AMD Software Pro 22.Q2)

 

MSI GeForce RTX 3090 Ti Gaming X Trio 24G, 24GB GDDR6X, HDMI, 3x DP (V509-014R)

MindfactoryZentrallager: 5 Stück lagernd, Lieferung 1-3 WerktageFiliale Wilhelmshaven: 5 Stück lagerndStand: 01.10.22 18:551249,00 €*Stand: 01.10.22 18:54
notebooksbilliger.deOnlineshop: lagernd, Lieferung 2-3 WerktageFiliale Berlin, Filiale Dortmund, Filiale Düsseldorf, Filiale Hamburg, Filiale Hannover/Laatzen, Filiale München, Filiale Stuttgart: nicht lagerndStand: 01.10.22 18:391279,00 €*Stand: 01.10.22 18:39
galaxusZentrallager: Sofort lieferbar, 2-4 Werktage1286,99 €*Stand: 01.10.22 18:28
*Alle Preise inkl. gesetzl. MwSt zzgl. Versandkosten und ggf. Nachnahmegebühren, wenn nicht anders beschriebenmit freundlicher Unterstützung von www.geizhals.de

Palit GeForce RTX 3090 Ti GameRock, 24GB GDDR6X, HDMI, 3x DP (NED309T019SB-1022G)

MindfactoryZentrallager: 5 Stück lagernd, Lieferung 1-3 WerktageFiliale Wilhelmshaven: 5 Stück lagerndStand: 01.10.22 18:551298,99 €*Stand: 01.10.22 18:54
notebooksbilliger.deOnlineshop: lagernd, Lieferung 2-3 WerktageFiliale Berlin, Filiale Dortmund, Filiale Düsseldorf, Filiale Hamburg, Filiale Hannover/Laatzen, Filiale München, Filiale Stuttgart: nicht lagerndStand: 01.10.22 18:391299,00 €*Stand: 01.10.22 18:39
computeruniverse.netSofort lieferbar, Lieferzeit 1-2 Werktage1299,99 €*Stand: 01.10.22 18:46
*Alle Preise inkl. gesetzl. MwSt zzgl. Versandkosten und ggf. Nachnahmegebühren, wenn nicht anders beschriebenmit freundlicher Unterstützung von www.geizhals.de

 

Kommentar

Lade neue Kommentare

p
pintie

Mitglied

93 Kommentare 55 Likes

Danke sehr spannend. Ich greife lieber zur A6000.
Die letzten paar % die man kaum merkt sind mir das mehr an Wärme und Stromverbrauch nicht wert.
Und je nachdem über welche Wege man die Axxxx Karten kauft sind die Preise da auch ganz ok. (z.B. Education Rabatte von Nvidia)

Antwort 1 Like

Igor Wallossek

Format©

7,217 Kommentare 11,855 Likes

Die A6000 ist ein Blower-Design, was durchaus echte Vorteile haben kann (nicht muss). :)

Antwort 2 Likes

P
Pokerclock

Mitglied

89 Kommentare 55 Likes

Ich freue mich immer über ein paar Workstation-Benchmarks. Leider rar gesäht. Danke!

Wer auf die Treiber-Zertifizierung verzichten kann, 24 GB VRAM ausreichen und sich auch ohne ECC-RAM sicher fühlt, findet in jedem Fall günstigere Alternativen in der Anschaffung.

So ein Radiallüfter ist aber durchaus auch gut. Der Innenraum vom PC erwärmt sich nicht übermäßig und speziell in kleinen Gehäusen kann das ganze Konstrukt leiser sein als so mancher Axial-Kühler.

Antwort Gefällt mir

weedeater

Veteran

187 Kommentare 140 Likes

Interessanter Artikel, vor allem, dass die 300-Watt-Variante dann doch noch zumeist besser abschneidet als die A6000. Und die kostet sicher mal weit über der 3090TI.

Aber das muss ich noch loswerden: die verlinkte Pallit ist ja mal echt ein super hässlicher Ziegelstein! Wie kommt man auf so ein Design? Da gabs ja mal eine ähnliche, glaube es war eine RX6700XT, da ging das ja noch. Aber das hier geht gar nicht, sorry!

Antwort 1 Like

HerrRossi

Urgestein

6,480 Kommentare 2,014 Likes

Ja, sehr interessanter Test, für mich besonders Topaz Video Enhance AI.

Antwort Gefällt mir

Igor Wallossek

Format©

7,217 Kommentare 11,855 Likes

Übrigens kann man bei der 3090 Ti ECC aktvieren, was aber immens Performance kostet. Aber wer gerade was für einen Airbus berechnet, wird sowas zu schätzen wissen. :D

Antwort Gefällt mir

Igor Wallossek

Format©

7,217 Kommentare 11,855 Likes

Wakü drauf und fettig :D

Antwort 1 Like

Ghoster52

Urgestein

682 Kommentare 409 Likes

Buntes Gefunzel mag ja Geschmackssache sein, aber der bunte Backstein ist mal wirklich pott hässlich. :ROFLMAO:

Antwort Gefällt mir

F
Furda

Veteran

176 Kommentare 89 Likes

Sieht man mal wieder, dass im Pro Bereich eigentlich durchs Band für Nvidia und CUDA optimiert wird. AMD und OpenGL wird da kaum berücksichtigt.

Nachtrag:
Wäre noch interessant wie Apple's M im Vergleich da steht...

Antwort Gefällt mir

Igor Wallossek

Format©

7,217 Kommentare 11,855 Likes

Der wird laut einigen Tests fast immer grandios vernichtet. Nur stellt sich die Frage, mit welchem Einsatz ;)

Bis vor Kurzem konnte ja keine AMD-Karte nicht mal die Live-Preview von Premiere Pro mit 24 fps schaffen, wenn ein paar Filter an waren. Mittlerweile geht das zwar, aber es sieht einfach schrecklich aus. Vor allem wenn man mit Chroma-Keys arbeitet.

Antwort Gefällt mir

e
eastcoast_pete

Veteran

315 Kommentare 88 Likes

Ich vermisse Blower-Designs bei den Karten (nicht-Profi Modelle) die ich uU kaufen würde. Blower blasen die heiße Luft eben dahin, wo sie hingehört: raus aus der Kiste. Macht einfach viel mehr Sinn für mich.

Antwort Gefällt mir

e
eastcoast_pete

Veteran

315 Kommentare 88 Likes

Igor, danke für den Test! Frage: wie viel Performance kostet ECC denn? Und, Pardon wenn ich es im Text überlesen habe: hast Du die 3090 auch Mal mit "ECC on" durch einige der Tests laufen lassen? Oder umgekehrt, war ECC bei der 6000 immer an?
Ich weiß natürlich auch, daß z.B. Berechnungen im Ingenieursbereich auf zertifizierten Systemen gerechnet werden müssen, auch schon wegen der Haftung, d.h. eine selbstgestrickte Workstation geht da eben nicht.

Antwort Gefällt mir

Igor Wallossek

Format©

7,217 Kommentare 11,855 Likes

Auch die RTX A6000 kommt per default mit ECC Off. Genau deshalb habe ich es auch im Review nicht erwähnt, weil das in den Studio-Anwendungen ja eh nicht nötig ist. Es kostet im Schnitt bis zu 20% Performance, je nachdem, wie extensiv der Speicher genutzt wird, meist jedoch weniger. Das kommt wirklich auf die Software an. Taktet man mit ECC On den GDDR6X übrigens etwas herunter, steigt die Performance scheinbar wieder leicht an. Aber das ist so marginal, dass ich das lieber nicht in Stein meißeln würde. Aber es kompensiert den Taktverlust.

Antwort 2 Likes

Hoohoo

Neuling

1 Kommentare 1 Likes

Ich mache KI-basierte Kunstwerke. Ein Paar 12 GB 3080 zum Trainieren von Modellen, ein A6000 zum Rendern. Der A6000 48 GB ist wichtig für große Bildwiedergaben

I do AI based artwork. A pair of 12GB 3080 to train models, an A6000 to render. The A6000 48GB is important for large image renders.

Antwort 1 Like

weedeater

Veteran

187 Kommentare 140 Likes

@Igor Wallossek
Das ist natürlich ein Argument, damit wäre der Hässlichkeit und wohl auch der Lautstärke Genüge getan :cool:

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung