Roundup 2023 aktueller Workstation-Grafikkarten von AMD und NVIDIA – Wie schlägt sich die Radeon Pro W7000 Reihe gegen Ada und Ampere?

Mag sein. Aber eine vernünftige Diskussion ist nur möglich, wenn alle Teilnehmer auch vernünftig (und klar verständlich) diskutieren….

Ich empfinde es als recht störend und anstrengend, wenn jemand brabbelt

Niemand zwingt Dich, seine Kommentare zu lesen oder zu mögen...
Vielleicht will er nicht in Dein Boot...
Wenn es Dich stört, kannst Du ihn ja auf ignore stellen.
Ich finde seine Art und Weise interessant und unterhaltsam :)
 
Nein, gibt es nicht. Solange die GPU ran muss, ist leider Intel noch die Erste Wahl. Sowohl der Ryzen 9 7950X als auch der X3D limitieren immer wieder.
... Danke für deine Antwort, Igor.
Ein AMD CPU ist für mich momentan gesetzt. Team Blue müsste sich ganz anders neu beweisen, vor ich bereit wäre, dort zurückzukehren. Auch wenn ich den Fabrik in Magdeburg ggf wohl mit finanzieren muss.

Mir ging es darum, ob ein Radeon auf ein Ryzen-System relevant anders performt als auf einen Intel-System.
Deine Aussage nach ist dies aber nicht der Fall. da müssen meine Jungs wohl leider länger auf die 2070 super geiern.
 
Viele Bibliotheken sind leider immer noch Intel-optimiert, dazu kommt die meist höhere IPC + Takt bei den eher Single-threaded orientierten Applikationen. ich habe damals mit viel Überredungskunst auch mal ein Ryzen-9-System von NVIDIA für Studio zertifizieren lassen (machen die über Irland). Aber der war meist langsamer als das Intel-Äquivalent, trotz identischer Grafikhardware.
 
Verzeihe bitte die Frage; der aufmerksamere Leser* weis wahrscheinlich schon Bescheid ... Aber sollte es nicht synergien bei Ryzen + Radeon geben? war da nicht was mit speicher teilen und Infinity Fabric usw? Der GPU Testbench ist immer intel. Macht es keinen Unterschied wenn man einen R9 nimmt? Gibt's da daten Delta dazu? Ich würde gerne weg von nvid und suche nach rationale Erklärungen, weshalb das vernünftig und vertretbar sei (4 adobe) *innocent*
Trau den Treibern von AMD dsbzgl leider auch immer noch nicht. :-/ HAb mit dem Rest aber auch genug Geshiss, dass es auf ein Versuch ankommen kann.... ....
Bei Spielen und wenn der 3D Cache punkten kann sind die 3D Ryzens spitze. Bei massiven parallelen Workload die Threadripper.
Intel kann im Desktopbereich mit den vielen E-Cores sich parallel nach vorne schieben WENN der auszuführende Code keine Instruktionen enthält, welche die E-Cores nicht ausführen können (dann können nur die P-Cores genutz werden, beispielsweise bei AVX). Bei Single-Thread sind die größten Intels auch knapp vorne (wenn der 3D Cache nicht zum tragen kommt).
 
Ich "wärme" das alte Thema aus aktuellem Anlass (stehe vor der Anschaffung einer neuen Workstation für ECAD und v.a. SI/PI/EMC-Simulationen mit ANSYS "HFSS", "SI Wave", MEntor "HyperLYNX" bzw. ZUKEN CR8000) mal auf mit einer Frage bzw Anregung für eine mögliche Wiederholung eines Tests von solchen Profikarten: Vielleicht sind solche Tests relevanter, wenn die beim Test verwendete Testplattform nicht auf Desktop/Consumer-Plattformen (Intel "Core-i 5/7/9" oder AMD "RYZEN 2/3/4") sondern eher auf üblicher "Workstation-HArdware" basiert, also entsprechend ausgebauten Plattformen basierend auf Workstation-CPU (z.B. Intel "XEON" bzw. AMD "Threadripper").

Bei NVIDIA wird es immer "undurchsichtiger" mit den Modell- und Serienbezeichnungen, zumindest die aktuellen "Ada"-Architekturen sind bei der ansonsten nebulösen Modellbezeichnung anhand des Kürzels jetzt wieder besser identifizierbar, auch wenn die im Consumer/Gamer-Bereich signifikanten Unterschiede der Architekturgenerationen "Turing"==>"Ampere"==>" Ada Lovelace" im Profibereich manchmal nicht ganz so signifikant ausfallen,ist das Thema "Energieeffizienz" hier aber ein wichtiger Punkt, denn im Profibereich (Simulationen) laufen die Gerätschaften gerne 24/7 Vollast über Jahre, da spielt Energieeffizienz schon eine größere Rolle, als beim "Bling-Bling-Gaming-PC " des pubertierenden Teenagers, der nur stundenweise am Tag mit voller Leistung läuft...
 
Was auch interessant wäre, ob die Miningspezialkarten wie eine 90HX auch für Deep learning verwendet werden kann. Und inwieweit es sinnvoll ist
 
Ich "wärme" das alte Thema aus aktuellem Anlass (stehe vor der Anschaffung einer neuen Workstation für ECAD und v.a. SI/PI/EMC-Simulationen mit ANSYS "HFSS", "SI Wave", MEntor "HyperLYNX" bzw. ZUKEN CR8000) mal auf mit einer Frage bzw Anregung für eine mögliche Wiederholung eines Tests von solchen Profikarten: Vielleicht sind solche Tests relevanter, wenn die beim Test verwendete Testplattform nicht auf Desktop/Consumer-Plattformen (Intel "Core-i 5/7/9" oder AMD "RYZEN 2/3/4") sondern eher auf üblicher "Workstation-HArdware" basiert, also entsprechend ausgebauten Plattformen basierend auf Workstation-CPU (z.B. Intel "XEON" bzw. AMD "Threadripper").
Das Problem ist, dass sowohl die Xeons als auch die meisten Threadripper die schnellen Grafikkarten zum Teil extrem limitieren. Auf meinen 3xxx Threadripper sind die RTX 6000 Ada, 5000 Ada und stellenweise sogar die 4000 Ada in der Grafikausgabe (DX bzw. OpenGL) gleich bzw. annähernd schnell. Da muss man echt zusehen, noch Unterschiede zu finden. Da bekommt man auch die RTX 6000 Ada und RTX A6000 nicht mehr sauber getrennt :( Aber immerhin sind das dann noch einmal tolle Frame-Limiter, was die Leistungsaufnahme noch weiter senkt. :D

Ich habe hier leider keine Mining-Karten und hatte diesen Trend auch nie unterstützt. Von daher muss ich schon froh sein, dass es mir gelungen ist, (fast) alle aktuellen Workstation-Karten aufzutreiben. Der Aufwand ist manchmal schon gaga :D
 
Interessant, ist das mit der Limitierung bei Xeon und Threadripper generell oder nur bei 3D-Render und sonstigen Grafikorientierten Anwendungsfällen so? Ich frage, weil die GPU mittlerweile je nach Lizenzierung bei fast allen numerischen Simulation-Solvern die CPU unterstützen kann, und damit sozusagen als „Simulationsbeschleuniger“ genutzt wird und weniger für reine 3D-Grafikbildberechnung. Evtl. sind aktuelle Grafikbenchmarks, auch die hier im test genutzten Anwendungen für ”meinen” speziellen Usecase Simulation nicht ganz so aussagekräftig, hier werden CPU (viele Kerne, sehr viel RAM) und GPU evtl. anders ausgelastet…?
 
Das Problem ist, dass sowohl die Xeons als auch die meisten Threadripper die schnellen Grafikkarten zum Teil extrem limitieren. Auf meinen 3xxx Threadripper sind die RTX 6000 Ada, 5000 Ada und stellenweise sogar die 4000 Ada in der Grafikausgabe (DX bzw. OpenGL) gleich bzw. annähernd schnell. Da muss man echt zusehen, noch Unterschiede zu finden. Da bekommt man auch die RTX 6000 Ada und RTX A6000 nicht mehr sauber getrennt :( Aber immerhin sind das dann noch einmal tolle Frame-Limiter, was die Leistungsaufnahme noch weiter senkt. :D

Ich habe hier leider keine Mining-Karten und hatte diesen Trend auch nie unterstützt. Von daher muss ich schon froh sein, dass es mir gelungen ist, (fast) alle aktuellen Workstation-Karten aufzutreiben. Der Aufwand ist manchmal schon gaga :D
Ist eigentlich nicht wirklich verwunderlich. In der Vergangenheit waren die Taktfrequenzen z.Bsp. bei den Xeons in Einsockelsystemen immer niedriger als eine Core i-CPU bei gleicher Kernzahl und annähernd ähnlicher Wattzahl im Dauerlauf (PL1 /PL2 mal aussen vor gelassen) . Seit Alder Lake passt das auch nicht mehr zusammen, da es hier keine vergleichbaren Produkte gibt. Einzig die Laneanzahl und die Speicheranbindung macht XEON W oder die alten HEDT interessant. Bezogen auf Intel.....

Verglichen als Beispiel ein Core i9 10900K(F) vs. Xeon W-12900 / ein Core i9 10900x vs. Xeon W2255
Selbst ein moderner Xeon W5-2445 ist Taktfrequenzbezogen einem 10900k unter Wasser und open Limits für die GPU-Versorgung unterlegen.

Aber ich denke das ist einfach die Schere zwischen Test (wozu ist die Technik in der Lage) und Usecase...
Auch die CPU's werden nicht nur auf Igorslab mit den max. Specs getestet, aber kaum einer hat wirklich einen Workload über einen längeren Zeitraum, der CPU und GPU gleichzeitig auf 100% auslastet. Und wer betreibt Ernsthaft einen Workstation-PC übertaktet und ausserhalb der Spezifikation (insofern es geht)
Wichtiger sind da eher wie Igor schon geschrieben hat solche Dinge wie Zertifizierungen und ECC...


Ja, Mining ist eine ziemliche :poop:.
Aber aktuell werden wohl größere Mengen an Grafikkarten und Systeme gebraucht verkauft und im Sinne der Nachhaltigkeit wäre es rein interessehalber interessant gewesen, ob es ein sinnvolles Second Life dafür gibt. Bei den ASICS-Systemen war es ja noch bescheuerter...

Systeme mit einer Halbwertszeit von ein paar Monaten... und danach nur noch Elektroschrott
 
Das Problem ist, dass sowohl die Xeons als auch die meisten Threadripper die schnellen Grafikkarten zum Teil extrem limitieren. Auf meinen 3xxx Threadripper sind die RTX 6000 Ada, 5000 Ada und stellenweise sogar die 4000 Ada in der Grafikausgabe (DX bzw. OpenGL) gleich bzw. annähernd schnell. Da muss man echt zusehen, noch Unterschiede zu finden. Da bekommt man auch die RTX 6000 Ada und RTX A6000 nicht mehr sauber getrennt :( Aber immerhin sind das dann noch einmal tolle Frame-Limiter, was die Leistungsaufnahme noch weiter senkt. :D
Inwieweit limitiert denn die CPU, wenn die GraKa direkt auf den Speicher/Daten zugreifen kann und die Workstations größere PCIe und RAM Bandbreite haben als bei den Desktopsystemen? Optimalerweise kümmert sich die CPU nur um den Fortschrittsbalken :unsure:
 
Inwieweit limitiert denn die CPU, wenn die GraKa direkt auf den Speicher/Daten zugreifen kann und die Workstations größere PCIe und RAM Bandbreite haben als bei den Desktopsystemen? Optimalerweise kümmert sich die CPU nur um den Fortschrittsbalken :unsure:
Ja das sind halt die Fragestellungen, die aus meiner ganz subjektiven Sicht den Test solcher sauteuren Profikarten auf deren "üblichen" Workstation-Plattformen anstatt auf High-End-Consumer/Gaming-Plattformen nicht ganz "unrelevant" erscheinen lassen. Auch wenn die Gaming-Plattformen in den üblichen "Benschmarks" die GPU der Profikarten weniger limitieren, kann diese Limitierung u.U. bei Applikationen, wofür man üblicherweise auf Workstations und nicht auf Consumer-/Gaming-Systeme setzt, eine geringere Rolle bei der Auswahl spielen. Deshalb auch meine o.g. Frage/Anregung, zumindest als Ergänzung des verwendeten Testsetups.

ICh gehe halt einfach davon aus, dass kaum ein Gamer, selbst mit "zu viel Geld" im High-End/Competitive-E-sport bei der Grafikkarte auf eine vielfach teurere aber für Gaming nicht besser geeignete NVIDIA-"Quadro" & Co. setzt, sondern bei den entsprechenden günstigeren High-End-Consumer-Karten "Geforce" das Optimum für seine Anforderungen findet (gilt gleichermaßen für AMD). Ein Paradebeispiel für Teurer ist nicht unbedingt für jeden Anwendungsfall besser...deswegen braucht man sich trotz zu viel Geld und zu viel verfügbarem Platz und Strom noch lange kein Mainframe in den Keller stellen, diese Trümmer sind halt für andere Aufgaben gemacht, als High-End-Gaming....genau so gilt das m.E auch für Workstations bzw. die dafür gedachten Komponenten, auch wenn es durchaus "Schnittmengen" gibt...

Edit: Selbst wenn ein Gamer (mit zu viel Geld und zu wenig Ahnung) im Prinzip auf einer mächtigen RTX6000 ADA fast genau so performant zocken kann, wie auf einer im Verleich spottbilligen Geforce RTX4090, der Workstation-anwender kann aber im Umkehrschluss nicht eine "billige" GEforce-Consumerkarte an Stelle einer teuren Workstation-Karte verwenden, weil NVIDIA und Co. "in Allianz" mit den Herstellern der Profitools (3D-CAD, Rendering, Simulation,...) genau das gezielt unterbunden haben und den Profianwender, welcher damit zum Zwecke des "Broterwerbs" arbeiten muss (und nicht zum "Enjoyment" wie beim Gaming) zum KAuf der teuren PRofi-HArdware-Components zwingt
 
Zuletzt bearbeitet :
Jain.

Ja, fürs reine Compute auf den Karten kann (muss aber nicht) die Plattform eher nebensächlich werden. Nur stört sie dann ja nicht. Lade ich einen großen Maya Workload in den RAM einer RTX 6000 Ada, gern auch mal 30GB+, ist der ältere Threadripper immer noch im Nachteil und der aktuelle Ryzen 9 nicht im Vorteil. Wenn man dann Arnold und den NV Renderer nutzt, ist die CPU wieder fast nebensächlich. Auch Solidworks profitiert nur bei RealView von der CPU, aber so viele Kerne werden da auch nicht genutzt. Nur kann ich mir nicht für ein paar wenige, wirklich relevante Benchmarks eine Workstation im fünfstelligen Bereich kaufen. Der ROI würde dann absolut verfehlt.

Gegenvorschlag:
Jemand konstruiert mal ein gutes Szenario, bringt sich gern auch mit ein und ich versuche, leihweise an eine passende Plattform zu kommen. :)
 
Danke Igor für die raschen Antworten hier!
Mir wird jedoch die Zeit für eigene Versuchsreihen oder die Ausarbeitung eines sinnvollen und relevanten Testszenarios fehlen (mal abgesehen von Lizenzierungs- und Copyright-Fragen, ich nutze die Kiste samt Sim-Tools darauf als Angestellter in einer ziemlich großen Firma, nix selbsständig und so...), ich muss überdies in den nächsten Wochen mein benötigtes Equipment bestellen und kann froh sein, wenn nicht noch der Rotstift an zu vielen Stellen angesetzt wird... Deswegen hatte ich ja den Test hier zunächst mit großem Interesse gelesen, weil neben "altbewährten" aber auch aktuelle Karten, die es erst seit Anfang diesen Jahres gibt, dabei waren. Als ich das zugegebnermaßen wie immer hier sehr ausführlich beschriebene Testsystem dann verinnerlicht hatte, stellten sich mir die ersten Fragen (siehe mein erster Post in diesem Threaad)...
 
Zuletzt bearbeitet :
Naja, es ist schwer, allen gerecht zu werden. Ist leider so. Entweder Zeit oder Budget oder beides. :(
Aebr die meisten Karten hjabe ich ja als Dauerleihgabe hier im Archiv, das rennt also nicht weg :)
 
Hi,
as always, very good job on benchmarking.

Can you predict if you will be able to benchmark RTX 4000 ADA (non-SFF) and RTX 4500 ADA any time soon? The most interesting for me would be RTX 4000 ADA (non-SFF) as TDP is I think around 130W.

Thank you!
 
Keine der Suiten läuft mit nicht zertifizierten Karten. Creo verweigert den Start und bei Solidworks ist nicht nur RealView gesperrt. Zumal es einen tieferen Sinn hat, das Gaming-Geraffel dort auszusperren.

Aber: Hardware-technische Leichtgewichte wie AutoCAD tun es auch mit Consumer-Karten. Rendern kann man auch gut. Aber spätestens dann, wenn es um echte Simulationen geht, hätte ich Angst ums Ergebnis. Da reicht eine gekippte Speicherzelle und die Boeing macht Boing :D
Hi,

mich hätte mal (nach so vielen Jahren) interessiert warum Ihr Workstationkarten testet, aber nie auf das Rendering mit Max, Unreal oder ähnlichem eingeht. Gerade jetzt wo z.B. Pathtracing eine echte Verbesserung darstellen kann und oft in Echtzeit gestemmt wird. Gerade die maximalen Renderauflösungen sind halt manchmal doch wichtiger als 60 FPS in der Vorschau um dann beim Production Render ein Ende schon bei 4K für ein Standbild zu sehen, was gerade für Print einfach viel zu wenig ist. Dazu ist auch schnell Ende beim Baking von Shadowmaps und ähnlichem. Das führt dann oft genug zum ausweichen auf dynamische Sachatten und das will sicher keiner bei allen Objekten. Ich meine da seid Ihr nicht die Einzigen die das komplett aussparen, aber das ist für einige Leute wichtig.

Grüße
 
Muss ich mal drüber nachdenken :)
 
Oben Unten