Grafikkarten Professional Software Testberichte VGA Workstation

Workstation-Grafikkarten Charts 2023 mit Karten von AMD und NVIDIA – Benchmarks echter Anwendungen und Vollversionen mit Effizienz-Test

Blender mit verschiedenen Workloads

Blender ist eine leistungsstarke Open-Source-Software für 3D-Grafik, Animation, Rendering, Postproduktion, interaktive Erstellung und Wiedergabe. Es ermöglicht Benutzern das Erstellen, Bearbeiten und Rendern von 3D-Modellen und Animationen. Zusätzlich zu diesen 3D-Funktionen enthält Blender auch Werkzeuge für Videobearbeitung, Skulptur, UV-Mapping, Texturierung, Rigging, Partikel-Systeme, Physik- und Flüssigkeitssimulationen sowie Spielentwicklung. Wegen seiner umfangreichen Funktionspalette und da es kostenfrei ist, wird Blender sowohl von Amateuren als auch von Profis in der gesamten Medien- und Unterhaltungsindustrie genutzt. Doch ich muss vorab noch etwas zu CUDA, OptiX und HIP schreiben, um die Vergleiche besser einordnen zu können. Denn CUDA, OptiX und HIP sind Technologien, die speziell für den Bereich des parallelen und High-Performance-Computing (HPC) entwickelt wurden. Jede dieser Technologien hat ihre eigenen Vorteile, Zielanwendungen und zugrundeliegenden Technologien.  

CUDA (Compute Unified Device Architecture) wird von NVIDIA entwickelt und unterstützt. Es ist eine parallele Computing-Plattform und Programmierschnittstelle, die den Entwicklern direkten Zugriff auf die virtuelle Maschine von NVIDIA-GPUs ermöglicht. Mit CUDA geschriebene Anwendungen können von der massiven parallelen Rechenleistung moderner GPUs profitieren, um performanceintensive Anwendungen zu beschleunigen.

OptiX stammt ebenfalls von NVIDIA und ist eine Raytracing-Engine, die für das Erstellen von Bildern durch das Verfolgen von Strahlen entwickelt wurde. Sie wird häufig für visuelle Anwendungen wie Rendering, wissenschaftliche Simulation und Spiele verwendet. OptiX betet spezialisierte Funktionen für das Raytracing und ermöglicht die Kombination von Raytracing mit traditionellen Rastermethoden in Echtzeit-Grafik-Anwendungen.

HIP (Heterogeneous-compute Interface for Portability) wurde von AMD initiiert und entwickelt. Sowohl NVIDIA-GPUs (über eine Kompatibilitätsschicht) als auch AMD-GPUs können angesprochen werden, jedoch ist HIP in Blender AMD-exklusiv. HIP ermöglicht es den Entwicklern, portablen GPU-Code zu schreiben, der sowohl auf NVIDIA als auch auf AMD-GPUs ausgeführt werden kann. Es wurde entwickelt, um eine Alternative zu CUDA für diejenigen zu bieten, die plattformübergreifende Portabilität benötigen. Denn HIP-Code kann in CUDA umgewandelt werden, wodurch Entwickler, die bereits in CUDA geschrieben haben, ihre Anwendungen leichter auf AMD-GPUs portieren können.

Das erste Modell ist mein altbekannter igoBOT, den man ja auch aus den YouTube-Videos und diversen Animationen kennt. Es ist zwar ein recht komplexes Mesh, aber die Szene ist eher simpel und auch die Texturen sind einfach gehalten. Spezielle Filter nutzt das Projekt ebenfalls nicht, so dass man hier die Karten als reine Number-Cruncher messen kann. Aber auch so etwas hat seinen Charme.

Die NVIDIA-Karten nutzen sowohl CUDA als auch OptiX, bei den AMD-Karten kommt HIP zum Einsatz. Man sieht, AMD hat durch den Umstieg von OpenCL zu HIP einen gewaltigen Leistungssprung hinlegen können! Allerdings liegt OptiX noch unereichbar vorn. Aber zu CUDA dürfte man bereits mehr als aufgeschlossen haben.

Doch wie sieht es aus, wenn man eine komplexere Aufgabe rendern möchte? Dieser Workload aus dem „Cosmos Laundromat“ nutzt die neuesten Algorithmen und Verbesserungen von Blender, um das volle Leistungspotenzial in einem Produktionssystem-Einsatzszenario zu messen. „Cosmos Laundromat“ ist nicht nur ein beeindruckendes Beispiel für die Fähigkeiten von Open-Source-Software im Bereich der 3D-Animation, sondern dient auch als Benchmark, um die Effizienz und Leistung von Hardware und Software in professionellen Produktionsumgebungen zu testen.

Die Algorithmen und Werkzeuge, die in Blender implementiert werden, sind ständig im Wandel und werden ständig verbessert, um den Anforderungen von Künstlern und Entwicklern gerecht zu werden. Mit solchen Dateien kann die Industrie die Performance ihrer Systeme in realen Produktionsbedingungen überprüfen und so sicherstellen, dass sie den ständig steigenden Anforderungen des 3D-Renderings und der Animation gewachsen sind. Während die RTX A2000 6GB am zu geringen Speicherausbau scheitert, ist die T1000 für diese Aufgabe schlicht zu langsam.

GPU Compute mit synthetischen Tests

Ganz zum Schluss packe ich dann doch noch zwei der synthetischen Langweiler aus, aber irgendwie gehört es ja doch mit dazu. Caffe ist eine Open-Source-Deep-Learning-Bibliothek, die ursprünglich von Yangqing Jia an der UC Berkeley entwickelt wurde und später von der Berkeley Vision and Learning Center (BVLC) unterstützt wurde. Caffe ist besonders bekannt für seine Leistung bei Computer-Vision-Aufgaben, insbesondere bei der Arbeit mit Convolutional Neural Networks (CNNs).

Das Framework bietet auch Python- und MATLAB-Bindungen, die es den Benutzern erleichtern, mit ihren Modellen zu arbeiten. Obwohl es einst für seine Einfachheit und Geschwindigkeit bekannt war, haben andere neuere Deep-Learning-Frameworks wie TensorFlow und PyTorch in der Beliebtheit zugenommen, bieten jedoch flexiblere Optionen für eine breitere Palette von Deep-Learning-Aufgaben. Dennoch bleibt Caffe ein wichtiges Tool in der Deep-Learning-Community.

FAH, oder Folding@home, ist ein verteiltes Rechenprojekt, das darauf abzielt, Proteinfaltungsprozesse zu simulieren. Diese Simulationen sind wichtig, um das Verständnis von vielen biologischen Prozessen und Krankheiten zu vertiefen. Das Besondere an Folding@home ist, dass es die ungenutzte Rechenleistung von Computern von Freiwilligen aus der ganzen Welt nutzt. Indem Einzelpersonen die Software auf ihren Computern installieren, können sie dazu beitragen, komplexe wissenschaftliche Simulationen durchzuführen. Dieser gemeinschaftliche Ansatz ermöglicht es Folding@home, Rechenleistungen zu erreichen, die mit einigen der leistungsstärksten Supercomputer der Welt vergleichbar sind. Es wurde ursprünglich an der Stanford University entwickelt und hat sich im Laufe der Jahre zu einem bedeutenden Werkzeug für die biomedizinische Forschung entwickelt, insbesondere in Bereichen wie Alzheimer, Huntington oder verschiedenen Krebsformen.

Wir können anhand beider Anwendungen sehen, dass AMD auch hier Boden gut gemacht hat, auch wenn die RTX 6000 Ada das Maß aller Dinge ist.

 

Kommentar

Lade neue Kommentare

Not_A_Nerd

Mitglied

49 Kommentare 45 Likes

Ich würde mir einen Nachtest oder Update wünschen, wenn AMD im Herbst das die ROCm API in vollem Umfang für Windows released hat. Sie sind ja nun mit dem HIP SDK gestartet und das HIPIFY Tool soll in Kürze folgen wenn die neue AMD Software Pro Edition erscheint, noch ist diese ja Stand Q22.
Ich denke dann könnte sich gerade in Anwendung die derzeit noch Cuda Hochburg sind nochmal etwas tun unter Windows.
Linux ist man hier ja bereits schon deutlich weiter.

Auch wäre hier dann sicherlich mal ein Test interessant, wie gut oder wie schlecht es sich mit den normalen Consumer GPUs "arbeiten" lässt unter Windows.

Antwort 1 Like

w124

Mitglied

58 Kommentare 24 Likes

Lieben Dank für die Übersicht 👍

Mein Eindruck dabei ist, das die ganzen Karten doch recht beisammen sind und auch ältere Karten nicht schlecht dabei wegkommen.
Ist das allenfalls eine Frage der Treiberpflege?

Antwort Gefällt mir

Igor Wallossek

1

10,227 Kommentare 18,931 Likes

Keine der Suiten läuft mit nicht zertifizierten Karten. Creo verweigert den Start und bei Solidworks ist nicht nur RealView gesperrt. Zumal es einen tieferen Sinn hat, das Gaming-Geraffel dort auszusperren.

Aber: Hardware-technische Leichtgewichte wie AutoCAD tun es auch mit Consumer-Karten. Rendern kann man auch gut. Aber spätestens dann, wenn es um echte Simulationen geht, hätte ich Angst ums Ergebnis. Da reicht eine gekippte Speicherzelle und die Boeing macht Boing :D

Antwort 4 Likes

Igor Wallossek

1

10,227 Kommentare 18,931 Likes

Genau das. Würde AMD noch etwas liebevoller mit FSAA umgehen, wären die aktuellen Pro-Karten für Viele eine echte Alternative. Die "alte" RTX A6000 klebt der 6000 Ada ganz schön dicht am Popo, solange nicht die Tensor- und RT-Cores ins Spiel kommen. Selbst eine RTX 4000 (Turing) ist in vielen Bereichen noch gut dabei. Denn diese ganzen Karten haben auch genügend Speicher für fast noch alle Lebenslagen :D

Das Einzige, was voll nervt: RDNA2 und RDNA3 haben verschiedene Treiber-Pakete. Es ist technisch unmöglich, die Karten gemischt im PC zu verbauen.

Antwort 1 Like

echolot

Urgestein

943 Kommentare 727 Likes

Das ist mir auch sofort aufegafallen. Photoshop rennt dafür umso besser. Alle CAD-Arbeitsplätze sind momentan noch mit Nvidia ausgerüstet und wenn da nicht bald etwas passiert, wird das in näherer Zukunft auch so bleiben. Wobei die BIM-Siftware von ACAD (Revit, ich zähle Navisworks mal mit dazu) mittlerweile sehr gut mit weniger auskommt.

Antwort Gefällt mir

w124

Mitglied

58 Kommentare 24 Likes

Ich hatte mich seinerzeit, alsdie Verfügbarkeit aktueller GPUs eine Lotterie war, für eine gebrauchte RTX A4000 entschieden und finde bis dato deren Genügsamkeit an der Steckdose bemerkenswert.
Das erfreut mich umso mehr, wenn ich hier sehe, wo diese kleine Karte im Vergleich steht 👍

Antwort Gefällt mir

M
McFly_76

Veteran

396 Kommentare 136 Likes

Danke Igor für den Test :)

Wenn ich mir die Ergebnisse ansehe mit dem Wissen dass NAVI 31 von der Rechenleistung ( FP16, FP32, FP64 ) gegenüber dem Vorgänger um den Faktor 3 - 4 höher liegt dann frage ich mich warum der Leistungsvorsprung so klein ausfällt.

Ein Multi-GPU Aufbau bestehend aus der vorletzten Generation müsste demnach praktisch schneller arbeiten ( wenn die Software es untersützt ).

Antwort Gefällt mir

Alkbert

Urgestein

936 Kommentare 710 Likes

Unabhängig davon, dass ich eine Consumerkarte verwende, da meine Software keine zertifizierten Treiber braucht (Solid Edge, TurboCAD) bin ich zumindest fürs 3D Scanning leider zwingend auf CUDA angewiesen (Shining 3D, hier ExScan und ExStar). Die mögen einfach nicht mit AMD und Intel. Schade eigentlich.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,510 Kommentare 853 Likes

Super, danke für die Vergleichstests. Da steckt viel Arbeit drin, die aber nicht für nichts war und ist - ganz im Gegenteil! Sowas ist viel wert, und man findet es sonst sehr selten oder nie woanders. Und jetzt muss ich den Artikel erst mal gründlich lesen.

Nachtrag nach dem ersten vollen Lesen: Ja, da steckt wirklich VIEL Arbeit drin - Danke!

Gerade bei den AMD Karten kommt's wohl wirklich darauf an, wie speziell oder breit die Anwendungen gesetzt sind, die man mit den Karten machen will bzw muss. Da ist es uU hilfreich, auch den Kontext der PugetBench Tests einzubeziehen. Puget Systems baut ja (wie auch von Dir - @Igor Wallossek - beschrieben) Workstations v.a. für Photo, Video und Multimedia Anwendungen, und verkaufen und unterstützen auch die Software dazu. Und Puget empfehlen und verwenden durchaus AMD Karten in ihren Builds (Natürlich gibt's auch Systeme mit Nvidia Karten).

Ein Wunsch zur Webseite, v.a. bei solchen, sehr datenreichen Artikeln: eine Option, einen Artikel kontinuierlich auf einer Seite lesen zu können. Wobei mir klar ist, daß so eine Option auch einiges an Arbeit verursachen kann.

@Igor Wallossek : Sind Korrekturen von Tippfehlern etc erwünscht, und wenn ja, wie sollten die mitgeteilt werden?

Antwort 1 Like

Klicke zum Ausklappem
Igor Wallossek

1

10,227 Kommentare 18,931 Likes

Am einfachsten per PN, ich kann nicht immer im Thread mitlesen. Ich bin ja schon froh, dass ich heute kurz vor 6 fertig geworden bin. :D

Fehler am besten mit "Seite 7: vor einer Wnad..." (Exemplarisch) :D

Antwort 2 Likes

N
Novasun

Veteran

124 Kommentare 75 Likes

Das muss dank HIP aber in Zukunft nicht mehr so bleiben. Interessant wird es dann aber ob die Lösung leistungstechnisch mithalten kann.
Igor hat da wenigstens mal etwas Licht ins Dunkel mit Blender gebracht. Und das sieht gut aus und lässt hoffen.

Aber kaputt macht mich das AMD Autodesk so außen vor lässt. Warum?? Zahlt da wer wem was das der andere darf oder nicht darf??
AMD das ist auch ein Industriezweig wie die Filmbranche. Und wenn es stimmt was Igor vermutet dann bekommt euren Arsch hoch... Ganz ehrlich das schadet Nv nicht wenn im Autodesk zumindest bei den Balken etwas druck entsteht. Power ist ja da.

Ist FSAA eigentlich auch "nur" ein Treiberproblem?? Oder limitiert da in Hardware was?

Antwort Gefällt mir

Igor Wallossek

1

10,227 Kommentare 18,931 Likes

Ich denke mal, es ist die die leidige Treiber-Optimierung.

AMD schreibt selbst:
Aber man vergleicht z.B. eine Radeon Pro W6600 (112 Watt, 460 Euro) mit einer RTX A2000 12GB (66 Watt, 549 Euro), macht es also über den Preis.

View image at the forums

Ja, auch ich messe knapp 56 Prozentpunkte mehr als eine RTX A2000 6GB. Aber beide Karten sind nur etwas anders langsam. AMD muss die eigentlich potentere Karte über den Preis an den Kunden bringen, damit überhaupt was geht. Und NVIDIA schlägt immer noch fett drauf, weil man es scheinbar kann.

View image at the forums

Antwort 1 Like

Not_A_Nerd

Mitglied

49 Kommentare 45 Likes

AMD gibt das HIPIFY Tool für Windows in den nächsten Tagen frei. Damit kann man dann Cuda Anwendungen (ausser KI) automatisiert in AMD HIP übersetzen und auf AMD GPU direkt ausführen. HIP SDK und Radeon Software Pro Edition vorrausgesetzt.

Antwort Gefällt mir

Not_A_Nerd

Mitglied

49 Kommentare 45 Likes

Wird das selbe Spiele wie bei Adobe Produkten sein. Nvidia unterstützt Adobe finanziell und bekommt dafür weitreichende Optimierungen.

Antwort Gefällt mir

W
Wolfmind84

Neuling

1 Kommentare 0 Likes

Da hat sich ein Fehler im "Test System" eingeschlichen ;-)

SSD 2x 2 GB Netac NI7000-t NVMe

Antwort Gefällt mir

N
Novasun

Veteran

124 Kommentare 75 Likes

Ist das eine Vermutung deiner seits - oder gibt es da gesicherte Informationen zu?

Mir geht es nur darum. Wenn da Geld fließt oder politisch man einen bevorzugt - dann muss es @Igor Wallossek auch nicht negativ z.B. AMD anlasten. Weil dann wird sich da nichts ändern (können) sogar unter Umständen...

Wobei auch - wenn ich es jetzt richtig verstehe - auch @Igor Wallossek es nur vermutet das es im Treiber liegt... Problem könnte auch sein wenn NV irgendwo ne Art Algorithmus hat der das Sghading halt super effizient kann man diesen auch patentiert hat... Dann weiß AMD die Lösung zwar und wäre vielleicht genau so schnell kann diesen Algorithmus dann aber eben nicht nutzen...

Antwort Gefällt mir

MechUnit

Mitglied

66 Kommentare 39 Likes

Mich würde bei der Thematik einmal interessieren, ob es performancetechnische Unterschiede zw. 3DS 2016 und einer aktuelleren Version auf Softwareebene/Treiberkommunikation/Hardwareauslastung gibt - ähnlich wie bei Cinema 4D/Cinebench.

Oder ob man alternativ C4D/Cinebench bei solchen Tests mit im Parcours aufnehmen könnte.

Antwort Gefällt mir

Igor Wallossek

1

10,227 Kommentare 18,931 Likes

Können tut man alles, aber man braucht schon normierte Benchmarks, die konsistente Resultate liefern. Ich habe hier auch Maya 2023 und diverse Plugins getestet. Das war mir einfach nicht konsistent genug. Ja, man sieht Trends, aber es ist mir zu ungenau. Da müsste man sich selbst was bauen, was aber wiederum extrem zeit fressen würde. :(

Antwort 1 Like

n
nichimen

Neuling

2 Kommentare 0 Likes

Hi,thanks for these benchmarks,really useful as ever!
anyway looking at the graphs,they are confusing...(thanks Nvidia for this mess in the naming scheme!!)
with RTX 4000,5000,6000 are you referring to the Quadro RTX 4000,Quadro RTX 5000 and Quadro RTX 6000,that is the old cards based on Turing architecture?
or the RTX 5000 is actually the Ada Lovelace and you simply forgot to put Ada at the end?
with the RTX 4000 you meant the RTX 4000 SFF Ada or again the Quadro RTX 4000? (Turing based)
I ask you because the description of cards you give at the beginning of the article and the one on the graphs doesn't match

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung