Grafikkarten Professional Testberichte VGA Workstation

NVIDIA RTX A5000 im Test – Wie gut ist die Nachfolgerin der Quadro RTX 5000?

Mit der NVIDIA RTX A5000 habe ich heute eine Workstation-Grafikkarte im Test, die nicht nur die Vorgängerin RTX 5000 locker ersetzen soll, sondern die in manchen Bereichen sogar die RTX 6000 noch ärgern kann. Dazu kommen natürlich die neuen Features, die Ampere gegenüber Turing bietet, sowie diverse Feinheiten, durch die es laut NVIDIA mehr als nur ein effizienteres Replacement sein soll. Genau deshalb werde ich die RTX A5000 auch in verschiedenen Workloads testen und nicht nur bei reiner Rastergrafik.

NVIDIA bietet bei der RTX A5000 (analog zur RTX A6000) zudem mit NVLink eine 112 GB/s schnelle Grafikprozessor-Zusammenschaltung, die eine wesentlich schnellere Alternative für Multi-GPU-Systeme darstellt als herkömmliche, auf PCI-E basierende Lösungen. Durch die Verschaltung zweier NVIDIA -Grafikkarten mit NVLink lassen sich Speicherplatz und Leistung elegant skalieren, um den Anforderungen an große visuelle Rechenaufgaben gerecht zu werden.

Die RTX A5000 kann zudem NVIDIA RTX Virtual Workstation-Software (vWS) nutzen, was Raum fürs Visual Computing bietet und damit die Leistung virtueller Workstations aus dem Rechenzentrum oder der Cloud auf jedem Gerät nutzbar machen kann. So lassen sich auf dem Niveau einer physischen Workstation selbst die anspruchsvollsten Anwendungen auf jedem Gerät nutzen und dabei gleichzeitig die nötigen Sicherheitsanforderungen erfüllen. Die IT kann jede Anwendung vom Rechenzentrum aus virtualisieren und damit auch lokal ein Arbeitsumfeld schaffen, das von einer physischen Workstation  nicht zu unterscheiden ist. So bietet jedes am Ende jedes Gerät die gleiche Leistung wie eine Workstation.

Hier handelt es sich also um ein Feature, um in einer virtuellen Umgebung eine Grafikkarte an mehrere Benutzer faktisch „portionsweise“ aufzuteilen. Man verteilt an die VMS die passenden Profile, in denen die zugeteilten Ressourcen geregelt sind. Allerdings ist dieses Produkt Lizenz-pflichtig und es müssen dafür, gerade im VMware Umfeld, auch Enterprise Plus Lizenzen vorhanden sein. Außerdem benötigt man spezielle Nvidia Treiber, die nur mit passendem Account gibt. Die vGPU funktioniert nicht ohne den Lizenz Server, womit sich der administrative Aufwand auch erhöht.

Unboxing, Optik, Haptik und Konnektivität

Die Karte wiegt 1013 Gramm und ist damit sogar fast 100 Gramm leichter als AMDs Radeon Pro W6800 und somit auch kein wirkliches Schwergewicht. Sie ist mit ihren üblichen 27 cm gut einbaubar, ist 10,5 cm hoch (Einbauhöhe ab PEG) und dazu 3.5 cm dick (Dual-Slot-Design), wobei hier keine Backplate zum Einsatz kommt, da auch rückseitig kein Speicher verbaut wurde. Die insgesamt 12 Module GDDR6 mit ECC Funktionalität sitzen alle auf der Frontseite, was designtechnisch  eine interessante Lösung darstellt.

Versorgt wird die Karte mit einer TBP von bis zu 230 Watt über eine standesübliche 8-Pin-Buchse, es bleibt also alles wie bekannt und erwartet. Interessanterweise sieht man auf der Platine noch die freien Lötaugen für zwei 8-Pin-Buchsen am rechten Ende des oberen Randes der Platine. Auch NVIDIA setzt wie gewohnt auf das DHE-Prinzip (Direct Heat Exhaust) für die Kühlung und einen recht potenten, aber nicht allzu lauten 6,5-cm-Radiallüfter. Die angesaugte Luft verlässt also das Gehäuse auf direktem Weg an der Rückseite, was wirklich zweckmäßig ist.

Die Slot-Blende ist mit einem Wabengitter für den Luftaustritt versehen und trägt vier DisplayPort-Buchen (1.4) nebeneinander. Das schafft Platz, damit die heiße Abluft auch wirklich gut entweichen kann.

Technische Daten

Mit den insgesamt 8.192 CUDA Cores (nach NVIDIAs Zählweise) des GA102-850 lassen sich bereits größere Workflows bewältigen und die Karte ist nur unwesentlich mehr beschnitten als eine GeForce RTX 3080 mit 8704 CUDA Cores. Mit insgesamt 256 Tensor Cores, 64 RT Cores, 256 TMUs und 96 ROPs setzt die Karte mit dem beschnittenen GA 102 auf insgesamt 64 Streaming Multiprocessors (SM), die bei Ampere ja komplett neu gestaltet wurden. Die Basis mag noch ähnlich der von Turing sein, aber es haben sich wichtige und vor allem entscheidende Dinge geändert.

Die SM haben eine wirklich große Wandlung vollzogen, die letztendlich auch in der gesteigerten Leistung resultiert. Ein einzelner SM bei Turing bestand noch aus 64 FP32-ALUs für die Gleitkomma-Berechnungen sowie 64 INT32-ALUs für Ganzzahl-Berechnungen, aufgeteilt in vier Blöcke zu je 16 FP32- und 16 INT32-ALUs. Der Trick dabei: die FP- und die INT-ALUs können gleichzeitig angesprochen werden. Und Ampere? Die 64 reinen FP32-ALUs pro SM bleiben weiterhin erhalten, aber die 64 INT32-ALUs stockt man um 64 weitere auf, die nach wie vor auch wahlweise Floating-Point- und zusätzlich Integer-Berechnungen durchführen können, mit einer Einschränkung: das geht nun nicht mehr parallel. Die Aufteilung in jeweils 4 Blöcke bleibt erhalten, jedoch mit einem getrennten Datenpfad.

Während der Basistakt mit 1170 MHz angegeben wird, liegt der Boost-Takt bei bis zu 1695 MHz, der jedoch in der Praxis unter absoluter Volllast nicht immer erreicht wird. Die Karte setzt auf satte 24 GB GDDR6 mit 16 Gbps, die sich aus 12 Modulen mit 2 GB Größe auf der Vorderseite der Platine ergeben. Dazu gehören auch das 384-Bit Speicherinterface (768 GB/s Bandbreite).

nvidia-rtx-a5000-datasheet

 

Lade neue Kommentare

konkretor

Veteran

222 Kommentare 176 Likes

Morgen Igor, Danke für den Test

Das Feature vWS habe ich hier mal verlinkt. Dabei handelt es sich um ein Feature in einer virtuellen Umgebungen eine Grafikkarte an mehrere Benutzer quasi in Scheiben zu schneiden. Man verteilt an die VMS Profile zum Beispiel jede VM bekommt 2 GB RAM. Die genauen Profile stehen in der zweiten PDF.
Zudem ist das Produkt Lizenz pflichtig.
Dazu müssen gerade im VMware Umfeld Enterprise Plus Lizenzen vorhanden sein.
Um das umzusetzen musst du einen speziellen Nvidia Treiber runterladen den es nur mit Account gibt. Dort trägt man einen Lizenz Server ein der das Feature freischalten. Besser gesagt die vGPU funktioniert nicht ohne den Lizenz Server. Der Lizenz Server ist ne VM mit Windows drauf auf dem ein Nvidia Lizenz Server installiert wird. Der Treiber in der VM frägt dann den Lizenz Server ab. Bekommt dann die Freischaltung.
Unter Linux brauchst auf allen VMS einen Desktop installiert um den Lizenz Server im Nvidia Treiber einzutragen. Total nervig und aus der Steinzeit. Ich wollte das ursprünglich bei mir in der Firma umsetzen. Der Aufwand ist doch extrem hoch und die Komplexität steigt extrem. Von den Lizenz Kosten die anfallen ganz zu schweigen....

Antwort 1 Like

Klicke zum Ausklappem
B
Besterino

Urgestein

5,930 Kommentare 2,683 Likes

Danke für den Test!

Auf Seite 15 scheint ein Textabschnitt von AMD noch nicht ganz angepasst zu sein:

„Betrachten wir nun die Temperaturen. Die AMD-intern als Edge-Temperatur bezeichnete “GPU-Diode” (kennen wir ja auch von NVIDIA) liegt mit den Werten bei meist 86 °C im 3D Loop. Wirklich kühl geht anders, das haben sogar leistungsstärkere Karten wie eine NVIDIA RTX Quadro A6000 mit einer TDP von 300 Watt sichtbar kühler lösen können. Die Platine ist ebenfalls reichlich heiß und die rückwärtige Backplate kühlt den auf der Rückseite verlöteten Speicher auch nur mit Ach und Krach.“

Vor allem hat die Karte doch rückseitig gar keinen Speicher, sitzt doch alles vorne?

Antwort Gefällt mir

Klicke zum Ausklappem
Igor Wallossek

Format©

7,026 Kommentare 11,499 Likes

Diesen einen Absatz habe ich dummerweise in der Ablage gehabt, ist schon gefixt. Leider zu spät gesehen, aber danke für den Tip! :)

Antwort 1 Like

Igor Wallossek

Format©

7,026 Kommentare 11,499 Likes

Danke für die Ergänzung. Das kann ich hier ja leider mangels monetärer Ressourcen nicht selbst testen. Ein Kollege hat davon geschwärmt und... nun ja :D
Ich habs mal ergänzt: :D

Antwort 1 Like

Blubbie

Urgestein

777 Kommentare 257 Likes

Hallo zusammen,
Ich würde das gerne verstehen :
Igor @Igor Wallossek schrieb im test "die Karte ist nur unwesentlich mehr beschnitten als eine GeForce RTX 3080 mit 8704 CUDA Cores."

D.h. Eine einzige rtx 3080/ti oder gar 3090 ist schon besser/schneller fürs rendern und auch deutlich günstiger so lange man keine Virtualisierung braucht und nicht mehrere dieser teuren Workstation Karten zusammen schließen und dann skalieren will?

Ich bin auch sehr über den geringen Strombedarf überrascht. 230 W bei Workstation im vgl. Zu > 340 Watt im Consumer Bereich. Und da sagt man die Industrie verbraucht viel Strom... Okay die laufen/rendern wahrscheinlich auch 24h/7 tage durch.

Einen performance Vergleich beim rendern zu einer normalen Consumer 3080/3090 wäre aber echt schon interessant gewesen. 😀

Antwort Gefällt mir

Klicke zum Ausklappem
D
Deridex

Urgestein

1,861 Kommentare 616 Likes

Ich frage mich noch immer, warum man sich eine Workstation Grafikkarte für Rendering (nicht Konstruktion!), Bildbearbeitung usw. kaufen sollte. Da sollte aus meiner Sicht eine Consumerkarte mit Studiotreiber mehr als ausreichend sein. Im CAD hingegen scheinen aus meiner Sicht beide Hersteller brauchbar zu sein.

Antwort 1 Like

Igor Wallossek

Format©

7,026 Kommentare 11,499 Likes

Fürs Rendering... naja. Ich habe hier Maya und Rhino Projekte, die knallen schon mal weit über 20 GB in den VRAM, wenn sie dürfen. Da ist mir letztens sogar die 3090 verreckt. Nur die A6000 kam noch klar. :D

Sicher, den Bot bekomme ich auf jeder Consumer-Karte gedingst.

Antwort 1 Like

p
pintie

Mitglied

87 Kommentare 53 Likes

Danke für den Test. Sehr hilfreich.
wird auch noch was zur A6000 kommen ?

Antwort Gefällt mir

g
goch

Veteran

405 Kommentare 140 Likes

Bezüglich der Lizenzen oder der (virtuellen) Hardware? Ansonsten gibt es von beiden Seiten (VMware / Nvidia) entsprechende Eval-Lizenzen.

Antwort Gefällt mir

D
Deridex

Urgestein

1,861 Kommentare 616 Likes

@Igor Wallossek
Ich hoffe mit "verreckt" meinst du sehr langsam geworden und nicht abgestürzt oder defekt.

Antwort Gefällt mir

Igor Wallossek

Format©

7,026 Kommentare 11,499 Likes

Mit verreckt meine ich: nicht ladbar. Overflow :D

Antwort Gefällt mir

Igor Wallossek

Format©

7,026 Kommentare 11,499 Likes

Ja, liegt hier. :)

Antwort 1 Like

B
Besterino

Urgestein

5,930 Kommentare 2,683 Likes

Find'sch mal wieder soopa, dass Nvidia dir diese hübschen Dinger zukommen lässt!

Zum Thema Virtualisierung: was will man da schon groß testen - das funktioniert halt einfach und wenn man eine ganze GPU durchreicht quasi auf bare-metal-Niveau. Kurioserweise bisweilen sogar BESSER als Windows 10 direkt auf'm blanken Blech - offenbar ist ESXi bei der Speicher- und CPU-Verwaltung bisweilen cleverer und virtualisiert läuft besser, als wenn Windows direkt an die Hardware ran darf... (so zumindest meine Erfahrungen mal vor ca. 4-5 Jahren).

Spannend wird dann allenfalls, wie sich ein Split der GPU über mehrere VMs auswirkt - aber was will man da denn groß testen? Da hängt so viel vom konkreten Setup ab (wie erfolgt die Zuteilung der Hardware-Ressourcen - auf wie viele VMs, wie aufgeteilt, wie genau genutzt und und und) - das kann kein Mensch testen und ist eine kleine Wissenschaft für sich, also was für das jeweilige Szenario das beste Setup ist. So kann man bei Nvidia allein 3 Methoden wählen, wie die Last verteilt wird: Fixed share, best effort, equal share:

Wer sich dafür interessiert, muss sich halt damit wohl oder übel auch beschäftigen - ich empfehle zum Beispiel mal dieses Dokumentchen und dort insbesondere das entwaffnende Kapitel 4 (Deployment Best Practices) und dort 4.3 - "Understand Your Users" - wo ausdrücklich ein POC angeraten wird um das beste Setup herauszufinden. ;) Genauso auch in dem von @konkretor bereits verlinkten Dokument (dort Kapitel 7).

Davon ab @Igor Wallossek : der Link auf Seite 1 zu Nvidia vWS ist kaputt. Richtig wäre der hier. :D

Wer Lust auf sowas hat, kann das ganz kostenlos auch mit Consumer-Hardware erste Erfahrungen sammeln. Nvidia legt einem immerhin treiberseitig keine Steine mehr in den Weg und das Durchreichen einer ganzen GPU geht z.B. unter ESXi und Hyper-V inzwischen ganz gut.

Aber eins ist auch klar: das macht nur Sinn, wenn mehrere Personen mit der Hardware arbeiten und aber auch KEINE dieser Personen die Hardware 24/7 VOLL auslastet (dann macht eine dedizierte Box mehr Sinn)! Klassische Einsatzszenarien sind Teams über verschiedene Zeitzonen hinweg, also Kollege 1 arbeitet von 8-18h Ortszeit in DE, Kollege 2 auch von 8-18h Ortszeit aber in Japan - also ca. 8h versetzt. Jeder hat seine eigene VM mit eigenem Profil, Programmen usw. und muss sich nie umgewöhnen, die hardware wird aber so mal eben 16h statt nur 8h genutzt. Auch wird pro PC (=VM) selten 100% der Arbeitszeit gerendert, sondern eben nur mal ab und an - dann können u.U. eben sogar mehrere gleichzeitig die Hardware (theoretisch) nutzen, aber während der eine nur stumpf auf dem Desktop herumclickt (GPU liegt quasi brach) läuft halt beim anderen schon der Renderjob. Oder mehrere Personen lassen ihre Renderjobs über Nacht laufen und brauchen dafür nicht die volle Nacht... dann kann jeder seinen Job easy anstoßen und die Hardware rödelt dann eben über Nacht ohne großen Verwaltungsaufwand, individuelles Scheduling & Co. die Jobs durch.

Will sagen: um sowas sinnvoll einzusetzen, muss man den Bedarf (=Nutzerverhalten) genau kennen. No shoe fits all. =) Und da kann auch Igor mit generellen Aussagen/Tests (fast) keinen Mehrwert leisten.

Antwort Gefällt mir

Klicke zum Ausklappem
k
krelog

Veteran

107 Kommentare 25 Likes

hast du da ne Hausnummer was ne Lizens im Jahr kostet ( ich weis ist immer abhängig vom Vertriebspartner und den direkten Angeboten?

Zur not bewegt sich im Bereich von Creo oder Catia oder Ansys würde mir auch reichen

Antwort Gefällt mir

konkretor

Veteran

222 Kommentare 176 Likes

Ich meine das wird pro GPU lizenziert.

Also unter 500$ sind es im Jahr pro Karte.
Preise können hier stark je nach Lizenz variieren. Will hier nicht meinen Lizenzpreis offen legen.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung