Grafikkarten Professional Testberichte VGA Workstation

NVIDIA RTX A5000 im Test – Wie gut ist die Nachfolgerin der Quadro RTX 5000?

Mit der NVIDIA RTX A5000 habe ich heute eine Workstation-Grafikkarte im Test, die nicht nur die Vorgängerin RTX 5000 locker ersetzen soll, sondern die in manchen Bereichen sogar die RTX 6000 noch ärgern kann. Dazu kommen natürlich die neuen Features, die Ampere gegenüber Turing bietet, sowie diverse Feinheiten, durch die es laut NVIDIA mehr als nur ein effizienteres Replacement sein soll. Genau deshalb werde ich die RTX A5000 auch in verschiedenen Workloads testen und nicht nur bei reiner Rastergrafik.

NVIDIA bietet bei der RTX A5000 (analog zur RTX A6000) zudem mit NVLink eine 112 GB/s schnelle Grafikprozessor-Zusammenschaltung, die eine wesentlich schnellere Alternative für Multi-GPU-Systeme darstellt als herkömmliche, auf PCI-E basierende Lösungen. Durch die Verschaltung zweier NVIDIA -Grafikkarten mit NVLink lassen sich Speicherplatz und Leistung elegant skalieren, um den Anforderungen an große visuelle Rechenaufgaben gerecht zu werden.

Die RTX A5000 kann zudem NVIDIA RTX Virtual Workstation-Software (vWS) nutzen, was Raum fürs Visual Computing bietet und damit die Leistung virtueller Workstations aus dem Rechenzentrum oder der Cloud auf jedem Gerät nutzbar machen kann. So lassen sich auf dem Niveau einer physischen Workstation selbst die anspruchsvollsten Anwendungen auf jedem Gerät nutzen und dabei gleichzeitig die nötigen Sicherheitsanforderungen erfüllen. Die IT kann jede Anwendung vom Rechenzentrum aus virtualisieren und damit auch lokal ein Arbeitsumfeld schaffen, das von einer physischen Workstation  nicht zu unterscheiden ist. So bietet jedes am Ende jedes Gerät die gleiche Leistung wie eine Workstation.

Hier handelt es sich also um ein Feature, um in einer virtuellen Umgebung eine Grafikkarte an mehrere Benutzer faktisch “portionsweise” aufzuteilen. Man verteilt an die VMS die passenden Profile, in denen die zugeteilten Ressourcen geregelt sind. Allerdings ist dieses Produkt Lizenz-pflichtig und es müssen dafür, gerade im VMware Umfeld, auch Enterprise Plus Lizenzen vorhanden sein. Außerdem benötigt man spezielle Nvidia Treiber, die nur mit passendem Account gibt. Die vGPU funktioniert nicht ohne den Lizenz Server, womit sich der administrative Aufwand auch erhöht.

Unboxing, Optik, Haptik und Konnektivität

Die Karte wiegt 1013 Gramm und ist damit sogar fast 100 Gramm leichter als AMDs Radeon Pro W6800 und somit auch kein wirkliches Schwergewicht. Sie ist mit ihren üblichen 27 cm gut einbaubar, ist 10,5 cm hoch (Einbauhöhe ab PEG) und dazu 3.5 cm dick (Dual-Slot-Design), wobei hier keine Backplate zum Einsatz kommt, da auch rückseitig kein Speicher verbaut wurde. Die insgesamt 12 Module GDDR6 mit ECC Funktionalität sitzen alle auf der Frontseite, was designtechnisch  eine interessante Lösung darstellt.

Versorgt wird die Karte mit einer TBP von bis zu 230 Watt über eine standesübliche 8-Pin-Buchse, es bleibt also alles wie bekannt und erwartet. Interessanterweise sieht man auf der Platine noch die freien Lötaugen für zwei 8-Pin-Buchsen am rechten Ende des oberen Randes der Platine. Auch NVIDIA setzt wie gewohnt auf das DHE-Prinzip (Direct Heat Exhaust) für die Kühlung und einen recht potenten, aber nicht allzu lauten 6,5-cm-Radiallüfter. Die angesaugte Luft verlässt also das Gehäuse auf direktem Weg an der Rückseite, was wirklich zweckmäßig ist.

Die Slot-Blende ist mit einem Wabengitter für den Luftaustritt versehen und trägt vier DisplayPort-Buchen (1.4) nebeneinander. Das schafft Platz, damit die heiße Abluft auch wirklich gut entweichen kann.

Technische Daten

Mit den insgesamt 8.192 CUDA Cores (nach NVIDIAs Zählweise) des GA102-850 lassen sich bereits größere Workflows bewältigen und die Karte ist nur unwesentlich mehr beschnitten als eine GeForce RTX 3080 mit 8704 CUDA Cores. Mit insgesamt 256 Tensor Cores, 64 RT Cores, 256 TMUs und 96 ROPs setzt die Karte mit dem beschnittenen GA 102 auf insgesamt 64 Streaming Multiprocessors (SM), die bei Ampere ja komplett neu gestaltet wurden. Die Basis mag noch ähnlich der von Turing sein, aber es haben sich wichtige und vor allem entscheidende Dinge geändert.

Die SM haben eine wirklich große Wandlung vollzogen, die letztendlich auch in der gesteigerten Leistung resultiert. Ein einzelner SM bei Turing bestand noch aus 64 FP32-ALUs für die Gleitkomma-Berechnungen sowie 64 INT32-ALUs für Ganzzahl-Berechnungen, aufgeteilt in vier Blöcke zu je 16 FP32- und 16 INT32-ALUs. Der Trick dabei: die FP- und die INT-ALUs können gleichzeitig angesprochen werden. Und Ampere? Die 64 reinen FP32-ALUs pro SM bleiben weiterhin erhalten, aber die 64 INT32-ALUs stockt man um 64 weitere auf, die nach wie vor auch wahlweise Floating-Point- und zusätzlich Integer-Berechnungen durchführen können, mit einer Einschränkung: das geht nun nicht mehr parallel. Die Aufteilung in jeweils 4 Blöcke bleibt erhalten, jedoch mit einem getrennten Datenpfad.

Während der Basistakt mit 1170 MHz angegeben wird, liegt der Boost-Takt bei bis zu 1695 MHz, der jedoch in der Praxis unter absoluter Volllast nicht immer erreicht wird. Die Karte setzt auf satte 24 GB GDDR6 mit 16 Gbps, die sich aus 12 Modulen mit 2 GB Größe auf der Vorderseite der Platine ergeben. Dazu gehören auch das 384-Bit Speicherinterface (768 GB/s Bandbreite).

nvidia-rtx-a5000-datasheet

 

Lade neue Kommentare

konkretor

Veteran

145 Kommentare 111 Likes

Morgen Igor, Danke für den Test

Das Feature vWS habe ich hier mal verlinkt. Dabei handelt es sich um ein Feature in einer virtuellen Umgebungen eine Grafikkarte an mehrere Benutzer quasi in Scheiben zu schneiden. Man verteilt an die VMS Profile zum Beispiel jede VM bekommt 2 GB RAM. Die genauen Profile stehen in der zweiten PDF.
Zudem ist das Produkt Lizenz pflichtig.
Dazu müssen gerade im VMware Umfeld Enterprise Plus Lizenzen vorhanden sein.
Um das umzusetzen musst du einen speziellen Nvidia Treiber runterladen den es nur mit Account gibt. Dort trägt man einen Lizenz Server ein der das Feature freischalten. Besser gesagt die vGPU funktioniert nicht ohne den Lizenz Server. Der Lizenz Server ist ne VM mit Windows drauf auf dem ein Nvidia Lizenz Server installiert wird. Der Treiber in der VM frägt dann den Lizenz Server ab. Bekommt dann die Freischaltung.
Unter Linux brauchst auf allen VMS einen Desktop installiert um den Lizenz Server im Nvidia Treiber einzutragen. Total nervig und aus der Steinzeit. Ich wollte das ursprünglich bei mir in der Firma umsetzen. Der Aufwand ist doch extrem hoch und die Komplexität steigt extrem. Von den Lizenz Kosten die anfallen ganz zu schweigen....

Antwort 1 Like

Klicke zum Ausklappem
B
Besterino

Urgestein

5,309 Kommentare 2,188 Likes

Danke für den Test!

Auf Seite 15 scheint ein Textabschnitt von AMD noch nicht ganz angepasst zu sein:

„Betrachten wir nun die Temperaturen. Die AMD-intern als Edge-Temperatur bezeichnete “GPU-Diode” (kennen wir ja auch von NVIDIA) liegt mit den Werten bei meist 86 °C im 3D Loop. Wirklich kühl geht anders, das haben sogar leistungsstärkere Karten wie eine NVIDIA RTX Quadro A6000 mit einer TDP von 300 Watt sichtbar kühler lösen können. Die Platine ist ebenfalls reichlich heiß und die rückwärtige Backplate kühlt den auf der Rückseite verlöteten Speicher auch nur mit Ach und Krach.“

Vor allem hat die Karte doch rückseitig gar keinen Speicher, sitzt doch alles vorne?

Antwort Gefällt mir

Klicke zum Ausklappem
Igor Wallossek

Format©

5,754 Kommentare 8,923 Likes

Diesen einen Absatz habe ich dummerweise in der Ablage gehabt, ist schon gefixt. Leider zu spät gesehen, aber danke für den Tip! :)

Antwort 1 Like

Igor Wallossek

Format©

5,754 Kommentare 8,923 Likes

Danke für die Ergänzung. Das kann ich hier ja leider mangels monetärer Ressourcen nicht selbst testen. Ein Kollege hat davon geschwärmt und... nun ja :D
Ich habs mal ergänzt: :D

Antwort 1 Like

Blubbie

Urgestein

697 Kommentare 215 Likes

Hallo zusammen,
Ich würde das gerne verstehen :
Igor @Igor Wallossek schrieb im test "die Karte ist nur unwesentlich mehr beschnitten als eine GeForce RTX 3080 mit 8704 CUDA Cores."

D.h. Eine einzige rtx 3080/ti oder gar 3090 ist schon besser/schneller fürs rendern und auch deutlich günstiger so lange man keine Virtualisierung braucht und nicht mehrere dieser teuren Workstation Karten zusammen schließen und dann skalieren will?

Ich bin auch sehr über den geringen Strombedarf überrascht. 230 W bei Workstation im vgl. Zu > 340 Watt im Consumer Bereich. Und da sagt man die Industrie verbraucht viel Strom... Okay die laufen/rendern wahrscheinlich auch 24h/7 tage durch.

Einen performance Vergleich beim rendern zu einer normalen Consumer 3080/3090 wäre aber echt schon interessant gewesen. 😀

Antwort Gefällt mir

Klicke zum Ausklappem
D
Deridex

Urgestein

1,700 Kommentare 515 Likes

Ich frage mich noch immer, warum man sich eine Workstation Grafikkarte für Rendering (nicht Konstruktion!), Bildbearbeitung usw. kaufen sollte. Da sollte aus meiner Sicht eine Consumerkarte mit Studiotreiber mehr als ausreichend sein. Im CAD hingegen scheinen aus meiner Sicht beide Hersteller brauchbar zu sein.

Antwort 1 Like

Igor Wallossek

Format©

5,754 Kommentare 8,923 Likes

Fürs Rendering... naja. Ich habe hier Maya und Rhino Projekte, die knallen schon mal weit über 20 GB in den VRAM, wenn sie dürfen. Da ist mir letztens sogar die 3090 verreckt. Nur die A6000 kam noch klar. :D

Sicher, den Bot bekomme ich auf jeder Consumer-Karte gedingst.

Antwort 1 Like

p
pintie

Mitglied

68 Kommentare 32 Likes

Danke für den Test. Sehr hilfreich.
wird auch noch was zur A6000 kommen ?

Antwort Gefällt mir

g
goch

Veteran

335 Kommentare 112 Likes

Bezüglich der Lizenzen oder der (virtuellen) Hardware? Ansonsten gibt es von beiden Seiten (VMware / Nvidia) entsprechende Eval-Lizenzen.

Antwort Gefällt mir

D
Deridex

Urgestein

1,700 Kommentare 515 Likes

@Igor Wallossek
Ich hoffe mit "verreckt" meinst du sehr langsam geworden und nicht abgestürzt oder defekt.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung