Grafikkarten Professional Testberichte VGA Workstation

NVIDIA RTX A5000 im Test – Wie gut ist die Nachfolgerin der Quadro RTX 5000?

Teardown

Das Gehäuse bzw. der massive Gehäusedeckel als Träger wurde mittels Aluminiumdruckguss gefertigt und lässt sich relativ leicht abnehmen, wenn man über die zwei passenden Torx-Schraubendreher verfügt. Auch die Slotblende sollte enfernt werden, damit sich die Platine später leichter entnehmen lässt. Aber über die Wertigkeit der Lösung muss man nicht viel schreiben, die ist optisch und haptisch schnell begründet.

Darunter liegt die Platine, auf der sowohl der Kühler über vier Schrauben samt Spannkreuz, als auch das Lüftermodul befestigt wurden. Das Lüftermodul, dessen Trägerplatte ebenfalls aus Leichtmetall besteht, überdeckt dabei allerdings die Lötbereiche für die beiden 8-Pin-Buchsen, so dass man hier auf eine separate Buchse am Kartenende setzt, die mit Klebeband am Lüftermodul leicht fixiert wurde.

Das Lüftermodul mit dem 6.5-cm-Lüfter ist schnell entfernt und gibt dann den Blick auf die Platine frei, die in diesem Bereich keine höheren Bauelemente aufweist. Das ist so eine Art Sokoban für Erwachsene und wir sehen auch, dass die Längsdrosseln der beiden zusammengeschalteten Eingänge ebenfalls sehr flach ausfallen. Die rechte Spannungswandler-Reihe wird somit direkt von Lüftermodul mitgekühlt, während der Rest dann unter dem eigentlichen Kühler sitzt. Das ist eine recht interessante, aber sehr wirkungsvolle Lösung.

Der Kühler setzt auf einen großen, stark angeschliffenen Kupfer-Heatsink sowie umlaufende Heatpipe-Elemente für den Transport der Abwärme von der linken Spannungswandler-Reihe zum Kühlblock (hier spiegelverkehrt und deshalb rechts sichtbar unter dem hellen Wärmeleitpad) und der insgesamt 12 Speichermodule. Kompakt, aber wirkungsvoll, denn hier werden immerhin um die 200 Watt abgeführt. Die ca. 10 bis 15 Watt Platinenverluste und die Spannungswandler unter dem Lüfter zählen dann extra.

Platine und Spannungsversorgung

Die Platine ist recht interessant und deckt sich mit keiner Platine der Consumer-Karten wirklich genau. Sie ähnelt noch am ehesten der Referenzplatine der GeForce RTX 3080, aber es gibt durchaus Unterschiede im Detail und bei der Aufteilung Spannungsversorgung. Man hat hier auf 21,2 cm Länge ein Menge untergebracht und die Superposition zeigt auch, dass z.B. ein Wasserblock, der auf eine Referenzplatine der GeForce RTX 3080 passt, hier ebenfalls passen könnte, wenn die Leave-Out-Areas sauber umgesetzt wurden.

Die Karte basiert auf dem bereits erwähnten PG132 Referenz-Design, einer 12-Layer-Platine mit Backdrill-Verfahren, wurde aber modifiziert. Die Zweiteilung der Hauptspannungsversorgung wurde beibehalten. NVVDD steht für die herkömmliche Core-Voltage, also das, was wir gern als GPU- Spannung bezeichnen. Hier sind es insgesamt acht einzelne Phasen (eine weniger als bei der FE), die von einem uP9512R von UPI Semiconductor auf der Rückseite bereitgestellt werden. Hier handelt es sich um einen digitalen PWM-Controller mit VID-Interface, kompatibel zu NVIDIAs Open VReg Spezifikation. Diese Phasen werden jeweils mit etwas günstigeren 50-A Powerstages AOZ5239QI von Alpha & Omega bestückt, die keine echte MOSFET DCR ermöglichen, jedoch eine Temperatur-Schutzschaltung und einen Auslese-Ausgang bieten.

Die Bestückung der zweiten GPU-Spannungsversorgung MSVDD, die ich als “Gedönsspannung” bezeichnet hatte und die für “Miscellaneous” steht, ist sehr ähnlich aufgebaut. Wir finden insgesamt vier einzeln angesteuerte Phasen, die von einem RT8845A erzeugt werden. Die Powerstages sind AOZ5311NQI, etwas stärkere 55A-Modelle von A&O. Am Ende ergeben sich also 11 Phasen allein für die GPU und die verschiedenen Spannungen zur selbigen. Damit sollte auch das Power-Gating in der GPU etwas einfacher werden, wobei AMD mit VDDCI ja eine ähnliche, wenn auch viel kleinere Auslagerung nutzt. Der Spannungsspielraum beider Bereiche liegt zwischen 0.7 und maximal 1.2 Volt, wobei der Maximalwert ohne spezielle Firm- und Software vom Endanwender nie erreicht werden kann. Wichtig ist hingegen der Minimalwert, so dass es fürs Untervolting technische Grenzen gibt, die jedoch NVIDIA für alle so vergibt.

Für den Speicher nutzt NVIDIA zwei Phasen, die ebenfalls auf die bekannten Power Stages von Alpha & Omega setzen. Der PWM-Controller (RT8845A) befindet sich jedoch auf der Vorderseite Die Power Stages der PCI-Express-Spannung PEXVDD und der 1,8 Volt befinden sich samt der dazugehörigen Spulen vorn auf der Frontseite. Das Kondensator-Six-Pack auf der Unterseite des BGA enthält zwei MLCC-Kombinationen und vier SP-CAPs, reicht. Zur Eingangsglättung nutzt man drei Spulen mit jeweils 1 µF hinter denen ein Shunt liegt, über dessen Spannungsabfall man mittels eines uS5650 von UPI die fließenden Ströme misst.

 

Kommentar

Lade neue Kommentare

konkretor

Veteran

297 Kommentare 300 Likes

Morgen Igor, Danke für den Test

Das Feature vWS habe ich hier mal verlinkt. Dabei handelt es sich um ein Feature in einer virtuellen Umgebungen eine Grafikkarte an mehrere Benutzer quasi in Scheiben zu schneiden. Man verteilt an die VMS Profile zum Beispiel jede VM bekommt 2 GB RAM. Die genauen Profile stehen in der zweiten PDF.
Zudem ist das Produkt Lizenz pflichtig.
Dazu müssen gerade im VMware Umfeld Enterprise Plus Lizenzen vorhanden sein.
Um das umzusetzen musst du einen speziellen Nvidia Treiber runterladen den es nur mit Account gibt. Dort trägt man einen Lizenz Server ein der das Feature freischalten. Besser gesagt die vGPU funktioniert nicht ohne den Lizenz Server. Der Lizenz Server ist ne VM mit Windows drauf auf dem ein Nvidia Lizenz Server installiert wird. Der Treiber in der VM frägt dann den Lizenz Server ab. Bekommt dann die Freischaltung.
Unter Linux brauchst auf allen VMS einen Desktop installiert um den Lizenz Server im Nvidia Treiber einzutragen. Total nervig und aus der Steinzeit. Ich wollte das ursprünglich bei mir in der Firma umsetzen. Der Aufwand ist doch extrem hoch und die Komplexität steigt extrem. Von den Lizenz Kosten die anfallen ganz zu schweigen....

Antwort 1 Like

Klicke zum Ausklappem
B
Besterino

Urgestein

6,715 Kommentare 3,316 Likes

Danke für den Test!

Auf Seite 15 scheint ein Textabschnitt von AMD noch nicht ganz angepasst zu sein:

„Betrachten wir nun die Temperaturen. Die AMD-intern als Edge-Temperatur bezeichnete “GPU-Diode” (kennen wir ja auch von NVIDIA) liegt mit den Werten bei meist 86 °C im 3D Loop. Wirklich kühl geht anders, das haben sogar leistungsstärkere Karten wie eine NVIDIA RTX Quadro A6000 mit einer TDP von 300 Watt sichtbar kühler lösen können. Die Platine ist ebenfalls reichlich heiß und die rückwärtige Backplate kühlt den auf der Rückseite verlöteten Speicher auch nur mit Ach und Krach.“

Vor allem hat die Karte doch rückseitig gar keinen Speicher, sitzt doch alles vorne?

Antwort Gefällt mir

Igor Wallossek

1

10,183 Kommentare 18,773 Likes

Diesen einen Absatz habe ich dummerweise in der Ablage gehabt, ist schon gefixt. Leider zu spät gesehen, aber danke für den Tip! :)

Antwort 1 Like

Igor Wallossek

1

10,183 Kommentare 18,773 Likes

Danke für die Ergänzung. Das kann ich hier ja leider mangels monetärer Ressourcen nicht selbst testen. Ein Kollege hat davon geschwärmt und... nun ja :D
Ich habs mal ergänzt: :D

Antwort 1 Like

Blubbie

Urgestein

808 Kommentare 275 Likes

Hallo zusammen,
Ich würde das gerne verstehen :
Igor @Igor Wallossek schrieb im test "die Karte ist nur unwesentlich mehr beschnitten als eine GeForce RTX 3080 mit 8704 CUDA Cores."

D.h. Eine einzige rtx 3080/ti oder gar 3090 ist schon besser/schneller fürs rendern und auch deutlich günstiger so lange man keine Virtualisierung braucht und nicht mehrere dieser teuren Workstation Karten zusammen schließen und dann skalieren will?

Ich bin auch sehr über den geringen Strombedarf überrascht. 230 W bei Workstation im vgl. Zu > 340 Watt im Consumer Bereich. Und da sagt man die Industrie verbraucht viel Strom... Okay die laufen/rendern wahrscheinlich auch 24h/7 tage durch.

Einen performance Vergleich beim rendern zu einer normalen Consumer 3080/3090 wäre aber echt schon interessant gewesen. 😀

Antwort Gefällt mir

D
Deridex

Urgestein

2,212 Kommentare 846 Likes

Ich frage mich noch immer, warum man sich eine Workstation Grafikkarte für Rendering (nicht Konstruktion!), Bildbearbeitung usw. kaufen sollte. Da sollte aus meiner Sicht eine Consumerkarte mit Studiotreiber mehr als ausreichend sein. Im CAD hingegen scheinen aus meiner Sicht beide Hersteller brauchbar zu sein.

Antwort 1 Like

Igor Wallossek

1

10,183 Kommentare 18,773 Likes

Fürs Rendering... naja. Ich habe hier Maya und Rhino Projekte, die knallen schon mal weit über 20 GB in den VRAM, wenn sie dürfen. Da ist mir letztens sogar die 3090 verreckt. Nur die A6000 kam noch klar. :D

Sicher, den Bot bekomme ich auf jeder Consumer-Karte gedingst.

Antwort 1 Like

p
pintie

Veteran

172 Kommentare 131 Likes

Danke für den Test. Sehr hilfreich.
wird auch noch was zur A6000 kommen ?

Antwort Gefällt mir

g
goch

Veteran

471 Kommentare 181 Likes

Bezüglich der Lizenzen oder der (virtuellen) Hardware? Ansonsten gibt es von beiden Seiten (VMware / Nvidia) entsprechende Eval-Lizenzen.

Antwort Gefällt mir

D
Deridex

Urgestein

2,212 Kommentare 846 Likes

@Igor Wallossek
Ich hoffe mit "verreckt" meinst du sehr langsam geworden und nicht abgestürzt oder defekt.

Antwort Gefällt mir

Igor Wallossek

1

10,183 Kommentare 18,773 Likes

Mit verreckt meine ich: nicht ladbar. Overflow :D

Antwort Gefällt mir

Igor Wallossek

1

10,183 Kommentare 18,773 Likes

Ja, liegt hier. :)

Antwort 1 Like

B
Besterino

Urgestein

6,715 Kommentare 3,316 Likes

Find'sch mal wieder soopa, dass Nvidia dir diese hübschen Dinger zukommen lässt!

Zum Thema Virtualisierung: was will man da schon groß testen - das funktioniert halt einfach und wenn man eine ganze GPU durchreicht quasi auf bare-metal-Niveau. Kurioserweise bisweilen sogar BESSER als Windows 10 direkt auf'm blanken Blech - offenbar ist ESXi bei der Speicher- und CPU-Verwaltung bisweilen cleverer und virtualisiert läuft besser, als wenn Windows direkt an die Hardware ran darf... (so zumindest meine Erfahrungen mal vor ca. 4-5 Jahren).

Spannend wird dann allenfalls, wie sich ein Split der GPU über mehrere VMs auswirkt - aber was will man da denn groß testen? Da hängt so viel vom konkreten Setup ab (wie erfolgt die Zuteilung der Hardware-Ressourcen - auf wie viele VMs, wie aufgeteilt, wie genau genutzt und und und) - das kann kein Mensch testen und ist eine kleine Wissenschaft für sich, also was für das jeweilige Szenario das beste Setup ist. So kann man bei Nvidia allein 3 Methoden wählen, wie die Last verteilt wird: Fixed share, best effort, equal share:

Wer sich dafür interessiert, muss sich halt damit wohl oder übel auch beschäftigen - ich empfehle zum Beispiel mal dieses Dokumentchen und dort insbesondere das entwaffnende Kapitel 4 (Deployment Best Practices) und dort 4.3 - "Understand Your Users" - wo ausdrücklich ein POC angeraten wird um das beste Setup herauszufinden. ;) Genauso auch in dem von @konkretor bereits verlinkten Dokument (dort Kapitel 7).

Davon ab @Igor Wallossek : der Link auf Seite 1 zu Nvidia vWS ist kaputt. Richtig wäre der hier. :D

Wer Lust auf sowas hat, kann das ganz kostenlos auch mit Consumer-Hardware erste Erfahrungen sammeln. Nvidia legt einem immerhin treiberseitig keine Steine mehr in den Weg und das Durchreichen einer ganzen GPU geht z.B. unter ESXi und Hyper-V inzwischen ganz gut.

Aber eins ist auch klar: das macht nur Sinn, wenn mehrere Personen mit der Hardware arbeiten und aber auch KEINE dieser Personen die Hardware 24/7 VOLL auslastet (dann macht eine dedizierte Box mehr Sinn)! Klassische Einsatzszenarien sind Teams über verschiedene Zeitzonen hinweg, also Kollege 1 arbeitet von 8-18h Ortszeit in DE, Kollege 2 auch von 8-18h Ortszeit aber in Japan - also ca. 8h versetzt. Jeder hat seine eigene VM mit eigenem Profil, Programmen usw. und muss sich nie umgewöhnen, die hardware wird aber so mal eben 16h statt nur 8h genutzt. Auch wird pro PC (=VM) selten 100% der Arbeitszeit gerendert, sondern eben nur mal ab und an - dann können u.U. eben sogar mehrere gleichzeitig die Hardware (theoretisch) nutzen, aber während der eine nur stumpf auf dem Desktop herumclickt (GPU liegt quasi brach) läuft halt beim anderen schon der Renderjob. Oder mehrere Personen lassen ihre Renderjobs über Nacht laufen und brauchen dafür nicht die volle Nacht... dann kann jeder seinen Job easy anstoßen und die Hardware rödelt dann eben über Nacht ohne großen Verwaltungsaufwand, individuelles Scheduling & Co. die Jobs durch.

Will sagen: um sowas sinnvoll einzusetzen, muss man den Bedarf (=Nutzerverhalten) genau kennen. No shoe fits all. =) Und da kann auch Igor mit generellen Aussagen/Tests (fast) keinen Mehrwert leisten.

Antwort Gefällt mir

Klicke zum Ausklappem
k
krelog

Veteran

173 Kommentare 53 Likes

hast du da ne Hausnummer was ne Lizens im Jahr kostet ( ich weis ist immer abhängig vom Vertriebspartner und den direkten Angeboten?

Zur not bewegt sich im Bereich von Creo oder Catia oder Ansys würde mir auch reichen

Antwort Gefällt mir

konkretor

Veteran

297 Kommentare 300 Likes

Ich meine das wird pro GPU lizenziert.

Also unter 500$ sind es im Jahr pro Karte.
Preise können hier stark je nach Lizenz variieren. Will hier nicht meinen Lizenzpreis offen legen.

Antwort 1 Like

k
krelog

Veteran

173 Kommentare 53 Likes

danke das reicht mir schon

Antwort 1 Like

ApolloX

Urgestein

1,662 Kommentare 926 Likes

Bin überrascht, dass die Karte so bieder aussieht. Vorne nur rein schwarz. Hatte Industrial Design da keine Zeit oder keine Lust oder habens das so bewusst gemacht? Zumindest nen Aufkleber hättens draufklatschen können.

Antwort Gefällt mir

T
Tenchi Muyo

Mitglied

18 Kommentare 2 Likes

Kann man die RTX A5000 bzw. A6000 (statt 3090) in jedem Desktop PC betreiben ?

Überlege ernsthaft für meinen AMD Threadripper 3970X - Danke!

Anwendung ist mehr Richtung:

AE, Boris FX > Sapphire, Continuum, Mocha Pro, Silhouette ,Optics und Blender (sowie die Adobe Substance Apps).

Antwort Gefällt mir

Igor Wallossek

1

10,183 Kommentare 18,773 Likes

Ja, ich zocke sogar mit der A6000 😜

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung