GPUs Graphics Pro Reviews Workstations

NVIDIA RTX A5000 Review – How good is the successor of the Quadro RTX 5000?

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

Drivers used

I tested the two Quadro cards with the production branch driver R 470 (U3) i.e. the 471.68 , the Radeon Pro with the 21.Q2.

Benchmarks, Test system and evaluation software

The benchmark system relies on PCIe 4.0, matching X570 motherboards in the form of the MSI MEG X570 Godlike and a select Ryzen 9 5900X, which of course was not overclocked in this case. Add to that 32GB of matching DDR4 3600 from Corsair, as well as several fast NVMe SSDs. For direct logging during all games and applications, I use my own measurement station with shunts and riser card, as well as NVIDIA’s PCAT in the applications, which increases the convenience immensely.

The measurement of the detailed power consumption and other, more profound things takes place here in the special laboratory on a redundant and in detail identical test system then double-tracked by means of high-resolution oscillograph technology…

…and the self-created MCU-based measurement setup for motherboards and graphics cards (pictures below), where at the end in the air-conditioned room also the thermographic infrared images are created with a high-resolution industrial camera. The audio measurements are done outside in my Chamber (room within a room).

I have also summarized the individual components of the test system in a table:

Test System and Equipment
Hardware:
AMD Ryzen 9 5900X
MSI MEG X570 Godlike
4x 8 GB Corsair DDR4 3600 Dominator
1x 2 TByte Aorus (NVMe System SSD, PCIe Gen. 4)
1x2 TB Corsair MP400 (Data)
1x Seagate FastSSD Portable USB-C
Be Quiet! Dark Power Pro 12 1200 Watt
Cooling:
Alphacool Ice Block XPX Pro
Alphacool Ice Wolf (modified)
Thermal Grizzly Kryonaut
Case:
Raijintek Paean
Monitor: BenQ PD3220U
Power Consumption:
Oscilloscope-based system:
Non-contact direct current measurement on PCIe slot (riser card)
Non-contact direct current measurement at the external PCIe power supply
Direct voltage measurement at the respective connectors and at the power supply unit
2x Rohde & Schwarz HMO 3054, 500 MHz multichannel oscilloscope with memory function
4x Rohde & Schwarz HZO50, current clamp adapter (1 mA to 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, probe (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, HiRes digital multimeter with memory function

MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)

NVIDIA PCAT and Fr

Thermal Imager:
1x Optris PI640 + 2x Xi400 Thermal Imagers
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
Acoustics:
NTI Audio M2211 (with calibration file)
Steinberg UR12 (with phantom power for the microphones)
Creative X7, Smaart v.7
Own anechoic chamber, 3.5 x 1.8 x 2.2 m (LxTxH)
Axial measurements, perpendicular to the centre of the sound source(s), measuring distance 50 cm
Noise emission in dBA (slow) as RTA measurement
Frequency spectrum as graphic
OS: Windows 10 Pro (all updates, current drivers, see above)

 

Kommentar

Lade neue Kommentare

konkretor

Veteran

296 Kommentare 300 Likes

Morgen Igor, Danke für den Test

Das Feature vWS habe ich hier mal verlinkt. Dabei handelt es sich um ein Feature in einer virtuellen Umgebungen eine Grafikkarte an mehrere Benutzer quasi in Scheiben zu schneiden. Man verteilt an die VMS Profile zum Beispiel jede VM bekommt 2 GB RAM. Die genauen Profile stehen in der zweiten PDF.
Zudem ist das Produkt Lizenz pflichtig.
Dazu müssen gerade im VMware Umfeld Enterprise Plus Lizenzen vorhanden sein.
Um das umzusetzen musst du einen speziellen Nvidia Treiber runterladen den es nur mit Account gibt. Dort trägt man einen Lizenz Server ein der das Feature freischalten. Besser gesagt die vGPU funktioniert nicht ohne den Lizenz Server. Der Lizenz Server ist ne VM mit Windows drauf auf dem ein Nvidia Lizenz Server installiert wird. Der Treiber in der VM frägt dann den Lizenz Server ab. Bekommt dann die Freischaltung.
Unter Linux brauchst auf allen VMS einen Desktop installiert um den Lizenz Server im Nvidia Treiber einzutragen. Total nervig und aus der Steinzeit. Ich wollte das ursprünglich bei mir in der Firma umsetzen. Der Aufwand ist doch extrem hoch und die Komplexität steigt extrem. Von den Lizenz Kosten die anfallen ganz zu schweigen....

Antwort 1 Like

Klicke zum Ausklappem
B
Besterino

Urgestein

6,707 Kommentare 3,305 Likes

Danke für den Test!

Auf Seite 15 scheint ein Textabschnitt von AMD noch nicht ganz angepasst zu sein:

„Betrachten wir nun die Temperaturen. Die AMD-intern als Edge-Temperatur bezeichnete “GPU-Diode” (kennen wir ja auch von NVIDIA) liegt mit den Werten bei meist 86 °C im 3D Loop. Wirklich kühl geht anders, das haben sogar leistungsstärkere Karten wie eine NVIDIA RTX Quadro A6000 mit einer TDP von 300 Watt sichtbar kühler lösen können. Die Platine ist ebenfalls reichlich heiß und die rückwärtige Backplate kühlt den auf der Rückseite verlöteten Speicher auch nur mit Ach und Krach.“

Vor allem hat die Karte doch rückseitig gar keinen Speicher, sitzt doch alles vorne?

Antwort Gefällt mir

Igor Wallossek

1

10,173 Kommentare 18,757 Likes

Diesen einen Absatz habe ich dummerweise in der Ablage gehabt, ist schon gefixt. Leider zu spät gesehen, aber danke für den Tip! :)

Antwort 1 Like

Igor Wallossek

1

10,173 Kommentare 18,757 Likes

Danke für die Ergänzung. Das kann ich hier ja leider mangels monetärer Ressourcen nicht selbst testen. Ein Kollege hat davon geschwärmt und... nun ja :D
Ich habs mal ergänzt: :D

Antwort 1 Like

Blubbie

Urgestein

808 Kommentare 275 Likes

Hallo zusammen,
Ich würde das gerne verstehen :
Igor @Igor Wallossek schrieb im test "die Karte ist nur unwesentlich mehr beschnitten als eine GeForce RTX 3080 mit 8704 CUDA Cores."

D.h. Eine einzige rtx 3080/ti oder gar 3090 ist schon besser/schneller fürs rendern und auch deutlich günstiger so lange man keine Virtualisierung braucht und nicht mehrere dieser teuren Workstation Karten zusammen schließen und dann skalieren will?

Ich bin auch sehr über den geringen Strombedarf überrascht. 230 W bei Workstation im vgl. Zu > 340 Watt im Consumer Bereich. Und da sagt man die Industrie verbraucht viel Strom... Okay die laufen/rendern wahrscheinlich auch 24h/7 tage durch.

Einen performance Vergleich beim rendern zu einer normalen Consumer 3080/3090 wäre aber echt schon interessant gewesen. 😀

Antwort Gefällt mir

D
Deridex

Urgestein

2,212 Kommentare 846 Likes

Ich frage mich noch immer, warum man sich eine Workstation Grafikkarte für Rendering (nicht Konstruktion!), Bildbearbeitung usw. kaufen sollte. Da sollte aus meiner Sicht eine Consumerkarte mit Studiotreiber mehr als ausreichend sein. Im CAD hingegen scheinen aus meiner Sicht beide Hersteller brauchbar zu sein.

Antwort 1 Like

Igor Wallossek

1

10,173 Kommentare 18,757 Likes

Fürs Rendering... naja. Ich habe hier Maya und Rhino Projekte, die knallen schon mal weit über 20 GB in den VRAM, wenn sie dürfen. Da ist mir letztens sogar die 3090 verreckt. Nur die A6000 kam noch klar. :D

Sicher, den Bot bekomme ich auf jeder Consumer-Karte gedingst.

Antwort 1 Like

p
pintie

Veteran

172 Kommentare 131 Likes

Danke für den Test. Sehr hilfreich.
wird auch noch was zur A6000 kommen ?

Antwort Gefällt mir

g
goch

Veteran

470 Kommentare 180 Likes

Bezüglich der Lizenzen oder der (virtuellen) Hardware? Ansonsten gibt es von beiden Seiten (VMware / Nvidia) entsprechende Eval-Lizenzen.

Antwort Gefällt mir

D
Deridex

Urgestein

2,212 Kommentare 846 Likes

@Igor Wallossek
Ich hoffe mit "verreckt" meinst du sehr langsam geworden und nicht abgestürzt oder defekt.

Antwort Gefällt mir

Igor Wallossek

1

10,173 Kommentare 18,757 Likes

Mit verreckt meine ich: nicht ladbar. Overflow :D

Antwort Gefällt mir

Igor Wallossek

1

10,173 Kommentare 18,757 Likes

Ja, liegt hier. :)

Antwort 1 Like

B
Besterino

Urgestein

6,707 Kommentare 3,305 Likes

Find'sch mal wieder soopa, dass Nvidia dir diese hübschen Dinger zukommen lässt!

Zum Thema Virtualisierung: was will man da schon groß testen - das funktioniert halt einfach und wenn man eine ganze GPU durchreicht quasi auf bare-metal-Niveau. Kurioserweise bisweilen sogar BESSER als Windows 10 direkt auf'm blanken Blech - offenbar ist ESXi bei der Speicher- und CPU-Verwaltung bisweilen cleverer und virtualisiert läuft besser, als wenn Windows direkt an die Hardware ran darf... (so zumindest meine Erfahrungen mal vor ca. 4-5 Jahren).

Spannend wird dann allenfalls, wie sich ein Split der GPU über mehrere VMs auswirkt - aber was will man da denn groß testen? Da hängt so viel vom konkreten Setup ab (wie erfolgt die Zuteilung der Hardware-Ressourcen - auf wie viele VMs, wie aufgeteilt, wie genau genutzt und und und) - das kann kein Mensch testen und ist eine kleine Wissenschaft für sich, also was für das jeweilige Szenario das beste Setup ist. So kann man bei Nvidia allein 3 Methoden wählen, wie die Last verteilt wird: Fixed share, best effort, equal share:

Wer sich dafür interessiert, muss sich halt damit wohl oder übel auch beschäftigen - ich empfehle zum Beispiel mal dieses Dokumentchen und dort insbesondere das entwaffnende Kapitel 4 (Deployment Best Practices) und dort 4.3 - "Understand Your Users" - wo ausdrücklich ein POC angeraten wird um das beste Setup herauszufinden. ;) Genauso auch in dem von @konkretor bereits verlinkten Dokument (dort Kapitel 7).

Davon ab @Igor Wallossek : der Link auf Seite 1 zu Nvidia vWS ist kaputt. Richtig wäre der hier. :D

Wer Lust auf sowas hat, kann das ganz kostenlos auch mit Consumer-Hardware erste Erfahrungen sammeln. Nvidia legt einem immerhin treiberseitig keine Steine mehr in den Weg und das Durchreichen einer ganzen GPU geht z.B. unter ESXi und Hyper-V inzwischen ganz gut.

Aber eins ist auch klar: das macht nur Sinn, wenn mehrere Personen mit der Hardware arbeiten und aber auch KEINE dieser Personen die Hardware 24/7 VOLL auslastet (dann macht eine dedizierte Box mehr Sinn)! Klassische Einsatzszenarien sind Teams über verschiedene Zeitzonen hinweg, also Kollege 1 arbeitet von 8-18h Ortszeit in DE, Kollege 2 auch von 8-18h Ortszeit aber in Japan - also ca. 8h versetzt. Jeder hat seine eigene VM mit eigenem Profil, Programmen usw. und muss sich nie umgewöhnen, die hardware wird aber so mal eben 16h statt nur 8h genutzt. Auch wird pro PC (=VM) selten 100% der Arbeitszeit gerendert, sondern eben nur mal ab und an - dann können u.U. eben sogar mehrere gleichzeitig die Hardware (theoretisch) nutzen, aber während der eine nur stumpf auf dem Desktop herumclickt (GPU liegt quasi brach) läuft halt beim anderen schon der Renderjob. Oder mehrere Personen lassen ihre Renderjobs über Nacht laufen und brauchen dafür nicht die volle Nacht... dann kann jeder seinen Job easy anstoßen und die Hardware rödelt dann eben über Nacht ohne großen Verwaltungsaufwand, individuelles Scheduling & Co. die Jobs durch.

Will sagen: um sowas sinnvoll einzusetzen, muss man den Bedarf (=Nutzerverhalten) genau kennen. No shoe fits all. =) Und da kann auch Igor mit generellen Aussagen/Tests (fast) keinen Mehrwert leisten.

Antwort Gefällt mir

Klicke zum Ausklappem
k
krelog

Veteran

173 Kommentare 53 Likes

hast du da ne Hausnummer was ne Lizens im Jahr kostet ( ich weis ist immer abhängig vom Vertriebspartner und den direkten Angeboten?

Zur not bewegt sich im Bereich von Creo oder Catia oder Ansys würde mir auch reichen

Antwort Gefällt mir

konkretor

Veteran

296 Kommentare 300 Likes

Ich meine das wird pro GPU lizenziert.

Also unter 500$ sind es im Jahr pro Karte.
Preise können hier stark je nach Lizenz variieren. Will hier nicht meinen Lizenzpreis offen legen.

Antwort 1 Like

k
krelog

Veteran

173 Kommentare 53 Likes

danke das reicht mir schon

Antwort 1 Like

ApolloX

Urgestein

1,660 Kommentare 925 Likes

Bin überrascht, dass die Karte so bieder aussieht. Vorne nur rein schwarz. Hatte Industrial Design da keine Zeit oder keine Lust oder habens das so bewusst gemacht? Zumindest nen Aufkleber hättens draufklatschen können.

Antwort Gefällt mir

T
Tenchi Muyo

Mitglied

18 Kommentare 2 Likes

Kann man die RTX A5000 bzw. A6000 (statt 3090) in jedem Desktop PC betreiben ?

Überlege ernsthaft für meinen AMD Threadripper 3970X - Danke!

Anwendung ist mehr Richtung:

AE, Boris FX > Sapphire, Continuum, Mocha Pro, Silhouette ,Optics und Blender (sowie die Adobe Substance Apps).

Antwort Gefällt mir

Igor Wallossek

1

10,173 Kommentare 18,757 Likes

Ja, ich zocke sogar mit der A6000 😜

Antwort 2 Likes

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung