GPUs Graphics Pro Reviews Workstations

NVIDIA RTX A5000 Review – How good is the successor of the Quadro RTX 5000?

Disclaimer: The following article is machine translated from the original German, and has not been edited or checked for errors. Thank you for understanding!

Let’s start with the individual loads and the resulting power consumption in each case. The approx. 12 watts in idle are okay, after all, the fan is also running permanently. The rest is in the gradation as before. With about 230 watts, the card isn’t a costly one, but it’s still within the bounds of what’s bearable and, on balance, more efficient than the new Radeon Pro W6800. This is remarkable in that the Radeons are considered more efficient than most GeForce equivalents in this performance class.

A maximum power limit of 230 watts is stored in the BIOS, which is de facto never exceeded.

Standard compliance at the motherboard slot (PEG)

Now let’s look at the load of the motherboard slot, which is specified by the PCI SIG with 5.5 Amps. This results in a maximum power of 66 watts at 12 volts. You can see very clearly that under normal load exactly 5.4 to 5.5 amps are reached, which is exactly on the maximum limit of what is allowed and does not allow any further leeway. But the balancing here is really optimized to keep the 8-pin connector at least close to the norm.

Power supply load in detail

Before we deal with the load peaks and the power supply recommendation in the next chapter, I have recorded two minutes higher resolution for you, whereby here the interval is at the magic 20 ms, which is already interesting for power supplies (shutdown). The following graphics include a complex CAD 3D loop (Maya 2021) and the Torture Test (Furmark, OpenGL).

 

 

 

Lade neue Kommentare

konkretor

Veteran

218 Kommentare 173 Likes

Morgen Igor, Danke für den Test

Das Feature vWS habe ich hier mal verlinkt. Dabei handelt es sich um ein Feature in einer virtuellen Umgebungen eine Grafikkarte an mehrere Benutzer quasi in Scheiben zu schneiden. Man verteilt an die VMS Profile zum Beispiel jede VM bekommt 2 GB RAM. Die genauen Profile stehen in der zweiten PDF.
Zudem ist das Produkt Lizenz pflichtig.
Dazu müssen gerade im VMware Umfeld Enterprise Plus Lizenzen vorhanden sein.
Um das umzusetzen musst du einen speziellen Nvidia Treiber runterladen den es nur mit Account gibt. Dort trägt man einen Lizenz Server ein der das Feature freischalten. Besser gesagt die vGPU funktioniert nicht ohne den Lizenz Server. Der Lizenz Server ist ne VM mit Windows drauf auf dem ein Nvidia Lizenz Server installiert wird. Der Treiber in der VM frägt dann den Lizenz Server ab. Bekommt dann die Freischaltung.
Unter Linux brauchst auf allen VMS einen Desktop installiert um den Lizenz Server im Nvidia Treiber einzutragen. Total nervig und aus der Steinzeit. Ich wollte das ursprünglich bei mir in der Firma umsetzen. Der Aufwand ist doch extrem hoch und die Komplexität steigt extrem. Von den Lizenz Kosten die anfallen ganz zu schweigen....

Antwort 1 Like

Klicke zum Ausklappem
B
Besterino

Urgestein

5,918 Kommentare 2,681 Likes

Danke für den Test!

Auf Seite 15 scheint ein Textabschnitt von AMD noch nicht ganz angepasst zu sein:

„Betrachten wir nun die Temperaturen. Die AMD-intern als Edge-Temperatur bezeichnete “GPU-Diode” (kennen wir ja auch von NVIDIA) liegt mit den Werten bei meist 86 °C im 3D Loop. Wirklich kühl geht anders, das haben sogar leistungsstärkere Karten wie eine NVIDIA RTX Quadro A6000 mit einer TDP von 300 Watt sichtbar kühler lösen können. Die Platine ist ebenfalls reichlich heiß und die rückwärtige Backplate kühlt den auf der Rückseite verlöteten Speicher auch nur mit Ach und Krach.“

Vor allem hat die Karte doch rückseitig gar keinen Speicher, sitzt doch alles vorne?

Antwort Gefällt mir

Klicke zum Ausklappem
Igor Wallossek

Format©

6,984 Kommentare 11,431 Likes

Diesen einen Absatz habe ich dummerweise in der Ablage gehabt, ist schon gefixt. Leider zu spät gesehen, aber danke für den Tip! :)

Antwort 1 Like

Igor Wallossek

Format©

6,984 Kommentare 11,431 Likes

Danke für die Ergänzung. Das kann ich hier ja leider mangels monetärer Ressourcen nicht selbst testen. Ein Kollege hat davon geschwärmt und... nun ja :D
Ich habs mal ergänzt: :D

Antwort 1 Like

Blubbie

Urgestein

777 Kommentare 257 Likes

Hallo zusammen,
Ich würde das gerne verstehen :
Igor @Igor Wallossek schrieb im test "die Karte ist nur unwesentlich mehr beschnitten als eine GeForce RTX 3080 mit 8704 CUDA Cores."

D.h. Eine einzige rtx 3080/ti oder gar 3090 ist schon besser/schneller fürs rendern und auch deutlich günstiger so lange man keine Virtualisierung braucht und nicht mehrere dieser teuren Workstation Karten zusammen schließen und dann skalieren will?

Ich bin auch sehr über den geringen Strombedarf überrascht. 230 W bei Workstation im vgl. Zu > 340 Watt im Consumer Bereich. Und da sagt man die Industrie verbraucht viel Strom... Okay die laufen/rendern wahrscheinlich auch 24h/7 tage durch.

Einen performance Vergleich beim rendern zu einer normalen Consumer 3080/3090 wäre aber echt schon interessant gewesen. 😀

Antwort Gefällt mir

Klicke zum Ausklappem
D
Deridex

Urgestein

1,859 Kommentare 616 Likes

Ich frage mich noch immer, warum man sich eine Workstation Grafikkarte für Rendering (nicht Konstruktion!), Bildbearbeitung usw. kaufen sollte. Da sollte aus meiner Sicht eine Consumerkarte mit Studiotreiber mehr als ausreichend sein. Im CAD hingegen scheinen aus meiner Sicht beide Hersteller brauchbar zu sein.

Antwort 1 Like

Igor Wallossek

Format©

6,984 Kommentare 11,431 Likes

Fürs Rendering... naja. Ich habe hier Maya und Rhino Projekte, die knallen schon mal weit über 20 GB in den VRAM, wenn sie dürfen. Da ist mir letztens sogar die 3090 verreckt. Nur die A6000 kam noch klar. :D

Sicher, den Bot bekomme ich auf jeder Consumer-Karte gedingst.

Antwort 1 Like

p
pintie

Mitglied

85 Kommentare 52 Likes

Danke für den Test. Sehr hilfreich.
wird auch noch was zur A6000 kommen ?

Antwort Gefällt mir

g
goch

Veteran

405 Kommentare 140 Likes

Bezüglich der Lizenzen oder der (virtuellen) Hardware? Ansonsten gibt es von beiden Seiten (VMware / Nvidia) entsprechende Eval-Lizenzen.

Antwort Gefällt mir

D
Deridex

Urgestein

1,859 Kommentare 616 Likes

@Igor Wallossek
Ich hoffe mit "verreckt" meinst du sehr langsam geworden und nicht abgestürzt oder defekt.

Antwort Gefällt mir

Igor Wallossek

Format©

6,984 Kommentare 11,431 Likes

Mit verreckt meine ich: nicht ladbar. Overflow :D

Antwort Gefällt mir

Igor Wallossek

Format©

6,984 Kommentare 11,431 Likes

Ja, liegt hier. :)

Antwort 1 Like

B
Besterino

Urgestein

5,918 Kommentare 2,681 Likes

Find'sch mal wieder soopa, dass Nvidia dir diese hübschen Dinger zukommen lässt!

Zum Thema Virtualisierung: was will man da schon groß testen - das funktioniert halt einfach und wenn man eine ganze GPU durchreicht quasi auf bare-metal-Niveau. Kurioserweise bisweilen sogar BESSER als Windows 10 direkt auf'm blanken Blech - offenbar ist ESXi bei der Speicher- und CPU-Verwaltung bisweilen cleverer und virtualisiert läuft besser, als wenn Windows direkt an die Hardware ran darf... (so zumindest meine Erfahrungen mal vor ca. 4-5 Jahren).

Spannend wird dann allenfalls, wie sich ein Split der GPU über mehrere VMs auswirkt - aber was will man da denn groß testen? Da hängt so viel vom konkreten Setup ab (wie erfolgt die Zuteilung der Hardware-Ressourcen - auf wie viele VMs, wie aufgeteilt, wie genau genutzt und und und) - das kann kein Mensch testen und ist eine kleine Wissenschaft für sich, also was für das jeweilige Szenario das beste Setup ist. So kann man bei Nvidia allein 3 Methoden wählen, wie die Last verteilt wird: Fixed share, best effort, equal share:

Wer sich dafür interessiert, muss sich halt damit wohl oder übel auch beschäftigen - ich empfehle zum Beispiel mal dieses Dokumentchen und dort insbesondere das entwaffnende Kapitel 4 (Deployment Best Practices) und dort 4.3 - "Understand Your Users" - wo ausdrücklich ein POC angeraten wird um das beste Setup herauszufinden. ;) Genauso auch in dem von @konkretor bereits verlinkten Dokument (dort Kapitel 7).

Davon ab @Igor Wallossek : der Link auf Seite 1 zu Nvidia vWS ist kaputt. Richtig wäre der hier. :D

Wer Lust auf sowas hat, kann das ganz kostenlos auch mit Consumer-Hardware erste Erfahrungen sammeln. Nvidia legt einem immerhin treiberseitig keine Steine mehr in den Weg und das Durchreichen einer ganzen GPU geht z.B. unter ESXi und Hyper-V inzwischen ganz gut.

Aber eins ist auch klar: das macht nur Sinn, wenn mehrere Personen mit der Hardware arbeiten und aber auch KEINE dieser Personen die Hardware 24/7 VOLL auslastet (dann macht eine dedizierte Box mehr Sinn)! Klassische Einsatzszenarien sind Teams über verschiedene Zeitzonen hinweg, also Kollege 1 arbeitet von 8-18h Ortszeit in DE, Kollege 2 auch von 8-18h Ortszeit aber in Japan - also ca. 8h versetzt. Jeder hat seine eigene VM mit eigenem Profil, Programmen usw. und muss sich nie umgewöhnen, die hardware wird aber so mal eben 16h statt nur 8h genutzt. Auch wird pro PC (=VM) selten 100% der Arbeitszeit gerendert, sondern eben nur mal ab und an - dann können u.U. eben sogar mehrere gleichzeitig die Hardware (theoretisch) nutzen, aber während der eine nur stumpf auf dem Desktop herumclickt (GPU liegt quasi brach) läuft halt beim anderen schon der Renderjob. Oder mehrere Personen lassen ihre Renderjobs über Nacht laufen und brauchen dafür nicht die volle Nacht... dann kann jeder seinen Job easy anstoßen und die Hardware rödelt dann eben über Nacht ohne großen Verwaltungsaufwand, individuelles Scheduling & Co. die Jobs durch.

Will sagen: um sowas sinnvoll einzusetzen, muss man den Bedarf (=Nutzerverhalten) genau kennen. No shoe fits all. =) Und da kann auch Igor mit generellen Aussagen/Tests (fast) keinen Mehrwert leisten.

Antwort Gefällt mir

Klicke zum Ausklappem
k
krelog

Veteran

107 Kommentare 24 Likes

hast du da ne Hausnummer was ne Lizens im Jahr kostet ( ich weis ist immer abhängig vom Vertriebspartner und den direkten Angeboten?

Zur not bewegt sich im Bereich von Creo oder Catia oder Ansys würde mir auch reichen

Antwort Gefällt mir

konkretor

Veteran

218 Kommentare 173 Likes

Ich meine das wird pro GPU lizenziert.

Also unter 500$ sind es im Jahr pro Karte.
Preise können hier stark je nach Lizenz variieren. Will hier nicht meinen Lizenzpreis offen legen.

Antwort 1 Like

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Advertising

Advertising