Grafikkarten News

NVIDIA RTX PRO 6000 entthront GeForce RTX 5090: Workstation-GPU wird zur neuen Gaming-Referenz

Es ist eine kleine Ironie der GPU-Geschichte: Ausgerechnet eine für professionelle Anwendungen gedachte Grafikkarte setzt sich an die Spitze der Gaming-Leistungscharts – und das mit einem Selbstbewusstsein, das man von einem Zehn­tausend-Dollar-Produkt auch erwarten darf. Die Rede ist von NVIDIAs neuer RTX PRO 6000, die in jüngsten Tests die GeForce RTX 5090 klar hinter sich lässt. Der eigentliche König ist damit entthront, zumindest wenn es um rohe Leistung geht. Der YouTuber Roman “der8auer” Hartung hat sich diese Karte einmal genauer angesehen.

Technisches Schwergewicht: Vollausbau des GB202-Chips

Technisch basiert die RTX PRO 6000 auf dem gleichen GB202-Chip der Blackwell-Architektur wie die RTX 5090, allerdings schöpft sie das Potenzial dieses Boliden deutlich weiter aus. Mit 24.064 CUDA-Kernen gegenüber den 21.760 der RTX 5090 bringt sie nicht nur mehr Rechenleistung auf die Waage, sondern auch mehr Raytracing- und Tensor-Rechenwerke. Ergänzt wird das Ganze von 96 GB GDDR7-Speicher – dreimal so viel wie beim Gaming-Flaggschiff – und einem satten 512-Bit-Interface. Damit ist die PRO-Variante eine Art GB202 in Vollausstattung, während die 5090 eine technisch kastrierte Version bleibt, um Segmentierung und Margenpolitik gerecht zu werden.

Mehr FPS, weniger Kompromisse: Die RTX PRO 6000 im Gaming-Einsatz

Der Leistungsvorsprung fällt je nach Benchmark und Spiel zwischen 10 und 15 Prozent aus – und das in 4K-Auflösung, wohlgemerkt. In Titeln wie Cyberpunk 2077, Star Wars Outlaws oder Remnant 2 überzeugt die Workstation-GPU mit spürbar höheren Framerates und teils überraschend guter Energieeffizienz. Zwar liegt der Stromverbrauch im Schnitt etwas über dem der RTX 5090, aber nicht in dem Maß, wie man es angesichts der Mehrleistung und Ausstattung erwarten würde. Besonders bemerkenswert ist, dass in einigen Tests die PRO 6000 trotz gleichem Verbrauch eine höhere Leistung lieferte, während sie in anderen Szenarien nur marginal mehr Energie benötigte.

Ein teurer Thron: Warum Gamer trotzdem zur RTX 5090 greifen sollten

Doch trotz dieser technischen Glanzleistung bleibt der Elefant im Raum: der Preis. Mit rund 10.000 US-Dollar ist die RTX PRO 6000 nicht nur ein Nischenprodukt, sondern ein klares Statement: Diese Karte ist nicht für Gamer gedacht – zumindest nicht offiziell. Die 96 GB VRAM sind im Spielebereich de facto überdimensioniert und werden in absehbarer Zeit kaum vollständig ausgelastet werden. Hinzu kommt, dass die Karte derzeit mit Studio-Treibern arbeitet, also ohne die für Gaming optimierten „Game-Ready“-Treiber auskommt – was ihre Performance umso bemerkenswerter macht.

Eine GPU als Statement – und Warnschuss zugleich

Unterm Strich zeigt sich hier einmal mehr, was technisch möglich ist, wenn man die Daumenschrauben der Marktsegmentierung lockert. Die RTX PRO 6000 ist eine Machtdemonstration – kein Produkt für den Massenmarkt, aber ein klares Signal an die Konkurrenz und ein Fingerzeig auf die Reserven, die NVIDIA im Portfolio hat. Wer also 4K-Gaming mit maximaler Leistung sucht und das nötige Kleingeld mitbringt, findet hier die neue Krone der GPU-Schöpfung. Für alle anderen bleibt die RTX 5090 weiterhin die wirtschaftlich sinnvolle – wenn auch nicht mehr unangefochtene – Gaming-Wahl.

Source: Youtube

 

Kommentar

Lade neue Kommentare

Karsten Rabeneck-Ketme

Moderator

152 Kommentare 60 Likes

Ja, eine tolle Karte. Aber wer würde schon so viel Geld ausgeben. Aber die Karte ist schon Krass.

Antwort Gefällt mir

B
Besterino

Urgestein

7,528 Kommentare 4,030 Likes

Naja, ob eine 5090 „wirtschaftlich sinnvoll“ ist, darüber kann man wohl auch noch trefflich streiten. Ich hab da auch noch so einen Moral-Artikel von Igor selbst vor Augen…

Antwort 8 Likes

R
RazielNoir

Urgestein

666 Kommentare 314 Likes

Interessanter wäre auch mal ein Vergleich mit der bisherigen RTX 6000 Ada mit halb soviel Speicher auf den Workstationtestparcour. Vor allem in Hinblick auf Treiberoptimierung/Zertifizierung und damit verbundener Leistung in AutoCad usw.

Antwort 2 Likes

grimm

Urgestein

3,567 Kommentare 2,614 Likes

"Warum Gamer trotzdem zur 5090 greifen sollten" - LOL

Antwort 4 Likes

P
Pokerclock

Urgestein

783 Kommentare 762 Likes

Wenn aus 10.000 $ mal eben 10.000 € gemacht werden und umgekehrt.

Die Privatkunden, die sich für eine solche Karte ernsthaft interessieren, wird man an einer Hand abzählen können.

Alle anderen zahlen keine 10.000 was-auch-immer-für eine-Währung, weil vorsteuerabzugsberechtigt. Das schließt den regelmäßig gewerblich tätigen Tech-Influenzer mit ein.

Der Clickbait regt mich als ehemaliger Steuerfuzzie mehr auf als der x-te gesponserte 5060-Test auf TikTok.

Antwort 3 Likes

R
RazielNoir

Urgestein

666 Kommentare 314 Likes

Die RTX (Quadro) Pro waren schon immer teurer als die Vergleichbaren Consumermodelle trotz theoretisch gleichem Chip.
Aber das erste Mal, das die Energielimits auf gleichem oder sogar höherem Niveau sind wie die 5090...
Und die Erste Pro-Karte die ein anderes Kühlkonzept verfolgt. Ob sich da auch bis zu 4 oder mehr Karten sinnvoll nebeneinander verbauen lassen wie in einer DELL Precision 7960 oder vergleichbaren Workstation? Das Blowerdesign mag nicht das leiseste sein, aber bezgl. Airflowkonzept in einem Rack fast alternativlos.

Antwort Gefällt mir

T
The_Invisible

Mitglied

18 Kommentare 4 Likes

Gibt doch eine blower Version davon, die Server edition, zusätzlich noch eine max q mit max 300w.

Antwort Gefällt mir

T
The_Invisible

Mitglied

18 Kommentare 4 Likes

Die Leute geben für alles mögliche Zeug Unmengen an Geld aus. Find's cool das der8auer nicht mit dem Mainstream schwimmt und "nur" eine 5090 verbaut :D

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

2,575 Kommentare 1,702 Likes

Ich hol' mir gleich mal zwei davon 😜!

Antwort 1 Like

Alter.Zocker

Urgestein

565 Kommentare 383 Likes

Naja das ist ja seit einiger Zeit bereits die vom Lederjacken-Mann ausgegebene Marschrichtung bei NV: Fokus auf Profimarkt und KI-BEschleuniger, "Geforce" (Gamerspielzeug) ist nur noch das 5. Rad am Wagen. Dass es da irgendwann auch mal bei der Gaming-Performance zu ersten "Überholvorgängen" durch solche Profimonster kommen würde, ist für mich wenig überraschend.

Am Profimarkt leben aber auch die älteren Chip-Generationen deutlich länger, weil hier das Anwendungsspektrum deutlich breiter gefächert ist, die Anforderungen durch Updates von Tools und Workload nicht so schnell steigen, wie am sehr hype-lastigen "Gamer-Markt". Und nicht jeder kann für seine Arbeit mit 3D-CAD, FEM-Simulationen o.ä. die brachiale Rechenpower einer Geforce 4090/5090-äqivalenten Karte sinnvoll und wirtschaftlich(!) nutzen, dazu "steuert" hier NV sehr viel "gezielter" mit ihren an die jew. Toolumgebung angepassten Treibern, was mit welchen Tool-Generationen und welcher HArdwaregeneration wann machbar ist. Dass führt im Profibereich zu deutlich länger "überlebenden" Hardwaregeneration, die bei den Gamern schon nach zwei-drei JAhren "outdated" sind und ersetzt werden. Und das lässt sich NV auch ganz unbescheiden bezahlen...dominante Monopolstellung seit Jahrzehnten halt, hier hinkt die "Alternative" AMD gefühlt noch viel weiter hinterher, als im Consumer-/Gaming-Markt...

Antwort Gefällt mir

Klicke zum Ausklappem
B
Besterino

Urgestein

7,528 Kommentare 4,030 Likes

Sehe ich etwas anders. Schon länger ist der AI-Markt quasi hype-lastiger als der Gamer-Markt, und vor allem wird dort noch jedem Performance-Fitzel hinterhergejagt, wohingegen beim Gaming ja schon länger die Performance für 4K reicht - bzw. je nach Ziel-FPS/Hz zumindest reichen kann. Wenn ich mich richtig erinnere, wurde doch schon die 1080Ti als "endlich 4K" angepriesen.

Was technologische Weiterentwicklung für Gaming angeht, habe ich über die letzten Jahrzehnte im Prinzip nur Physik-Beschleunigung und zuletzt Raytracing wahrgenommen. Ersteres ist inzwischen völliger Standard (wobei mit der 5090 für 16Bit PhysX ein gewisser Rückschritt... ;)), letzteres zwar auch weiter verbreitet aber Mehrwert überschaubar. Von Fotorealismus in Echtzeit sind wir immernoch ein gutes Stück entfernt. Dagegen steckt in den AI-Komponenten einiges an Entwicklung drin und man steht eben auch noch relativ am Anfang.

Insofern ist nun halt der AI Zirkus inzwischen der Innovationstreiber und die Zeichen haben sich umgekehrt: wo früher "3D-Beschleuniger" zufällig prima für Machine-Learning zu gebrauchen waren, kann man inzwischen mit AI-Beschleunigern halt zufällig auch prima Pixel schubsen. ;) Wer weiß schon, was die Zukunft bringt? Vielleicht kann man ja irgendwann dann auch mit so'nem AI-Ding aus China >400FPS@4K auf den Bildschirm brennen und braucht die alten Platzhirsche nicht mehr...

Antwort Gefällt mir

Klicke zum Ausklappem
R
RazielNoir

Urgestein

666 Kommentare 314 Likes

Die sogenannte A.I.-Geschichte hat jetzt schon ein vorläufiges Enddatum. Sei es, weil die Trainingsgrundlagen leerlaufen, sei es weil der Technologische und Energiemäßige Aufwand die Mehrleistung nicht mehr rechtfertigen...
Dann bekommt der Hype einen Absturz, es bleibt nur zu hoffen, das die finanziellen Verschiebungen und Berichtigungen nicht ähnlich dramatisch wie bei der Dotcom-Blase werden.

Die aktuellen Firmen(aktien)werte resultieren ja effektiv aus der Hoffnung, das die Technologiepatente langfristig hohe Gewinne und Dividende abwerfen. Bei Tesla kommt es vielleicht jetzt aus dem gleichen Grund zum Einsturz. Befeuert vom Verhalten seines CEO.

Aber sollte es mal eine wirkliche A.I. geben, glaube ich an eine weit tiefgreifendere Umwälzung

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,103 Kommentare 501 Likes

Die gleichen Leute, welche eine 4090/5090 gekauft haben, da € pro Frame offensichtlich nicht interessiert und zu viel Geld rumliegt.

Antwort 1 Like

FfFCMAD

Urgestein

927 Kommentare 338 Likes

Der Chip ist schon seit Ewigkeiten nicht mehr "gleich". Auch nicht theoretisch. Selbst bei der uralten Geforce 4 verhilft dir ein Software-Hack nur zu einer gewissen Kompatibilität zu Quadro Treibern, aber nicht zu allen Features/ allen Performance-Vorteilen der Quadro Variante (Anti Aliased Lines usw.) Die korrekte PCI-ID/ BIOS usw. helfen nicht, wenn der Chip die Quadro-Features nicht implementiert hat.

Die Chips basieren aufeinander, dennoch hat Nvidia seit der Geforce 256 dazu gelernt und für die Quadro eigene Varianten der GPUs verwendet.

Antwort Gefällt mir

R
RazielNoir

Urgestein

666 Kommentare 314 Likes

Da hast du recht. Ich bezog das auch mehr auf das Grundgerüst in Form von CUDA-Kernen, Tensor und RT-Kernen. Zumindest ließe sich da wie schon im Artikel eine gewisse theoretische Raster-Rohleistung ablesen. Wie Igor hier schonmal im Test z. Bsp. zur RTX (A)6000 im Vergleich zur jeweiligen Gamingkarte beschrieben hatte, das die hinterlegten Powerlimits niedriger ausfallen und die Karten näher am Sweetspot zwischen Leistungsaufnahme und Rasterleistung betrieben werden als Ihr Gaming-Pendant. Die Zielgruppe ist nun mal eine wesentlich andere. Und kaum jemand, außer Igor spielt wahrscheinlich auf so einer Karte ernsthaft AAA-Games.... ;)

Antwort Gefällt mir

S
S.nase

Urgestein

1,994 Kommentare 691 Likes

Das Erste was bei 8auer's Video auffällt:

View image at the forums

Warum ist die 12V VersorgungsSpannung am StromversorgungsStecker UND PCIslot so niedrig? Obwohl sein fettes SeasonicPX2200 eigendlich nicht unter 11.9V fällt.

Da praktisch kein SpannungsDelta zwischen PCIslot und 16Pin-Power Anschluss vorhanden ist, kann der VoltageDrop ja nicht am Stromversorgungskabel/Stecker liegen.

Ich tippe mal auf schlechten Massekontakt zwischen PCIslot und NT, verursacht durch den minimalistischen BenchTable Testaufbau. Da muss man sich nicht wundern, das die Spulen auf der Grafikkarte ein Pfeifkonzert spielen. Die 0.3V VoltageDrop zwischen NT und PCIslot Masse ergeben bei 600W(50A) immerhin 15W MasseKontaktverluste. Ein sinnvoller Benchmark Test kann mit so viel VoltageDrop nicht zu stande kommen.

Antwort Gefällt mir

8j0ern

Urgestein

3,745 Kommentare 1,199 Likes

Not bad, hat Nvidia auch das "PRO" im Label entdeckt. ;)

Benchmarks sind meisten Ressourcen sparend bei der Hardware Auslastung, es soll ja noch Spielraum für OC bleiben.

Mein Benchmark ist der Power Test von OCCT mit AVX512 Full System Load. Immerhin über 11.900Volt mit 1000W Netzteil bei 75,4% Auslastung. :)

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,103 Kommentare 501 Likes

Phasenverschiebung und Messungenauigkeit?

Antwort Gefällt mir

mgutt

Mitglied

20 Kommentare 8 Likes

Er hat im Video gesagt, dass er die Karte im Pro Shop gekauft hat. Daraus schließe ich, dass er quasi keinen Rabatt erhalten hat. Bei seinem kleinen Jahresumsatz und fehlendem Nvidia Sponsoring wäre es jedenfalls nicht verwunderlich. Zumindest kenne ich kein Unternehmen mit höheren IT Umsätzen, das in irgendeinem Onlineshop kauft.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung