GPUs Latest news

NVIDIA RTX PRO 6000 dethrones GeForce RTX 5090: Workstation GPU becomes the new gaming reference

It’s a small irony in GPU history: of all things, a graphics card designed for professional applications is at the top of the gaming performance charts – and with the kind of self-confidence you would expect from a ten-thousand-dollar product. We are talking about NVIDIA’s new RTX PRO 6000, which clearly outperforms the GeForce RTX 5090 in the latest tests. The real king is thus dethroned, at least when it comes to raw performance. YouTuber Roman “der8auer” Hartung took a closer look at this card.

Technical heavyweight: full expansion of the GB202 chip

In technical terms, the RTX PRO 6000 is based on the same GB202 chip from the Blackwell architecture as the RTX 5090, but it exploits the potential of this powerhouse much further. With 24,064 CUDA cores compared to the 21,760 of the RTX 5090, it not only has more computing power, but also more ray tracing and tensor computing units. This is complemented by 96 GB of GDDR7 memory – three times as much as the gaming flagship – and a whopping 512-bit interface. This makes the PRO version a kind of fully equipped GB202, while the 5090 remains a technically neutered version in order to satisfy segmentation and margin policy.

More FPS, fewer compromises: The RTX PRO 6000 in gaming use

Depending on the benchmark and game, the performance advantage is between 10 and 15 percent – in 4K resolution, mind you. In titles such as Cyberpunk 2077, Star Wars Outlaws or Remnant 2, the workstation GPU impresses with noticeably higher frame rates and sometimes surprisingly good energy efficiency. Although the average power consumption is slightly higher than that of the RTX 5090, it is not as high as you would expect given the increased performance and features. It is particularly noteworthy that in some tests the PRO 6000 delivered a higher performance despite the same consumption, while in other scenarios it only required marginally more energy.

An expensive throne: Why gamers should still go for the RTX 5090

But despite this technical feat, the elephant in the room remains: the price. At around 10,000 US dollars, the RTX PRO 6000 is not just a niche product, but a clear statement: this card is not intended for gamers – at least not officially. The 96 GB VRAM is de facto oversized in the gaming sector and will hardly be fully utilized in the foreseeable future. In addition, the card currently works with studio drivers, i.e. without the “game-ready” drivers optimized for gaming – which makes its performance all the more remarkable.

A GPU as a statement – and a warning shot at the same time

The bottom line is that this once again shows what is technically possible when the thumbscrews of market segmentation are loosened. The RTX PRO 6000 is a demonstration of power – not a product for the mass market, but a clear signal to the competition and a pointer to the reserves that NVIDIA has in its portfolio. So if you’re looking for 4K gaming with maximum performance and have the necessary funds, you’ll find the new crown of GPU creation here. For everyone else, the RTX 5090 remains the economically sensible – albeit no longer undisputed – gaming choice.

Source: Youtube

 

Kommentar

Lade neue Kommentare

Karsten Rabeneck-Ketme

Moderator

147 Kommentare 60 Likes

Ja, eine tolle Karte. Aber wer würde schon so viel Geld ausgeben. Aber die Karte ist schon Krass.

Antwort Gefällt mir

B
Besterino

Urgestein

7,527 Kommentare 4,030 Likes

Naja, ob eine 5090 „wirtschaftlich sinnvoll“ ist, darüber kann man wohl auch noch trefflich streiten. Ich hab da auch noch so einen Moral-Artikel von Igor selbst vor Augen…

Antwort 8 Likes

R
RazielNoir

Urgestein

666 Kommentare 314 Likes

Interessanter wäre auch mal ein Vergleich mit der bisherigen RTX 6000 Ada mit halb soviel Speicher auf den Workstationtestparcour. Vor allem in Hinblick auf Treiberoptimierung/Zertifizierung und damit verbundener Leistung in AutoCad usw.

Antwort 2 Likes

grimm

Urgestein

3,567 Kommentare 2,614 Likes

"Warum Gamer trotzdem zur 5090 greifen sollten" - LOL

Antwort 4 Likes

P
Pokerclock

Urgestein

782 Kommentare 762 Likes

Wenn aus 10.000 $ mal eben 10.000 € gemacht werden und umgekehrt.

Die Privatkunden, die sich für eine solche Karte ernsthaft interessieren, wird man an einer Hand abzählen können.

Alle anderen zahlen keine 10.000 was-auch-immer-für eine-Währung, weil vorsteuerabzugsberechtigt. Das schließt den regelmäßig gewerblich tätigen Tech-Influenzer mit ein.

Der Clickbait regt mich als ehemaliger Steuerfuzzie mehr auf als der x-te gesponserte 5060-Test auf TikTok.

Antwort 3 Likes

R
RazielNoir

Urgestein

666 Kommentare 314 Likes

Die RTX (Quadro) Pro waren schon immer teurer als die Vergleichbaren Consumermodelle trotz theoretisch gleichem Chip.
Aber das erste Mal, das die Energielimits auf gleichem oder sogar höherem Niveau sind wie die 5090...
Und die Erste Pro-Karte die ein anderes Kühlkonzept verfolgt. Ob sich da auch bis zu 4 oder mehr Karten sinnvoll nebeneinander verbauen lassen wie in einer DELL Precision 7960 oder vergleichbaren Workstation? Das Blowerdesign mag nicht das leiseste sein, aber bezgl. Airflowkonzept in einem Rack fast alternativlos.

Antwort Gefällt mir

T
The_Invisible

Mitglied

18 Kommentare 4 Likes

Gibt doch eine blower Version davon, die Server edition, zusätzlich noch eine max q mit max 300w.

Antwort Gefällt mir

T
The_Invisible

Mitglied

18 Kommentare 4 Likes

Die Leute geben für alles mögliche Zeug Unmengen an Geld aus. Find's cool das der8auer nicht mit dem Mainstream schwimmt und "nur" eine 5090 verbaut :D

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

2,573 Kommentare 1,701 Likes

Ich hol' mir gleich mal zwei davon 😜!

Antwort 1 Like

Alter.Zocker

Urgestein

559 Kommentare 378 Likes

Naja das ist ja seit einiger Zeit bereits die vom Lederjacken-Mann ausgegebene Marschrichtung bei NV: Fokus auf Profimarkt und KI-BEschleuniger, "Geforce" (Gamerspielzeug) ist nur noch das 5. Rad am Wagen. Dass es da irgendwann auch mal bei der Gaming-Performance zu ersten "Überholvorgängen" durch solche Profimonster kommen würde, ist für mich wenig überraschend.

Am Profimarkt leben aber auch die älteren Chip-Generationen deutlich länger, weil hier das Anwendungsspektrum deutlich breiter gefächert ist, die Anforderungen durch Updates von Tools und Workload nicht so schnell steigen, wie am sehr hype-lastigen "Gamer-Markt". Und nicht jeder kann für seine Arbeit mit 3D-CAD, FEM-Simulationen o.ä. die brachiale Rechenpower einer Geforce 4090/5090-äqivalenten Karte sinnvoll und wirtschaftlich(!) nutzen, dazu "steuert" hier NV sehr viel "gezielter" mit ihren an die jew. Toolumgebung angepassten Treibern, was mit welchen Tool-Generationen und welcher HArdwaregeneration wann machbar ist. Dass führt im Profibereich zu deutlich länger "überlebenden" Hardwaregeneration, die bei den Gamern schon nach zwei-drei JAhren "outdated" sind und ersetzt werden. Und das lässt sich NV auch ganz unbescheiden bezahlen...dominante Monopolstellung seit Jahrzehnten halt, hier hinkt die "Alternative" AMD gefühlt noch viel weiter hinterher, als im Consumer-/Gaming-Markt...

Antwort Gefällt mir

Klicke zum Ausklappem
B
Besterino

Urgestein

7,527 Kommentare 4,030 Likes

Sehe ich etwas anders. Schon länger ist der AI-Markt quasi hype-lastiger als der Gamer-Markt, und vor allem wird dort noch jedem Performance-Fitzel hinterhergejagt, wohingegen beim Gaming ja schon länger die Performance für 4K reicht - bzw. je nach Ziel-FPS/Hz zumindest reichen kann. Wenn ich mich richtig erinnere, wurde doch schon die 1080Ti als "endlich 4K" angepriesen.

Was technologische Weiterentwicklung für Gaming angeht, habe ich über die letzten Jahrzehnte im Prinzip nur Physik-Beschleunigung und zuletzt Raytracing wahrgenommen. Ersteres ist inzwischen völliger Standard (wobei mit der 5090 für 16Bit PhysX ein gewisser Rückschritt... ;)), letzteres zwar auch weiter verbreitet aber Mehrwert überschaubar. Von Fotorealismus in Echtzeit sind wir immernoch ein gutes Stück entfernt. Dagegen steckt in den AI-Komponenten einiges an Entwicklung drin und man steht eben auch noch relativ am Anfang.

Insofern ist nun halt der AI Zirkus inzwischen der Innovationstreiber und die Zeichen haben sich umgekehrt: wo früher "3D-Beschleuniger" zufällig prima für Machine-Learning zu gebrauchen waren, kann man inzwischen mit AI-Beschleunigern halt zufällig auch prima Pixel schubsen. ;) Wer weiß schon, was die Zukunft bringt? Vielleicht kann man ja irgendwann dann auch mit so'nem AI-Ding aus China >400FPS@4K auf den Bildschirm brennen und braucht die alten Platzhirsche nicht mehr...

Antwort Gefällt mir

Klicke zum Ausklappem
R
RazielNoir

Urgestein

666 Kommentare 314 Likes

Die sogenannte A.I.-Geschichte hat jetzt schon ein vorläufiges Enddatum. Sei es, weil die Trainingsgrundlagen leerlaufen, sei es weil der Technologische und Energiemäßige Aufwand die Mehrleistung nicht mehr rechtfertigen...
Dann bekommt der Hype einen Absturz, es bleibt nur zu hoffen, das die finanziellen Verschiebungen und Berichtigungen nicht ähnlich dramatisch wie bei der Dotcom-Blase werden.

Die aktuellen Firmen(aktien)werte resultieren ja effektiv aus der Hoffnung, das die Technologiepatente langfristig hohe Gewinne und Dividende abwerfen. Bei Tesla kommt es vielleicht jetzt aus dem gleichen Grund zum Einsturz. Befeuert vom Verhalten seines CEO.

Aber sollte es mal eine wirkliche A.I. geben, glaube ich an eine weit tiefgreifendere Umwälzung

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,101 Kommentare 501 Likes

Die gleichen Leute, welche eine 4090/5090 gekauft haben, da € pro Frame offensichtlich nicht interessiert und zu viel Geld rumliegt.

Antwort 1 Like

FfFCMAD

Urgestein

927 Kommentare 338 Likes

Der Chip ist schon seit Ewigkeiten nicht mehr "gleich". Auch nicht theoretisch. Selbst bei der uralten Geforce 4 verhilft dir ein Software-Hack nur zu einer gewissen Kompatibilität zu Quadro Treibern, aber nicht zu allen Features/ allen Performance-Vorteilen der Quadro Variante (Anti Aliased Lines usw.) Die korrekte PCI-ID/ BIOS usw. helfen nicht, wenn der Chip die Quadro-Features nicht implementiert hat.

Die Chips basieren aufeinander, dennoch hat Nvidia seit der Geforce 256 dazu gelernt und für die Quadro eigene Varianten der GPUs verwendet.

Antwort Gefällt mir

R
RazielNoir

Urgestein

666 Kommentare 314 Likes

Da hast du recht. Ich bezog das auch mehr auf das Grundgerüst in Form von CUDA-Kernen, Tensor und RT-Kernen. Zumindest ließe sich da wie schon im Artikel eine gewisse theoretische Raster-Rohleistung ablesen. Wie Igor hier schonmal im Test z. Bsp. zur RTX (A)6000 im Vergleich zur jeweiligen Gamingkarte beschrieben hatte, das die hinterlegten Powerlimits niedriger ausfallen und die Karten näher am Sweetspot zwischen Leistungsaufnahme und Rasterleistung betrieben werden als Ihr Gaming-Pendant. Die Zielgruppe ist nun mal eine wesentlich andere. Und kaum jemand, außer Igor spielt wahrscheinlich auf so einer Karte ernsthaft AAA-Games.... ;)

Antwort Gefällt mir

S
S.nase

Urgestein

1,992 Kommentare 691 Likes

Das Erste was bei 8auer's Video auffällt:

View image at the forums

Warum ist die 12V VersorgungsSpannung am StromversorgungsStecker UND PCIslot so niedrig? Obwohl sein fettes SeasonicPX2200 eigendlich nicht unter 11.9V fällt.

Da praktisch kein SpannungsDelta zwischen PCIslot und 16Pin-Power Anschluss vorhanden ist, kann der VoltageDrop ja nicht am Stromversorgungskabel/Stecker liegen.

Ich tippe mal auf schlechten Massekontakt zwischen PCIslot und NT, verursacht durch den minimalistischen BenchTable Testaufbau. Da muss man sich nicht wundern, das die Spulen auf der Grafikkarte ein Pfeifkonzert spielen. Die 0.3V VoltageDrop zwischen NT und PCIslot Masse ergeben bei 600W(50A) immerhin 15W MasseKontaktverluste. Ein sinnvoller Benchmark Test kann mit so viel VoltageDrop nicht zu stande kommen.

Antwort Gefällt mir

8j0ern

Urgestein

3,735 Kommentare 1,199 Likes

Not bad, hat Nvidia auch das "PRO" im Label entdeckt. ;)

Benchmarks sind meisten Ressourcen sparend bei der Hardware Auslastung, es soll ja noch Spielraum für OC bleiben.

Mein Benchmark ist der Power Test von OCCT mit AVX512 Full System Load. Immerhin über 11.900Volt mit 1000W Netzteil bei 75,4% Auslastung. :)

Antwort Gefällt mir

Y
Yumiko

Urgestein

1,101 Kommentare 501 Likes

Phasenverschiebung und Messungenauigkeit?

Antwort Gefällt mir

mgutt

Mitglied

20 Kommentare 8 Likes

Er hat im Video gesagt, dass er die Karte im Pro Shop gekauft hat. Daraus schließe ich, dass er quasi keinen Rabatt erhalten hat. Bei seinem kleinen Jahresumsatz und fehlendem Nvidia Sponsoring wäre es jedenfalls nicht verwunderlich. Zumindest kenne ich kein Unternehmen mit höheren IT Umsätzen, das in irgendeinem Onlineshop kauft.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung