News Radeon Pro WX3200: AMD stellt Workstation-Grafikkarte für unter 200 USD vor

Jakob Ginzburg

Urgestein
Mitglied seit
Jun 17, 2018
Beiträge
843
Bewertungspunkte
290
Punkte
63
2-1080.6052409741-893x596.jpg


Jakob Ginzburg submitted a new blog post

Continue reading the Original Blog Post.
 
Kampfpreis. Gerade für Leute die privat einem semiprofessionellen Hobby nachgehen könnte das Ding gerade Recht kommen.
Für Lightroom vollauf i.O.

Wäre folgendes Szenario eigentlich Machbar?
Auf x16 hängt ne Gamerkarte zum zocken und auf x8 hängt ne 200€ ProWX für Lightroom.
Sofern ich die Karten nicht im nVLink o.Ä. betreib müsste das doch gehen, oder werden trotzdem beide auf x8 gedrosselt?

Dass die x8 dann beschnitten wird - geschenkt. Da geht's eher um die 10 bit Farbtiefe. Lightroom sollte trotzdem ganz gut laufen.
 
Zuletzt bearbeitet :
Als ich mich das letzte Mal damit beschäftigt hatte, ging bei Intel (1151v2) nur 1x16 oder 2x8, nicht aber 16+8. Vom Chipsatz blieb irgendwie nur max. 4 übrig - die dann eben auf 1er oder 4er Slots verteilt wurden.

Wie's bei AMD und insb. einer Kombo aus 4.0 und 3.0 aussieht, keine Ahnung. Würde aber mal vermuten, dass AMD auch nur 1x16 oder 2x8 bietet...
 
Wäre folgendes Szenario eigentlich Machbar? Auf x16 hängt ne Gamerkarte zum zocken und auf x8 hängt ne 200€ ProWX für Lightroom. Sofern ich die Karten nicht im nVLink o.Ä. betreib müsste das doch gehen, oder werden trotzdem beide auf x8 gedrosselt?

Ich bin da nicht so tief drin, aber ich könnte mir vorstellen, dass Du auch das primäre Anzeigegerät umstellen musst, also die Radeon als primäre GPU verwenden musst (auch wenn sie im sekundären 8xSlot steckt). Das Problem mit den 10 Bit-Workflows bei professionellen Anwendungen (u. a. auch von Adobe) ist, dass hier einfaches DirectX-10-Bit, wie es AMDs und nVidias Comsumer-Karten schon länger anbieten, nicht ausreicht. nVidia beschreibt es folgendermaßen:

"Due to the way most applications use traditional Windows API functions to create the application UI and viewport display, this method is not used for professional applications such as Adobe Premiere Pro and Adobe Photoshop. These programs use OpenGL 10-bit per color buffers which require an NVIDIA Quadro GPU with DisplayPort connector."

Für etwas vergleichsweise anspruchsloses wie nur 10 Bit-Workflow wäre man bei nVidia vielleicht noch günstiger dabei: Quadro P400, 2 GiB für 130 €. Die Karte kann drei 4K-Displays bei 60 Hz in 10 Bit ansteuern. Braucht man kein 3D, wäre das ggf. schon ausreichend. Etwas schneller und mit 4 GiB wird es hier jedoch erst ab der P1000 ab etwa 320 €.
 
Ist PCIe 4.0 x16 mit 3.0 x16 möglich?

Lol, die HTML-Tabelle wurde wohl auch von MSI mit heißer Nadel gestrickt. Aber zum Thema: PCIe implementiert Punkt-zu-Punkt-Verbindungen, die weiterhin kompatibel sind. Eine 5700 XT läuft in einem alten X470 schlicht mit 3.0er-Speed, also rd. 16 GiB/s und eine RTX 2060 läuft im X570 mit einem Ryzen ebenso weiterhin als 3.0er-Karte, da bei der Initialisierung erkannt wird, dass die Karten den höheren Übertragungsmodus nicht unterstützt.
Wenn Du auf einem Mainboard gar einen PCIe-3.0-4x-Slot hast, der hinten bzw. rechts offen ist, könntest Du auch problemlos eine 16x-Slot-PCIe-4.0-5700 XT dort hineinstecken. *) Die Transferrate beschränkt sich dann zwar auf nur 4 GiB/s, aber ansonsten sollte die Karte problemlos ihren Dienst verrichten. (Einige machen so etwas ggf. fälschlicherweise und unbewusst, wenn sie sich den falschen 16er-Slot auf ihrem Board für ihre GPU aussuchen, wenn dort bspw. drei Stück vorhanden sind ;))

*) 3/4 der Karten-PINs hängen dann halt ungenutzt in der Luft. Das Vorgehen verbietet sich nur bei schwergewichtigen Karten aufgrund der geringeren, physischen Stabilität im Steckplatz.
 
@gerTHW84: die Frage bezog sich auf die seitens Affenzahn angefragte Variante.
 
@gerTHW84: ...und die Frage ging nach meinem Verständnis dahin, ob sich 3.0 und 4.0 am gleichen Chipsatz betreiben lassen und dann auch die 3.0-Karte mit 3.0 und die 4.0-Karte eben mit 4.0 Speed läuft. Anders ausgedrückt: wäre blöd, wenn eine 3.0 Karte im System die Maximalspeed insgesamt auf 3.0 begrenzt.
 
@gerTHW84: ...und die Frage ging nach meinem Verständnis dahin, ob ...

Nein, sollte nicht so sein. Auf der Physical Layer gibt es eine Link Training & Status State Machine (LTSSM), die für die Aushandlung der Anzahl der zu verwendenden Lanes sowie der maximal zu verwendenden Geschwindigkeit zuständig ist. PCIe 4.0 ist erneut ab- und aufwärts-kompatibel spezifiziert. Die Ryzen 3000 haben 20 PCIe-4.0-Lanes an der CPU, von denen typischerweise 16 dem ersten 16xSlot zugewiesen werden und die verbleibenden vier werden bspw. einem NVMe-Slot zugeschanzt. Eine PCIe-4.0-5700 wird nun nicht plötzlich auf PCIe 3.0 ausgebrenst, weil man eine 3.0er-SSD in den NVMe-Slot steckt.

Zu Deinem Intel-Beispiel: Die CPUs haben nur 16 PCIe-3.0-Lanes, d. h. ein 16+8 kann es nicht geben. Das hält einige Mainboardhersteller aber dennoch nicht davon ab Gamer-Boards mit drei FullSize-16x-Slots anzubieten, die alle an der CPU hängen. Hier werden PCIe-Switches neben den Slots verbaut (leicht zu erkennen). Eine Karte im obersten Slot läuft wie erwartet mit 16 Lanes. Eine zweite Karte im mittleren Slot und es werden 8 Lanes umgeroutet, also 8+8 Betrieb. Steckt man nun noch eine dritte Karte in den untersten Slot, werden typischerweise vom mittleren Slot 4 Lanes abgezweigt und man hat einen 8+4+4 Betrieb. *) (Auf entsprechenden X570-Board hätte man bei der gleichen Implementation aber immerhin den Vorteil, dass dies PCIe-4.0-Lanes wären, d. h. die zweite und dritte GPU wäre dort quasi äquivalent zu 8 PCIe-3.0-Lanes angeschlossen.)

Für Ryzen und Intel gilt in gleicher Weise, dass zu berücksichten ist, dass alles was am Chipsatz hängt, über den nur 4 Lanes breiten Uplink zur CPU muss (Interleave). Bei Intel DMI 3.0, was vier PCIe-3.0-Lanes entspricht, beim Ryzen entspricht die Bandbreite dagegen auf dem X570 vier PCIe-4.0-Lanes. Ich weise darauf hin, weil durchaus auch einige MB-Hersteller schon mal auf die Idee kommen, einen 8er oder 16er Slot über den Chipsatz anzubinden. Das ändert natürlich nichts an dem Nadelohr hin zur CPU (und dem Hauptspeicher, da die Memory Controller schon seit längerer Zeit in der CPU sitzen).

*) Hat man einen Dual-GPU-Betrieb (8+8) und steckt seine 1x-PCIe-Soundkarte in den freien 16er-Slot anstelle in einen 1x-Slot (der zudem möglicherweise am Chipsatz hängt), hat man jedoch die zweite GPU auf einen 4x-Betrieb gedrosselt. Die elektrische Durchkontaktierung führt zur Umleitung von 4 Lanes auf den dritten Slot. Während Trainign & Initialisierung einigen sich die Endpunkte dann zwar auf einen Betrieb mit nur einer PCIe-Lane (weil die Soundkarte nicht mehr hat/kann), die anderen drei Lanes bleiben dann ungenutzt (so flexibel ist das Routing dann doch nicht).
 
Zuletzt bearbeitet :
Es ist einfach albern, dass die Volks-CPUs immer noch bei 16/20 Lanes rumdümpeln, wo jedenfalls 40, 48 oder 64 eigentlich kein Problem sein sollten. Übrigens egal ob 3.0 oder 4.0 - letzteres ist eh mittelfristig keine Option/Hilfe, denn gängige Hardware wird ganz bestimmt nicht noch auf 4.0 umgemodelt, nur um ohne Bandbreitenverlust weniger Lanes zu "verbrauchen". Da kommen vielleicht irgendwann mal SSDs und Grakas (AMD), aber alles andere wird hübsch bei 3.0 bleiben oder erst einmal schier unbezahlbar sein (NICs, Storage Controller etc.).

Aber neeee... war ja offenbar schon schlimm genug, dass man schon mehr Kerne in die Dinger basteln muss. Bloß keine weiteren sinnvollen Features einbauen...
 
Oben Unten