Basics Editor's Desk GPUs Graphics Practice Reviews

The big eGPU guide and benchmark test – What is an external graphics card (eGPU) good for? NVIDIA or AMD, who can handle it better?

In search of the optimal card for my eGPU case I looked for tests for a long time, but unfortunately I could never find anything adequate, where a direct comparison between Radeon and GeForce graphics cards was made as well as one could explain how overclocking affects an eGPU, up to which performance class an eGPU scales reasonably at all due to the limitation by the TB3 connector. It’s all the little details that were always missing like information about what drivers, hardware, connectivity are ideal and what probably definitely won’t fit.

All of these issues had not been sufficiently illuminated to me. So what do you do? You take it into your own hands and build such a graphics card cage yourself!

Laptop: HP Spectre x360 15 Convertible, UHD touch panel 60 Hz
CPU: Intel i7 8705G (4 cores / 8 threads) optimized @ 3.7 GHz Allcore, 4.1 GHz Singlecore
Ram: 16 GB DDR4 @ 2400 MHz CL 17
Graphics Cards: GeForce RTX 3070 MSI Gaming X Trio @TB3 Razer Core X Driver 461.11
  GeForce RTX 3060 Inno3D Twin X2 OC @TB3 Razer Core X Driver 461.11
  ASRock Radeon RX 6700 XT Reference @TB3 Razer Core X Driver 21.3.2
  MSI RX 5700 XT Mech OC @TB3 Razer Core X Driver 20.4.1
  OnBoard Vega M GL OC @ 1020/930 8×3.0 Driver 20.4.1
Tweaks: Laptop CPU/GPU with liquid metal, Core X case with silent mod and lighting.

The test system I had already looked at here in more detail:

Reading tip: Remedy when the notebook throttles: Intel CPU and AMD graphics meet for a joint siesta in the HP Spectre

In the meantime, of course, I have made some small changes. For this test I think the performance data of the system is enough to estimate the test base, so if you are interested in it take a look at the screens. The Core X case is very spacious and actually accommodates almost any modern GPU. With 650 watts of power, it can even handle upper-class cards. More than 2x 8 pin is not possible, which is why I could not include a RTX 3080 in the test series, since I only have a ROG White here.

Core X Mod

Since the fans of the Core X case annoyed me a bit, especially the power supply fan which makes an annoying clattering noise even in standby, I modded the case a bit. Since I do not like to describe work on a power supply here, I let the pictures speak for themselves and explain only briefly what I have replaced. If anyone is interested in the rebuild, feel free to write me here on the forum.

The side fan was replaced with a fully rubberized 120 mm NB Silentloop and is now inaudible at 6 V. I also replaced the power supply fan after a small odyssey, I had massive problems with the startup speed that the power supply connector outputs. I then ran the cable out of the power supply and connected it to the header of the board via a Y-adapter. Disadvantage here, if the case in standby now charges my laptop, the fan does not run in the power supply! However, since Thunderbolt delivers a maximum of 100 watts, I don’t see this as critical, the device is charged in a maximum of 1 hour anyway. I tried 4 fans and none started reliably. Anyone with a tip for me here, feel free to drop me a line in the comments. I left the 2 pin to 3 pin adapter installed just in case.

After some dry runs to see if everything works as it should, I also started an optical upgrade. A simple battery-powered RGB header with controller lets the Core X now shine in new splendor and the MSI Trio makes directly again a chicer figure. The construction diary in pictures:

 

Kommentar

Lade neue Kommentare

big-maec

Urgestein

986 Kommentare 595 Likes

Hi,
schön das mal die Lösung getestet wurde. Ich hatte dies ja auch schon bei PCGH "Offenes Ohr" angeregt.
Was mich noch Interessiert, ein Test mit TB3 im Desktop PC. Hier gibt es ja für das jeweilige Board die Möglichkeit TB3 nachzurüsten. Was mich daran Interessiert ist ob es Unterschiede von den Controllern bzw.deren Anbindung gibt. Aber der Test war schonmal Aufschlußreich für mich.

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Auf die Controller gehe ich kurz ein im Text

"Es existieren auch unterschiedliche Controller, diese weichen minimal in der Performance voneinander ab, der Controller spielt aber eine eher untergeordnete Rolle."

"Der Vorteil von TB4 liegt vor allem in geringeren Latenzen, da der Controller direkt in der CPU verbaut ist."

Die Controller bei TB3 variieren kaum untereinander, TB 4 ist ne guten Zacken schneller da hier der Controller in der CPU verbaut ist und deutlich geringere Latenzen aufweist. Alle Intel CPUs ab Reihe 7-10 haben den Controller extern angebunden was sich ebenfalls etwas nachteilig auswirkt.
Wichtiger sind aber die Treiber, sowie das Management des Geräts selber.

Leider war es mir nicht möglich ein TB4 Gerät aufzutreiben, evtl reiche ich da noch was nach.

Antwort 2 Likes

big-maec

Urgestein

986 Kommentare 595 Likes

Dann wäre TB4 für AMD Systeme erstmal nicht verfügbar ?

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Nein, aber der Thunderboltanschluß soll sowieso in USB aufgehen, wie dass dann umgesetzt wird bleibt abzuwarten. Ich denke die integrierte Lösung wird Intel ne weile vorbehalten bleiben.

Antwort 1 Like

G
Guest

Nein. USB 4 unterstützt je nach Kompatibilität des Herstellers Thunderbolt. Einen Zwang für kompatibilitätsnahe Unterstützung gibt es nicht.

Was das getestete Razer eGPU angeht, müsste die auf der RX 6000 Serie XConnect unterstützen, was nur bis zur RVII tut (und das ist kein Problem von AMD). Ich halte daher einige Aussagen für ziemlich gewagt, vor allem im Forum der PCGH. Plug and Play gilt nur für den Anschluss im Betrieb, nicht allgemein bzgl. der Performance.

DLSS Balanced gegen Fullsize Rendering = echt? Na klar hat Nvidia dann Vorteile auf einer eGPU wenn die Bandbreite des TB limitiert, wie verwunderlich. Was sollte das mit der Compression zu tun haben?

Antwort Gefällt mir

ro///M3o

Veteran

381 Kommentare 276 Likes

Klasse Test, vielen dank :)

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Ich kann dir nicht folgen was genau du meinst, XConnect springt automatisch an sobald eine AMD GPU via TB angeschlossen wird, völlig gleich ob eine V56, 5700Xt, VII oder 6700XT. XConnect funktioniert in der Praxis auch besser als Nvidia, was aber verschmerzbar ist. Die NV GPU mag es z.B. gar nicht wenn man diese wie eigentlich vorsehen über den Treiber trennt. Danach lädt einfach der Treiber nicht mehr nach einem Neustart.

Was du mit Plug and Play im Bezug auf die Performance meinst ist mir schleierhaft.
Du ziehst hier falsche Schlüsse, lies den Text bitte nochmal aufmerksamer.

Antwort Gefällt mir

G
Guest

Kompatible?
Radeon ™ RX 5000 Series
Radeon ™ RX Vega Series
Radeon ™ RX 500 Series
Radeon ™ R9 Series
Radeon ™ Pro Series

?

Die Karten werden schlichtweg was die Performance angeht, nicht unterstützt und das hat mit der Compressionsrate, damit möglicherweise mit nvcomp nichts zu tun. Wer lesen kann, ist klar im Vorteil.:)

RTX 3000 Series werden übrigens voll unterstützt. Das ist so wie Metro EHE keine Option mitbringt für Super Resolution Berücksichtigung zu finden, es passt einfach nicht zur API.

Testen ist völlig o.k. und auch die daraus resultierenden Ergebnisse, aber die Schlußfolgerungen sind falsch.

Heißt soviel wie: ...die Worte die du für AMD über hast, richte lieber an Razer...

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Alle meine Karten laufen problemlos via XConnect und werden auch voll unterstützt, die BigNavis laufen sogar besser als die alten Gens im Dock was man ja gut an den Ergebnissen erkennt.

Irgendeine nicht aktualisierte Kompatibilitätsliste spielt hier doch gar keine Rolle in der Betrachtung, die Karten funktionieren einwandfrei, ich weiß nicht was du dir da aus den Fingern ziehst. Das ist völlig ohne Belang.

Antwort 1 Like

G
Guest

Na dann folgt der Test auf einem Mac ja noch.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Möchtest du jetzt behaupten dass eine RX600er Serie Karte nicht auf einem Mac läuft oder was?

Antwort Gefällt mir

G
Guest

1. die Tonart macht die Musik
2. ja - das behaupte ich weil die Treiberunterstützung für eGPUs und damit vermutlich die Leistungsvorteile abzurufen komplett fehlt und zwar für die RX6000-Serie, daran arbeitet Apple derzeit.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Man verwendet einfach Bootcamp und fertig, ich sehe das Problem nicht. Mac ist ein ganz anderes Ökosystem und steht hier überhaupt nicht zur Debatte mit seinen ganzen Eigenheiten.

Antwort 1 Like

G
Guest

Bzgl. der Unterstüzung gab es eine Anfrage bei Razer, die bis heute unbeantwortet bliebt. Also: (eher) nein. Wer bekommt es also besser hin? Razer natürlich, wer sonst!

Auch Bootcamp unterstützt GPUs bis zur VII, seh dort kaum Unterschiede. Mach einfach...natürlich erkennt eGFX die Hardware, nur als was? Die Karten werden mit 4xPCIe 3.0 Express Lanes über TB3 angebunden? Hat also mit der Compression rein gar nichts zu tun, sondern wie die Hardware an 4xPCIe 3.0 skaliert und hoffentlich wird sie auch von Treiber unterstützt.

GPUs sind dann unter Spielen wo Bandbreite über PCIe gefordert wird, komplett limitiert. Mir würde nicht im Traum einfallen dort eine 3070 anzubinden (zu derzeitigen Preisen). Man kann Herstellern sicher keinen Vorwurf machen, dass sie eher neuere oder leistungsfähige Schnittstellen unterstützen.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Ich verstehe ehrlich gesagt immer noch nicht so ganz was du jetzt von mir möchtest und was das alles mit meinem Artikel zu tun hat.
Über Bootcamp laufen alle Karten ohne Probleme, da gibt es zig Builds zu. Mac User sind allegemein leid gepöagt was sowas angeht und wissen das zu handeln und sich zu helfen. Die Spieleperformance auf einem Mac ist einfach nochmal ein ganz anderes Thema und hat hier mit dem Thema absolut nichts zu tun.

Antwort Gefällt mir

G
Guest

Du liest aber was du schreibst oder?

Compression/Bandbreite oder GPU lossless comp bezieht sich auf Vorgänge "innerhalb" der GPU! Ob high, based oder parallel prim uninteressant (Kaskade/cuSZ).

Der FPGA, unter dem jeweiligen PCIe Interface macht da keine Unterschiede aus, wenn man das Protokoll unterstützen will (AMD/Nvidia/Razer).

[/one].. dass die Radeon-Karten beim Einsatz als eGPU deutlich im Nachteil sind, vor allem die Leistung am internen Panel fällt dann schon massiv ab. Ich vermute es liegt an der Kompression der Daten[off/]

Es liegt an der Bandbreite die eGPU bisher über TB3 bereitstellt ala 4xPCIe 3.0 (für Hardware die sonst über PCIe 4.0 angebunden wird), was bei AMD besonders wirken muss da die IF der neuen Serie direkt über "volle" PCIe Bandbreite an die CPU angebunden wird! Natürlich fällt dann die Leistung ab, wenn man diese limitiert, was sich vermutlich auf die Taktrate der IF auswirkt (z.B. 16fach Link). Das AMD bei Reduktion von PCIe besonders abfällt (nicht schon seit RDNA), ist dabei absolut nicht neu.

Ich dachte übrigens du kommst selbst darauf, dann hätte ich mir das sparen können. Was hat das also mit deinem Artikel zu tun? Frag dich das selbst und lese nochmal Post#9 vorletzter Satz.

Antwort Gefällt mir

Klicke zum Ausklappem
O
Ole

Mitglied

30 Kommentare 9 Likes

Was ist denn mit m2 PCIe 4.0. Ergibt sich aus dieser Ansteuerung eine Benutzung ohne Einschränkung?

Antwort Gefällt mir

G
Guest

Nein, wenn sie sich die Lanes teilen muss - dann ja (2x2).

Es bliebe also festzuhalten, dass derzeitige eGPU Systeme nicht mit PCIe 4.0 Hardware bestückt werden sollten, sondern eben mit 3.0 und man schon darunter Leistung verliert, natürlich alles gemessen am Anschaffungspreis.

Eine 2080ti verliert bis zu 50% an Leistung, dass ist rein vom Anschaffungspreis kaum vertretbar und das ist Level 3070 (ausser beim VRAM).

Es geht nicht um den Testinhalt oder das Ergebnis, es geht um logische Schlüsse, auch Empfehlungen.

Antwort Gefällt mir

G
Guest

Sehr interessanter Test @Gurdi Was es nicht alles gibt....
Aber die jeweiligen Abfälle bei den Spielen sind schon enorm. Da scheint es Zeit zu werden was anderes zu finden als TB. Denn ein großer Unterschied von TB4 zu TB3 kann ja nach deiner Aussage im Text auch nicht sein. Mal sehen, wie sich das dann mit der evtl. USB-Kombi gestaltet.

Auch wenn ich mir schwer vorstellen kann, einen meiner Desktops gegen ein Laptop einzutauschen.
Für eine anstehende Reha habe ich mir jetzt allerdings ein Asus TUF mit einer Nvidia Geforce 1650Ti als kleines Extra besorgt. Käme mir etwas schräg vor, wenn ich da mit einem kompletten Desktop aufschlagen würde. Für Mafia 3 (wenn ich es mit den Einstellungen nicht übertreibe) und Fallout 4 (gemoddet) reicht die kleine Graka völlig. Und für mehr als 3 Wochen könnte ich auf dem kleinen Bildschirm (17``) und den sonstigen Limitierungen wie ungemütlich, bisschen verkrampft usw. auch kaum befriedigend zocken. Brauche es ja nur, um mir etwas die Zeit zu vertreiben.
Habe zwar keine Ahnung, was ich damit anstelle, wenn die Kur vorbei ist. Zum Einstauben ist ein Gerät für knapp 1000 Euronen (die übliche momentane Graka-Abzocke lässt grüßen) dann doch zu schade. Na ja, kommt Zeit, kommt Rat. Wie immer....

Antwort 1 Like

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Gurdi

Werbung

Werbung