Basics Editor's Desk GPUs Graphics Practice Reviews

The big eGPU guide and benchmark test – What is an external graphics card (eGPU) good for? NVIDIA or AMD, who can handle it better?

Summary and conclusion

The limitations of Thunderbolt are ubiquitous in everyday life and generally the higher the resolution, the less severe the losses. When using an external monitor, however, the losses compared to a desktop system are limited.  In FHD, you are often better off with an integrated graphics chip, but from WQHD onwards, the tide increasingly turns in favor of the eGPU. Sweeping statements are really hard to make, though, and games like Watch Dogs Legion are struggling to run at a playable level. In contrast, other titles that are less taxing on the overall system scale cleanly.

In general, the Radeon cards are at a disadvantage when used as an eGPU, especially the performance on the internal panel drops massively. I suspect this is due to the compression of the data, which is much more efficient on the NVIDIA cards. Oddly enough, though, the NVIDIA cards achieve lower gross scores on the bandwidth test than the Radeons do on the write. However, the NVIDIA GPUs are slightly faster in reading. This could then explain the results in Dirt 5.

Interestingly, the RTX 3060 cut the best figure in the test, because the differences are lowest, the card has enough VRAM and it can also be overclocked well. The card is actually the sweet spot for an eGPU setup at the moment – also an interesting finding. With increasing performance, the losses then become increasingly serious and one must then also clearly question the purchase price of the barely faster card.

I also improved the memory of the laptop after the tests. Instead of 16 GB Single Rank Dual Channel I have now 3 2GB Dual Ranked in Dual Channel. Of course I would have liked to test with higher clock rates on the memory how big the influence of the used RAM is, but unfortunately the board doesn’t accept clock rates above 2400 MHz, so I have to be satisfied with the latency improvement as well as the advantage of the dual ranked design.

I was able to measure slight performance increases with it, modern systems with TB 4 controllers and fast RAM should be able to alleviate the symptoms of Thunderbolt significantly and offer another increase, but basically a doubling of bandwidth would be necessary to scale cleanly with the performance of modern GPUs as well. Unfortunately, TB4 is currently often found in rather weak machines with only 4 cores.

In conclusion, the Radeons are clearly inferior in this application area, as the NVIDIA GPUs get their performance on the road much better. AMD definitely has some catching up to do here and unfortunately doesn’t cut such a happy figure at the moment. I finally opted for a GeForce RTX 3070 in my own build, despite the rather meager 8GB of VRAM. I just need a bit more performance for the UHD panel than the RTX 3060 delivers, although I had actually become comfortable with the card.

However, the RTX 3070 runs great undervolted, gives me enough performance, doesn’t move too far away from the performance sweet spot of the port yet, and the coolers are more in line with my expectations as well. To show off the Core X mod a little better, I ordered an RTX 3070 Suprim from MSI, and the metal case should add the finishing touches to the look. Well, it’s always in the eye.

Kommentar

Lade neue Kommentare

big-maec

Urgestein

829 Kommentare 477 Likes

Hi,
schön das mal die Lösung getestet wurde. Ich hatte dies ja auch schon bei PCGH "Offenes Ohr" angeregt.
Was mich noch Interessiert, ein Test mit TB3 im Desktop PC. Hier gibt es ja für das jeweilige Board die Möglichkeit TB3 nachzurüsten. Was mich daran Interessiert ist ob es Unterschiede von den Controllern bzw.deren Anbindung gibt. Aber der Test war schonmal Aufschlußreich für mich.

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Auf die Controller gehe ich kurz ein im Text

"Es existieren auch unterschiedliche Controller, diese weichen minimal in der Performance voneinander ab, der Controller spielt aber eine eher untergeordnete Rolle."

"Der Vorteil von TB4 liegt vor allem in geringeren Latenzen, da der Controller direkt in der CPU verbaut ist."

Die Controller bei TB3 variieren kaum untereinander, TB 4 ist ne guten Zacken schneller da hier der Controller in der CPU verbaut ist und deutlich geringere Latenzen aufweist. Alle Intel CPUs ab Reihe 7-10 haben den Controller extern angebunden was sich ebenfalls etwas nachteilig auswirkt.
Wichtiger sind aber die Treiber, sowie das Management des Geräts selber.

Leider war es mir nicht möglich ein TB4 Gerät aufzutreiben, evtl reiche ich da noch was nach.

Antwort 2 Likes

big-maec

Urgestein

829 Kommentare 477 Likes

Dann wäre TB4 für AMD Systeme erstmal nicht verfügbar ?

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Nein, aber der Thunderboltanschluß soll sowieso in USB aufgehen, wie dass dann umgesetzt wird bleibt abzuwarten. Ich denke die integrierte Lösung wird Intel ne weile vorbehalten bleiben.

Antwort 1 Like

G
Guest

Nein. USB 4 unterstützt je nach Kompatibilität des Herstellers Thunderbolt. Einen Zwang für kompatibilitätsnahe Unterstützung gibt es nicht.

Was das getestete Razer eGPU angeht, müsste die auf der RX 6000 Serie XConnect unterstützen, was nur bis zur RVII tut (und das ist kein Problem von AMD). Ich halte daher einige Aussagen für ziemlich gewagt, vor allem im Forum der PCGH. Plug and Play gilt nur für den Anschluss im Betrieb, nicht allgemein bzgl. der Performance.

DLSS Balanced gegen Fullsize Rendering = echt? Na klar hat Nvidia dann Vorteile auf einer eGPU wenn die Bandbreite des TB limitiert, wie verwunderlich. Was sollte das mit der Compression zu tun haben?

Antwort Gefällt mir

ro///M3o

Veteran

345 Kommentare 239 Likes

Klasse Test, vielen dank :)

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Ich kann dir nicht folgen was genau du meinst, XConnect springt automatisch an sobald eine AMD GPU via TB angeschlossen wird, völlig gleich ob eine V56, 5700Xt, VII oder 6700XT. XConnect funktioniert in der Praxis auch besser als Nvidia, was aber verschmerzbar ist. Die NV GPU mag es z.B. gar nicht wenn man diese wie eigentlich vorsehen über den Treiber trennt. Danach lädt einfach der Treiber nicht mehr nach einem Neustart.

Was du mit Plug and Play im Bezug auf die Performance meinst ist mir schleierhaft.
Du ziehst hier falsche Schlüsse, lies den Text bitte nochmal aufmerksamer.

Antwort Gefällt mir

G
Guest

Kompatible?
Radeon ™ RX 5000 Series
Radeon ™ RX Vega Series
Radeon ™ RX 500 Series
Radeon ™ R9 Series
Radeon ™ Pro Series

?

Die Karten werden schlichtweg was die Performance angeht, nicht unterstützt und das hat mit der Compressionsrate, damit möglicherweise mit nvcomp nichts zu tun. Wer lesen kann, ist klar im Vorteil.:)

RTX 3000 Series werden übrigens voll unterstützt. Das ist so wie Metro EHE keine Option mitbringt für Super Resolution Berücksichtigung zu finden, es passt einfach nicht zur API.

Testen ist völlig o.k. und auch die daraus resultierenden Ergebnisse, aber die Schlußfolgerungen sind falsch.

Heißt soviel wie: ...die Worte die du für AMD über hast, richte lieber an Razer...

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Alle meine Karten laufen problemlos via XConnect und werden auch voll unterstützt, die BigNavis laufen sogar besser als die alten Gens im Dock was man ja gut an den Ergebnissen erkennt.

Irgendeine nicht aktualisierte Kompatibilitätsliste spielt hier doch gar keine Rolle in der Betrachtung, die Karten funktionieren einwandfrei, ich weiß nicht was du dir da aus den Fingern ziehst. Das ist völlig ohne Belang.

Antwort 1 Like

G
Guest

Na dann folgt der Test auf einem Mac ja noch.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Möchtest du jetzt behaupten dass eine RX600er Serie Karte nicht auf einem Mac läuft oder was?

Antwort Gefällt mir

G
Guest

1. die Tonart macht die Musik
2. ja - das behaupte ich weil die Treiberunterstützung für eGPUs und damit vermutlich die Leistungsvorteile abzurufen komplett fehlt und zwar für die RX6000-Serie, daran arbeitet Apple derzeit.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Man verwendet einfach Bootcamp und fertig, ich sehe das Problem nicht. Mac ist ein ganz anderes Ökosystem und steht hier überhaupt nicht zur Debatte mit seinen ganzen Eigenheiten.

Antwort 1 Like

G
Guest

Bzgl. der Unterstüzung gab es eine Anfrage bei Razer, die bis heute unbeantwortet bliebt. Also: (eher) nein. Wer bekommt es also besser hin? Razer natürlich, wer sonst!

Auch Bootcamp unterstützt GPUs bis zur VII, seh dort kaum Unterschiede. Mach einfach...natürlich erkennt eGFX die Hardware, nur als was? Die Karten werden mit 4xPCIe 3.0 Express Lanes über TB3 angebunden? Hat also mit der Compression rein gar nichts zu tun, sondern wie die Hardware an 4xPCIe 3.0 skaliert und hoffentlich wird sie auch von Treiber unterstützt.

GPUs sind dann unter Spielen wo Bandbreite über PCIe gefordert wird, komplett limitiert. Mir würde nicht im Traum einfallen dort eine 3070 anzubinden (zu derzeitigen Preisen). Man kann Herstellern sicher keinen Vorwurf machen, dass sie eher neuere oder leistungsfähige Schnittstellen unterstützen.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Ich verstehe ehrlich gesagt immer noch nicht so ganz was du jetzt von mir möchtest und was das alles mit meinem Artikel zu tun hat.
Über Bootcamp laufen alle Karten ohne Probleme, da gibt es zig Builds zu. Mac User sind allegemein leid gepöagt was sowas angeht und wissen das zu handeln und sich zu helfen. Die Spieleperformance auf einem Mac ist einfach nochmal ein ganz anderes Thema und hat hier mit dem Thema absolut nichts zu tun.

Antwort Gefällt mir

G
Guest

Du liest aber was du schreibst oder?

Compression/Bandbreite oder GPU lossless comp bezieht sich auf Vorgänge "innerhalb" der GPU! Ob high, based oder parallel prim uninteressant (Kaskade/cuSZ).

Der FPGA, unter dem jeweiligen PCIe Interface macht da keine Unterschiede aus, wenn man das Protokoll unterstützen will (AMD/Nvidia/Razer).

[/one].. dass die Radeon-Karten beim Einsatz als eGPU deutlich im Nachteil sind, vor allem die Leistung am internen Panel fällt dann schon massiv ab. Ich vermute es liegt an der Kompression der Daten[off/]

Es liegt an der Bandbreite die eGPU bisher über TB3 bereitstellt ala 4xPCIe 3.0 (für Hardware die sonst über PCIe 4.0 angebunden wird), was bei AMD besonders wirken muss da die IF der neuen Serie direkt über "volle" PCIe Bandbreite an die CPU angebunden wird! Natürlich fällt dann die Leistung ab, wenn man diese limitiert, was sich vermutlich auf die Taktrate der IF auswirkt (z.B. 16fach Link). Das AMD bei Reduktion von PCIe besonders abfällt (nicht schon seit RDNA), ist dabei absolut nicht neu.

Ich dachte übrigens du kommst selbst darauf, dann hätte ich mir das sparen können. Was hat das also mit deinem Artikel zu tun? Frag dich das selbst und lese nochmal Post#9 vorletzter Satz.

Antwort Gefällt mir

Klicke zum Ausklappem
O
Ole

Mitglied

30 Kommentare 9 Likes

Was ist denn mit m2 PCIe 4.0. Ergibt sich aus dieser Ansteuerung eine Benutzung ohne Einschränkung?

Antwort Gefällt mir

G
Guest

Nein, wenn sie sich die Lanes teilen muss - dann ja (2x2).

Es bliebe also festzuhalten, dass derzeitige eGPU Systeme nicht mit PCIe 4.0 Hardware bestückt werden sollten, sondern eben mit 3.0 und man schon darunter Leistung verliert, natürlich alles gemessen am Anschaffungspreis.

Eine 2080ti verliert bis zu 50% an Leistung, dass ist rein vom Anschaffungspreis kaum vertretbar und das ist Level 3070 (ausser beim VRAM).

Es geht nicht um den Testinhalt oder das Ergebnis, es geht um logische Schlüsse, auch Empfehlungen.

Antwort Gefällt mir

G
Guest

Sehr interessanter Test @Gurdi Was es nicht alles gibt....
Aber die jeweiligen Abfälle bei den Spielen sind schon enorm. Da scheint es Zeit zu werden was anderes zu finden als TB. Denn ein großer Unterschied von TB4 zu TB3 kann ja nach deiner Aussage im Text auch nicht sein. Mal sehen, wie sich das dann mit der evtl. USB-Kombi gestaltet.

Auch wenn ich mir schwer vorstellen kann, einen meiner Desktops gegen ein Laptop einzutauschen.
Für eine anstehende Reha habe ich mir jetzt allerdings ein Asus TUF mit einer Nvidia Geforce 1650Ti als kleines Extra besorgt. Käme mir etwas schräg vor, wenn ich da mit einem kompletten Desktop aufschlagen würde. Für Mafia 3 (wenn ich es mit den Einstellungen nicht übertreibe) und Fallout 4 (gemoddet) reicht die kleine Graka völlig. Und für mehr als 3 Wochen könnte ich auf dem kleinen Bildschirm (17``) und den sonstigen Limitierungen wie ungemütlich, bisschen verkrampft usw. auch kaum befriedigend zocken. Brauche es ja nur, um mir etwas die Zeit zu vertreiben.
Habe zwar keine Ahnung, was ich damit anstelle, wenn die Kur vorbei ist. Zum Einstauben ist ein Gerät für knapp 1000 Euronen (die übliche momentane Graka-Abzocke lässt grüßen) dann doch zu schade. Na ja, kommt Zeit, kommt Rat. Wie immer....

Antwort 1 Like

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Gurdi

Werbung

Werbung