Grafikkarten Grundlagenartikel Praxis Redaktion Testberichte VGA

eGPU-Guide und Benchmark-Test – Was taugt eine extern betriebene Grafikkarte wirklich? NVIDIA oder AMD, wer kommt besser damit klar?

In Spielen zeichnet sich ein stark differenziertes Bild, manche Spiele brechen völlig ein an der Thunderbolt Schnittstelle, andere laufen hervorragend oder bis zu einer gewissen Framerate einwandfrei. Open World Titel machen der Bandbreite naturgemäß am meisten zu schaffen, hier wird viel aus dem Hauptspeicher gestreamt, die CPU-Last ist hoch.

Anno 1800:

Anno läuft überraschend gut auf der eGPU, sowohl in FHD als auch in UHD. Leider waren meine Daten zur 5700XT nicht korrekt, daher fehlt diese leider hier in den Benchmarks. In UHD wollte die 6700XT einfach nicht mit dem internen Panel starten, die Ursache dafür ist mir nicht bekannt.

Die Abschläge sind mit etwas über 10% im Schnitt mehr als verkraftbar, das Spiel läuft auch in UHD noch top, selbst auf dem internen Panel, wobei die Engine von Anno das auch geschickt löst und einige Texturen manchmal recht spät reinladen.

Shadow of the Tomb Raider

SotTR stellt hohe Anforderungen an die CPU, hier wechselt sich in FHD Bandbreitenlimit und CPU Limit sich je nach Szene ab. Auffällig hier, die 5700XT und die 6700XT sind quasi identisch schnell (oder eher langsam…). Auch die RTX 3060 und RTX 3070 sind recht nah beieinander, die Geforce Karten laufen deutlich besser im Allgemeinen. Man sieht hier an dem Beispiel sehr gut die Limitierung durch die Bandbreite in FHD, in UHD grenzen sich die Karten dann wieder stärker voneinander ab und die RX 6700XT und die RTX 3070 sind etwa auf Augenhöhe. Interessant auch hier wieder die 3060 die sich im Sweetspot bewegt und bei Einsatz am internen Panel Prozentual am wenigsten Leistung verliert. Die RX 5700XT macht mal wieder keine gute Figur bei Einsatz des internen Panels, die Vega schlägt sich tapfer.

Watch Dogs Legion:

WDL ist der absolute Worstcase für eine eGPU, das Spiel ruckelt bereits im Menü. Die Framerates sind sehr niedrig, die Frametimes eine Katastrophe. Die Radeons laufen beide in dasselbe Limit in etwa, wir sehen hier als sehr deutlich eine Bandbreitenlimitierung. Auch die 3060 und die 3070 sind sehr nah beieinander. Die CPU ist in dem Spiel zwar gefordert, stellt aber nicht den limitierenden Faktor dar. Die Unterschiede zwischen externem und internem Panel sind Vergleichsweise gering. Die 3060 habe ich hier mal als Exempel maximal übertaktet, in 720p + DLSS Leistung um das Bandbreitenlimit zu verdeutlichen.

 Die Vega M GL hängt hier kaum zurück gegenüber den Radeons da diese nicht von der Bandbreitenlimitierung betroffen ist, die 4GB HBM reichen in Watch Dogs in dem Preset aber vorne und hinten nicht mehr und der Chip bricht im letzten Drittel deutlich ein.

In UHD ist die 3060 so schnell wie die 6700XT die eigentlich locker knapp 30% schneller sein sollte.

Cyberpunk

Hier habe ich bewusst nur mit dem internen Panel gemessen. Die Leistungsabstände passen hier soweit zwischen den Karten, eine RTX 3070 sollte hier aber in einem Desktopsystem locker die 60 FPS stemmen können, alle Karten bleiben unter den Erwartungen zurück, lassen sich aber auch entsprechend optimieren, dass die 60Fps erreicht werden. Die Frametimes sind stabil, DLSS skaliert zu meiner Überraschung hier doch deutlich besser als in Watch Dogs. Auf einem externen Panel sind etwa 20 % Mehrleistung drin bei allen drei Karten. Die CPU hat in dem Spiel auch gut zu tun, hier ist es schwer zu trennen ob die CPU oder die Bandbreite limitiert. Wahrscheinlich eine Mischung von beidem.

Dirt 5

Die 5700XT habe ich hier aus Zeitgründen nicht mehr getestet. Die CPU spielt in dem Spiel keine Rolle. Die RX 6700XT hat hier das erste Mal die Nase vorne beim Einsatz des internen Panels. Die beiden Geforce fallen stärker ab, sind aber beim Einsatz des externen Panels überlegen. Die RTX 3060 kommt dann an die 6700XT fast ran, es trennen beide Karten nur 10%, die RTX 3070 kann sich sogar recht deutlich absetzen in dem Fall. Die APU kassiert direkt eine Meldung wegen zu geringem VRAM, Endstation Speicher.

Kommentar

Lade neue Kommentare

big-maec

Urgestein

827 Kommentare 475 Likes

Hi,
schön das mal die Lösung getestet wurde. Ich hatte dies ja auch schon bei PCGH "Offenes Ohr" angeregt.
Was mich noch Interessiert, ein Test mit TB3 im Desktop PC. Hier gibt es ja für das jeweilige Board die Möglichkeit TB3 nachzurüsten. Was mich daran Interessiert ist ob es Unterschiede von den Controllern bzw.deren Anbindung gibt. Aber der Test war schonmal Aufschlußreich für mich.

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Auf die Controller gehe ich kurz ein im Text

"Es existieren auch unterschiedliche Controller, diese weichen minimal in der Performance voneinander ab, der Controller spielt aber eine eher untergeordnete Rolle."

"Der Vorteil von TB4 liegt vor allem in geringeren Latenzen, da der Controller direkt in der CPU verbaut ist."

Die Controller bei TB3 variieren kaum untereinander, TB 4 ist ne guten Zacken schneller da hier der Controller in der CPU verbaut ist und deutlich geringere Latenzen aufweist. Alle Intel CPUs ab Reihe 7-10 haben den Controller extern angebunden was sich ebenfalls etwas nachteilig auswirkt.
Wichtiger sind aber die Treiber, sowie das Management des Geräts selber.

Leider war es mir nicht möglich ein TB4 Gerät aufzutreiben, evtl reiche ich da noch was nach.

Antwort 2 Likes

big-maec

Urgestein

827 Kommentare 475 Likes

Dann wäre TB4 für AMD Systeme erstmal nicht verfügbar ?

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Nein, aber der Thunderboltanschluß soll sowieso in USB aufgehen, wie dass dann umgesetzt wird bleibt abzuwarten. Ich denke die integrierte Lösung wird Intel ne weile vorbehalten bleiben.

Antwort 1 Like

G
Guest

Nein. USB 4 unterstützt je nach Kompatibilität des Herstellers Thunderbolt. Einen Zwang für kompatibilitätsnahe Unterstützung gibt es nicht.

Was das getestete Razer eGPU angeht, müsste die auf der RX 6000 Serie XConnect unterstützen, was nur bis zur RVII tut (und das ist kein Problem von AMD). Ich halte daher einige Aussagen für ziemlich gewagt, vor allem im Forum der PCGH. Plug and Play gilt nur für den Anschluss im Betrieb, nicht allgemein bzgl. der Performance.

DLSS Balanced gegen Fullsize Rendering = echt? Na klar hat Nvidia dann Vorteile auf einer eGPU wenn die Bandbreite des TB limitiert, wie verwunderlich. Was sollte das mit der Compression zu tun haben?

Antwort Gefällt mir

ro///M3o

Veteran

342 Kommentare 239 Likes

Klasse Test, vielen dank :)

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Ich kann dir nicht folgen was genau du meinst, XConnect springt automatisch an sobald eine AMD GPU via TB angeschlossen wird, völlig gleich ob eine V56, 5700Xt, VII oder 6700XT. XConnect funktioniert in der Praxis auch besser als Nvidia, was aber verschmerzbar ist. Die NV GPU mag es z.B. gar nicht wenn man diese wie eigentlich vorsehen über den Treiber trennt. Danach lädt einfach der Treiber nicht mehr nach einem Neustart.

Was du mit Plug and Play im Bezug auf die Performance meinst ist mir schleierhaft.
Du ziehst hier falsche Schlüsse, lies den Text bitte nochmal aufmerksamer.

Antwort Gefällt mir

G
Guest

Kompatible?
Radeon ™ RX 5000 Series
Radeon ™ RX Vega Series
Radeon ™ RX 500 Series
Radeon ™ R9 Series
Radeon ™ Pro Series

?

Die Karten werden schlichtweg was die Performance angeht, nicht unterstützt und das hat mit der Compressionsrate, damit möglicherweise mit nvcomp nichts zu tun. Wer lesen kann, ist klar im Vorteil.:)

RTX 3000 Series werden übrigens voll unterstützt. Das ist so wie Metro EHE keine Option mitbringt für Super Resolution Berücksichtigung zu finden, es passt einfach nicht zur API.

Testen ist völlig o.k. und auch die daraus resultierenden Ergebnisse, aber die Schlußfolgerungen sind falsch.

Heißt soviel wie: ...die Worte die du für AMD über hast, richte lieber an Razer...

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Alle meine Karten laufen problemlos via XConnect und werden auch voll unterstützt, die BigNavis laufen sogar besser als die alten Gens im Dock was man ja gut an den Ergebnissen erkennt.

Irgendeine nicht aktualisierte Kompatibilitätsliste spielt hier doch gar keine Rolle in der Betrachtung, die Karten funktionieren einwandfrei, ich weiß nicht was du dir da aus den Fingern ziehst. Das ist völlig ohne Belang.

Antwort 1 Like

G
Guest

Na dann folgt der Test auf einem Mac ja noch.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Möchtest du jetzt behaupten dass eine RX600er Serie Karte nicht auf einem Mac läuft oder was?

Antwort Gefällt mir

G
Guest

1. die Tonart macht die Musik
2. ja - das behaupte ich weil die Treiberunterstützung für eGPUs und damit vermutlich die Leistungsvorteile abzurufen komplett fehlt und zwar für die RX6000-Serie, daran arbeitet Apple derzeit.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Man verwendet einfach Bootcamp und fertig, ich sehe das Problem nicht. Mac ist ein ganz anderes Ökosystem und steht hier überhaupt nicht zur Debatte mit seinen ganzen Eigenheiten.

Antwort 1 Like

G
Guest

Bzgl. der Unterstüzung gab es eine Anfrage bei Razer, die bis heute unbeantwortet bliebt. Also: (eher) nein. Wer bekommt es also besser hin? Razer natürlich, wer sonst!

Auch Bootcamp unterstützt GPUs bis zur VII, seh dort kaum Unterschiede. Mach einfach...natürlich erkennt eGFX die Hardware, nur als was? Die Karten werden mit 4xPCIe 3.0 Express Lanes über TB3 angebunden? Hat also mit der Compression rein gar nichts zu tun, sondern wie die Hardware an 4xPCIe 3.0 skaliert und hoffentlich wird sie auch von Treiber unterstützt.

GPUs sind dann unter Spielen wo Bandbreite über PCIe gefordert wird, komplett limitiert. Mir würde nicht im Traum einfallen dort eine 3070 anzubinden (zu derzeitigen Preisen). Man kann Herstellern sicher keinen Vorwurf machen, dass sie eher neuere oder leistungsfähige Schnittstellen unterstützen.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Ich verstehe ehrlich gesagt immer noch nicht so ganz was du jetzt von mir möchtest und was das alles mit meinem Artikel zu tun hat.
Über Bootcamp laufen alle Karten ohne Probleme, da gibt es zig Builds zu. Mac User sind allegemein leid gepöagt was sowas angeht und wissen das zu handeln und sich zu helfen. Die Spieleperformance auf einem Mac ist einfach nochmal ein ganz anderes Thema und hat hier mit dem Thema absolut nichts zu tun.

Antwort Gefällt mir

G
Guest

Du liest aber was du schreibst oder?

Compression/Bandbreite oder GPU lossless comp bezieht sich auf Vorgänge "innerhalb" der GPU! Ob high, based oder parallel prim uninteressant (Kaskade/cuSZ).

Der FPGA, unter dem jeweiligen PCIe Interface macht da keine Unterschiede aus, wenn man das Protokoll unterstützen will (AMD/Nvidia/Razer).

[/one].. dass die Radeon-Karten beim Einsatz als eGPU deutlich im Nachteil sind, vor allem die Leistung am internen Panel fällt dann schon massiv ab. Ich vermute es liegt an der Kompression der Daten[off/]

Es liegt an der Bandbreite die eGPU bisher über TB3 bereitstellt ala 4xPCIe 3.0 (für Hardware die sonst über PCIe 4.0 angebunden wird), was bei AMD besonders wirken muss da die IF der neuen Serie direkt über "volle" PCIe Bandbreite an die CPU angebunden wird! Natürlich fällt dann die Leistung ab, wenn man diese limitiert, was sich vermutlich auf die Taktrate der IF auswirkt (z.B. 16fach Link). Das AMD bei Reduktion von PCIe besonders abfällt (nicht schon seit RDNA), ist dabei absolut nicht neu.

Ich dachte übrigens du kommst selbst darauf, dann hätte ich mir das sparen können. Was hat das also mit deinem Artikel zu tun? Frag dich das selbst und lese nochmal Post#9 vorletzter Satz.

Antwort Gefällt mir

Klicke zum Ausklappem
O
Ole

Mitglied

30 Kommentare 9 Likes

Was ist denn mit m2 PCIe 4.0. Ergibt sich aus dieser Ansteuerung eine Benutzung ohne Einschränkung?

Antwort Gefällt mir

G
Guest

Nein, wenn sie sich die Lanes teilen muss - dann ja (2x2).

Es bliebe also festzuhalten, dass derzeitige eGPU Systeme nicht mit PCIe 4.0 Hardware bestückt werden sollten, sondern eben mit 3.0 und man schon darunter Leistung verliert, natürlich alles gemessen am Anschaffungspreis.

Eine 2080ti verliert bis zu 50% an Leistung, dass ist rein vom Anschaffungspreis kaum vertretbar und das ist Level 3070 (ausser beim VRAM).

Es geht nicht um den Testinhalt oder das Ergebnis, es geht um logische Schlüsse, auch Empfehlungen.

Antwort Gefällt mir

G
Guest

Sehr interessanter Test @Gurdi Was es nicht alles gibt....
Aber die jeweiligen Abfälle bei den Spielen sind schon enorm. Da scheint es Zeit zu werden was anderes zu finden als TB. Denn ein großer Unterschied von TB4 zu TB3 kann ja nach deiner Aussage im Text auch nicht sein. Mal sehen, wie sich das dann mit der evtl. USB-Kombi gestaltet.

Auch wenn ich mir schwer vorstellen kann, einen meiner Desktops gegen ein Laptop einzutauschen.
Für eine anstehende Reha habe ich mir jetzt allerdings ein Asus TUF mit einer Nvidia Geforce 1650Ti als kleines Extra besorgt. Käme mir etwas schräg vor, wenn ich da mit einem kompletten Desktop aufschlagen würde. Für Mafia 3 (wenn ich es mit den Einstellungen nicht übertreibe) und Fallout 4 (gemoddet) reicht die kleine Graka völlig. Und für mehr als 3 Wochen könnte ich auf dem kleinen Bildschirm (17``) und den sonstigen Limitierungen wie ungemütlich, bisschen verkrampft usw. auch kaum befriedigend zocken. Brauche es ja nur, um mir etwas die Zeit zu vertreiben.
Habe zwar keine Ahnung, was ich damit anstelle, wenn die Kur vorbei ist. Zum Einstauben ist ein Gerät für knapp 1000 Euronen (die übliche momentane Graka-Abzocke lässt grüßen) dann doch zu schade. Na ja, kommt Zeit, kommt Rat. Wie immer....

Antwort 1 Like

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Gurdi

Werbung

Werbung