Grafikkarten Grundlagenartikel Praxis Redaktion Testberichte VGA

eGPU-Guide und Benchmark-Test – Was taugt eine extern betriebene Grafikkarte wirklich? NVIDIA oder AMD, wer kommt besser damit klar?

Auf der Suche nach der optimalen Karte für mein eGPU-Case habe ich lange nach Tests geschaut, leider konnte ich aber nie was Adäquates finden, wo auch mal ein direkter Vergleich zwischen Radeon- und GeForce-Grafikkarten gemacht wurde sowie man erklären konnte, wie sich Overclocking bei einer eGPU auswirkt, bis zu welcher Performance-Klasse eine eGPU aufgrund der Limitierung durch den TB3 Anschluss überhaupt noch sinnvoll skaliert. Es sind die vielen kleine Details, die immer fehlten wie z.B. Informationen darüber, welche Treiber, Hardware, Anbindung ideal sind und was wohl definitiv nicht passen wird.

Alle diese Themen waren mir nicht ausreichend beleuchtet worden. Also was macht man? Man nimmt es selbst in die Hand und baut sich so einen Grafikkartenkäfig eben selbst!

Laptop: HP Spectre x360 15 Convertible, UHD Touchpanel 60 Hz
CPU: Intel i7 8705G (4 Kerne / 8 Threads) optimiert @ 3,7 GHz Allcore, 4,1 GHz Singlecore
Ram: 16 GB DDR4 @ 2400 MHz CL 17
Grafikkarten: GeForce RTX 3070 MSI Gaming X Trio @TB3 Razer Core X Treiber 461.11
  GeForce RTX 3060 Inno3D Twin X2 OC @TB3 Razer Core X Treiber 461.11
  ASRock Radeon RX 6700 XT Referenz @TB3 Razer Core X Treiber 21.3.2
  MSI RX 5700 XT Mech OC @TB3 Razer Core X Treiber 20.4.1
  OnBoard Vega M GL OC @ 1020/930 8×3.0 Treiber 20.4.1
Tweaks: Laptop CPU/GPU mit Flüssigmetall versehen, Core X Gehäuse mit Silent Mod und Beleuchtung.

Das Testsystem hatte ich hier auch schon einmal näher beleuchtet:

Lesetipp: Abhilfe wenn das Notebook throttelt: Im HP Spectre treffen sich Intel CPU und AMD Grafik zur gemeinsamen Siesta

Mittlerweile habe ich natürlich einige kleine Änderungen vorgenommen. Für diesen Test reichen denke ich die Leistungsdaten des Systems um die Testbasis einzuschätzen, wer sich also dafür interessiert wirft einen Blick auf die Screens. Das Core X Gehäuse ist sehr geräumig und nimmt eigentlich fast jede moderne GPU auf. Mit 650 Watt Leistung stemmt es selbst Oberklassekarten. Mehr als 2x 8 Pin ist dann aber auch nicht drin, weswegen ich eine RTX 3080 leider nicht in die Testreihe mit aufnehmen konnte, da ich lediglich eine ROG White hier habe.

Core X Mod

Da mich die Lüfter des Core X Gehäuses etwas genervt haben, vor allem der Netzteillüfter der durch nerviges Klackern auf sich aufmerksam macht schon im Standby, habe ich das Case etwas gemoddet. Da ich ungern arbeiten an einem Netzteil beschreiben möchte hier, lasse ich die Bilder für sich sprechen und erläutere lediglich kurz was ich getauscht habe. Wer Interesse an dem Umbau hat, kann mich gerne hier im Forum anschreiben.

Der Seitenlüfter wurde gegen einen vollgummierten 120 mm NB Silentloop getauscht und ist nun unhörbar bei 6 V. Den Netzteillüfter habe ich ebenfalls nach einer kleinen Odyssey getauscht, ich hatte massive Probleme mit der Anlaufdrehzahl die der Netzteilanschluss ausgibt. Ich habe das Kabel dann aus dem Netzteil geführt und via Y-Adapter am Header der Platine mit verbunden. Nachteil hierbei, wenn das Case im Standby nun meinen Laptop lädt, läuft der Lüfter nicht im Netzteil! Da Thunderbolt jedoch maximal 100 Watt liefert sehe ich das grundsätzlich nicht als kritisch an, das Gerät ist sowieso in maximal 1 h geladen. 4 Lüfter habe ich ausprobiert und keiner lief zuverlässig an. Wer hier einen Tipp für mich hat, schreibt mir gerne in die Kommentare. Ich habe den 2 Pin auf 3 Pin Adapter verbaut gelassen für den Fall der Fälle.

Nach einigen Trockenübungen ob auch alles läuft wie es soll, habe ich auch eine optische Aufwertung noch in Angriff genommen. Ein simpler batteriebetriebener RGB Header mit Controller lässt das Core X nun in neuem Glanz erstrahlen und die MSI Trio macht direkt nochmal eine schickere Figur. Das Bautagebuch in Bildern:

 

Kommentar

Lade neue Kommentare

big-maec

Urgestein

790 Kommentare 458 Likes

Hi,
schön das mal die Lösung getestet wurde. Ich hatte dies ja auch schon bei PCGH "Offenes Ohr" angeregt.
Was mich noch Interessiert, ein Test mit TB3 im Desktop PC. Hier gibt es ja für das jeweilige Board die Möglichkeit TB3 nachzurüsten. Was mich daran Interessiert ist ob es Unterschiede von den Controllern bzw.deren Anbindung gibt. Aber der Test war schonmal Aufschlußreich für mich.

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Auf die Controller gehe ich kurz ein im Text

"Es existieren auch unterschiedliche Controller, diese weichen minimal in der Performance voneinander ab, der Controller spielt aber eine eher untergeordnete Rolle."

"Der Vorteil von TB4 liegt vor allem in geringeren Latenzen, da der Controller direkt in der CPU verbaut ist."

Die Controller bei TB3 variieren kaum untereinander, TB 4 ist ne guten Zacken schneller da hier der Controller in der CPU verbaut ist und deutlich geringere Latenzen aufweist. Alle Intel CPUs ab Reihe 7-10 haben den Controller extern angebunden was sich ebenfalls etwas nachteilig auswirkt.
Wichtiger sind aber die Treiber, sowie das Management des Geräts selber.

Leider war es mir nicht möglich ein TB4 Gerät aufzutreiben, evtl reiche ich da noch was nach.

Antwort 2 Likes

big-maec

Urgestein

790 Kommentare 458 Likes

Dann wäre TB4 für AMD Systeme erstmal nicht verfügbar ?

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Nein, aber der Thunderboltanschluß soll sowieso in USB aufgehen, wie dass dann umgesetzt wird bleibt abzuwarten. Ich denke die integrierte Lösung wird Intel ne weile vorbehalten bleiben.

Antwort 1 Like

G
Guest

Nein. USB 4 unterstützt je nach Kompatibilität des Herstellers Thunderbolt. Einen Zwang für kompatibilitätsnahe Unterstützung gibt es nicht.

Was das getestete Razer eGPU angeht, müsste die auf der RX 6000 Serie XConnect unterstützen, was nur bis zur RVII tut (und das ist kein Problem von AMD). Ich halte daher einige Aussagen für ziemlich gewagt, vor allem im Forum der PCGH. Plug and Play gilt nur für den Anschluss im Betrieb, nicht allgemein bzgl. der Performance.

DLSS Balanced gegen Fullsize Rendering = echt? Na klar hat Nvidia dann Vorteile auf einer eGPU wenn die Bandbreite des TB limitiert, wie verwunderlich. Was sollte das mit der Compression zu tun haben?

Antwort Gefällt mir

ro///M3o

Veteran

337 Kommentare 234 Likes

Klasse Test, vielen dank :)

Antwort 1 Like

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Ich kann dir nicht folgen was genau du meinst, XConnect springt automatisch an sobald eine AMD GPU via TB angeschlossen wird, völlig gleich ob eine V56, 5700Xt, VII oder 6700XT. XConnect funktioniert in der Praxis auch besser als Nvidia, was aber verschmerzbar ist. Die NV GPU mag es z.B. gar nicht wenn man diese wie eigentlich vorsehen über den Treiber trennt. Danach lädt einfach der Treiber nicht mehr nach einem Neustart.

Was du mit Plug and Play im Bezug auf die Performance meinst ist mir schleierhaft.
Du ziehst hier falsche Schlüsse, lies den Text bitte nochmal aufmerksamer.

Antwort Gefällt mir

G
Guest

Kompatible?
Radeon ™ RX 5000 Series
Radeon ™ RX Vega Series
Radeon ™ RX 500 Series
Radeon ™ R9 Series
Radeon ™ Pro Series

?

Die Karten werden schlichtweg was die Performance angeht, nicht unterstützt und das hat mit der Compressionsrate, damit möglicherweise mit nvcomp nichts zu tun. Wer lesen kann, ist klar im Vorteil.:)

RTX 3000 Series werden übrigens voll unterstützt. Das ist so wie Metro EHE keine Option mitbringt für Super Resolution Berücksichtigung zu finden, es passt einfach nicht zur API.

Testen ist völlig o.k. und auch die daraus resultierenden Ergebnisse, aber die Schlußfolgerungen sind falsch.

Heißt soviel wie: ...die Worte die du für AMD über hast, richte lieber an Razer...

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Alle meine Karten laufen problemlos via XConnect und werden auch voll unterstützt, die BigNavis laufen sogar besser als die alten Gens im Dock was man ja gut an den Ergebnissen erkennt.

Irgendeine nicht aktualisierte Kompatibilitätsliste spielt hier doch gar keine Rolle in der Betrachtung, die Karten funktionieren einwandfrei, ich weiß nicht was du dir da aus den Fingern ziehst. Das ist völlig ohne Belang.

Antwort 1 Like

G
Guest

Na dann folgt der Test auf einem Mac ja noch.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Möchtest du jetzt behaupten dass eine RX600er Serie Karte nicht auf einem Mac läuft oder was?

Antwort Gefällt mir

G
Guest

1. die Tonart macht die Musik
2. ja - das behaupte ich weil die Treiberunterstützung für eGPUs und damit vermutlich die Leistungsvorteile abzurufen komplett fehlt und zwar für die RX6000-Serie, daran arbeitet Apple derzeit.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Man verwendet einfach Bootcamp und fertig, ich sehe das Problem nicht. Mac ist ein ganz anderes Ökosystem und steht hier überhaupt nicht zur Debatte mit seinen ganzen Eigenheiten.

Antwort 1 Like

G
Guest

Bzgl. der Unterstüzung gab es eine Anfrage bei Razer, die bis heute unbeantwortet bliebt. Also: (eher) nein. Wer bekommt es also besser hin? Razer natürlich, wer sonst!

Auch Bootcamp unterstützt GPUs bis zur VII, seh dort kaum Unterschiede. Mach einfach...natürlich erkennt eGFX die Hardware, nur als was? Die Karten werden mit 4xPCIe 3.0 Express Lanes über TB3 angebunden? Hat also mit der Compression rein gar nichts zu tun, sondern wie die Hardware an 4xPCIe 3.0 skaliert und hoffentlich wird sie auch von Treiber unterstützt.

GPUs sind dann unter Spielen wo Bandbreite über PCIe gefordert wird, komplett limitiert. Mir würde nicht im Traum einfallen dort eine 3070 anzubinden (zu derzeitigen Preisen). Man kann Herstellern sicher keinen Vorwurf machen, dass sie eher neuere oder leistungsfähige Schnittstellen unterstützen.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Ich verstehe ehrlich gesagt immer noch nicht so ganz was du jetzt von mir möchtest und was das alles mit meinem Artikel zu tun hat.
Über Bootcamp laufen alle Karten ohne Probleme, da gibt es zig Builds zu. Mac User sind allegemein leid gepöagt was sowas angeht und wissen das zu handeln und sich zu helfen. Die Spieleperformance auf einem Mac ist einfach nochmal ein ganz anderes Thema und hat hier mit dem Thema absolut nichts zu tun.

Antwort Gefällt mir

G
Guest

Du liest aber was du schreibst oder?

Compression/Bandbreite oder GPU lossless comp bezieht sich auf Vorgänge "innerhalb" der GPU! Ob high, based oder parallel prim uninteressant (Kaskade/cuSZ).

Der FPGA, unter dem jeweiligen PCIe Interface macht da keine Unterschiede aus, wenn man das Protokoll unterstützen will (AMD/Nvidia/Razer).

[/one].. dass die Radeon-Karten beim Einsatz als eGPU deutlich im Nachteil sind, vor allem die Leistung am internen Panel fällt dann schon massiv ab. Ich vermute es liegt an der Kompression der Daten[off/]

Es liegt an der Bandbreite die eGPU bisher über TB3 bereitstellt ala 4xPCIe 3.0 (für Hardware die sonst über PCIe 4.0 angebunden wird), was bei AMD besonders wirken muss da die IF der neuen Serie direkt über "volle" PCIe Bandbreite an die CPU angebunden wird! Natürlich fällt dann die Leistung ab, wenn man diese limitiert, was sich vermutlich auf die Taktrate der IF auswirkt (z.B. 16fach Link). Das AMD bei Reduktion von PCIe besonders abfällt (nicht schon seit RDNA), ist dabei absolut nicht neu.

Ich dachte übrigens du kommst selbst darauf, dann hätte ich mir das sparen können. Was hat das also mit deinem Artikel zu tun? Frag dich das selbst und lese nochmal Post#9 vorletzter Satz.

Antwort Gefällt mir

Klicke zum Ausklappem
O
Ole

Mitglied

29 Kommentare 9 Likes

Was ist denn mit m2 PCIe 4.0. Ergibt sich aus dieser Ansteuerung eine Benutzung ohne Einschränkung?

Antwort Gefällt mir

G
Guest

Nein, wenn sie sich die Lanes teilen muss - dann ja (2x2).

Es bliebe also festzuhalten, dass derzeitige eGPU Systeme nicht mit PCIe 4.0 Hardware bestückt werden sollten, sondern eben mit 3.0 und man schon darunter Leistung verliert, natürlich alles gemessen am Anschaffungspreis.

Eine 2080ti verliert bis zu 50% an Leistung, dass ist rein vom Anschaffungspreis kaum vertretbar und das ist Level 3070 (ausser beim VRAM).

Es geht nicht um den Testinhalt oder das Ergebnis, es geht um logische Schlüsse, auch Empfehlungen.

Antwort Gefällt mir

G
Guest

Sehr interessanter Test @Gurdi Was es nicht alles gibt....
Aber die jeweiligen Abfälle bei den Spielen sind schon enorm. Da scheint es Zeit zu werden was anderes zu finden als TB. Denn ein großer Unterschied von TB4 zu TB3 kann ja nach deiner Aussage im Text auch nicht sein. Mal sehen, wie sich das dann mit der evtl. USB-Kombi gestaltet.

Auch wenn ich mir schwer vorstellen kann, einen meiner Desktops gegen ein Laptop einzutauschen.
Für eine anstehende Reha habe ich mir jetzt allerdings ein Asus TUF mit einer Nvidia Geforce 1650Ti als kleines Extra besorgt. Käme mir etwas schräg vor, wenn ich da mit einem kompletten Desktop aufschlagen würde. Für Mafia 3 (wenn ich es mit den Einstellungen nicht übertreibe) und Fallout 4 (gemoddet) reicht die kleine Graka völlig. Und für mehr als 3 Wochen könnte ich auf dem kleinen Bildschirm (17``) und den sonstigen Limitierungen wie ungemütlich, bisschen verkrampft usw. auch kaum befriedigend zocken. Brauche es ja nur, um mir etwas die Zeit zu vertreiben.
Habe zwar keine Ahnung, was ich damit anstelle, wenn die Kur vorbei ist. Zum Einstauben ist ein Gerät für knapp 1000 Euronen (die übliche momentane Graka-Abzocke lässt grüßen) dann doch zu schade. Na ja, kommt Zeit, kommt Rat. Wie immer....

Antwort 1 Like

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Gurdi

Werbung

Werbung