Grafikkarten Notebooks Professional Testberichte Workstation

Arbeiten und kreativ gestalten mit dem Notebook? Beim Max-Q Design schlägt die GeForce RTX 3080 die RTX 2080 Super deutlich!

Das Graphics Device Interface (GDI/GDI+) von Windows ist einfach nicht totzubekommen. Egal, ob es ältere grafische Anwendungen bis hin zu CAD-Programmen sind oder das bloße Darstellen der einfachen GUI vieler Programme – es wird immer noch über das GDI ausgegeben, als gäbe es kein Morgen mehr. Doch alle Windows Versionen nach XP unterstützen keine für die Grafikfunktionen keine hardwarebeschleunigte Ausgabe mehr, denn mit der Einführung der Unified Shader und dem Wegfall der spezialisierten 2D-Einheiten auf den Grafikkarten laufen alle diese Dinge quasi über den Treiber als eine Art Wrapper.

Rechnen muss hier überwiegend die CPU und es liegt am Ende auch am Treiber wie effizient und mit welchem Overhead die Ausgabe ans D3D erfolgt. Die Treiber-Modelle seit Vista unterstützen, zumindest in Teilen, noch die Hardwarebeschleunigung beim Blitten, also dem Kopieren von Grafikinhalten innerhalb des Speichers. Hier kommt beim Endergebnis ist die verhältnismäßig schwache CPU wieder ins Spiel, die die Grafikkarte ein wenig bremst. Aber es ist alles wirklich flüssig, kein Thema.

AMD und Nvidia verfolgen hier unterschiedliche Ansätze, so dass man sehr gut sehen kann, welche der einzelnen Funktionen vom jeweiligen Treiber besser umgesetzt werden kann (oder nicht). Nach meinem damaligen Untersuchungen im Jahr 2009 hat vor allem das AMD-Treiber-Team in Toronto viel aufgeholt, denn die damaligen ATI-Karten hatten teilweise eklatante Nachteile. Davon profitieren viele Funktionen in den AMD-Treibern noch bis heute. Eine aktuelle Bestandsaufnahme zeigt, dass man mittlerweile ziemlich eng zusammen liegt.

AMD schwächelt immer noch etwas beim TextOut, während in einigen Bereichen wie den Linien, Splines und Rechtecken faktisch Gleichstand herrscht, jedoch bei Dingen wie den Polygonen bei AMD richtig die Post abgeht. Hier darf NVIDIA gern noch etwas nachbessern.

Zusammenfassung und Fazit

Auch wenn ich mich natürlich schon wieder wiederhole: Das Notebook kann und wird den normalen PC als Workstation natürlich nicht vollumfänglich ersetzen können, jedenfalls nicht beim jetzigen Stand der Technik. Aber die Fortschritte sind von Jahr zu Jahr sicht- und vor allem auch spürbar. Durch die immer weiter steigende Verlagerung der rechenintensiven und gut parallelisierbaren Funktionen auf die GPU (CUDA und OpenCL), durch das Nutzen der AI-Funktionalität der GeForce RTX und durch die steigende Verbreitung von Dingen wie z.B. OptiX tritt die CPU in vielen Bereichen ein wenig in den Hintergrund.

Wenn man etwas gehässig wäre, dann könnte man der Spieleindustrie z.B. vorhalten, mal bei den Entwicklern der Produktivsoftware abzugucken, wenn es um das Implementieren neuer GPU-basierter Beschleunigungen geht. Denn man hat am Ende fast schon das Gefühl, dass die relevanten Plugins und fest implementierten AI-Umsetzungen im Creation- und Workstation-Bereich schneller aus dem Boden sprießen, als die Einbindung in Spielen, die sich offensichtlich auch ohne noch ganz gut verkaufen. Naja, fast, denn dann kam DLSS.

In der Industrie und im semi-professionellen Bereich ist Zeit natürlich bares Geld und so rechnet sich das Meiste auch als Neuinvestition recht schnell. Dinge, wie AI-basiertes Denoising am Laptop ermöglichen es einem, auch portabel z.B. beim Kunden vor Ort an Projekten Änderungen vornehmen zu können, verschiedene Iterationen eines Entwurfs zeigen zu können oder einfach Teilbereiche der Entwurfs- bzw. Design-Phase auch aufs Home-Office auslagern zu können. Der Vorteil der Intel-Lösung: man kann per Thunderbolt 3 auch noch eine externe GPU laufen lassen, die dann vor Ort stationär deutlich mehr Rechenleistung bietet. Mit dem Focus weg von der CPU als limitierendem Faktor in den rechenintensiven Aufgaben ließe sich sogar eine Art modularer Workstation aufbauen.

Viel mehr kann man mit den aktuellen Studio-Laptops nicht lösen, aber das wird sicher auch keiner verlangen, denn das Power-Limit der portablen Lösungen lässt sich nicht völlig umgehen. Gerade in der heutigen Zeit, wo Arbeitsplätze sich verlagern und der mobile Bereich stärker in den Fokus rückt, sind aber auch potente Notebook-Lösungen immer stärker gefragt. Da geht es noch nicht einmal primär um das Stecker-freie Arbeiten, sondern den Formfaktor und eben auch die thermischen Grenzen der Geräte, wo die Effizienzsteigerung durch das Auslagern auf die GPU signifikant ist.

Lade neue Kommentare

g
gastello

Veteran

267 Kommentare 87 Likes

Das ist ein interessanter Artikel/Beitrag, mehr davon. Ich kanns bestätigen die 2080 kommt mit der 3080 nicht mit, aber der Energieverbrauch wird zum Problem, das Notebook hebt fast ab (thermisches Limit ist dabei nett ausgedrückt...:)).

External GPU Beistellboxen helfen da kaum ab, weil man zuviel der verfügbaren (Grafik-) Leistung über den Link verliert, der gegenüber einer integrierten dGPU deutlicher limitiert. Man kann nur ca. 70% der verfügbaren Leistung abrufen. Das Thema steckt noch in den Kinderschuhen. Da ist es sinnvoller lieber auf eine stärkere integrierte GPU zu setzen, nur sind die Dinger einfach nicht sparsam. Q-Max usw. waren/sind gebinnte Desktop Dies aus der gleichen Produktion. 95W in einer etwas schmaleren Slim Variante sind der Horror. Da kannst du am Luftauslass deine Kaffetasse warm halten...während dir der Lüfter ähnlich einem Fön den Nerv raubt und du kaum Zugriff auf ein Profil hast. Da hilft dann nur über das Energiepsparprofil ein Offset manuell zu setzen.

Antwort Gefällt mir

Klicke zum Ausklappem
Igor Wallossek

Format©

5,365 Kommentare 8,297 Likes

Es ging so. Für die Oberschenkel ist das nichts 😂

Antwort 1 Like

B
Biedermeyer

Mitglied

28 Kommentare 5 Likes

Ohne stabile RJ45-Verbindung wird das nix - wollen mit der Reduzierung wohl Apple nacheifern.
Den Trend, nach immer weniger Anschluessen verstehe ich nicht, ausser dass vermtl. nur nachgemacht wird, um ja keinen "Trend" zu verpassen...

Antwort Gefällt mir

Abductee

Veteran

225 Kommentare 29 Likes

Der RJ45 braucht im Geäuse halt relativ viel Platz, das ist dann einfach nem schlanken Gehäuse geschuldet das es den nicht mehr gibt.

Antwort Gefällt mir

e
eastcoast_pete

Veteran

148 Kommentare 30 Likes

Zunächst Mal: Danke für den Test!
Ich bin aktuell (immer noch) im Markt/auf der Suche nach meinem nächsten Laptop. Wie es im Englischen so schön heißt "slim pickings" im Moment, leider.
Über das Testgerät: Jetzt kann ich ja schon verstehen, daß ein dünnes Laptop besser aussieht, aber (ABER) bei so einem 3080 MaxQ wäre etwas mehr Dicke (so 3-5 mm) wirklich mehr gewesen. Damit wäre der Platz da für (von sehr wichtig bis weniger): Größere und bessere Heatsinks/Heatpipes, etwas tiefere Fans mit mehr Durchsatz damit der MaxQ nicht im Hitzestau zum Mini degradiert wird bzw nicht so Fön-Artig klingt, Platz für einen Ethernet Anschluss, und, wenn's 150-200 g mehr sein dürfen, auch eine etwas größere Batterie. Wenn es dieses Notebook dann doch noch mit einer 5700 oder besseren Cézanne oder einem 6 oder 8 Kern Tiger Lake* gibt, nehme ich auch meine Kreditkarte raus.
* Wenn Intel hier in 2021 zu Potte kommt.

Antwort Gefällt mir

Klicke zum Ausklappem
Gurdi

Urgestein

997 Kommentare 511 Likes

Zu dem Thema befindet sich bereits etwas in Vorbereitung ;)

Antwort Gefällt mir

a
alles_alles

Urgestein

737 Kommentare 174 Likes

https://geizhals.de/?cat=nb&xf=1129...2_AMD~2379_15~6763_Ryzen+4000~6763_Ryzen+5000 So wie ich das sehe, hat sich die Problematik mit den 5000ern cpus in Luft aufgelöst weil es durchaus laptops mit NVIDIA und AMD gibt . Auch eine 3080

Antwort Gefällt mir

a
alles_alles

Urgestein

737 Kommentare 174 Likes

Antwort Gefällt mir

Klicke zum Ausklappem
e
eastcoast_pete

Veteran

148 Kommentare 30 Likes

Wenn ich's richtig verstanden habe, ist das Problem mit AMD Ryzen CPUs und NVIDIA GPUs im Notebook nicht, daß es so nicht gibt, sondern das AMD CPUs (Renoir, Cézanne) nicht bei der dynamischen Aufteilung der TDP mitmachen können oder wollen. Gerade bei so einem Flachmann Notebook wie dem Razor hier ist die maximale Kühlleistung eben doch ziemlich begrenzt. Auch deswegen wäre mir ein etwas dickeres Chassis (extra 3-5 mm) auch lieber, da kommt eine größere Kühllösung besser unter.

Antwort Gefällt mir

P
Palmdale

Mitglied

60 Kommentare 16 Likes

@eastcoast_pete
Jop, so hab ich das im Text auch gelesen, allerdings mit definitivem "Nicht wollen". Was bei AMD als sonst quelloffener Standardfreund eher irritiert, oder man möchte analog Intelgebahren seine gewonnene Stärke gleich mal ins Proprietäre auswalzen...

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung