Grafikkarten Notebooks Professional Testberichte Workstation

Arbeiten und kreativ gestalten mit dem Notebook? Beim Max-Q Design schlägt die GeForce RTX 3080 die RTX 2080 Super deutlich!

Die GPU-Beschleunigung in Adobe Premiere Pro 2021 ermöglicht es Content-Erstellern die Videoschnitt-Workflows zu beschleunigen, so dass man selbst erweiterte Multilayer-Timelines mit anspruchsvollen Effekten (wie z. B. Lumetri-Farbeffekten) in Echtzeit wiedergeben, scrubben und bearbeiten kann, ohne dass Frames verloren gehen. Das zumindest wäre der Idealfall. Die Mercury Playback Engine unterstützt CUDA und OpenCL als zwei Methoden der Hardwarebeschleunigung, wobei einige OpenCL-Implementierungen durchaus auch mal Probleme bereiten können. Es funktionieren allerdings beide, auch wenn sich die Anzahl unterstützter Filter nicht ganz deckt.

Und genau da kommt auch NVIDIA GPU Decode für H.264 und HEVC ins Spiel. Neben NvEnc und den Zeitvorteilen beim Encodieren, wird in Adobe Premiere Pro 2021 auch Decode voll unterstützt, also das Hardware-beschleunigte Abspielen von z.B. mehreren hochauflösenden 4K-Clips in Echtzeit in der Timeline, was nicht nur die CPU extrem entlastet, sondern auch die Abspiel-Rate konstant bei knapp 24 FPS hält. Mal abgesehen davon, dass dies auch bei mehreren parallel zu verarbeiteten Clips recht eindrucksvoll läuft, schiebt die GPU die CPU einmal mehr in den Hintergrund.

Der im Razer Blade Pro 15 verbaute Intel Core i7-10875H ist alles andere als ein Muskelprotz, so dass hier die GPU für gehörig Entlastung sorgen kann. Dazu kommt, dass ich das Notebook für diesen Test mit einer Art Docking-Station nutze, so dass ich den 4K-Content auch nativ am BenQ PD3220U betrachten kann, ohne mir stationär am Schminkspiegel-Display die Augen zu verbiegen.

Der heutige Benchmark setzt auf mehrere Sequenzen, wie z.B. eine 4K-Intro mit diversen Effekten und Sounds auf zwei Videoebenen und einer Ebene mit Titelgrafiken. Zu den angewandten Effekten gehören: Linsenverzerrung, Gaußsche Unschärfe, Mosaik, Suchränder, zusammen mit Videotransformationen (Rotation). Eine weitere Sequenz stellt ein komplett bearbeitetes Musikvideo samt 4K-Upscaling dar, einschließlich Lumakurvenanpassung, schneller Unschärfe, Rauschen, Farbton-Änderungen, RGB-Kurven, Schwarz-Weiß-Effekte, Bildmischung und Videoüberlagerung, die auch für die Echtzeitvorschau auf der Timeline herhalten muss.

Abschließend zeigt eine weitere Sequenz die gleichzeitige Verarbeitung von insgesamt drei Full-HD-Teilsequenzen innerhalb einer einzigen 4K-Zeitleiste. Es werden drei separate Untersequenzen gezeigt, wobei eine Sequenz zusätzlich noch dupliziert wird. Alle Effekte für die Untersequenzen werden innerhalb der Master-Zeitleiste verarbeitet. In den Benchmarks vergleiche ich zunächst die Performance der Hardware-basierten Echtzeitwiedergabe für die erste Sequenz. Die Echtzeit-Vorschau der Timelines läuft idealerweise mit rund 24 FPS ab, alles was deutlich darunter liegt, ruckelt und stört beim Arbeiten.

Zunächst teste ich die simple Video-Enkodierung mittels mit NvEnc, um eine Ausgangsbasis für alle weiteren Benchmarks zu haben, die über das bloße Encodieren hinaus gehen. Da AMDs AMF eine fürchterliche Bildqualität ergibt und zudem nur über ein Drittanbieter-Plugin läuft, habe ich die Radeon-Karten hierfür einmal ausgeblendet. Das Notebook mit der 2080 Super Max-Q hängt etwas hinterher, was aber auch am begrenzten Power Limit und den Eigenheiten des Max-Q-Designs, sowie dem älteren Encoder liegen durfte. Die neue RTX 3080 Max-Q ist da schon einen Zahn flotter. Die älteren Pascal-Karten laufen aufgrund der schlechteren Bildqualität des veralteten Encoders außer Konkurrenz.

Testen wir nun das Pre-Rendering für die erste Sequenz. Das Vorabrendern vermeidet alle Stockungen im Playback natürlich, kostet aber eben auch erst einmal ordentlich Zeit. Doch auch hier macht das Notebook keine schlechte Figur, da fast alles von der GPU abgedeckt werden kann und die CPU nur Schützenhilfe leisten muss.

Beim 4K Video-Output samt Scaling und diversen Filtern samt Overlays hält sich die Bearbeitungszeit in Grenzen und die Performance des Notebooks sortiert sich im sehr guten Mittelfeld ein.

Beim abschließenden Zusammenführen dreier verschiedener Clips und dem Duplizieren eines dieser Clips zum vollen Quartett merkt man allerdings die Nachteile der eher limitierten Intel-CPU, da Dynamic Boost der GPU die volle Leitung zugesteht und dem Intel einfach schon von Haus aus etwas der Takt fehlt. Trotzdem kann man mit der blauen Bombe leben, weil die GPU ja eh die Hauptarbeit erledigt.

Kommentar

Lade neue Kommentare

G
Guest

Das ist ein interessanter Artikel/Beitrag, mehr davon. Ich kanns bestätigen die 2080 kommt mit der 3080 nicht mit, aber der Energieverbrauch wird zum Problem, das Notebook hebt fast ab (thermisches Limit ist dabei nett ausgedrückt...:)).

External GPU Beistellboxen helfen da kaum ab, weil man zuviel der verfügbaren (Grafik-) Leistung über den Link verliert, der gegenüber einer integrierten dGPU deutlicher limitiert. Man kann nur ca. 70% der verfügbaren Leistung abrufen. Das Thema steckt noch in den Kinderschuhen. Da ist es sinnvoller lieber auf eine stärkere integrierte GPU zu setzen, nur sind die Dinger einfach nicht sparsam. Q-Max usw. waren/sind gebinnte Desktop Dies aus der gleichen Produktion. 95W in einer etwas schmaleren Slim Variante sind der Horror. Da kannst du am Luftauslass deine Kaffetasse warm halten...während dir der Lüfter ähnlich einem Fön den Nerv raubt und du kaum Zugriff auf ein Profil hast. Da hilft dann nur über das Energiepsparprofil ein Offset manuell zu setzen.

Antwort Gefällt mir

Igor Wallossek

1

10,179 Kommentare 18,761 Likes

Es ging so. Für die Oberschenkel ist das nichts 😂

Antwort 1 Like

B
Biedermeyer

Mitglied

46 Kommentare 11 Likes

Ohne stabile RJ45-Verbindung wird das nix - wollen mit der Reduzierung wohl Apple nacheifern.
Den Trend, nach immer weniger Anschluessen verstehe ich nicht, ausser dass vermtl. nur nachgemacht wird, um ja keinen "Trend" zu verpassen...

Antwort Gefällt mir

Abductee

Veteran

271 Kommentare 48 Likes

Der RJ45 braucht im Geäuse halt relativ viel Platz, das ist dann einfach nem schlanken Gehäuse geschuldet das es den nicht mehr gibt.

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,463 Kommentare 820 Likes

Zunächst Mal: Danke für den Test!
Ich bin aktuell (immer noch) im Markt/auf der Suche nach meinem nächsten Laptop. Wie es im Englischen so schön heißt "slim pickings" im Moment, leider.
Über das Testgerät: Jetzt kann ich ja schon verstehen, daß ein dünnes Laptop besser aussieht, aber (ABER) bei so einem 3080 MaxQ wäre etwas mehr Dicke (so 3-5 mm) wirklich mehr gewesen. Damit wäre der Platz da für (von sehr wichtig bis weniger): Größere und bessere Heatsinks/Heatpipes, etwas tiefere Fans mit mehr Durchsatz damit der MaxQ nicht im Hitzestau zum Mini degradiert wird bzw nicht so Fön-Artig klingt, Platz für einen Ethernet Anschluss, und, wenn's 150-200 g mehr sein dürfen, auch eine etwas größere Batterie. Wenn es dieses Notebook dann doch noch mit einer 5700 oder besseren Cézanne oder einem 6 oder 8 Kern Tiger Lake* gibt, nehme ich auch meine Kreditkarte raus.
* Wenn Intel hier in 2021 zu Potte kommt.

Antwort Gefällt mir

Gurdi

Urgestein

1,370 Kommentare 900 Likes

Zu dem Thema befindet sich bereits etwas in Vorbereitung ;)

Antwort Gefällt mir

a
alles_alles

Urgestein

768 Kommentare 179 Likes

https://geizhals.de/?cat=nb&xf=1129...2_AMD~2379_15~6763_Ryzen+4000~6763_Ryzen+5000 So wie ich das sehe, hat sich die Problematik mit den 5000ern cpus in Luft aufgelöst weil es durchaus laptops mit NVIDIA und AMD gibt . Auch eine 3080

Antwort Gefällt mir

a
alles_alles

Urgestein

768 Kommentare 179 Likes

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,463 Kommentare 820 Likes

Wenn ich's richtig verstanden habe, ist das Problem mit AMD Ryzen CPUs und NVIDIA GPUs im Notebook nicht, daß es so nicht gibt, sondern das AMD CPUs (Renoir, Cézanne) nicht bei der dynamischen Aufteilung der TDP mitmachen können oder wollen. Gerade bei so einem Flachmann Notebook wie dem Razor hier ist die maximale Kühlleistung eben doch ziemlich begrenzt. Auch deswegen wäre mir ein etwas dickeres Chassis (extra 3-5 mm) auch lieber, da kommt eine größere Kühllösung besser unter.

Antwort Gefällt mir

P
Palmdale

Mitglied

93 Kommentare 24 Likes

@eastcoast_pete
Jop, so hab ich das im Text auch gelesen, allerdings mit definitivem "Nicht wollen". Was bei AMD als sonst quelloffener Standardfreund eher irritiert, oder man möchte analog Intelgebahren seine gewonnene Stärke gleich mal ins Proprietäre auswalzen...

Antwort Gefällt mir

a
alles_alles

Urgestein

768 Kommentare 179 Likes

aber diverse Seiten schreiben , dass die das haben. Ist also überall zu lesen.

https://www.notebookcheck.com/Das-X...rce-RTX-3000-vorbestellt-werden.531058.0.html

View image at the forums

Antwort Gefällt mir

a
alles_alles

Urgestein

768 Kommentare 179 Likes

View image at the forums

Antwort Gefällt mir

a
alles_alles

Urgestein

768 Kommentare 179 Likes

Was ich glaube warum es bei den 4000er keine rtx gab-

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

1,463 Kommentare 820 Likes

@alles_alles : Ja, das ist schon verwirrend, bei denen (Notebookcheck) steht ganz klar "dynamic boost".
@Igor: Kannst Du hier Mal kommentieren und klarstellen? Hat AMD hier mit Cézanne die Kurve gekriegt, und macht jetzt auch bei dynamic boost mit? Schön wär's ja. So ein 5800 oder 5900 macht ja doch noch mehr Sinn wenn schon eine (teure) 3080 im Laptop sitzt. Die will ja auch gefüttert werden.

Antwort Gefällt mir

a
alles_alles

Urgestein

768 Kommentare 179 Likes

@eastcoast_pete Schreiben auch andere . Daher glaube ich die Dynamic boost geschichte die fehlen soll nicht.

Antwort Gefällt mir

w
wertzius

Mitglied

53 Kommentare 43 Likes

Die Aussage, dass AMD kein Dynamic Boost will, ist einfach falsch. ASUS bietet einen ganzen Haufen Modelle, Lenovo ist dabei, selbst die Barebonehersteller sind dabei, wie man bei Schenker sehen kann. Man muss eher mit der Lupe suchen einen AMD 5000 Laptop zu finden, der es nicht kann. Mir fällt keiner ein.

Wie sinnvoll das Feature ist, steht auf einem anderen Blatt. Was nützt es, wenn am Anfang des Spiels Dynamic Boost zur Verfügung steht, nach 20min aber eine thermische Schwelle überschritten wird und der Boost wegfällt? Das Wort "Dynamic" steht da nicht umsonst. Reddit quillt schon über vor Posts von Leuten, die denken es gäbe irgendeinen Anspruch auf den Boost.

Antwort 2 Likes

a
alles_alles

Urgestein

768 Kommentare 179 Likes

jaa sehe ich auch so .

Antwort Gefällt mir

Igor Wallossek

1

10,179 Kommentare 18,761 Likes

Ihr verwechselt da was. Dynamic Boost ist die dynamische Power Verlagerung zwischen GPU und CPU. Dazu habe ich schon ganze Abhandlungen geschrieben, nur liest es scheinbar keiner. BOOST im Sinne von Takt ist was anderes. Und gerade Schenker kann genau DAS mit dem Balancing nämlich nicht. Das verhindert AMD. Leider.

Antwort 1 Like

a
alles_alles

Urgestein

768 Kommentare 179 Likes

warum heißt dann beides dynamik boost und dynamik power machen meines wissens nach den Bock nicht fett. Es resultieren da zu wenige Vorteilhafte vorteile als das Feature wichtig wäre. Es wird angegeben und was angegeben ist sollte auch funktionieren der boost. Das was Intel mit dynamikpower wettmacht ist die 10 nanometer fertigung die AMD mit 7 nanometer wett macht. Und da sehe ich den knackpunkt was auch tests die die CPU s verglichen durch die bank zu tage fördern. Die Ryzens laufen schneller und effizienter das die technik vermutlich Obselete ist. Intel hat nur einen vorteil. Quicksync . Der rest sind eher spielereien um die letzen prozentpunkte

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung