News Gaming-Notebooks in der Klemme: Ryzen 4000 APUs im Bandbreitenlimit, Tiger Lake kommt 2020 wohl vorerst mit nur 4 Kernen und Ampere braucht mehr Feuer

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.107
Bewertungspunkte
18.596
Punkte
114
Alter
59
Standort
Labor
Ich hatte ja bereits im Artikel "Warum sich Hersteller mit AMD-Notebooks schwer tun, AMD sich gern selbst ein Bein stellt und die blaue Verschwörung gar keine ist" angerissen, warum sich die Notebookhersteller bei AMDs CPUs und APUs im mobilen Bereich noch so zurückhalten. Warum man sich bisher jedoch nicht wirklich dazu durchgerungen hat, die beliebten Ryzen der 4000 H-Serie mit potenten NVIDIA-Grafikkarten zu kombinieren, werde ich gleich noch erklären, denn das ist ein völlig anderes Thema. Zudem stehen ja auch noch die neuen Ampere-Chips in Lauerposition, die genau dieses Problem noch verstärken dürften.

Und wieso jetzt eigentlich Klemme? Intel wird in diesem Jahr zwar noch mit Tiger Lake im Notebook-Bereich starten, wohl aber nur mit maximal 4 Kernen (8 Threads). Für einen potenten Gaming-Laptop ist das natürlich erst einmal nichts. Also könnte man ja als OEM nun einfach geneigt sein, dann doch zu einem Ryzen 4000 "Renoir" greifen und Intel damit so richtig einseifen? Genau das wird allerdings auch nicht so einfach gehen, denn AMD begibt sich mit der "Renoir"-APU völlig unnötig in ein selbstauferlegtes Bandbreiten-Limit, das in der gebotenen Form eigentlich sogar zu vermeiden gewesen wäre....




>>> Hier die gesamte News lesen <<<
 
Ich bin zwar grundsätzlich absolut dafür, dass bei solchen Produktentwicklungen die Ingenieure das Sagen haben und nicht das Marketing.
Da AMDs Produkte aber leider noch keine Selbstläufer (verkaufstechnisch) sind, tuts mir in der Seele weh dies hier zu lesen. DAS hätte sich vermeiden lassen und doch einiges bewirken können.
 
Ich gehe mal davon aus, das es aus Designgründen so gewählt wurde. Natürlich schade.
 
Naja, das ist ein Beispiel für ein Blockschaltbild. Die meisten Renoir Rechner haben z.B. gar kein SATA mehr. Insofern können die dann auch ganz anders verschaltet sein. Und je mehr Speicher die GPU hat, desto weniger Relevant wird dann das PCIe Interface. In deinem eigenen Test hat die RTX6000 (quasi eine 2080TI mit 24GB VRam) gerade mal 3,5% bei FullHD verloren. Ich denke nicht, dass das der Grund ist, wieso es keine 2070 mit Renoir gibt. Da macht das Kühlsystem schon mehr aus. Und mit Chipsatz bestückt wäre das Problem sowieso beseitigt.
 
mir würde schon eine ordentliche Serie mit >=4800H(S) und iGPU ausreichen - aber: Fehlanzeige! Und das hat sicher nichts mit den pcie-Lanes zu tun. Man kann immer Ausreden finden, um an Intel festzuhalten, einen Strohhalm auch wenn er noch so klein und winzig ist. Aber das Spiel kennen wir ja schon lange...
 
mir würde schon eine ordentliche Serie mit >=4800H(S) und iGPU ausreichen
Den Wunsch habe ich schon mehrfach gelesen, kann ich allerdings nicht so ganz nachvollziehen, daher hätte ich dazu eine Frage. Für mich gilt: Wenn eine "H" APU, dann mit dGPU (für einen Gaming Laptop), die IGP sehe ich eher bei den "U" Modellen im Einsatz. Was erhoffst du dir von "H" APU mit IGP gegenüber der "U" APU? Eine deutlich höhere 3D Leistung durch das höhere TDP Budget?
 
Der Einbruch der RTX 6000 war bei AC Odyssey. Wenn die Zahl der Drawcalls steigt, bist Du schnell bei bis zu 20% auf FHD.
 
Den Wunsch habe ich schon mehrfach gelesen, kann ich allerdings nicht so ganz nachvollziehen, daher hätte ich dazu eine Frage. Für mich gilt: Wenn eine "H" APU, dann mit dGPU (für einen Gaming Laptop), die IGP sehe ich eher bei den "U" Modellen im Einsatz. Was erhoffst du dir von "H" APU mit IGP gegenüber der "U" APU? Eine deutlich höhere 3D Leistung durch das höhere TDP Budget?
nein, auch die U iGPU Leistung reicht völlig aus - ich und vermutlich alle die dies so wollen, würden gerne das mehr an CPU Leistung mitnehmen - und das leise ohne die unnötige zusätzlich zu kühlende GPU (kA. wie viele wirklich solch Gaming-Firefanz bei einem Laptop haben wollen?)
 
mir würde schon eine ordentliche Serie mit >=4800H(S) und iGPU ausreichen - aber: Fehlanzeige! Und das hat sicher nichts mit den pcie-Lanes zu tun. Man kann immer Ausreden finden, um an Intel festzuhalten, einen Strohhalm auch wenn er noch so klein und winzig ist. Aber das Spiel kennen wir ja schon lange...
Gibt doch schon längst Laptops mit Renoir H ohne dGPU, z.b. den Tuxedo Pulse 15

 
Was ich mich bei den so genannten "Gaming-Notebooks" immer Frage, wie groß ist eigentlich der Markt dafür?
Für zuhause würde ich mir so ein Ding nicht zulegen. Und für unterwegs darf man auch nie weit weg von der Steckdose sein. Klar, wenn man beruflich viel auswärts ist und in der Freizeit dann unbedingt grafisch anspruchsvolle Spiele zocken will ...
Oder ist das wieder nur so ein "Speerspitze-Leuchtturm-Ding". Ich weiß es nicht.:rolleyes:
 
Der Laptop Markt hat den Desktop Markt für schon lange überholt, auch im Gamingbereich.

Die erhöhte Mobilität der Arbeitnehmer (Fernpendler, Zeiten auf Montage, Geschäftsreisen, etc.) schlägt sich auch im Bedarf an portabler Hobbyausrüstung nieder.

Naja, insgesamt sicher irgendwie messbar, praktische Relevanz geht wohl eher gegen 0.
 
Ich finde die News beißt sich total mit dem erst vor kürzlich veröffentlichten Testbericht: PCIe 4.0 und PCIe 3.0 – Unterschied zwischen x8 und x16 mit den jeweils schnellsten Karten – Wo beginnt der Flaschenhals?

Das Ergebnis ist durchaus interessant, denn bereits eine GeForce RTX 2060 Super wird ab 1080p faktisch nicht mehr nennenswert limitiert. Bei der GeForce RTX 2070 Super wird die 1-Prozent-Marke bei 1440p fast schon erreicht und selbst die GeForce RTX 2080 Super bzw. RTX 2080 Ti sind bei 2160p faktisch symptomfrei.

Wie man dem Diagramm aus dem Testbericht entnehmen kann, erfährt man selbst mit einer Nvidia RTX 2070 Super (Desktop) unter FullHD nur einen Leistungsverlust von unter 2%, sollte diese mittels PCIe 3.0 x8 angebunden sein.

Performance-Losses-NV.JPG

Legt man diese Erkenntnis nun auf die mobilen Ableger von Nvidia um, lässt es einem noch viel mehr an dem Wahrheitsgehalt der Aussagen einiger Notebook-OEMs zweifeln.

Ein Gaming-Laptop mit einer leistungsstärkeren GeForce RTX hätte heute schon mit unnötigen Limits zu kämpfen. Interne Versuche einiger Notebook-OEMs gehen von ca. 3% bis 5% Verlust aus, wenn man lediglich eine GeForce RTX 2070 verbauen würde. Wohlgemerkt als Notebook-Ableger mit deutlich reduziertem Power Limit.

Einschlägige Testberichte bescheinigen einer Nvidia RTX 2080 Max-Q die gleiche Spielleistung wie einer Nvidia RTX 2060 Super FE (Desktop).
Eine im Vergleich zu den Max-Q Modellen ungezügelte Nvidia RTX 2080 Mobile mit einer TDP von 150W, liegt im Leistungsvergleich unterhalb der getesteten RTX 2070 Super (Desktop) Karte, welche sich aufgrund der durchgehend höheren Taktraten, trotz der niedrigeren Shaderanzahl, in einer Vielzahl von Titeln absetzten kann.

Fasst man nun diese Ergebnisse zusammen, wäre eine Kombination von einem Ryzen Mobile 4000 aus der H Serie mit bis zu einer RTX 2080 Mobile problemlos machbar, da der Leistungsabfall durch das PCIe 3.0 x8 Interface, laut dem oben verlinkten Testbericht gerade einmal 2% ausmachen würde.

Dem gegenüber würde die geringere Verlustleistung der AMD Ryzen Mobile 4000 Prozessoren im Vergleich zu den Intel Mobile CPUs der 10. Generation gegenüberstehen, was vermutlich in einem höheren GPU-Takt, durch die Dynamic-Boost-Technologie resultieren würde, da somit die GPU ein größeres thermisches Budget zur Verfügung hätte. Bei einem gleich stark dimensionierten Kühlsystem würde die AMD Variante vermutlich, den vermeidlichen Nachteil bei der PCIe-Schnittstelle, im Gegensatz zur Intel Version mehr als nur kompensieren.

Es sieht viel mehr danach aus als wollten die OEMs einfach nur sicher Spielen und kein großes Risiko eingehen. Über die letzten Jahre war an eine ernsthafte Konkurrenz im mobilen Segment, vor allem was die Hochleistungs-CPUs anbelangt, seitens AMD überhaupt nicht zu denken.

Bei den Kunden, vor allem bei der Zielgruppe für Gaming-Notebooks, hat sich so die Kombination Intel + Nvidia eingebrannt. Jetzt wo AMD, dank Zen 2 Architektur, mit ihrer Ryzen Mobile 4000 wieder mehr als nur konkurrenzfähig ist, ist es dennoch aus Marketing-Technischer-Sicht nicht so einfach deren Produkte im Premium-Segment, wo auch die teuren Nvidia RTX Mobile GPUs anzutreffen sind, an den Mann zu bringen.

AMD ist einfach in vielen Köpfen noch als Billigheimer-Lösung verschrien, weshalb es aus Unternehmerischer Sicht also durchaus nachvollziehbar ist, wieso aktuell trotz besserer AMD Konkurrenzprodukte in den High-End Serien immer noch vorwiegend Intel Lösungen verbaut werden.

Wie wichtig der Intel Aufkleber aus für das Marketing vor allem im Gaming-Notebook-Segment ist kann man anhand des Beispiel bei Asus sehr gut sehen: ROG Announces Rollout of Liquid Metal for Entire 2020 Intel Laptop Lineup

Um der schlechteren Leistung per Watt und der dadurch höheren Verlustleistung der Intel CPUs Zoll zu tragen wurde bei Asus, der ansonsten nicht als ganz unkritisch angesehene Einsatz von Flüssigmetall in Laptops vorgenommen.

Es bleibt also nur zu hoffen, dass die Absatzzahlen aufgrund des oft besseren Preis-Leistungs-Verhältnis der Schwestermodelle mit AMD Prozessor zunehmen und den OEMs so die Zuversicht gibt, zukünftige High-End Serien ebenfalls mit einer AMD Option anzubieten.
 
Zuletzt bearbeitet :
Manchmal fehlen mir die Worte....
Warum nicht wenigstens PCI Ex 4.0 um mobile GPU´s aus dem eigenen Hause besser in den Markt zu drücken?
 
Weil dafür immernoch ein extra Chip mit erheblicher Verlustleistung nötig ist. Im Laptop schlicht nicht brauchbar.
 
Gibt doch schon längst Laptops mit Renoir H ohne dGPU, z.b. den Tuxedo Pulse 15

Nur weil es welche gibt (auch von Schenker), heißt das noch lange nicht, dass die auch was taugen...
A) Kühlung ungenügend, zu laut B) kein DP, nicht mal über USB-c C) Display grenzwertig, mir auf alle Fälle zu dunkel D) ...egal, die ersten 3 reichen um nicht empfehlenswert zu sein
daher schrieb ich ja auch: ordentliche Serie
 
Ich hatte ja bereits im Artikel "Warum sich Hersteller mit AMD-Notebooks schwer tun, AMD sich gern selbst ein Bein stellt und die blaue Verschwörung gar keine ist" angerissen, warum sich die Notebookhersteller bei AMDs CPUs und APUs im mobilen Bereich noch so zurückhalten. Warum man sich bisher jedoch nicht wirklich dazu durchgerungen hat, die beliebten Ryzen der 4000 H-Serie mit potenten NVIDIA-Grafikkarten zu kombinieren, werde ich gleich noch erklären, denn das ist ein völlig anderes Thema. Zudem stehen ja auch noch die neuen Ampere-Chips in Lauerposition, die genau dieses Problem noch verstärken dürften.

Und wieso jetzt eigentlich Klemme? Intel wird in diesem Jahr zwar noch mit Tiger Lake im Notebook-Bereich starten, wohl aber nur mit maximal 4 Kernen (8 Threads). Für einen potenten Gaming-Laptop ist das natürlich erst einmal nichts. Also könnte man ja als OEM nun einfach geneigt sein, dann doch zu einem Ryzen 4000 "Renoir" greifen und Intel damit so richtig einseifen? Genau das wird allerdings auch nicht so einfach gehen, denn AMD begibt sich mit der "Renoir"-APU völlig unnötig in ein selbstauferlegtes Bandbreiten-Limit, das in der gebotenen Form eigentlich sogar zu vermeiden gewesen wäre....




>>> Hier die gesamte News lesen <<<


irgendwie widersprichst du dir, du hast letztens sogar selber getestet das ne 2080Ti(desktop version) nur 3% langsamer ist unter 3.0 8x vs. 3.0 16x... somit vollkommen furz ob die dGPU mit 8x oder 16x angebunden ist.
 
Erstens sind diese Tests, auf die ich mich im Artikel beziehe, von den OEMs gemacht worden und sie sind im Nachgang durchaus plausibel. Es gibt Szenarien, in denen sogar eine fußlahme 5500XT am x8 3.0 gegenüber dem x8 4.0 bis zu 7% einbüßt. Texturen, Drawcalls, whatever. Ich kann es mangels Hardware leider nicht selbst nachstellen, muss mich also auf den OEM verlassen.
 
Es gibt Szenarien, in denen sogar eine fußlahme 5500XT am x8 3.0 gegenüber dem x8 4.0 bis zu 7% einbüßt

Diese spiegeln aber vermutlich nicht den typischen Anwendungsfall wieder, denn sonst hättest du dies bestimmt in deinem Artikel zum PCIe Bandbreitenvergleich angesprochen. Natürlich gibt es in ausgewählten Titeln immer irgendwelche Extrem-Szenarien, jedoch wird sich der durchschnittliche Nutzer, an den punktuell auftretenden Leistungsverlust, welcher sich meist in einem kurzzeitigen FPS Drop äußert, kaum stören.

Computerbase hat in dem Notebook-Test zum Gigabyte Aero 17 HDR diesen mit diversen Konkurrenzprodukten, sowie einigen Desktop Konfigurationen, verglichen. Dort ist schön zu sehen auf welchem Leistungsniveau sich die mobilen Ableger von Nvidia im Vergleich zu ihren Desktop Pendants befinden:

Shadow of the Tomb Raider.JPG

Notebook_HW_List.JPG

Insofern sollte sich der ermittelte Leistungsverlust, welcher durch den Betrieb in einem PCIe 3.0 x8 Slot statt in einem x16 Slot auftritt, ohne großartige Fehler von einem Desktop-System auf ein Notebook-System übertragen lassen, denn PCIe 3.0 funktioniert bekanntermaßen auf beiden Plattformen identisch.

Leider ist durch die zögerliche Implementierung der Ryzen Mobile 4000 Prozessoren von den OEMs im Bezug auf mobile High-End GPUs kein Vergleich auf Augenhöhe möglich.

In anderen Geräteklassen ist ein deutlich transparenterer Vergleich möglich. Bestes Beispiel ist das aktuelle Lenovo ThinkPad T14s:

Der Vergleich der beiden Prozessoren ist daher besonders interessant, da die TDP-Limits von Lenovo gleich eingestellt wurden...

...Der AMD Ryzen 7 Pro 4750U hat uns in den ersten Tests beeindruckt. Bei vergleichbarer Stromaufnahme (TDP) werden die mobilen CPU von Intel (15-Watt-Klasse) ganz locker geschlagen, lediglich bei den Single-Core-Tests haben die i7-Chips noch einen minimalen Vorteil. In den Multi-Tests ist AMDs neuer Chip sogar beinahe auf dem Niveau von Intels aktuellen 45-Watt-Chips wie dem i7-10875H des neuen Dell XPS 17 9700.


Böse Zungen würden jetzt behaupten, dies sei den Herstellern von Intel ganz bewusst so auferlegt worden um einer direkten Konfrontation im mobilen High-End-Gaming-Segment zu entgehen, auch wenn die wirtschaftliche Abhängigkeit mancher OEMs von Intel nicht ganz von der Hand zu weisen ist.
 
Zuletzt bearbeitet :
Der PCI Ex. wird bei zunehmend hohen Frameraten ein Problem, mit steigender Auflösung nimmt die Relevanz deutlich ab. In UHD z.B. spielt das Thema fast keine Rolle. Ein ACOdyssey mit DrawCall Müll am laufendem Band in FHD wäre dagegen ein Worst Case für einen geringen PCI Ex Durchsatz.

Ich kann das ganz gut teste weil ich eine externe GPU via Thunderbolt betreibe.
 
Ich kann das ganz gut teste weil ich eine externe GPU via Thunderbolt betreibe.

Der dadurch auftretende Leistungsverlust spiegelt aber nicht die aktuell hier im Thread diskutiere Sachlage wieder. Thunderbolt bietet maximal ein PCIe 3.0 x4 Interface, was einen deutlich tieferen Einschnitt als die Reduzierung von 16 auf nur 8 PCIe-Lanes, darstellt.

Solange die Grafikkarte über ausreichend VRAM verfügt, was bei den High-End GPUs sowieso gegeben ist, eine PCIe Schnittelle mit nur 8 Lanes kaum der bremsende Faktor.

Viel ausschlaggebender für die erreichten Frameraten in Notebooks ist die Verteilung der Leistung auf die verbauten Kühllösung, da diese in der Regel aufgrund des Formfaktors den limitierenden Faktor darstellt. Zum Großteil sind CPU und GPU in den mobilen Geräten über Heatpipes verbunden und teilen sich somit die gesamte Kühlkörperoberfläche.

Verbraucht wie im Falle von AMD die CPU deutlich weniger Leistung unter Vollast, kann im Gegensatz dazu die zur Seite gestellte Grafikkarte deutlich mehr Leistung entfalten, da diese aufgrund der dadurch frei werdenden Kapazität im Kühlsystem, deutlich später in ihr thermisches Limit läuft und somit höhere Taktraten möglich sind.
 
Oben Unten