Reviews Leistungsaufnahme, Lastspitzen und Technik-Details: Intels kommende Alder Lake S und Raptor Lake S CPUs im exklusiven Vergleich

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.479
Punkte
1
Standort
Redaktion
Ich fand unlängst auf FCPOWERUP eine Tabelle, die Intels kommenden Alder Lake S CPUs ein deutlich verschärftes Lastspitzenverhalten bescheinigte. Allerdings ist dies nur die Hälfte der Geschichte, denn Intel ändert ja auch die IMPV (Intel Mobile Voltage Positioning) noch einmal deutlich, so dass man hier stärker differenzieren muss. Doch dazu gleich mehr. Trotzdem möchte ich […]

Hier den ganzen Artikel lesen
 
Soweit ich das überblicken kann, nein
 
Danke für den sachlichen und nüchternen Artikel!
Teilweise las man ja in anderen Foren ganz schöne Horrorstories und Szenarien.

Ich denke man kann sicherlich sagen, dass Alder Lake eine spannende CPU ist. Das ist ja schon mal positiv, denn in den letzten Jahren war "spannend" jetzt ja nicht unbedingt das Wort der Wahl bei Intel.
Nicht, dass RL oder so jetzt Mist ist - aber es war eben die letzten Jahre kaum ein Fortschritt bei Intel. (Sehe ich ja auch daran, wie vergleichweise wenig Mehrleistung ein RL gegenüber meinem Xeon Xeon E3-1231 den ich vor 6 Jahren gekauft habe bietet. Klar sind die aktuellen CPUs schneller, aber das Plus an Performance hatte ich früehr (übertrieben ausgedrückt) in der Zeit, die ich gebraucht habe eine neu gekaufte CPU heimzutragen und einzubauen...)

Bei AlderLake wird es aber endlich mal wieder interessant - klappt BigLittle in der Praxis (vor allem interessant für mich: Gaming) so wie erhofft?
Oder wird es doch eher enttäuschend?

IMO die interessanteste Intel-CPU seit einigen Jahren.
 
Danke für den sachlichen und nüchternen Artikel!
Teilweise las man ja in anderen Foren ganz schöne Horrorstories und Szenarien. ...
Wobei diese i. d. R. aber auf die typischen Flamer und Hater zurückzuführen sind, die absolut keine Ahnung haben wovon sie reden und eine möglichst große Watt-Zahl lediglich dazu verwenden, um ihrer allgemeinen Unzufriedenheit Ausdruck zu verleihen.

Btw., das "interessant" resultiert ja zwangsweise daraus, weil es ein ganz neues Konzept ist und nicht nur einfach wie in jeder Generation schlicht einfach eine etwas schnellere CPU i. V. z. ihrer Vorgeneration. Letzten Endes geht es aber auch hier schlussendlich nur darum, was unterm Strich dabei herauskommt. Man darf vermutlich annehmen, dass ADL einen 5900X grundsätzlich einkassieren wird und entsprechend kann Intel nun auch problemlos den Großteil des Consumer-Marktes erfolgreich abdecken (und mit Blick auf Mainstream-Anforderungen vermutlich auch weitestgehend zu einem grob vergleichbaren Verbrauch). Dementprechend wird AMD mit dem V-Cache einige Monate später antworten müssen, um hier nicht zurückzufallen, zumal man ja auch gleichzeitig noch versuchen muss irgendwie die modernere Plattform zu kompensieren (ohne dass von AMD eine neue Plattform zeitnah kommen wird). Es bleibt auf jeden Fall spannend im Markt ... Konkurrenz belebt halt das Geschäft, wobei nicht nur das die Ursache für die aktuellen Tendenzen sein dürfte, sondern auch, dass Intel so langsam seine Fertigungsproblematik abzuschließen im Begriff ist.
 
Ich frage mich immer noch wo der Fortschritt dabei bleibt und vor allem die zukunftssichere Effizienz. Sich Grafikkarten die bis zu 400W und CPUs die bis zu 250W verpulvern, schön zu reden macht es nicht besser und ist einfach nicht mehr up to date. Vor allem den Aufwand den man dabei betreiben muss (Peripherie und drumherum) das die angegeben Leistungsdaten überhaupt erreicht werden, ist schon fast zu irre und treibt die Preise- und Unterhaltungskosten in den Himmel. Wahrscheinlich haben die Hersteller verschlafen das Energie immer kostspieliger wird und das deren Erzeugung sichtbar Spuren hinterlässt, nicht nur in der Brieftasche. Der Leistungszugewinn steigt dabei nicht mal proportional mit dem Energiebedarf, sorry aber das kann Intel, für die Mondpreise die sie dafür aufrufen werden gerne behalten.

Wer bitte braucht zum Beispiel zum Spielen eine 10/12/16C CPU, kein Mensch! In Benchmarkszenarien der Redaktionen werden sie eingesetzt um Limits zu vermeiden (Bottlenecks), die aber mit der schieren Kernanzahl gar nichts zu tun haben und die man damit auch nicht ausschließen kann.

Der Wettbewerb weiter, höher, schneller endet beim effizienten Einsatz. Ich verstehe ehrlich niemanden der 600W und mehr verpulvert, um ein Spiel zu spielen. Dafür habe ich absolut kein Verständnis. Ich vermute die EU wird dort bald regulierend eingreifen und dergleichen Hardware wird man auf europäischen Märkten nicht mehr verkaufen können, und andere Länder wie China zeigen beim Mining auf, wie man den Energiebedarf dafür rigoros unter Strafe stellt und es in dieser Form verbietet.

Und bei den Amerikanern, kann man ehrlich nur noch mit Kopf schütteln...Silicon Valley ist was leistungsfähige und effiziente Hardware angeht, Jahre zurück und hat einen wichtigen Trend komplett verschlafen. Aber Hauptsache die Aktienkurse und Gewinne stimmen. Da wird 125W angegeben und 250W verpulvert.
 
Zuletzt bearbeitet von einem Moderator :
Der Wettbewerb weiter, höher, schneller endet beim effizienten Einsatz. Ich verstehe ehrlich niemanden der 600W und mehr verpulvert, um ein Spiel zu spielen. Dafür habe ich absolut kein Verständnis. Ich vermute die EU wird dort bald regulierend eingreifen und dergleichen Hardware wird man auf europäischen Märkten nicht mehr verkaufen können, und andere Länder wie China zeigen beim Mining auf, wie man den Energiebedarf dafür rigoros unter Strafe stellt und es in dieser Form verbietet.
Oh ja, genau! Der Staat soll mir noch vorschreiben wie ich meine Freizeit verbringe. Wieviel Strom ich beim zocken verbrauchen darf.
Genau das brauchen wir! Noch mehr Überwachung, Bevormundung und Vorschriften.
Brave new world.
 
Der Stromverbrauch einiger aktueller Komponenten stellt für mich auch ein Problem dar. Ich glaube tatsächlich das es da in der Consumertechnik einfach Limits z.B. beim Stromverbrauch von Grafikkarten geben sollte in denen man sich bewegt. Und das sollte aus meiner Sicht ein gutes Stück unterhalb von 400W bei Grafikkarten und unterhalb von 200W bei CPUs sein. Wer weiß wo wir sonst in 10 Jahren stehen.
 
Ich vermute die EU wird dort bald regulierend eingreifen und dergleichen Hardware wird man auf europäischen Märkten nicht mehr verkaufen können,

Das kann ich mir beim besten Willen nicht vorstellen, denn es gibt Bereiche in denen um Längen mehr Energie verblasen und CO2 generiert wird. Wir können da gerne mal bei den Flugreisen oder beim Motorradfahren (!!) oder beim Verkehr allgemein anfangen und wenn jetzt die "Energiewende" ins Feld geführt wird: Braucht es einen Tesla mit 500 PS und entsprechendem KW-Verbrauch/100 km ? Und grünen Strom kann ich auch im PC verwenden. Einen derartigen Tarif habe ich bei meinem lokalen Energieanbieter bereits abgeschlossen.

Darüber hinaus gibt es Leute wie mich, die die Leistung zum Arbeiten benötigen.

Was die Gamer betrifft: In den Hardwareforen findet sich in der Regel extrem konzentriert eine Fraktion aus Hardcore Gamern, die die absolute Minderheit im Gesamtbild darstellt. Und wer dieser "handvoll" Enthusiasten ihr Hobby verbieten will, der soll vorher mal das Freizeitfliegen und die Motorradclubs verbieten - also ums kurz zu machen: für mich absolut nicht sinnvoll, wenngleich im kritischen Diskurs nachvollziehbar.
 
1.) Wenn es um Umwelt und Stromsparen geht, dann ist doch der Verbrauch innerhalb von 10ms vollkommen irrelevant. Was hier zählt ist der durchschnittliche Verbrauch und der ist bei regulären CPUs mit 65W limitiert. Wo ist also das Problem? Die 125W K CPUs s8nd ja auch nicht für die breite Masse gedacht, sondern sind eine OCing CPU für Leute, die diese haben wollen. Früher hat man selbst Spannung/Takt erhöht und die CPU mit doppeltem Verbrauch schmoren lassen, nun bietet Intel das eben schon ab Werk an.

2.) Bei allem das kein Gaming PC ist spielen in der Regel nicht einmal die 65W eine Rolle, da die PCs zu 99% Idle sind. Für den durchschnittlichen bundesweiten Stromverbrauch ist der Idle und der Standby Stromverbrauch relevant und sollte es zu Regulierungen der EU kommen, so wird dies nur diese 2 Werte betreffen, da hier das meiste Stromsparpotential besteht ohne dass dies für den Konsumenten negative aAuswirkungen hat.
Beispiel: Monitore mit GSync Modul brauchen in der Regel um die 14W obwohl sie ausgeschaltet sind und nur auf ein Eingangssignal vom PC warten. Hier waren die Hersteller einfach zu faul von einen Stromsparmodus.
Auch der Idle Verbrauch von GPUs würde sich mit etwas sanftem Druck sicher noch optimieren lassen. Wieso braucht z.B. eine 3090 im Dual Monitor betrieb so viel mehr als eine Low End Karte? Da könnte man sicher einiges sparen, indem im 2D Betrieb ohne Auslastung ein Teil der Shader abgeschaltet wird. Ist Nvidia und AMD vermutlich nur zu mühsam gewesen, da es dem Käufer in der Regel egal ist.
Wobei man meiner Meinung nach nicht einmal bei PCs anfangen muss. Was ist mit all den Routern und Switches, die ohne Last dahinglühen.

3.) Abgesehen davon sollten einmal bestehende Standby Richtlinien besser kontrolliert werden. Derzeit sieht das Prozedere so aus, dass ein Modell eines Fernsehers eingereicht, gemessen und zugelassen wird. Wenn später das alles durch ein Softwareupdate außer Kraft gesetzt wird, gibt es keinerlei Konsequenzen (siehe Sony XH90). Hier müsste es eine Möglichkeit geben Überschreitungen des Standby Verbrauchs an die Behörden zu melden.

4.) Was Multi Core Optimierungen in Spielen angeht, so war die größte Hürde bisher, dass DirectX 11 nur Draw Calls von einem Thread akzeptiert hat und es mussten alle Engines da herum gebaut werden. Da nun die meisten neuen Spiele den DirectX 11 Support eingestellt haben denke ich, dass sich in dieser Richtung sehr schnell etwas tun wird. Beispiel: Horizon Zero Dawn nutzt von den 16 Threads meines 9900K bei niedrigen Grafiksettings bereits 95% aus (Spiel + Nvidia Driver Overhead)
 
mir würde es ja schon genügen, wenn man bei CPUs neben der TDP auch den maximalen Stromverbrauch angeben würde
 
Ich frage mich immer noch wo der Fortschritt dabei bleibt und vor allem die zukunftssichere Effizienz. Sich Grafikkarten die bis zu 400W und CPUs die bis zu 250W verpulvern, schön zu reden macht es nicht besser und ist einfach nicht mehr up to date. Vor allem den Aufwand den man dabei betreiben muss (Peripherie und drumherum) das die angegeben Leistungsdaten überhaupt erreicht werden, ist schon fast zu irre und treibt die Preise- und Unterhaltungskosten in den Himmel. Wahrscheinlich haben die Hersteller verschlafen das Energie immer kostspieliger wird und das deren Erzeugung sichtbar Spuren hinterlässt, nicht nur in der Brieftasche. Der Leistungszugewinn steigt dabei nicht mal proportional mit dem Energiebedarf, sorry aber das kann Intel, für die Mondpreise die sie dafür aufrufen werden gerne behalten.

Wer bitte braucht zum Beispiel zum Spielen eine 10/12/16C CPU, kein Mensch! In Benchmarkszenarien der Redaktionen werden sie eingesetzt um Limits zu vermeiden (Bottlenecks), die aber mit der schieren Kernanzahl gar nichts zu tun haben und die man damit auch nicht ausschließen kann.

Der Wettbewerb weiter, höher, schneller endet beim effizienten Einsatz. Ich verstehe ehrlich niemanden der 600W und mehr verpulvert, um ein Spiel zu spielen. Dafür habe ich absolut kein Verständnis. Ich vermute die EU wird dort bald regulierend eingreifen und dergleichen Hardware wird man auf europäischen Märkten nicht mehr verkaufen können, und andere Länder wie China zeigen beim Mining auf, wie man den Energiebedarf dafür rigoros unter Strafe stellt und es in dieser Form verbietet.

Und bei den Amerikanern, kann man ehrlich nur noch mit Kopf schütteln...Silicon Valley ist was leistungsfähige und effiziente Hardware angeht, Jahre zurück und hat einen wichtigen Trend komplett verschlafen. Aber Hauptsache die Aktienkurse und Gewinne stimmen. Da wird 125W angegeben und 250W verpulvert.
Mir scheint eher du hast hier ein Wahrnehmungsproblem oder gibt es tatsächlich jemanden, der dich zwingt Hardware am oberen Endes des Produktspektrums zu kaufen?
Wenn man sich ein kleines, sparsames System zusammensetzen und das vielleicht auch nur für das Nötigste nutzen will, ist das überhaupt kein Problem und am Ende wird das dennoch durchgehend mehr Leistung bieten als ein vergleichbares System von vor zwei, drei Jahren.
Darüber hinaus greifen auch deine absoluten Teaser-Werte ins Leere. Bei regulären Workloads gibt es keine Consumer-CPUs, die 250 W verheizen und aktuell auch keine entsprechenden GPUs die 400 W verheizen ... ich dachte Igor würde das doch alles recht leicht verdaulich aufbereiten und darbieten in seinen Artikeln? ;)

Wenn du es für dich extrem effizient und vielleicht gar minimalischtisch halten willst, ist das doch vollkommen ok und kann von dir auch durchaus umgesetzt werden. Aber willst du jetzt ernsthaft andeuten, dass du anderen in Abrede stellen willst, dass die eine schnelle CPU und GPU haben wollen/dürfen?
Du willst also am Ende eigentlich den Leuten ihre Freizeitgestaltung im Detail vorschreiben oder wie darf man das verstehen? Teueres Motorad und ausgiebige Touren am Wochenende, gestrichen, teueres Auto oder gar Mototyacht, gestrichen, regelmäßige Reisen durch ganz Deutschland und die umliegenden Nachbarländer zwecks Wandern, gestrichen, weil für unnötig befunden, teueres Sportequipment für eine beliebige, regelmäßig und umfangreich ausgeübte Sportart, gestrichen, weil geht auch mit einem Lendenschurz bestückt ... wie weit soll das gehen?
In erster Linie ist da erst mal jeder für sich selbst und sein eigenes Handeln verantwortlich ... und wie schon erklärt, wenn man will geht auch vieles, völlig unabhängig davon, was die Industrie am oberen und neuesten Ende des Produktspektrums macht.

Darüber hinaus verkennst du hier auch die tatsächliche Martksituation, denn bspw. ganz offensichtlich sieht nur ein sehr kleiner Teil von Consumern (bzw. konkreter Gamern) die Notwendigkeit sich einen 3950X/5950X zu holen, weil die ganz offensichtlich doch alle nicht ganz so dumm sind und sehrwohl auf ihre Bedürfnisse hören (mancher vielleicht in letzter Konsequenz aber auch nur auf seine Börse ;)). Und selbst der 12-Kerner ist aktuell im Consumer-Markt insgesamt eher noch ein seltenes Stück.

mir würde es ja schon genügen, wenn man bei CPUs neben der TDP auch den maximalen Stromverbrauch angeben würde
Welchen Sinn sollte diese Angabe haben? Da hier individuelle Lastszenarien anliegen (die zudem selbst beim gleichen Anwender im Verlaufe eines Tages beträchtlichen Schwankungen unterworfen sein werden), ist der Wert in Form einer simplen Zahl schlicht für nichts zu gebrauchen und eine sinnvolle Bewertung wird per se nur den wenigen möglich sein, die sich mit der Materie auskennen und die Zahlen in einen korrekten Kontext setzen können.
Darüber hinaus, ein verschwindend geringer Prozentteil wird überhaupt mit dem Maximamalverbrauch jemals Bekanntschaft machen, geschweige denn, dass der in einem konkreten System über einen nennenswert längeren Zeitraum anliegt.

Die Angabe wäre genau so sinnvoll/los, wie wenn man beim Benziner angibt, wie viel Treibstoff beim vollständigen Durchtreten des Gaspedals in den Hubraum gespritzt wird. Mit realen Verbräuchen hat das (wenn man nicht gerade ein Formel-1-Fahrer ist) schlicht nichts zu tun.
 
Zuletzt bearbeitet :
Mir scheint eher du hast hier ein Wahrnehmungsproblem oder gibt es tatsächlich jemanden, der dich zwingt Hardware am oberen Endes des Produktspektrums zu kaufen?
Wenn man sich ein kleines, sparsames System zusammensetzen und das vielleicht auch nur für das Nötigste nutzen will, ist das überhaupt kein Problem und am Ende wird das dennoch durchgehend mehr Leistung bieten als ein vergleichbares System von vor zwei, drei Jahren.
Darüber hinaus greifen auch deine absoluten Teaser-Werte ins Leere. Bei regulären Workloads gibt es keine Consumer-CPUs, die 250 W verheizen und aktuell auch keine entsprechenden GPUs die 400 W verheizen ... ich dachte Igor würde das doch alles recht leicht verdaulich aufbereiten und darbieten in seinen Artikeln? ;)

Wenn du es für dich extrem effizient und vielleicht gar minimalischtisch halten willst, ist das doch vollkommen ok und kann von dir auch durchaus umgesetzt werden. Aber willst du jetzt ernsthaft andeuten, dass du anderen in Abrede stellen willst, dass die eine schnelle CPU und GPU haben wollen/dürfen?
Du willst also am Ende eigentlich den Leuten ihre Freizeitgestaltung im Detail vorschreiben oder wie darf man das verstehen? Teueres Motorad und ausgiebige Touren am Wochenende, gestrichen, teueres Auto oder gar Mototyacht, gestrichen, regelmäßige Reisen durch ganz Deutschland und die umliegenden Nachbarländer zwecks Wandern, gestrichen, weil für unnötig befunden, teueres Sportequipment für eine beliebige, regelmäßig und umfangreich ausgeübte Sportart, gestrichen, weil geht auch mit einem Lendenschurz bestückt ... wie weit soll das gehen?
In erster Linie ist da erst mal jeder für sich selbst und sein eigenes Handeln verantwortlich ... und wie schon erklärt, wenn man will geht auch vieles, völlig unabhängig davon, was die Industrie am oberen und neuesten Ende des Produktspektrums macht.

Darüber hinaus verkennst du hier auch die tatsächliche Martksituation, denn bspw. ganz offensichtlich sieht nur ein sehr kleiner Teil von Consumern (bzw. konkreter Gamern) die Notwendigkeit sich einen 3950X/5950X zu holen, weil die ganz offensichtlich doch alle nicht ganz so dumm sind und sehrwohl auf ihre Bedürfnisse hören (mancher vielleicht in letzter Konsequenz aber auch nur auf seine Börse ;)). Und selbst der 12-Kerner ist aktuell im Consumer-Markt insgesamt eher noch ein seltenes Stück.


Welchen Sinn sollte diese Angabe haben? Da hier individuelle Lastszenarien anliegen (die zudem selbst beim gleichen Anwender im Verlaufe eines Tages beträchtlichen Schwankungen unterworfen sein werden), ist der Wert in Form einer simplen Zahl schlicht für nichts zu gebrauchen und eine sinnvolle Bewertung wird per se nur den wenigen möglich sein, die sich mit der Materie auskennen und die Zahlen in einen korrekten Kontext setzen können.
Darüber hinaus, ein verschwindend geringer Prozentteil wird überhaupt mit dem Maximamalverbrauch jemals Bekanntschaft machen, geschweige denn, dass der in einem konkreten System über einen nennenswert längeren Zeitraum anliegt.

Die Angabe wäre genau so sinnvoll/los, wie wenn man beim Benziner angibt, wie viel Treibstoff beim vollständigen Durchtreten des Gaspedals in den Hubraum gespritzt wird. Mit realen Verbräuchen hat das (wenn man nicht gerade ein Formel-1-Fahrer ist) schlicht nichts zu tun.
Naja, zur besseren Auswahl des Netzteils z. b. wäre die maximale Last ganz aufschlussreich.
Sonst könnte man ja schön rechnen 125w cpu + 180w gpu + Mainboard und gedöhns - da reicht ja 400w Netzteil locker
 
Auch diese Informationen nützen nichts ohne fundierte Fachkenntnisse. Darüber hinaus, die PSU-Rechner der einschlägigen Hersteller dürften da schon recht sinnvoll ausgelegt sein, sind also diesbezüglich eine weitaus größere Hilfe, während ein Wert wie 250 oder 500 W auf einer Packung geschätzt 98 % aller Anwender nur verwirren würde.
Zumal die PSU-Hersteller ja auch die Produkt-Leistungsspitzen berücksichtigen, denn genau für die sind ja derartige Dokumente, wie Igor sie hier zeigte.

Grundsätzlich verstehe ich was du meinst. Auch ich bin lieber derjenige der "zu viel weiß" und dann selbser ausfiltern/entscheiden oder sich bei Bedarf weiter einarbeiten kann, nur ist das nicht allgemein gängiges Marktverhalten (bzw. eher gar im Gegenteil) und auch bei mir funktioniert das hier nur, weil ich mich da in einem Bereich bewege, in dem ich mich auskenne. ;)
Zudem, derartige Forderungen hörte man in den vergangenen Jahren mal immer wieder ... von dir voraussichtlich rein aus berechtigtem Interessen, vielfach andererseits oftmals von Flach**** mit der Absicht den pösen, pösen AMD-Konkurrenten vorzuführen ... aber wie gesagt, die Werte werden i. d. R. nicht hilfreich sein (siehe theoretisch maximalen Benzinverbrauch) und wer es so genau wissen will, wird da bei Bedarf auch relativ schnell fündig bei einschlägigen Medien oder bekommt recht einfache Hilfestellung bei bspw. den PSU-Herstellern. **)

*) Anmerkung: Obiges Rechenbeispiel ist grundsätzlich zu knapp ausgelegt, auch ohne, dass man GPU-Peaks berücksichtigt. ;-) Beispielsweise das was beQuiet da auf seiner Seite auswirft, sieht schon recht brauchbar aus.

**) Ja ich weiß ... denen könnte man auch ein gewisses Eigeninteresse unterstellen ... ;)
 
Zuletzt bearbeitet :
Ich frage mich auch, welche CPUs und Karten von Spiele-Entwicklern als "Ziel" gesetzt und auch während der Entwicklung eingesetzt werden? Es ja schon so, daß viele Spiele, v.a. die ersten Vollversionen, eigentlich nur auf der jeweiligen High-end Hardware einigermaßen rund läuft. Cyberpunk und die erste Version von Flight Simulator waren fast unspielbar, wenn man nicht mit den neuesten, großen Eisen antreten konnte. Vor vielen Jahren hieß es ja so schön "What Intel giveth, Microsoft taketh"; kaum hatte man eine schnellere CPU, kam MS mit Vista oder ähnlichem an und weg war die Geschwindigkeit. Heute gibt's was schnelleres von AMD, NVIDIA und Intel, und die Spiele Studios sorgen gleich dafür, daß es doch gerade Mal okay läuft.
 
erste Version von Flight Simulator
Meinst du "Microsoft Flight Simulator" von 1982 oder Flight Simulator 2020? :p

Na gut. An der Aussage dass eine Version am Anfang unspielbar war hat sich in den fast 40 Jahren nicht viel geändert. Ich habe 1990 mit FS 3 begonnen. Auf einem PC der damals über 5000.- Fr. gekostet hat, hat man gerade mal 3 - 5 FPS erreicht, ausser bei den häufigen Nachladerucklern von 1 - 2 Sekunden.
 
Meinst du "Microsoft Flight Simulator" von 1982 oder Flight Simulator 2020? :p

Na gut. An der Aussage dass eine Version am Anfang unspielbar war hat sich in den fast 40 Jahren nicht viel geändert. Ich habe 1990 mit FS 3 begonnen. Auf einem PC der damals über 5000.- Fr. gekostet hat, hat man gerade mal 3 - 5 FPS erreicht, ausser bei den häufigen Nachladerucklern von 1 - 2 Sekunden.
Jetzt wo du es sagst.
Aber es hat mich überhaupt nicht gestört auf meinem Bernstein Monitor.😁
 
Auf Seite 3 im Absatz über der ersten Grafik heißt es "Die Baseline liegt bei beiden CPU-Generationen bei 238 Watt", in der Grafik selbst, steht aber nur bei RPL S 238W und bei ADL S steht stattdessen 283W.
Also Fehler im Text, oder Fehler in der Grafik?
 
Oben Unten