Profi-Anwendungen und Spiele unter Windows 10 und Windows 11 mit und ohne L3-Patch – Windows 11 ist vielleicht doch besser als man denkt

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.476
Punkte
1
Standort
Redaktion
Auch wenn für den 21.10.2020 noch einmal ein Patch für den Patch von Windows 11 angekündigt wurde, habe ich den Patch mit dem L3-Bug bereits getestet. Hintergrund war eigentlich die Zusammenstellung der Testsuite für den Launch von Intels Alder Lake am 04.11.2021, wo ich immer noch vor der Wahl stehe, welche CPU ich mit welchem...
Hier den ganzen Artikel lesen
 
So weit ich weiß soll das auch fuer PCIe 3 funktionieren. Ist natuerlich nicht ganz so schnell... Bei I/O ist aber der Flashspeicher eher die Bremse als das PCIe-Protokoll. Die Intel Optane-SSDs mit X-Crosspoint-Speicher zeigen das Eindrucksvoll.
PCIe 3.0 macht doch immer noch bis zu 16GB/s, oder? Das sollte also für das meiste schnell genug sein.
 
So weit ich weiß soll das auch fuer PCIe 3 funktionieren. Ist natuerlich nicht ganz so schnell... Bei I/O ist aber der Flashspeicher eher die Bremse als das PCIe-Protokoll. Die Intel Optane-SSDs mit X-Crosspoint-Speicher zeigen das Eindrucksvoll.
Klar funktioniert das, aber es ging um die bestmögliche Performance die sich irgendwo auch an dem Unterschied, DS oder non DS orientiert.

Ich versuche es mal an einem Beispiel einfacher zu erklären: Spiele unter DX12 erzeugen wenn sie auf schnelleren Laufwerken gespeichert werden, mehr I/O Anfragen über die CPU, weil die Engines nur das in den Speicher laden, was man braucht (dabei aber kleinere Datenblöcke als üblich). Die transferierbare Datenmenge steigert sich mit der Schnelligkeit der Laufwerks und kann so einen erheblichen Overhead auf der CPU erzeugen, die diese Datenanfragen nur in Reihenfolge abarbeiten kann. Heißt eine Anfrage abarbeiten, solange muss die nächste warten und da erinnern wir uns bei den GPUs an die Queues, die den Workload auch ohne besonderen Vorrang parallelisieren können.

Da gibt es dann schon Unterschiede zwischen PCIe 3.0 und 4.0. Letztlich bedeutet, dass wenn die CPU diese Anfragen nicht mehr bearbeiten muss, bzw. nur noch bestimmte (Sammel-) Paketgrößen, dann steigert dies auch die Leistung. Dabei kommt es auch immer auf die Paarung CPU>Storage an.

Verstehen sie was ich meine, wenn unter PCIe 3.0 oder langsameren Laufwerken der CPU Overhead nicht so hoch ausfällt, dann wird es auch später kaum deutliche Leistungssteigerungen geben. Wenn unter PCIe 4.0 die CPU limitiert und später eben entlastet wird, wird der merkbare Leistungszuwachs spürbarer sein. Weil dann das Laufwerk erst sein volles Geschwindigkeitspotential zur Verfügung stellt.

Wenn der Transfer, nebst der CPU ohne DS oder RTX I/O kein Problem darstellt, wird man kaum massive Leistungssteigerungen sehen. Weil es keinen merklichen Overhead gibt, dann gibt es auch nichts zu verbessern (bei ausreichend vielen Cores).

Microsoft sprach unter Dx12 ohne DS von 35k IO Anfragen pro sec in einer 64k blocksize. Um mal zu verdeutlichen worum es geht. Wenn die Cores dann rechnen, bzw. mit etwas anderem beschäftigt sind, dürfte klar sein worum es geht. NVidia selbst will die Last von 6 auf 2 Cores reduzieren können, wir werden dann sehen ob es stimmt, bzw. was die Devs daraus machen.
 
Zuletzt bearbeitet von einem Moderator :
Klar funktioniert das, aber es ging um die bestmögliche Performance die sich irgendwo auch an dem Unterschied, DS oder non DS orientiert.

Ich versuche es mal an einem Beispiel einfacher zu erklären: Spiele unter DX12 erzeugen wenn sie auf schnelleren Laufwerken gespeichert werden, mehr I/O Anfragen über die CPU, weil die Engines nur das in den Speicher laden, was man braucht (dabei aber kleinere Datenblöcke als üblich). Die transferierbare Datenmenge steigert sich mit der Schnelligkeit der Laufwerks und kann so einen erheblichen Overhead auf der CPU erzeugen, die diese Datenanfragen nur in Reihenfolge abarbeiten kann. Heißt eine Anfrage abarbeiten, solange muss die nächste warten und da erinnern wir uns bei den GPUs an die Queues, die den Workload auch ohne besonderen Vorrang parallelisieren können.

Da gibt es dann schon Unterschiede zwischen PCIe 3.0 und 4.0. Letztlich bedeutet, dass wenn die CPU diese Anfragen nicht mehr bearbeiten muss, bzw. nur noch bestimmte (Sammel-) Paketgrößen, dann steigert dies auch die Leistung. Dabei kommt es auch immer auf die Paarung CPU>Storage an.

Verstehen sie was ich meine, wenn unter PCIe 3.0 oder langsameren Laufwerken der CPU Overhead nicht so hoch ausfällt, dann wird es auch später kaum deutliche Leistungssteigerungen geben. Wenn unter PCIe 4.0 die CPU limitiert und später eben entlastet wird, wird der merkbare Leistungszuwachs spürbarer sein. Weil dann das Laufwerk erst sein volles Geschwindigkeitspotential zur Verfügung stellt.

Wenn der Transfer, nebst der CPU ohne DS oder RTX I/O kein Problem darstellt, wird man kaum massive Leistungssteigerungen sehen. Weil es keinen merklichen Overhead gibt, dann gibt es auch nichts zu verbessern (bei ausreichend vielen Cores).

Microsoft sprach unter Dx12 ohne DS von 35k IO Anfragen pro sec in einer 64k blocksize. Um mal zu verdeutlichen worum es geht. Wenn die Cores dann rechnen, bzw. mit etwas anderem beschäftigt sind, dürfte klar sein worum es geht. NVidia selbst will die Last von 6 auf 2 Cores reduzieren können, wir werden dann sehen ob es stimmt, bzw. was die Devs daraus machen.

Werden wir auf jeden Fall noch sehen.

Ich habe schon verstanden, wo das Prinzip hier liegt. Das geht aber auch mit PCIe 3. Nur die maximale Datenrate erreichst du nicht. Macht im Spiel dann vielleicht zusaetzlich 10% Nachteil zu PCIe 4 aus, geschaetzt? Hat Igor wahrscheinlich eh schon auf seinen Themenzettel...

Und mein Verweis auf die Optan-SSDs war nicht ohne Grund. Die haben fuer DS mehr Potential als regulaere im Vergleich traege SSDS.

Und das der Zugriff von der CPU auf die SSD einen so massiven Overhead ausueben, das darf bezweifelt werden... Selbst mein alter Xeon x5675 war kaum davon beeindruckt, auf meinen LSI 9361 mit 8 SSDs kleine 4K direkt in den Cache des Controllers zu schreiben. Da ist das weglassen unnoetigen Overheads eigentlich nur noch ein netter Bonus.

Das Dateissystem duerfte hier der groeßte Flaschenhals sein. Zudem kann dein Prozessor natuerlich Anfragen parallel an das Storage schicken. NCQ z.B. gibt es nicht umsonst...
 
Es kommt ja net nur ds alleine sondern auch SamplerFeedback. (hoffentlich auch für W10H2)
Von daher gabs auf der Xbox sicherlich kaum Probleme mit der langsameren MS-Lösung.

Dadurch, das net mehr wahllos der Vram+Ram vollgeknallt wird und nur noch der erf. MipMapLvl für den Hintergrund im Bild geladen
werden muss, nimmt der Traffic vermutlich auch noch zusätzlich ab. --> ne 3.0 M2 reicht
(das ist für ältere INTELs nach m.E. ne Entwarnung, sprich kein Grund aufzurüsten)
 

Anhänge

  • SFS_SamplerFeedback.jpg
    SFS_SamplerFeedback.jpg
    427 KB · Aufrufe : 9
Zuletzt bearbeitet :
Sollte heute nicht ein Patch kommen?
Steht jedenfalls so im Text

Macht im Spiel dann vielleicht zusaetzlich 10% Nachteil zu PCIe 4 aus, geschaetzt?

Für 10% wechseln manche ihre Prozessoren + RAM und kommen dann doch nur bei 5-7% raus. Für 10% würden sich hier einige ein Bein raus reißen 😉
 
Sollte heute nicht ein Patch kommen?
Steht jedenfalls so im Text



Für 10% wechseln manche ihre Prozessoren + RAM und kommen dann doch nur bei 5-7% raus. Für 10% würden sich hier einige ein Bein raus reißen 😉
Insgesamt ist das dann ja schon ein bissle mehr. Die GPU ist ja bei PCIe4 gegenueber PCIe3 im Schnitt ja schon etwas flotter unterwegs. Das DS wird da in einigen Situationen in der Theorie dann auch noch mal einen Unterscheid machen. Kleinvieh macht auch Mist.

Ich warte da aber erst einmal ab wie die Benchmurks dann aussehen. Ich habe mir jedenfalls gerade erst ein neues System angeschafft. Das hat halt elider nur PCIe 3. Ist aber schon ein angenehmer Schritt von vorher PCIe2. Denn das war fuer meinen RAID-Controller ein Flaschenhals. Die 1060 die ich drin habe war schon mit dem alten Xeon bei Full HD großteils ueberfordert.
 
grau ist alle Theorie, ...Games, wo 4.0 mehr Fps liefert sind Mangelware
(Dank SAM+HAGS siehts net mehr so eindeutig aus, falls Jemand mal gegenchecken will, ... da werden schon die kleinteiligen wichtigen Infos viiiel zeitiger an die GPU übergeben = bessere GPU-Auslastung)

Bei HardcoreBenchern liegt immer noch ein Sys mit 10900 vorn (da hilft die Latenz der CPU beim Ramzugriff mehr als XYZ mit 4.0)
Übrigens ist Wolfgang bei CB auch auf den 10900 gegangen, ...wieso wohl?

Im GPU-Limit wird abgerechnet und net bei sinnlosen 720p CPU-Benchmarks.
 

Anhänge

Zuletzt bearbeitet :
Also ich habe immer noch keinen Patch, wie siehts bei euch aus ?
 
Habe den Patch auch.

Intel 10900x. CPU-Z benchmurks: von ca 5700 Multicore (Schwankte immer stark) auf 6300 und Single Core von 540 auf 555

Bei Winrar oder 7Zip dagegen kein Unterschied in den Tests. Aber da das System noch nicht zu 100% optimiert ist bei mir...
 
Zuletzt bearbeitet :
Kannste mir bitte die Nummer vom patch mal posten ? Dann lade ich mir den vom update katalog runter. Oder nen Screenshot ?
 
Wo muss ich gucken um zu sehen ob ich den Patch habe oder nicht ? In welcher Rubrik im Updateverlauf ?
 
2021-10 Kumulatives Update für Windows 11 für x64-basierte Systeme (KB5006746)
Erfolgreich installiert am 15.10.2021

Am 15.10 ????? Ich denke das kam erst am 21.10.2021 raus ?
 
Zuletzt bearbeitet :
Oben Unten