DDR5 ICs zweiter Generation – SK hynix 16 Gbit A-Die 2x 16 GB Module im Test mit Overclocking und Gaming

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.477
Punkte
1
Standort
Redaktion
Heute habe ich einen Blick in die nähere Zukunft der RAM-Technologie für euch und wie so oft in der Branche der Computer-Hardware, kommt dieser aus China, wo bereits heute die neuen DDR5 Speicher-ICs von SK Hynix käuflich zu erwerben sind. Mit einem Proxy wie Superbuy, etwas Geduld und noch mehr Vertrauen, kann man sich dann (read full article...)
 
@mer

Zum Glueck habe ich Quad-Channel. Das sieht bei mir ein wenig anders aus :D
 
  • Like
Bewertungen: mer
Um es mal ganz einfach auszudrücken: schneller RAM ist zu schnell, CPU und/oder GPU sind zu langsam, um die schiere mögliche Datenmenge durchgehend zu verarbeiten. Selbes gilt für PCIE 4 und 5 bei SSDs. Bis auf wenige reale Fälle oder Benchmarks kann der Mainstream nicht profitieren.
Nein, das ist nicht ansatzweise zutreffend. Moderne CPUs können derart große Datenmengen wegschaufeln, da ist DDR5 weit von entfernt. Man muss sich einfach anschauen, was Caches für einen Durchsatz haben und selbst die bremsen die Ausführungseinheiten aus.
 
Zuletzt bearbeitet :
Leider werden diese Szenen nicht immer für Tests verwendet. Ganz im Gegenteil werden oftmals Built-in Benchmarks verwendet, die idR eine komplett andere Leistungsverteilung aufweisen.
Damit unterstellst du @skullbringer nicht richtig oder nicht gut genug getestet zu haben.
Um auf die Ausgangsfrage zurückzukommen, ich denke, dass extrem schneller DDR5 sich durchaus 10-15%* absetzen kann gegenüber DDR4-4000.
Denken ist nicht wissen ;)
 
Damit unterstellst du @skullbringer nicht richtig oder nicht gut genug getestet zu haben.
Wenn es um das Testen von CPU-Leistung bei Spielen geht, wird's schwer von richtig oder falsch zu sprechen. Wenn man Unterschiede raustesten will, sollte man eher fordernde/speicherlastige Spiele/Szenen verwenden und auf strikte CPU-Limitierung achten.
Denken ist nicht wissen ;)
Aha, so einer bist du also. Gut zu wissen. ;)
 
Ach, man kann eh nicht alle glücklich machen. Bestimmt gibt es "bessere" Tests, um die Unterschiede zwischen den RAM-Configs zu verdeutlichen, z.B. Games in 720p mit speziell getweakten Settings, aber ist das dann noch repräsentativ für irgendwas? Irgendwo ist immer ein Tradeoff zwischen Vergleichbarkeit, Relevanz, Wiederholbarkeit und so weiter...

Auf der anderen Seite verhält sich jedes Game und jede Applikation anders, was die Vorlieben von RAM, CPU und GPU betrifft. Was wir in unseren Tests zeigen, sind wirklich nur Beispiele. Am Ende des Tages muss jeder selber wissen, welche Applikationen/Spiele er verwendet und welche Vorlieben diese hat. Aus unseren Ergebnissen dann so generelle Schlussfolgerungen abzuleiten, wie "DDR4 ist DDR5 noch ebenbürtig" oder "DDR5 ist so viel schneller als DDR4" ist dann in beiden Extremen einfach zu kurz gedacht. Das muss jeder einfach für sich selbst mit seinem Usecase ausmachen. Wir liefern nur exemplarische Datenpunkte.
 
Zuletzt bearbeitet :
Gibt durchaus auch Games, die auch in 1440p sehr gut mit Ram skalieren.
Da waere DDR5 mal intressant.
1662398505491.png
 
Ja, für die Auswirkung auf die CPU-Leistung.


Ok, aber rein aus fachlicher Sicht muss man leider sagen, dass cache-lastige Built-in Benchmarks keine guten Beispiele sind, um die Skalierung von RAM zu zeigen.
Von welchem Benchmark sprichst du denn genau?

Umgekehrt, wäre es fachlich nicht irreführend, nur Spiele zu zeigen, die überdurchschnittlich stark mit dem RAM skalieren?
 
Vielen Dank für den Test Xaver! Und was die hier teilweise geäußerte Bewertung des Leistungszuwachses gegenüber DDR4 angeht: Es ist doch wahrscheinlich wie bei jeder neuen RAM-Technologie, dass es erst einmal teurer und gar nicht mal so viel schneller (im Gaming) als die Vorgängergeneration ist (obwohl ich den Leistungszuwachs der getesteten Riegel schon ganz ok finde). Dann wird das Angebot breiter und es wird billiger und besser (hier hoffe ich vor allem auf bessere Latenzen).

Ich finde es sehr spannend, die Entwicklung von DDR5 zu verfolgen und würde mich über weitere Tests von DDR5 RAM hier auf Igor’s Lab, insbesondere mit den bevorstehenden CPU-Generationen Intel Raptor Lake und AMD Ryzen 7000, sehr freuen.
 
Nein, das ist nicht ansatzweise zutreffend. Moderne CPUs können derart große Datenmengen wegschaufeln, da ist DDR5 weit von entfernt. Man muss sich einfach anschauen, was Caches für einen Durchsatz haben und selbst die bremsen die Ausführungseinheiten aus.

Korrekt. Und zugegeben, den Teil meines Posts, den Du zitiert hast, ist unglücklich formuliert. Ich meinte damit, dass die CPU nicht optimal ausgelastet wird. Ich versuchs nochmal: Benchmarks (z.B. etwas berechnen, RAM unabhängig), oder relativ gesehen wenige Anwendungen (z.B. Video/Rendering, konstanter Input-Strom über SSD und RAM) können die CPU sehr gut auslasten, weil die Aufgabe vergleichsweise konstant ist und gut auf die jeweilige CPU ausgelegt werden kann (z.B. Anzahl Threads, Zusammenarbeit mit GPU, etc), da gibt's einfach gesagt keine grossen Überraschungen. RAM als auch SSD sind passive Datenlieferanten, die können von sich aus die CPU ja gar nicht überlasten, selbst wenn sie schnell genug wären. Die "schiere Datenmenge" ist genauer gesagt die ständige ändernde Nutzung der CPU durch quasi unendliche Vielfalt des auszuführenden Programmcodes und resultierender Neuausrichtung. Stichwort Path Prediction, nachladen von Code, etc. Vergleichbar mit Lesen einer grossen Datei vs. Random IO unzähliger kleiner Dateien, da bricht auch die schnellste NVMe ein. Hinzu kommt Thread Management, Treiber die bedient werden wollen, Windows, Hintergrundprogramme, etc. etc. Die CPU wird nicht mehr kontinuierlich und klar bedient, die Aufgabe ändert ständig, laufende Neuausrichtung nötig; die Performance bricht ein. Das System, diese Kette, zwingt die CPU, eigentlich das schnellste Glied der Kette, in die Knie.


Folgendes Beispiel, dürfte so ziemlich jeder kennen:

Zwei Game-Szenarien, laden von SATA SDD mit 500 MB/s, brauchen je 30 Sekunden bis ins Menü oder dem letzten Speicherpunkt.
RAM sagen wir 50 GB/s Durchsatz, Auslastung 1% (500MB/s vs 50GB/s).
GPU spielt keine Rolle, die zeigt nur den Ladebildschirm.
Neue NVMe SSD rein mit 5 GB/s, Game rüber kopiert.
RAM immer noch gleich schnell und jetzt zu 10% ausgelastet (5GB/s vs 50GB/s).
CPU/Cache immer noch gleich schnell und Faktor 20-100x schneller als RAM.

Das Game startet nun in 27 Sekunden. Magere 3 Sekunden, absolut gesehen immerhin 10% schneller. Laden des letzten Speicherpunkts ist nun nach 10 Sekunden erledigt, 20 Sekunden schneller.
Relativ gesehen ist nach wie vor die SDD die Schnecke im System, obschon sie Faktor 10x schneller ist nach dem Umbau.
Weshalb mal eine Differenz von nur 3 Sekunden, mal von ganzen 20 Sekunden weniger? Weil die CPU mal besser, mal deutlich schlechter ihr Potenzial nutzen kann.

Ergänzung: Die reale Grösse einer auszuführenden Einheit (Programmcode) ist nicht automatisch gleich mit der für die Ausführung notwendigen Zeit. Ein kleiner Algorithmus, wenige Kilobyte gross, ist blitzschnell vom RAM geladen, egal ob DDR1 oder DDR5, kann die CPU aber eine Zeit lang ordentlich auslasten. Der RAM hat's hier einfach, hier CPU, führ das mal aus. Und so ist es eigentlich immer, die CPU arbeitet. Drück jemandem ein Buch in die Hand, hier lies mal, dauert eine Sekunde. Tausendseitiger Schinken lesen, das dauert. Das meinte ich mit "schiere Datenmenge".
 
Zuletzt bearbeitet :
Um es mal ganz einfach auszudrücken: schneller RAM ist zu schnell, CPU und/oder GPU sind zu langsam, um die schiere mögliche Datenmenge durchgehend zu verarbeiten. Selbes gilt für PCIE 4 und 5 bei SSDs. Bis auf wenige reale Fälle oder Benchmarks kann der Mainstream nicht profitieren.

Wieso dauert z.B. das Laden eines Games so lange, wenn ich doch 7GB/s schnelle SSDs habe, DDR4 60GB/s, DDR5 100GB/s an Daten liefern? Weil weder CPU noch GPU nachkommt.

Klar, sind noch Punkte wie Latenz, Cache, Bus, Betriebsystem, Programmierung, etc etc im Spiel, aber auch DDR5 12000 CL16 wird keine FPS verdoppeln. Da ist ein komplettes System dahinter, eine Kette von Komponenten, mit schwächstem Glied wie immer. Direct Storage kann diese Kette ein Stück weit verbessern, mit Betonung auf "ein Stück", wenn es denn mal breit etabliert ist, in 5-10 Jahren frühstens. Aber auch das wird kein Wundermittel.
 
Dafür gäbe es sowas tolles wie Direct Storage (API) von Microsoft und (oder) Nvidias RTX IO.

Von beidem hört man immer nur seeeehr wenig. Direct Storage noch eher aber auch da muss das Spiel erstmal auch darauf ausgelegt, sprich extra dafür Programmiert werden soweit ich das weiß.

Angekündigt wurde beides damals glaub sogar noch vor der 30er Serie von Nvidia. Und RTX IO heißt glaub ich sogar anders mittlerweile.

Ich geh mehr und mehr davon aus das unsere verfügbare Hardware theoretisch viel besser sein könnte… wenn denn unsere Software mithalten könnte. Gefühlt steckt da noch 10 mal mehr Leistung drin als im Brutforcen der Hardwareerweiterung durch neue 40er Serie von Nvidia. Also ernsthaft. Natürlich weiß ich nicht ob es wirklich 10 mal mehr Leistung bringen kann aber mehr als ne GPU Gen besser könnte es auf jeden Fall sein.Nur dauert das Umsetzen bei allen immer so ewig momentan. Die Spiele Hersteller kommen auch nicht nach mit den ganzen Funktionen die man nutzen könnte. Das ist ein echtes Problem leider. Alles nicht gut find ich. Wir könnten Ladezeiten von paar Sekunden haben. Aber leider haben wir das nicht.
 
An sich ist PCIe dafuer schon ein Flaschenhals. PCI brauchte schon ewig, um auf eine Anfrage eine Reaktion erfolgen zu lassen. Bei PCIe ist das noch einmal in einer Dimension schlimmer. Wir erinnern uns: Fuer Soundkarten, die darauf angewiesen waren, einen permamenten Datenstrom zu bekommen um nicht in den Buffer Underrun zu rennen, war PCIe zu traege und ist es auch heute noch. Heutzutage muss gepuffert werden bis zum Umfallen. Die Software ist zudem so extrem durchgelayert, das hier eigentlich das ganze Potential, was man als Performance bezeichnen koennte, verbrannt wird. Wenn ich mir schon die Speicherschutzfunktionen von Windows 10 und 11 anschaue, wird mir speiuebel. Was so alles an "Sicherheits-Features" bezeichnet wird, frisst die Leistung aktueller Systeme auf, noch bevor du als Endnutzer irgendetwas davon hast.

Bei PCIe war es bei der Entwicklung wohl wichtig, das man moeglichst lange Kabel/ Riser cards verwenden kann. Latenzzeiten sind schlecht? Kannten die Ingeneure so nicht. War scheibeegal. Die wussten aber, das man ordentlich Waitstates reinpruegeln muss, damit man den PCIe-Bus auf 30cm und mehr verlaengern kann.


Ich behaupte, das Ladezeiten und Spieleperformance durchaus mehr als doppelt so schnell sein koennten (Solange die GPU mitrennt), wenn dieser ganze Rotz im Hintergrund nciht waere.

Schon der mitlaufende Windows Defender, den man in zwischen mit Drittanbieter-Tools komplett killen muss damit er auch wirklich aus ist, frisst mir gut 20 -30% vom maximalen I/O meines SSD RAID weg. Egal ob Echtzeitschutz aktiv oder nicht. Neben anderen Effekten/ Schutzmechanismen, die den maximalen I/O weiter druecken. Weil sonst irgendwo was bricht.

PS: Und neben dem ganzen Layern im OS kommen in zwischen ja auch noch direkt weitere Layer in der Hardware dazu. Die seit ca 15 Jahren in PC-Systemen verbreiteten IOMMUs machen die Situation auch nicht besser was Latenzen/ I/O angeht. Die Vorteile des Memory-Remappings koennen bei hoher I/O-Last auch wieder zum Flaschenhals werden.
 
Zuletzt bearbeitet :
Dafür gäbe es sowas tolles wie Direct Storage (API) von Microsoft und (oder) Nvidias RTX IO.

Diese Techniken könnten/werden Besserung bringen, sind aber ganz klar nicht der Heilige Gral, aus folgenden zwei Gründen:

1) Grosse Datenmengen, z.B. Modelle und Texturen in Games, werden heute vom Speicher über die CPU an die GPU weitergereicht. Da sind Gigabyte-weise Texturen z.B. die einfach durch die CPU geschleust werden. Mit diesen Techniken wird die CPU dabei nicht mehr involviert, die GPU kann sich die Daten selbst holen. Problem an der Sache ist, diese vermeintlich grossen Mengen an Daten zu schaufeln ist für eine moderne CPU kein Aufwand, da hat @Zer0Strat die Hand gehoben. Man entlastet die CPU zwar, aber es wird nicht doppelt so viele FPS bringen. Denn was die CPU wirklich auslastet, ist Programmcode, das Game, die Engine, die KI, Multiplayer Code, etc. etc. Und wie auch @FfFCMAD erwähnt, insgesamt einfacl alles in einem Computer belastet die CPU.

2) Die Frage ist, wie lange wird Direct Storage & Co. brauchen, um wirklich breit verfügbar zu sein? Diese Frage, weil sehr schneller NVMe Speicher vorausgesetzt wird. Bis dieser im Grossteil aller Gaming-PCs wirklich drin ist, wird es viele Jahre dauern. Man vergleiche dazu die Grafikkarten, einige Generationen zurück sind noch die am meisten genutzten heute, kein Ray Tracing, kein DLSS. Noch klarer bei den Konsolen, die meisten Games werden noch für PS4 und die XBox One programmiert. Die Dinger sind 10 Jahre alt! Aber PS5 und Xbox Series ist nunmal nicht verbreitet, und Geld wird mit der Masse verdient. Wozu also überall gleich mal Direct Storage einbauen, wenn es eh die meisten noch jahrelang nicht nutzen werden können. Wer einigermassen dabei ist technisch, wird ein paar ausgesuchte Spiele bekommen, breite Verfügbarkeit sehe ich geschätzt erst in einigen Jahren.

Ergänzung: positiv an Direct Storage sehe ich den vielleicht endlich kommenden Fotorealismus. Wenn VRAM sozusagen umgangen werden kann, und Nvidias dämlicher VRAM-Geiz mal keine Rolle mehr spielt, können Half Life 3 & Co. kommen. Heutige Texturen müssen aufgrund des VRAMs vergleichsweise klein bleiben, da macht Direct Storage mit 7GB/s noch gar keinen Sinn. Da lädt man mache Games komplett beim Augenzwinkern. Mal sehen, ob die Direct Storage Games dann je, also pro Game, alleine eine 1TB Disk brauchen werden. Haha Zukunftsmalerei....
 
Zuletzt bearbeitet :
Umgekehrt, wäre es fachlich nicht irreführend, nur Spiele zu zeigen, die überdurchschnittlich stark mit dem RAM skalieren?
Man sollte nach Möglichkeit die Bandbreite an Möglichkeiten zeigen, aber 3 Spiele reichen dafür nicht aus. Deine Benchmarks sind verteilungstechnisch so, dass 2 von 3 schlecht skalieren 1 von 3 normal. Nimm mal ne fordernde Szene aus Far Cry 6 oder Tarkov, da sieht das ganz anders aus und das wäre Real World Stuff.

Deine Benchmarks zeigen nicht das Potential, was schneller Speicher in Bezug auf Smothness und Framepacing bieten kann und das ist schade.
 
  • Like
Bewertungen: mer
Man sollte nach Möglichkeit die Bandbreite an Möglichkeiten zeigen, aber 3 Spiele reichen dafür nicht aus. Deine Benchmarks sind verteilungstechnisch so, dass 2 von 3 schlecht skalieren 1 von 3 normal. Nimm mal ne fordernde Szene aus Far Cry 6 oder Tarkov, da sieht das ganz anders aus und das wäre Real World Stuff.

Deine Benchmarks zeigen nicht das Potential, was schneller Speicher in Bezug auf Smothness und Framepacing bieten kann und das ist schade.
Far Cry 6: Uplay, effektiv nicht als Benchmark verwendbar, ich hatte es ja mal in der Suite. Davon abgesehen hat es auch nicht wirklich mit DDR5 skaliert, bei Auflösungen aus diesem Jahrtausend jedenfalls.

Tarkov: Offline mit Scavs ist nicht repräsentativ für Online mit Spielern, bei Online gibt es zu viele nicht kontrollierbare Variablen. Wenn jedes mal das Bild mehrere Sekunden einfriert, wenn ein anderer Spieler in deine Nähe kommt, weil die Engine mit dem LoD Stepping überfordert ist, dann ist so ein Spiel schon mal rein technisch komplett untauglich als Benchmark, zumindest meiner Meinung nach.

Noch ein anderes Beispiel: Cyberpunk 2077, hatte ich in meiner Suite drinnen und war ein gutes Beispiel um Unterschiede von DDR4. Wurde aber von DDR5 effektiv obsolet gemacht.

Mal von der technischen Seite abgesehen, sind alle diese Spieletitel heutzutage praktisch irrelevant. Am meisten Leben steckt wohl noch in Tarkov, aber wer das länger als 2 Wochen spielen kann, steht auch auf Schmerzen und gibt sich mit 15 FPS zufrieden. Da finde ich die jetzige Auswahl ganz charmant: ACC ist beliebt bei vielen Sim-Racern, CSGO ist ein echter E-Sport Klassiker und SoTR ist wohl der meistbenutzte E-Peen Vergleich in englischsprachigen Foren wie overclock.net.

Gefühlt, je mehr Spiele und Benchmarks man testet, desto größer ist das Genörgel, dass irgendein "wichtiger" Titel fehlt oder die getesteten Titel nicht repräsentativ sind. Immerhin benchen wir noch selber. Eigentlich wäre es konsequent, nur die Timings und Topologie (Bit Organization, Ranks etc) eines RAM Kits zu zeigen, weil sich die Performance ja eh theoretisch davon ableiten lässt. Aber trockener als so ein Test wäre dann wirklich nur noch Knäckebrot.

Wo wir wieder dabei wären: Man kann eh nicht alle glücklich machen. Meine Zeit ist eben auch begrenzt und wenn jemand anderes in der selben Zeit mehr Games benchen oder krassere stabile RAM OCs tunen kann, dann please be my guest. Unter anderem mache ich das auch nur, weil ich selbst solche Tests bei den Mainstream Tech-Medien vermisst habe. ...und dem einen oder anderen Leser scheint es wohl genauso zu gehen.

Konstruktive Kritik nehme ich natürlich gerne von der Community an - so kam es ja auch erst zu ACC, TS CPU und Pyprime - nur praktikabel muss es eben auch irgendwo noch sein. ;)
 
Far Cry 6: Uplay, effektiv nicht als Benchmark verwendbar, ich hatte es ja mal in der Suite. Davon abgesehen hat es auch nicht wirklich mit DDR5 skaliert, bei Auflösungen aus diesem Jahrtausend jedenfalls.
Deswegen nimmt man ja eine Custom Szene. Das Spiel ist mit realem Gameplay extrem CPU limitiert. Es ist im Grunde ein Paradebeispiel für CPU-Limitierung.
Tarkov: Offline mit Scavs ist nicht repräsentativ für Online mit Spielern, bei Online gibt es zu viele nicht kontrollierbare Variablen. Wenn jedes mal das Bild mehrere Sekunden einfriert, wenn ein anderer Spieler in deine Nähe kommt, weil die Engine mit dem LoD Stepping überfordert ist, dann ist so ein Spiel schon mal rein technisch komplett untauglich als Benchmark, zumindest meiner Meinung nach.
Du nimmst Built-in Benchmarks und sagst dann, dass Tarkov offline nicht repräsentativ sei? ^^
Noch ein anderes Beispiel: Cyberpunk 2077, hatte ich in meiner Suite drinnen und war ein gutes Beispiel um Unterschiede von DDR4. Wurde aber von DDR5 effektiv obsolet gemacht.
Verstehe ich nicht. "DDR5 effektiv obsolet gemacht."?? Cyberpunk 2077 ist ein sehr schöner CPU-Test, wenn man eine gute, fordernde Szene verwendet.
Mal von der technischen Seite abgesehen, sind alle diese Spieletitel heutzutage praktisch irrelevant. Am meisten Leben steckt wohl noch in Tarkov, aber wer das länger als 2 Wochen spielen kann, steht auch auf Schmerzen und gibt sich mit 15 FPS zufrieden. Da finde ich die jetzige Auswahl ganz charmant: ACC ist beliebt bei vielen Sim-Racern, CSGO ist ein echter E-Sport Klassiker und SoTR ist wohl der meistbenutzte E-Peen Vergleich in englischsprachigen Foren wie overclock.net.
Ist löblich, dass man Titel verwendet, die "noch gelebt" werden, aber es geht ja hier um RAM-Skalierung. Das Testobjekt sollte die Benchmarks vorgeben und nicht "E-Peen" in irgendeinem Overclocking Forum.
Gefühlt, je mehr Spiele und Benchmarks man testet, desto größer ist das Genörgel, dass irgendein "wichtiger" Titel fehlt oder die getesteten Titel nicht repräsentativ sind. Immerhin benchen wir noch selber. Eigentlich wäre es konsequent, nur die Timings und Topologie (Bit Organization, Ranks etc) eines RAM Kits zu zeigen, weil sich die Performance ja eh theoretisch davon ableiten lässt. Aber trockener als so ein Test wäre dann wirklich nur noch Knäckebrot.
Ja ok, aber drei Titel, wo von 2 kaum skalieren ist eher so meh.
 
Oben Unten