Zugelegt: AMDs Ryzen 7000 „Raphael“ Desktop-CPUs angeblich mit maximaler Frequenzgrenze von 5,85 GHz

Auf der anderen Seite würde ich mir eher wünschen, die Entwicklung ginge mal wieder in die andere Richtung, allerspätestens seit Apple mit dem M1+ die versammelte Konkurrenz deklassiert hat.
Hohe Takraten gehen immer zu lasten der Effizienz und der IPC-Gewinn scheint überschaubar zu sein.
Was ist denn der M1+? Meinst du M1 Pro und M1 Max?
Die sind laut Notebookcheck nicht so effizient als der ursprüngliche M1. NBC hat da eine Effizienz-Wertung anhand des Cinebench R15 und des gemessenen Verbrauchs. Und da ist z.B. ein 6800U besser als alles von Apple und der M1 ist etwas effizienter als der M1 Pro. Jetzt ist CB15 natürlich auch nicht gerade aktuell und Apple ist da auch nicht gut unterwegs, aber das gibt's halt auch. In CB R20 sieht's übrigens noch schlechter aus, im CB23 ist der M1 Pro dann grob 20% schneller als der 6800U, der Verbrauch des M1 Pro scheint aber auch grob 20% höher als beim 6800U Testsystem. Für einen deutlich größeren Chip in besserer Fertigung jetzt nicht unbedingt so berauschend. Klar, es gibt auch Anwendungen, wo der M1 Kreise um den 6800U dreht, weil er da von speziellen Schaltungen und speziell optimierter Software profitieren kann. Aber AMD kann sich das halt nicht erlauben, da gibt's keine Software, die speziell drauf optimiert wurde. Daher macht das halt auch keinen Sinn für AMD.
Apple hat sein eigenes Ökosystem, daher können die das ganz anders machen, aber damit sind sie eben auch nicht überall besser.
Gibt's eigentlich vielleicht auch endlich mal was Neues im Hinblick auf die Anzahl der PCIE-Lanes (der CPU bitte) oder bleibt hier alles beim (dämlichen) Alten?
Wie Casi030 schon verlinkt hat: 4 mehr als bisher. Bisher hatte man 20+4 für den Chipsatz, jetzt halt 24+4 für den Chipsatz. Eventuell nutzt man mit den 670e dann die zusätzlichen Lanes zur Anbindung, dann bringt der aber natürlich wieder weitere mit. Also im Endeffekt hat man 4 Lanes mehr, natürlich auch PCIe5 statt PCIe4.
 
Zuletzt bearbeitet :
Gibt's eigentlich vielleicht auch endlich mal was Neues im Hinblick auf die Anzahl der PCIE-Lanes (der CPU bitte) oder bleibt hier alles beim (dämlichen) Alten?
Bleibt bei 24 Lanes, aber mit iGPU und 10Gb NIC auf dem MB spart man schonmal zwei PCIe-Karten. Ich werde aber wahrscheinlich trotzdem nicht wechseln, ich brauche nicht mehr Leistung.
 
Ach der M1-Mythos wieder. In der realen welt sieht das schon wieder ganz anders aus, da ist der M1 zwar gut aber nicht so Über-Hyper-Gut wie manche ihn gerne sehen würden.
Wenn man in Leistung/Watt rechnet, ist der M1 ganz weit vorne, ich glaube nicht, dass da eine andere CPU auch nur ansatzweise mithalten kann. In Sachen Grafikleistung hinkt Apple aber noch ziemlich weit hinter Nvidia und AMD hinterher.
 
Wenn man in Leistung/Watt rechnet, ist der M1 ganz weit vorne, ich glaube nicht, dass da eine andere CPU auch nur ansatzweise mithalten kann. In Sachen Grafikleistung hinkt Apple aber noch ziemlich weit hinter Nvidia und AMD hinterher.
Wurde der M1 schon mal mit Windows10/11 Getestet?
 
Wenn man in Leistung/Watt rechnet, ist der M1 ganz weit vorne, ich glaube nicht, dass da eine andere CPU auch nur ansatzweise mithalten kann. In Sachen Grafikleistung hinkt Apple aber noch ziemlich weit hinter Nvidia und AMD hinterher.
Ich hatte doch oben schon drauf hingewiesen: Bei den Messungen von Notebookcheck ist der M1 eben nicht immer führend, da verliert er teilweise auch merklich gegen AMD, auch in Sachen Effizienz (der 6800U war im Testgerät sparsamer als ein M1 Pro und nicht unbedingt langsamer). Er ist also durchaus ganz weit vorne, aber mithalten können die Anderen durchaus. In Sachen ST Leistung ist die M1 Riege inzwischen sogar weit abgeschlagen, bei MT ist man auch nicht immer führend, ebenso beim Verbrauch. Das M1 Design ist halt einfach auch in die Jahre gekommen und AMD und Intel sind nicht stehen geblieben. Daher kann die Konkurrenz halt auch jetzt durchaus mithalten, trotz schlechterer Fertigung.
Dann bekommt Zen4 insgesamt 28 PCIe Lanes?
Sieht so aus. Auf der verlinkten Folie steht explizit 24 Lanes für Gfx und Storage, da steht nichts von Chipsatz. Bisher hat AMD das explizit ausgewiesen. Insofern müsste er auch hier explizit erwähnt sein. Da er das nicht ist, liegt es nahe, dass es 4 zusätzliche gibt. Gab dazu auch schon etliche Gerüchte.
 
Was ist denn der M1+? Meinst du M1 Pro und M1 Max?
Die sind laut Notebookcheck nicht so effizient als der ursprüngliche M1. NBC hat da eine Effizienz-Wertung anhand des Cinebench R15 und des gemessenen Verbrauchs. Und da ist z.B. ein 6800U besser als alles von Apple und der M1 ist etwas effizienter als der M1 Pro. Jetzt ist CB15 natürlich auch nicht gerade aktuell und Apple ist da auch nicht gut unterwegs, aber das gibt's halt auch. In CB R20 sieht's übrigens noch schlechter aus, im CB23 ist der M1 Pro dann grob 20% schneller als der 6800U, der Verbrauch des M1 Pro scheint aber auch grob 20% höher als beim 6800U Testsystem. Für einen deutlich größeren Chip in besserer Fertigung jetzt nicht unbedingt so berauschend. Klar, es gibt auch Anwendungen, wo der M1 Kreise um den 6800U dreht, weil er da von speziellen Schaltungen und speziell optimierter Software profitieren kann. Aber AMD kann sich das halt nicht erlauben, da gibt's keine Software, die speziell drauf optimiert wurde. Daher macht das halt auch keinen Sinn für AMD.
Apple hat sein eigenes Ökosystem, daher können die das ganz anders machen, aber damit sind sie eben auch nicht überall besser.
Ja, mit M1+ meine ich die ganze M1 Familie. Und keine Ahnung was notebookcheck da gemessen hat, lief das nativ oder noch mit Rosetta 2?

In den meisten Test jedenfalls hat der M1 (insbesondere der M1 Pro) eine überlegene Energieeffizienz (nicht zwangsweise die höchste absolute Leistung). Teilweise doppelt oder dreimal so hoch wie die x86 Vertreter von AMD oder Intel. Hier z.Bsp. der Test von CB.

Das ist zugegeben noch der Vergleich mit Intels und AMDs letzter Generation, aber man konnte diese Leistung eben schon vor über einem Jahr haben, während es bei Geizhals z.Bsp noch nicht mal einen Laptop mit dem 6800U gelistet gibt.
 
Hier für Interessierte ein link zu einem Interview mit Robert Hallock, das im Zuge der Computex erstellt wurde.
Bummelig eine Stunde Hintergrund-Infos aus erster Hand rund um Zen4 und AM5.
Tüte chips nicht vergessen, interessanter Stoff meiner Ansicht.
Praktischerweise auch mit jeder Menge Zeitstempeln versehen, sodaß man sich recht einfach auch gezielt einzelne Themen suchen kann.
 
Zuletzt bearbeitet :
Mich interessiert Zen nur, weil es als Code Namen denselben hat wie mein Sohn heisst (haltet mich für verrückt). Von der Leistung reicht mir mein 5600X. Daher bin ich auch eher gespannt, wie die 7600er ausfallen werden. Oder allgemein, welche CPU's mit 65W TDP kommen werden.

Auch bin ich gespannt wie gut die ITX Boards werden und ob bis dahin DDR5 erschwinglich wird.
 
Ist halt der Vergleich der Messwerte bei NBC, daher nicht unbedingt sehr übersichtlich. Und nicht jedes Gerät hat jeden Test durchlaufen.
Ja, mit M1+ meine ich die ganze M1 Familie. Und keine Ahnung was notebookcheck da gemessen hat, lief das nativ oder noch mit Rosetta 2?

In den meisten Test jedenfalls hat der M1 (insbesondere der M1 Pro) eine überlegene Energieeffizienz (nicht zwangsweise die höchste absolute Leistung). Teilweise doppelt oder dreimal so hoch wie die x86 Vertreter von AMD oder Intel. Hier z.Bsp. der Test von CB.

Das ist zugegeben noch der Vergleich mit Intels und AMDs letzter Generation, aber man konnte diese Leistung eben schon vor über einem Jahr haben, während es bei Geizhals z.Bsp noch nicht mal einen Laptop mit dem 6800U gelistet gibt.
Und wo genau wurde da jetzt der Verbrauch gemessen? Da wird die Package Power durch Software ausgelesen, mehr nicht. Das restliche Gerät läuft nicht mit heißer Luft, und irgendwelche Werte auslesen sagt halt auch nichts über den Verbrauch eines Notebooks aus. Dazu fehlen die Vergleiche zu den anderen Geräten. Da werden dann nur extreme aus Gaming Rechnern herangezogen, die überhaupt nicht auf Effizienz getrimmt sind. Zusätzlich frage ich mich, wie man z.B. 0W GPU Verbrauch erreichen will. Das geht nur, wenn man kein Bild ausgibt, denn selbst der Desktop verbraucht halt Energie. Insofern hat man nicht nur nicht gemessen, sondern auch Werte angegeben, die wenig plausibel wirken.
Bei NBC wird der tatsächliche Verbrauch des gesamten Gerätes gemessen, und da sind die Apple halt doch nicht so sparsam, wie man meint. In CB15 ist sogar ein 5800U effizienter. Der M1 Pro hat ein paar Punkte mehr, braucht dafür aber 50% mehr. Wie gesagt, CB15 liegt Apple wohl auch nicht, vermutlich weil nicht native. Aber wenn man schon von "überlegener Effizienz" spricht, muss man das halt auch für sich entscheiden.
Wie vorher schon geschrieben: Die Dinger sind auch extrem effizient und sind ja auch schon etwas älter, aber sie sind halt nur da effizient, wo auch die Software explizit auf M1 optimiert wurde. Und das trifft nun mal nicht auf jede Software zu.
 
Also ein chiplet, 65 Watt und dann 5Ghz wäre schon echt nice. Vielleicht ist da wirklich was beim UV machbar.

Sonst... Naja... Werden die Zen 3 jedenfalls günstiger und ich kann mal ein paar Kerne zulegen. Und vor allem den nutzlosen Kühler tauschen.
 
Das geht nur, wenn man kein Bild ausgibt, denn selbst der Desktop verbraucht halt Energie.
Ja, aber praktisch keine GPU-Leistung. Solange sich der Desktop nicht ändert, ist das einfach ein gespeichertes Bild im RAM. Das wird regelmässig ausgelesen und über die Schnittstelle ausgegeben. Bei einer internen Grafikeinheit läuft das über die Ausgabeeinheit, die auf dem Mainboard verbaut ist. Somit braucht der RAM und die Ausgabeeinheit Strom, aber nicht die iGPU.

Wenn sich auf dem Desktop die Fenster ändern, braucht das auch kaum Rechenleistung. Da muss nur definiert werden, welcher Bereich mit welchem Farbwert gefüllt werden muss. Diese Arbeit benötigt eher die CPU als die GPU. Die GPU wird erst richtig belastet, wenn Farbwerte für jedes Pixel einzeln berechnet werden müssen. Ein Bild zoomen, Videos anzeigen belastet die GPU also etwas. Richtig aufwändig wird es aber erst beim Gaming oder Video rendern wenn für jedes Pixel sehr aufwändige Berechnungen nötig sind.
 
Da sind 6 GHz im Single Core auch nicht mehr weit🤭 hi hi hi hi...🤡
 
Ja, aber praktisch keine GPU-Leistung. Solange sich der Desktop nicht ändert, ist das einfach ein gespeichertes Bild im RAM. Das wird regelmässig ausgelesen und über die Schnittstelle ausgegeben. Bei einer internen Grafikeinheit läuft das über die Ausgabeeinheit, die auf dem Mainboard verbaut ist. Somit braucht der RAM und die Ausgabeeinheit Strom, aber nicht die iGPU.
Auch wenn das jetzt noch weiter OffTopic wird: In der Regel gehören die Einheiten, die das Bild Richtung Bildschirm schicken auch zur GPU/IGP. Und in der Regel hat CB eine Ausgabe, es wird das Ergebnis angezeigt.1-2W sind da gleich mal fällig. Ist natürlich nicht viel, aber 0W halte ich für fragwürdig. Du sagst es ja selbst: "[...]praktisch keine GPU-Leistung". Das ist für mich was anderes als "gar keine GPU-Leistung".
 
Auch wenn das jetzt noch weiter OffTopic wird: In der Regel gehören die Einheiten, die das Bild Richtung Bildschirm schicken auch zur GPU/IGP. Und in der Regel hat CB eine Ausgabe, es wird das Ergebnis angezeigt.1-2W sind da gleich mal fällig. Ist natürlich nicht viel, aber 0W halte ich für fragwürdig. Du sagst es ja selbst: "[...]praktisch keine GPU-Leistung". Das ist für mich was anderes als "gar keine GPU-Leistung".
Da es kein Windows ist können die 0 schon hin kommen, hab ich auf dem Handy was ja nix anderes ist aber auch.
Screenshot_20220530-221404_CPU-Z.jpg
 
Da es kein Windows ist können die 0 schon hin kommen, hab ich auf dem Handy was ja nix anderes ist aber auch.
GPU Load von 0% gibt's auch in Windows. Was aber nicht gleichbedeutend ist mit einem GPU Verbrauch von 0W. Eine GPU hat genau wie eine CPU einen Idle Verbrauch, kann in der Regel nicht komplett abgeschaltet werden, weil dann eben keine Bildausgabe erfolgt. Daher eben oben mein Erstaunen über einen angeblichen GPU Verbrauch von 0W. Da sollten schon 1-2W stehen, selbst bei IGPs. Denn ganz ohne Daten aus dem Ram lesen und an das Display schicken geht's halt nicht.
 
Oben Unten