AMD AMD Ryzen 3000 im Fakten-Check - Was wir bereits wissen (und was wir nur vermuten)

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.198
Bewertungspunkte
18.815
Punkte
114
Alter
59
Standort
Labor
Chip-Teaser.jpg


Igor Wallossek submitted a new blog post

Continue reading the Original Blog Post.
 
Och, die Wollmilchsau brauch ich gar nicht. Mir würde vollkommen eine fürs Daddeln optimierte CPU reichen - meine sonstigen Aufgaben am Home-PC würde die dann auf einer Pobacke wegschaffen und selbst die würde wohl einschlafen. Mache halt kein Video- oder sonstiges Editing oder aufwändige Berechnungen.

Und dafür ist ab einem bestimmten Niveau mehr Takt glaub wohl immer noch die „sicherere Bank“ als mehr Kerne. Leider.

Aber so sind halt die Anforderungen unterschiedlich, der alte Segen und zugleich Fluch der PCs mit ihrer Vielseitigkeit - Jack of all trades holt halt nirgends das Optimum.
 
Keine Wollmilchsau = Huhn. Aber auch Schildkröten. Ovipare halt.
@amd64: den Bilden folgend, die ich grad fand, waren es beim C2Q zwei gleichgroße Dies nebeneinander. Das sieht hier n bißchen anders aus. Auf die Effekte bin ich dann immer noch gespannt.
 
@amd64: den Bilden folgend, die ich grad fand, waren es beim C2Q zwei gleichgroße Dies nebeneinander. Das sieht hier n bißchen anders aus. Auf die Effekte bin ich dann immer noch gespannt.

Das war quasi ein Multicpu System auf einem Sockel. Die CPU-Paare hatten ja auch geteilte L2 Cache. Auf dem Papier standen bei meinem Q9550S damals 12MB L2, es waren aber nur 2x6MB.

Insgesamt funktionierte dieses Design ja auch nur, weil der Speichercontroller noch nicht in der CPU integriert war und beide CPU-Paare über die Northbridge auf den Speicher zugegriffen haben.

In Hinsicht auf Zen2 auf dem AM4 Sockel sehen wir eigentlich fast dasselbe. Die Northbridge/der Speichercontroller sitzt jetzt zwar mit auf dem Sockel und wird möglicherweise über einen L3 Cache verfügen, aber das Prinzip ist grob vergleichbar mit dem Core 2 Quad.

Jetzt muss am Ende nur die Leistung und der Preis stimmen. :D
 
Ich meinte bezogen auf die Kühlung :)
 
Da mache ich mir keine Sorgen. Mein NH-D14 schafft das schon. :cool:
 
@Plitz
Du stehst bei mir auf Ignore, kannst dir also deine Beleidigungen sparen. Dann machst du auch den Mods weniger Arbeit.
 
Ach das tägliche "Ich habe keine Argumente" *wein wein wein* ... und morgen antwortet er wieder auf meine Beiträge. Wie wäre es mal damit das Gespräch zu suchen? Aber so ist das heutzutage, wenn man nichts gelernt hat.

Da beleidigt man dann halt gerne mal alle durch die Bank weg und wundert sich dann ganz böse betroffen das es Gegenwind gibt.

Und alle die es bis jetzt noch nicht verstanden haben
Nur "Hardcore-Elite-Pro-Gamer" brauchen unbedingt die stärkste Spiele CPU.

Ist hier klar verletzend gemeint.

Und für die (unfähigen) Mods: Das Wort "Grafikh*re" ist jetzt seit 20 Jahren ein Wort das im allgemeinen Sprachgebrauch für ein bestimmtes Klientel benutzt wird. Es ist in diesem Zusammenhang nicht mehr verletzend als das Wort Gamer es ist. Wenn man sich aber an dem Wort H*re allein festhängt ist ein Duden zu empfehlen ... ICH PERSÖNLICH BIN EINE GRAFIKH*RE UND EIN GAMER, es ist absolut problemlos diese Aussagen über sich selbst zu treffen! Problematisch wird es, wenn Andere versuchen diese Worte negativbelastet gegen einen zu wenden. Die Intention ist entscheidend! Und hier schlägt Dark_Knight genauso über die Stränge wie ich es tat, nur das er den Erstschlag ausführte und ich nur konterte.
 
Zuletzt bearbeitet von einem Moderator :
Und genau deswegen pflegt man in diesem Forum einen gewissen Umgangsstil. Dann können solche Probleme kaum auftreten. Ich bitte darum, dass das alle Beteiligten als Warnung verstehen. Mäßigt euch im Ton.

Ich sehe an "Nur "Hardcore-Elite-Pro-Gamer" brauchen unbedingt die stärkste Spiele CPU." nichts ehrverletzendes sondern nur eine abwertende, pauschale Meinung. Die muss ich nicht gut finden, kann die Wortwahl aber noch tolerieren.

@Plitz In deiner Antwort benutzt du Schimpf- und Fäkalworte, die nicht in einen familienfreundliches Forum passen und zudem dazu geeignet sind den Ton hier weiter zu verschärfen. Daran besteht kein Interesse, im Gegenteil es zieht mehr Leute an, die hier mit Kraftausdrücken um sich werfen wollen. Dies gilt es zu verhindern. Es handelt sich dabei also nicht um Unfähigkeit, sondern um das aufrechterhalten unserer Forenkultur.
 
Erst mit "*wein wein wein*" auskeilen und dann selber weinen "Ist hier klar verletzend gemeint" :rolleyes: Wäre echt schade, wenn der Kindergarten, der in anderen Hardwareforen Usus ist, auch hier Einzug halten würde.
 
Hey! Jetzt ist mal gut Leutz.
 
Erst mit "*wein wein wein*" auskeilen und dann selber weinen "Ist hier klar verletzend gemeint" :rolleyes: Wäre echt schade, wenn der Kindergarten, der in anderen Hardwareforen Usus ist, auch hier Einzug halten würde.

Verletzend gemeint =/= verletzend.

Nur weil ich die Intention habe etwas zu tun, heißt es nicht, dass ich damit Erfolg habe.

Ich hatte mit meiner Aussage z.B. die Intention manch einem hier seine Schwachsinnigkeit zu offenbaren. Das Ergebnis war aber nur, dass man sich in noch mehr Schwachsinn geflüchtet hat.
 
hmm, 20 nutzbare PCIe Gen4 Lanes über die CPU kling ja schon mal nicht verkehrt.
Was den Chipsatz betrifft schweigen sie sich aber noch über die Anzahl der Lanes aus, wenn ich das so richtig lese.
Und USB 3.2 Gen 2x2 (was für eine besch****ne Bezeichnung) wird anscheinend noch nicht unterstützt. Schade.
 
Verständnisfrage zu den Lanes: Werden normale Grafikkarten trotzdem 16 dieser Lanes benötigen? Werden M2 weiterhin 4 Lanes benötigen? Wofür reichen 20 Lanes PCIe 4 effektiv aus?
 
Meine Güte, was für ein hohles Getrolle in den Kommentaren bei Wccftech.
@Plitz: da wird sicher ebenfalls mit technischen Tricks - also Zusatzchips - gearbeitet, um mehr als nur 20 Lanes bereitzustellen. Sonst wären die 'three PCIe 4.0 x16 slots, two PCIe 4.0 x1 slots and triple M.2 slots' beim X570 ACE reichlich sinnlos.
 
Ganz so sinnlos jetzt ja nicht, so hat man ja immerhin die Wahl wo man die Gerätschaften einstöpseln will, was je nach Gehäuse und CPU Kühler ja auch ganz hilfreich ist.

Denke aber nicht das die Lanes sich magischerweise "halbieren" weil PCIe 4 verfügbar ist, solange das Gegenstück (Graka, M2, Soundkarte) das nicht auch unterstützt. Würde hier aber gerne von jemandem wissen der es "weiß".
 
eine NVMe SSD die technisch 4 lanes auf Rev 3.0 benötigt kann nicht an 2 lanes rev 4.0 betrieben werden da sie eben kein rev 4.0 kann.
 
Oben Unten