News Ryzen 7 und Ryzen 9 als preisgünstige Sargnägel für Intels aktuellen Core-Prozessoren ab dem 07.07.2019

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.261
Bewertungspunkte
18.987
Punkte
114
Alter
59
Standort
Labor
Teaser-Ryzen.jpg


Igor Wallossek submitted a new blog post

Continue reading the Original Blog Post.
 
Ich bin da ganz ehrlich, ich habe keine wirkliche Verwendung für einen 12 oder 16 Kerner, da spielt "haben wollen" eine große Rolle. Außerdem hätte man dann CPU-mässig wohl für die nächsten 10 Jahre ausgesorgt (falls keine Tech-Revolution passiert), wobei sich mir wieder die Frage stellt: will ich das überhaupt.
Von daher warte ich wohl erstmal die Tests ab und wenn die 8 Kerner dann in Games deutlich besser abschneiden, dann überlege ich mir schon, ob ich nicht so eine CPU nehmen soll, Anwendungsleistung habe ich damit auch mehr als genug.
 
Ich will Takt und PCIe-Lanes. :( Kerne sekundär. Mal schauen, was das Jahr in diese Richtung noch bringt.

Entsprechend wären mit 8 kerne @5,5Ghz Basistakt lieber als drölfundsiebzig Kerne.
 
Na bisher hat mir noch niemand gesagt, weches Spiel bzw. welche Anwendung auf einem Desktoprechner 12 oder 16 Kerne nutzt.
Ich kaufe auch manchmal Dinge die etwas oversized sind. Aber wozu etwas kaufen, das ich überhaupt nicht nutzen kann?
 
Das wird gern als Investition in die Zukunft angesehen bzw als solche verkauft, also rein reklametechnisch. Natürlich gibt es Szenarien, in denen man von so vielen und zudem möglichst schnellen Kernen wie möglich profitiert, exemplarisch sei da Blender genannt. Man muß halt gucken, was man wirklich braucht und dann überlegen, ob es sich vielleicht lohnt, direkt mal ne bessere Variante (so verfügbar) zu nehmen, Programme werden ja eher mit mehr Kernen skalieren als stagnieren, die überwiegende Mehrzahl jedenfalls.
 
@garfield36 Spiele an sich wohl eher weniger, auch wenn es bereits welche gibt, die stellenweise 6 Kerne mit HT auslasten (beim Laden unter DX12: The Division 2, Shadow of the Tomb Raider passiert das bei mir bspw.) und auch ein paar, die auch zwischendurch mit mehr als 4 Kernen etwas anfangen können. Aber Streaming ist leistungshungrig: Man möchte nämlich die zugrundeliegende 3D-Leistung der Grafikkarte nicht fürs Echtzeitrendern des Streams zu Twitch vergeuden, zumal im fast mode die Qualität leidet, da nimmt man dann gerne die CPU-Kerne zum codieren mit.

Auch anderswo gibt es Videorendering: Seien es die Dashcam Videos für YT zu editieren oder seine Blu-ray Sammlung one-click abspielbar zu machen (was unter Umgehung des Kopierschutzes dann näher am Illegalen ist, als andersherum). Oder frag mal Igor, ob er seine YT Videos direkt von der Kamera aus hochlädt.

PS: Es gibt hier zwei "Garfields", einen mit und einen ohne 36, sind das zwei User oder hat der eine nur das Passwort vom anderen vergessen? ^^
 
Warum nehme ich einen 12 bzw. wenn noch rechtzeitig erscheint einen 16 Kerner. Weil ich nicht alle 2-3 Jahre einen neuen PC kaufe und dieser somit gerade im CPU Bereich sehr lange halten muss. Und da gerade es sich abzeichnet das die Software immer mehr in Richtung geschoben wird mit mehr Kernen besser zu skallieren (klar es gibt auch weiterhin die Verweigerer bei den Softwareentwicklern, weil es eben einen größeren Aufwand bedeutet). Also warum solle man sich nicht, gerade bei einer kompletten Neuanschaffung, gleich damit absichern die größtmögliche Mainstream CPU zu kaufen was Kerne angeht?
Und am Ende kann es doch auch absolut egal sein, warum die User einen 12 oder 16 Kerner haben wollen im Mainstreambereich. Von daher ist die Frage schon falsch gestellt.
Es müsste eher heißen, habe ich dadurch Vorteile für mich selber, wenn ich einen 12 oder gar 16 Kerner kaufe. Wenn ja, kaufen und wenn nein, dann halt bei dem bleiben was man hat bzw. das neue Modell mit der Anzahl an Kernen kaufen, das für einen relevant ist.
 
@garfield36 Spiele an sich wohl eher weniger, auch wenn es bereits welche gibt, die stellenweise 6 Kerne mit HT auslasten (beim Laden unter DX12: The Division 2, Shadow of the Tomb Raider passiert das bei mir bspw.) und auch ein paar, die auch zwischendurch mit mehr als 4 Kernen etwas anfangen können. Aber Streaming ist leistungshungrig: Man möchte nämlich die zugrundeliegende 3D-Leistung der Grafikkarte nicht fürs Echtzeitrendern des Streams zu Twitch vergeuden, zumal im fast mode die Qualität leidet, da nimmt man dann gerne die CPU-Kerne zum codieren mit.

Auch anderswo gibt es Videorendering: Seien es die Dashcam Videos für YT zu editieren oder seine Blu-ray Sammlung one-click abspielbar zu machen (was unter Umgehung des Kopierschutzes dann näher am Illegalen ist, als andersherum). Oder frag mal Igor, ob er seine YT Videos direkt von der Kamera aus hochlädt.

PS: Es gibt hier zwei "Garfields", einen mit und einen ohne 36, sind das zwei User oder hat der eine nur das Passwort vom anderen vergessen? ^^

Also ich kenne mich nur als garfield36. Schreibt hier tatsächlich noch jemand unter dem Namen garfield?

Ob ein 12- oder 16-Kerner im Desktopbereich zukunftssicher ist wage ich zu bezweifeln. Ich glaube nicht, dass in den nächsten 2 bis 3 Jahren Programme so viele Kerne nutzen werden. Wenn es im Videobereich so ein Programm gibt, dann nenne mir doch bitte jemand den Namen.
Also ich würde mit kein 12stöckiges Haus kaufen, von dem ich weiß, dass ich nur 6 bis max. 8 Stockwerke nutzen kann. Okay, der Vergleich hinkt etwas, da die Nutzungsdauer eines Hauses ja eine ganz andere ist. Aber er verdeutlicht, was ich damit ausdrücken will.

Nun, wie auch immer, jeder mag sein Geld so ausgeben, wie er/sie es für richtig hält. Bei mir wird es aus derzeitiger Sicht ein 3800X werden.
 
Zuletzt bearbeitet :
Hier mal ein paar Beispiele, die meines Wissens nach, viele Kerne nutzen:
- 7Zip
- Cinema 4k
- Blender
- Premiere Pro
- Excel
Bei Spielen gibt es meines Wissens keines, dass 16 Kerne nutzt. Hier kommt bei dem ein oder anderen halt noch das Streamen hinzu.
 
nächsten 2 bis 3 Jahren Programme so viele Kerne nutzen werden.
Es gibt auch Nutzer, die ihre CPU deutlich länger als 2 bis 3 Jahre nutzen möchten (siehe z. B. auch @Dark_Knight). Mir geht das genauso. Mein Athlon XP von 2003 hat 6 Jahre gehalten. Ende 2009 habe ich mir von meinem ersten Zivi-Gehalt einen i7 gegönnt, der noch heute im Einsatz ist (allerdings nicht bei mir). Damals war der Nutzen von 4 Kernen + HT eher die Ausnahme als die Regel, heute sind 6 oder 8 Kerne bei manchen Spielen bereits im Vorteil.

Den i7 habe ich nach 5 Jahren wegen Instabilität (lag an einem RAM-Riegel, wie ich später herausfand) durch einen Haswell i5 ersetzt, der aber mittlerweile häufig ins CPU-Limit läuft. Deswegen will ich den durch einen Ryzen 3000 ersetzen, der dann wieder 5, falls möglich auch 10 Jahre halten soll. Das heißt viel Takt und reichlich Kerne. Wenn es 16 Kerne mit viel Takt bei moderatem Aufpreis gegenüber 12 Kernen gegeben hätte, dann hätte ich die genommen. So wird es für mich voraussichtlich der 3900X.
 
Nuja, garfield36, das ist ja mein Punkt: du bezweifelst, dass 12 oder gar 16-Kerner zukunftssicher sind, andere hingegen nicht. Denk beispielsweise an das manchmal an Hysterie grenzende Gewese zurück, als die Threadripper nur angekündigt wurden.
 
Als ich meinen Wiedereinstieg ins Hobby hatte, das war 2008, jammerte auch jeder ein DualCore wäre vernünftiger, Quad-Core wird in 10 Jahren noch nicht genutzt..... Heute gibt es bereits Spiele welche nicht mal mehr mit einem Quad-Core starten.
 
ich glaube es war eine leichte, künstlerische Übertreibung ;)

ich sehe 12 oder 16 Kerne zwar auch noch nicht sinnvoll eingesetzt, aber wenn ich kaufen muss/will und ich bekomme bei gleicher Leistung/Takt irgendwo für nen akzeptablen Aufpreis noch mehr Kerne... dann nehm ich die mit.
 
Das ist doch nicht neu, sondern maximal mit Perwoll gewaschen^^. Ich las mal woanders ne gegenteilige Aussage, aber auch dort war zu lesen, dass es technisch zumindest ne Herausforderung darstellen würde. Oder so ähnlich; keine Idee, wo ich es las.
 
@Case39 Ich habe es gerade auf CB gelesen. Und ich finde es nicht so tragisch, denn es ging ja sowieso "nur" um den ersten PCIe-Slot und dessen Geschwindigkeit limitiert in Spielen zumindest derzeit quasi garnicht. Daher wäre es ein nettes Feature gewesen, aber mehr auch nicht. Volle PCIe-Geschwindigkeit auf allen PCIe-Geräten (insbesondere für SSDs) wäre sowieso nur bei X570 gewesen.

Ansonsten: You get what you pay for: Will man alle neuen Funktionen nutzen, muss man auch ein neues Board wählen. Will man Geld sparen, kann man die neue CPU auf das alte Board setzen und das Board beim nächsten CPU-Wechsel tauschen oder zumindest ein paar Monate überbrücken, bis die Boards günstiger werden oder kleinere Chipsätze wie B550 rauskommen.
 
Empfinde ich richtig, das AMD jetzt ne klare Ansage macht.
Wichtiger ist, das die Ryzen 2 Performance, auf den älteren Boards, identisch mit den neuen Boards bleibt.
 

Überraschend ist es nicht, da nicht jeder Hersteller auf jedem Board gewährleisten kann, dass es rund läuft. Es wäre das reinste Chaos, was (Teil-)Komptabilitätslisten angeht, mal abgesehen vom BIOS Frickel-Overhead der Hersteller.

Vielleicht wird man hier und da (eingeschränktes) PCIE 4 durch custom roms erhalten, letztlich sehe ich aber erst mal keinen Grund für einen Aufschrei, da die Boards defakto auch nie als solche beworben wurden. Eventuell kann man AMD hier etwas zu viel Enthusiasmus vorwerfen, da Hoffnungen (und dadurch Erwartungen) durchaus geweckt wurden.

Ich persönlich sehe es aber auch entspannter, bis vor kurzem hatte niemand überhaupt mit PCIE 4 gerechnet und so viele praktische use-cases fallen mir für meine Verwendung ohnehin (noch) nicht ein.
 
Wo bleibt denn eigentlich unser Igor ab?
 
Der erholt sich bestimmt von Flug und Jetlag.
 
Oben Unten