News AMD Epyc 2 aka Rome

HerrRossi

Urgestein
Mitglied seit
Jul 25, 2018
Beiträge
6.782
Bewertungspunkte
2.244
Punkte
113
AMD hat die neuen EPYC 2 CPUs vorgestellt: bis zu 64 Kerne/128 Threads und 256 MB Cache, dazu die verbesserte IPC von Zen2 und durch die Chiplets die Möglichkeit, diese CPUs günstig zu produzieren. Intel wird sich in den kommenden Monaten wohl warm anziehen müssen. Selbstverständlich wird da auch irgendwann ein Konter kommen und ich gehe auch von einem Paukenschlag aus, daher muss AMD jetzt die Zeit gut nutzen, um so viele Kunden wie möglich an Land zu ziehen.
 
Na das lässt ja auch für TR3000 / TR4 hoffen!
 
Auf jeden Fall. Ich will mir ja schon länger einen komplett durchvirtualisierten Computer bauen, auf dem mehrere VM parallel laufen, die man auf Kopfdruck umschalten kann. Mit dem Ryzen 12 Kerner wird erstmal geübt, ob das überhaupt praktikabel ist.
 
Zuletzt bearbeitet :
Auf jeden Fall. Ich will mir ja schon länger einen komplett durchvirtualisierten Computer bauen, auf dem mehrere VM parallel laufen, die man auf Kopfdruck umschalten kann. Mit dem Ryzen 12 Kerner wird erstmal geübt, ob das überhaupt praktikabel ist.

Kommt halt schwer drauf an, was du mit "durchvirtualisierten Computer" meinst und was du damit machen willst. Wenn Daddeln dazu gehört und Du nicht totale Exoten als Gast fahren willst, ist im Zweifel Windows 10 mit aktivierter Hyper-V Rolle der beste/einfachste Weg.

Aber ich bin neugierig, erzähl mal, wie Du Dir das vorstellst! Bevor ich die Win10-VM auf meinem Mainserver (siehe Sig) mit dedizierter Graka und durchgereichten USB-Geräten (inkl. Sound) in Betrieb genommen hab, hab ich da selber durchaus mal Zeit reingesteckt. Auf meiner Test-Hardware damals (4-Kern E3-Xeon V1 mit 1080Ti) war aber der Performance-Verlust schon deutlich. Irgendwas bei den Hardwarevoraussetzungen hinderte mich auch daran, das mit meinem aktuelle Daddel-PC mal auszuprobieren, ich weiss aber leider nicht mehr genau, was das war. :(

Da der Server im gleichen Raum wie der Daddel-PC steht, musste ich nur ein paar längerer Strippen ziehen und nutze das "vollwertige virtuelle Windows" momentan primär zum Filmchen schauen, Surfen, Testen (Snapshots sind was feines) usw. nebenher an eigenem Monitor, Keyboard, Maus & Boxen, und der Daddel-PC kann sich auf's Daddeln konzentrieren...
 
Ja, da sollte dann auch eine Windows 10 VM mit durchgeschleifter Grafikkarte installiert werden. Wie hoch würdest du den Leistungsverlust denn einschätzen?
 
Welchen Hypervisor willst Du denn nehmen? Unter Windows 10 hast Du m.E. (fast?) gar keinen Verlust.
 
Ich würd eher die Software in Containern Virtualisieren, als einen Haufen VMs zu machen.
Wie willst du auf die VM Zugreifen? RDP? HyperV-Connect? RemoteFX? Das alles irgendwie mäh mit zu viel Input Lag bei schnellen spielen.
 
Spielen macht jedenfalls nur Spaß, wenn man entweder a) der VM eine dedizierte GPU gibt, und daran dann einen Monitor hängt oder b) eben quasi auf dem Host daddelt mit Win10 als Hypervisor.
 
Ich dachte an Proxmox/KVM oder ESXi. Zugriff direkt am Host.

Wie meinst du das eigentlich mit b)? Ich möchte weg von Windows, das soll nur noch in der VM zum daddeln laufen, mehr nicht. Ich möchte mir aber auch Dual Boot sparen, sondern zwischen W10 und einem Linux hin- und herschalten können.
 
Mit Proxmox kenne ich mich nicht wirklich aus. Probier mal und berichte dann. :D

Wenn ESXi, musst Du halt mal überlegen, wie du es genau haben willst. Für Windows braucht’s für spiele halt ne dedicated Graka. Die hängt dann eben nur in der Windows VM, d.h. es stellt sich ein wenig die Frage, wie du auf dein Linux zugreifen willst. Wenn da nix grafisch aufwändiges läuft, kann man das ja auch aus der Windows-VM heraus über VNC & Co., m.E. bedient man ja ein Linux eh per ssh. ;)

Willst du aber auch Linux quasi wie Windows mit eigener GPU usw., wird das komplizierter.
 
Zuletzt bearbeitet :
Schau dich mal bei Level1Tech um. Wendell hatte da mal ein Projekt mit IOMMU und GPU Passthrough. Das Host System hat 2 GPUs verbaut, von welcher eine dediziert an die VM geht. Mit etwas RAM-Swap-Magie wird der Grafik-Buffer dann mit keinem bis wenig Latency umkopiert. Irgendwie so war der grobe Abriß zumindest.

Ich boote bisweilen nur noch Windows für Spiele, die auf Linux noch zu inakzeptabel laufen. In meine Fall bräuchte ich für beide Systeme (Passthrough und Host) ähnliche GPUs was die Leistungsklasse angeht. Das ist mir persönlich im Moment noch zu teuer und ab der Leistung einer 1080 Ti wird eine reduzierte PCI-E Anbindung (x8 bei meinem Board) - soweit ich weiß - zum Flaschenhals, wenn auch nur minimal.

Wenn dir Lutris/Proton bzw. Linux-Gaming an sich egal ist und du alles über die VM abfrühstücken wollen würdest, dann kann die Host-Karte für Linux auch die letzte Gammelkarte sein.

Das Projekt werde ich voraussichtlich mit Zen 3 bzw. meinem nächsten System in Angriff nehmen.


Wie die Dinge seit dem Video gereift (oder auch nicht) sind, kann ich nicht sagen. Ich würde aber hoffen, dass sich die letzten anderthalb Jahre eher positiv ausgewirkt haben.

Generell sehe ich das für Privatanwender allerdings als sinnvoller, statt sich irgendwo überdimensionierte Serverhardware mit Netzwerk-Overhead hinzustellen ;)

Rome war der Paukenschlag. Intels momentane Aussicht ist eine $50.000 400W CPU irgendwann später. Intel ist nun Bulldozer und wird es vermutlich für mindestens 1~2 Jahre bleiben. Außerdem wird Intel vermutlich Rome / Zen 3 überflügeln müssen statt nur gleich zu ziehen, da die meisten bis dahin wahrscheinlich gewechselt haben werden.
 
Zuletzt bearbeitet :
Willst du aber auch Linux quasi wie Windows mit eigener GPU usw., wird das komplizierter.
Für Linux hätte ich noch eine HD7850 hier liegen. Wie ist das denn, wenn die W10 VM nicht läuft, dann wäre die Grafikkarte doch "frei" für eine andere VM oder den Host?

@Moeppel danke für den Tipp, unter Linux wird nicht gezockt, da reicht dann sehr wenig Leistung. Der Hinweis auf die PCIe-Anbindung ist richtig, die "Zocker"-GPU soll halt schon die vollen 16x bekommen, der Leistungsverlust soll so klein wie nur irgend möglich ausfallen.
 
Und Intel weiß sich mal wieder nicht anders zu helfen als mit Mafia-Methoden:
We are going to present a few data points in a min/ max. The minimum is system idle. Maximum is maximum observed through testing for the system. AMD specifically asked us not to use power consumption from the 2P test server with pre-production fan control firmware we used for our testing. We are also not allowed to name because Intel put pressure on the OEM who built it to have AMD not disclose this information, despite said OEM having their logo emblazoned all over the system. Yes, Intel is going to that level of competitive pressure on its industry partners ahead of AMD’s launch.
 
Oben Unten