Paul Stanik
Veteran
- Mitglied seit
- Nov 29, 2018
- Beiträge
- 227
- Bewertungspunkte
- 33
- Punkte
- 27
Ob die 5 GHz auf allen Kernen vom Kalksandstein auch gehalten werden, wenn es sich um einen AVX2-Workload handelt? Und wie viel Strom zieht sich das Teil dann?
Und Energieeffizienz ist immer nur dann wichtig wenn es darum geht ein Argument gegen AMD Grafikkarten oder CPUs zu finden. Ansonsten ist es nämlich völlig unwichtig wie viel eine CPU oder GPU säuft.
Das stimmt so jetzt aber auch nicht. Die Effizienz-Debatte gibt's doch schon seit zig Jahren. Beim AthlonXP & Athlon64 gegen P4, später dann bei Phenom und FX gegen Core und jetzt wieder. Das wechselt auch immer wieder. Gegen die AMDs wurde jahrelang gebasht, jetzt geht's halt wieder die andere Richtung und in x Jahren ist dann wieder wer anders dran... Wegen ein paar Watt hin oder her ist glaube ich auch nicht wirklich relevant, vielmehr ist es das Gesamtpaket. Und da spricht aktuell halt viel für AMD (Langlebigkeit der Sockel, günstiger Preis, gute Leistung dank vieler Kerne), heißt aber nicht, dass es nicht auch Argumente für Intel gibt (z.B. ST Performance und sehr hohe Taktraten bei OC).Und wo ich gerade schon bei Hater- und Fanboy-Gebashe bin (egal aus welchem Lager) noch ein Wort zur Effizienz. Es mag durchaus einige Menschen geben, denen die Effizienz und Umweltbilanz tatsächlich ein wichtiges Anliegen ist (wobei es durchaus andere Dinge und auch Verhaltensweisen geben mag, deren Gewicht in der Gesamtbilanz deutlich schwerer wiegen). In Bezug auf Intel vs. AMD wird der Punkt Effizenz interessanterweise erst seit dem Herannahen der 7 nm-Fertigung (und dem damit absehbaren, zeitlichen Vorsprung von AMD) regelmäßig und gebetsmühlenartig angewendet. Zu den Hochzeiten von SLI und Crossfire hat man mal vereinzelt derartige Argumentationen beobachtet, aber i. d. R. war, wenn überhaupt explizit, eher etwas wie "Geldverschwendung" oder mangelnder Gegenwert aufgrund "unnötiger hoher FPS" ein typisches "Gegenargument", wobei man dann oftmals aber dennoch unterschwellig eher neidvolle Anerkennung mitlesen konnte, dass sich jemand ein solches Monster-System leisten konnte.
Heute machen entsprechende Personen ein riesen Fass auf, weil unter Last ein 9900K zur Erreichung der Performancekrone im Mittel etwa 160 W zieht, während der ebenfalls mit 8 Kernen arbeitende 2700X sich im Mittel mit 115 W begnügt.
Das sagt Computerbase, leider können die offensichtlich nicht messen. Schau dir doch mal den 2700X Test auf THG an. Maximal 105W Verbrauch, 55W weniger als der 8700K. Beim Gaming (Witcher3) braucht der AMD 56W, der Intel 67W. Bei Anandtech sieht's genauso aus, der 8700K braucht da auch mehr. Ich kann dir auch soagen, woher das kommt. CB nutzt ein 470X Board von Asus mit uralt BIOS. Die hatten beim Launch aber massiv zu viel Spannung an die CPU geliefert, wodurch die zu viel verbraucht und gleichzeitig schneller in's TDP oder Temperatur-Limit kommt. Wurde beim Launch auch im Forum diskutiert, allerdings von CB ignoriert. Igor hatte hier auch das Thema mal erörtert. Asus war übrigens nicht alleine damit, Gigabyte hat den selben Mist gemacht. Wenn du das nicht glaubst: MoBo-Vergleich auf Bit-Tech, da sieht man das schön...Die Energieeffizienz wird auch bei Prozessoren kritisiert. Aber bei Prozessoren sind die Unterschiede erheblich geringer, vor allem weil CPUs meistens nicht länger unter Volllast und schon gar nicht mit AVX2/FMA3/AVX512 laufen. Deshalb gibt es auch fast keine Kritik beim Ryzen 2700X, der schon sehr weit oben beim Realverbrauch liegt.
Der maximal realistische Alltagsverbrauch eines CPUs liegt mE bei dem Cinebench Allcore Verbrauch. Da reden wir aber von recht geringen Unterschieden.
Quelle
i7 8700K 139w
i9 9900K 184w
R7 2700X 196w
Der Unterschied hier liegt zwischen 8700K und 2700X nur bei 55w (zu gunsten des Intel wohlgemerkt), das ist nicht dramatisch. Der Unterschied bei Games, Apps oder Browsing wird irgendwo im Bereich von 5-30 Watt liegen, solange man nicht nonstop encodiert o.ä. Das ist eine kurze Erwähnung wert, sollte aber nicht großartig die Kaufentscheidung beeinflussen. Bei Games aber spielt man fast immer unter Volllast der GPU und ob da eine Karte jetzt 180 Watt (GTX 1080) oder 303 Watt (Vega 64) [Quelle] säuft - bei gleicher Leistung wohlgemerkt - ist schon eine andere Hausnummer. Der Verbrauch wird auch nicht durch die Bank kritisiert, sondern vor allem bei den ausufernden Modellen (R9 290X/390X, Fury, Vega56/64, Radeon VII und RX590), vor allem wenn man keine passende Leistung dafür bekommt. Die Polaris Karten zwischen RX460 und RX580 verbrauchen zwar auch alle mehr als das Nvidia Gegenstück, aber da ist der Unterschied nicht gar so brutal und absolut gesehen auch noch in vertretbaren (und auch im Sommer kühlbaren) Bereichen.
Wegen ein paar Watt hin oder her ist glaube ich auch nicht wirklich relevant, vielmehr ist es das Gesamtpaket. Und da spricht aktuell halt viel für AMD.
Kleiner Hinweis bezüglich des "professionellen Bereichs":
Zumindest im CAD-Bereich ...