Intel Arc B570 “Battlemage”: Erste Benchmark-Leaks zeigen rund 12 % geringere Leistung bei 12 % niedrigerem Preis

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
2.495
Bewertungspunkte
12.011
Punkte
1
Standort
Redaktion
Intel bereitet sich auf die offizielle Markteinführung der Arc B570 “Battlemage”-GPU vor, doch bereits jetzt sind erste Benchmark-Ergebnisse im Geekbench OpenCL-Test aufgetaucht. Die Karte liegt leistungsmäßig etwa 12 % hinter dem bereits veröffentlichten Modell Arc B580 zurück, bietet dafür aber auch einen um 12 % niedrigeren Preis. Geekbench-Ergebnisse: Leistung im Vergleich zur Arc B580 Im Geekbench OpenCL-Test erreichte die Arc B570 einen Score von 86.716 Punkten. Zum Vergleich: Die Arc B580 erzielt Werte zwischen 95.000 und 100.000 Punkten. Dies bestätigt die angenommene Differenz von rund 12 % weniger Leistung. Die Karte reiht sich damit zwischen der AMD Radeon RX 7600 […] (read full article...)
 
Die große Frage ist ob es auch noch B7xx Karten geben wird und wann. Die würden mich dann schon ein wenig reizen.
 
Zuletzt bearbeitet :
Was um Himmels Willen soll man mit solchen Krücken anfangen? Hat Intel keine Lust? In der Schule würde man es mit „Ziel verfehlt, setzen 6.“ bewerten. Nvidia lacht sich doch über AMD und Intel schlapp.
 
Die große Frage ist ob es auch noch B7xx Karten geben wird und wann. Die würden mich dann schon ein wenig reizen.
Die werden vermutlich zu spät kommen, hatte auch auf eine spekuliert aber nun hauen ja schon Team Rot und Grün ihre Sachen raus.
Da wird für Intel nicht viel übrig bleiben in dem Bereich.
 
Ich verstehe diese Strategie auch nicht. Weshalb sollte man zu Intel greifen? Vor allem noch immer dieser exzessive Idle Verbrauch... die Karten sind also nicht für Alltagssysteme geeignet, sondern damit eigentlich nur für extra Gamingbuilds. Das macht aber in dieser Leistungsklasse auch keinen Sinn, dafür ein extra System aufzubauen...

Ich verstehe nicht, wie man ohne anderes Konzept in diesen Markt möchte... ehrlich gesagt bin ich aber vom Markt als ganzes enttäuscht und würde mir auch nichts moderneres mehr kaufen. Es ist nur mehr eine exorbitante Energie- und Resourcenverschwendung. Mit moderner Technik sollte ein System maximal im unteren 2stelligen Bereich Energie verbrauchen. Das ist alles völlig aus dem Ruder gelaufen. Diese steinzeitlichen anmutenden Powermonster sind nix. Dabei wäre es wohl kein Hexenwerk Karten auf max ein 1/10 der derzeitigen Leistungsaufnahme auszulegen und das für überschaubar weniger Rohleistung. Leider macht das nur Apple - und das liegt NICHT an Armtechnik, die ja ohnehin nicht im GPU Bereich greift... Es ist die Gier aufs letzte Prozent und eine Tim Taylor Einstellung - die fast die Leistungsaufnahme glorifiziert und alles drum herum. Mit riesigen Netzteilen und Waküs zu protzen. Echt seltsam.

Jedenfalls Intel: kommt wieder, wenn eure Karten eine passable Leistung bieten und die Karten eine maximale Leistungsaufnahme bieten wie jetzt im Idle. Gerne nur mit halber Leistung - dann würde ich sogar diesen Preis bezahlen. DAS ist modern - und vor allem im offenen x86 Bereich eine echte alternative zu dem traurigem Rest was es gibt - für alle wie mich, die eben auch keinesfalls in das "Apple-Universum" wollen. So muss ich zum Spielen bei Nintendo bleiben - da gibt es vom Verbrauch her leider auch keine Veränderung zum Uraltgameboy, aber zumindest keine immer weitere Verschlechterung. Das ist genauso eine schlechte Entwicklung und wohl symptomatisch zur politisch und gesellschaftlichen Entwicklung
 
Dann entwickel halt ne GPU die so schnell wie ne 4080 ist und nur 32 Watt verbraucht. Ist doch kein Hexenwerk.
Hörst du dir eigentlich selber zu.

Also komm wieder wenn du fertig bist damit..
 
Was um Himmels Willen soll man mit solchen Krücken anfangen? Hat Intel keine Lust? In der Schule würde man es mit „Ziel verfehlt, setzen 6.“ bewerten. Nvidia lacht sich doch über AMD und Intel schlapp.
Das sind halt einfach B580 bei denen einige Bereiche defekt und deshalb deaktiviert sind.
Nichts anderes passiert doch auch bei den CPUs: AMD/Intel bringen ja nicht zum Spaß 10 verschiedene Versionen der gleichen CPU mit unterschiedlicher Kernanzahl sondern.
 
Dann entwickel halt ne GPU die so schnell wie ne 4080 ist und nur 32 Watt verbraucht. Ist doch kein Hexenwerk.
Hörst du dir eigentlich selber zu.

Also komm wieder wenn du fertig bist damit..
Du behauptest also, dass die B570 doppelt so schnell wie eine 4080 ist? Interessant. Da muss mir wohl doch etwas entgangen sein... vielleicht hättest Du bitte einen entsprechenden Link für mich von einem solchen Benchmark? Danke

Wenn nicht, täte ich mal an meiner Ausdrucksweise und Höflichkeit arbeiten, oder alternativ auch versuchen komplexere Texte zu verstehen, wenn ich denn schon mal was kommentieren möchte
 
Leider macht das nur Apple
Du behauptest also, dass die B570 doppelt so schnell wie eine 4080 ist?

Ich glaube nicht, dass JayBee das so meinte … :)
Es ist bei der heutigen Grafikpracht ( Auflösung, FPS, Farbtiefe, RT, PT,....) einfach nicht
möglich mit 32 Watt Verbrauch auf einen grünen Zweig zu kommen.
Das kann Apple auch nicht !
Bei dem neuen M4 Pro Silizium ist zwar einiges sehr gut umgesetzt worden ; es handelt sich trotzdem „nur“ um eine iGPU, welche nicht mit dGPU's verglichen werden kann.
Schon eine 4060 ist in Spielen um einiges performanter.
 
Dabei wäre es wohl kein Hexenwerk Karten auf max ein 1/10 der derzeitigen Leistungsaufnahme auszulegen und das für überschaubar weniger Rohleistung.
"überschaubar weniger Rohleistung"
Jedenfalls Intel: kommt wieder, wenn eure Karten eine passable Leistung bieten und die Karten eine maximale Leistungsaufnahme bieten wie jetzt im Idle. Gerne nur mit halber Leistung
Also -50% ist "überschaubar". Alles klar. Glückwunsch zum Troll des Tages 🥳
 
Ich glaube nicht, dass JayBee das so meinte … :)
Fakt ist: ich schrieb, dass mir die Hälfte der Leistung der B570 dann reichen würde beim Idle-Verbrauch -> auch die 32W sind nicht von mir, aber egal... da schreibt er von einer 4080... und auch die 4060 die Du nun ins Feld führst ist sicher nicht nur halb so schnell wie diese Karte. Womöglich nicht mal langsamer... Eine Strix Halo wird diese Leistung wohl etwa erreichen und für den iGPU Teil dafür auch nicht wirklich mehr verbrauchen. Doch auch die ist nicht sosehr auf Effizienz ausgelegt sondern eben eher darauf die Flächenkosten gering zu halten. Möglich wäre sehr wohl noch mehr. Aber wie gesagt, diese Prio ist nicht erwünscht. Im Gegenteil, ich bin völlig überzeugt, dass Grafikchips machbar sind, die die Leistungsfähigkeit von 10Jahre alten High-End Grafikkarten bringen können im einstelligen Wattbereich. Aber es will niemand. Warum? Ich hatte früher zumindest nicht weniger Spaß mit den Spielen... Dabei geht es mir nicht mal um den Stromverbrauch oder die Effizienz an sich... es ist einfach unnötig und technisch nicht elegant. Steinzeit eben, V12 Mentalität. Und der Applechip ist auch nur eine mögliche Umsetzung. Auch mit nVidia in der Switch klappt es (natürlich mittlerweile auch komplett veraltet... bin schon neugierig auf die 2er) Doch ich will auch anderes Spielen können und nicht nur Nintendo Zeug...
 
"überschaubar weniger Rohleistung"

Also -50% ist "überschaubar". Alles klar. Glückwunsch zum Troll des Tages 🥳
oh Gott der nächste: Wirklich, Lesekompetenz und Interpretation ist kein Hexenwerk. Und wenn etwas nicht verstanden wird, lässt sich nachfragen oder auf etwas Hinweisen. Höflich und nicht angriffig. Und schon gar nicht aus dem Zusammenhang reissende Zitate. Der erste Punkt bezog sich selbstverständlich auf die allgemeine Situation und die 2. auf die spezielle Intelkarte. Wirklich zu schwer für Dich?

Aber selbst da: wenn ich es so geschrieben und gemeint hätte, hätte ich (meine) Interpretation von überschaubar auch gleich mitgeliefert. Und ja eigentlich würde es sogar passen - da es nur den Zeitraum der Betrachtung nicht inkludiert. Wie alt bist Du, dass -50% Performance nicht überschaubar sein kann?
 
@peru3232 anderen vorwerfen was einem selbst nicht liegt... Vllt einfach mal selber lesen und auch verstehen wäre ein Anfang.
Intel hat jetzt die zweite Gen an dGPUs und die Steigerungen sind gut sichtbar. Wenn du diese Leistung einer dGPU nicht benötigst, schön für dich. Jeder hat da andere Prioritäten.
Wenn ich für meinen Teil etwas in Ruhe zocken möchte dann auch in guten Einstellungen und wie Igor selbst immer sagt Kraft kommt von Kraftstoff. Und die Intelkarten sind nicht wirklich Kampftrinker wie einige andere Karten. Die Leistung über die wir hier lamentieren war vor ein paar Jahren noch am oberen Ende, da waren die Verbräuche deutlich höher! Aber bleib bei deiner Meinung wo kein anderer Recht hat und es auch keiner Versteht.
Als Pro Tipp für dich, such mal den Unterschied zwischen objektive und subjektive Sichtweise.
 
@vonXanten Danke das du ihm antwortest, dann kann ich mir meine Lebenszeit sparen.
Ich denke mal es ist wie beim Autofahren in den letzten Jahren. Da läuft es nach dem Motto:
Wenn jeder an sich selbst denkt, ist auch an jeden gedacht.
 
Oben Unten