Grafikkarten News

Intel Arc B570 “Battlemage”: Erste Benchmark-Leaks zeigen rund 12 % geringere Leistung bei 12 % niedrigerem Preis

Intel bereitet sich auf die offizielle Markteinführung der Arc B570 “Battlemage”-GPU vor, doch bereits jetzt sind erste Benchmark-Ergebnisse im Geekbench OpenCL-Test aufgetaucht. Die Karte liegt leistungsmäßig etwa 12 % hinter dem bereits veröffentlichten Modell Arc B580 zurück, bietet dafür aber auch einen um 12 % niedrigeren Preis.

Geekbench-Ergebnisse: Leistung im Vergleich zur Arc B580

Im Geekbench OpenCL-Test erreichte die Arc B570 einen Score von 86.716 Punkten. Zum Vergleich: Die Arc B580 erzielt Werte zwischen 95.000 und 100.000 Punkten. Dies bestätigt die angenommene Differenz von rund 12 % weniger Leistung. Die Karte reiht sich damit zwischen der AMD Radeon RX 7600 XT (83.918 Punkte) und der NVIDIA GeForce RTX 4060 (101.732 Punkte) ein.

Technische Daten der Arc B570

  • Compute Units: 144

  • Boost-Takt: Bis zu 2,75 GHz (erstmals bei einem Custom-AIB-Modell gesichtet)

  • Speicher: 10 GB GDDR6 auf einem 160-Bit-Interface

  • GPU-Die: BMG-G21 mit 272 mm² Fläche

Die Boost-Frequenz von 2,75 GHz übertrifft den offiziellen Basistakt von 2,5 GHz und könnte bei Modellen von Drittanbietern Standard werden. Diese technischen Eckdaten verdeutlichen, dass Intel hier gezielt Einschnitte gegenüber dem B580-Modell vorgenommen hat, um die GPU preislich attraktiver zu gestalten.

Source: Geekbench

Preisgestaltung und Marktpositionierung

Intel plant, die Arc B570 Limited Edition für 219 US-Dollar auf den Markt zu bringen. Damit liegt sie preislich rund 12 % unter der Arc B580, die aktuell für 249 US-Dollar angeboten wird. Modelle von Drittanbietern dürften hingegen etwas teurer ausfallen. Angesichts des relativ geringen Preisunterschieds könnte die B580 dennoch für viele Käufer das attraktivere Gesamtpaket darstellen.

Einschätzung zur Marktentwicklung

Die Intel Arc B570 spricht vor allem preisbewusste Nutzer an, die solide Gaming-Leistung zu einem fairen Preis suchen. Mit der B570 erweitert Intel sein Portfolio im Mittelklasse-Segment, das bisher von NVIDIA und AMD dominiert wurde. Dennoch bleibt abzuwarten, wie sich die Karte in realen Gaming-Tests schlägt. Besonders interessant wird sein, ob der Leistungsverlust im Vergleich zur B580 auch in Spielen bei rund 12 % liegt oder höher ausfällt. Mit der Arc B570 bringt Intel eine GPU auf den Markt, die gezielt im Preis-Leistungs-Verhältnis punkten soll. Die 12 % geringere Leistung bei gleicher Preisreduktion macht die Karte zu einer interessanten Alternative für budgetorientierte Gamer. Ob sich dieses Konzept gegen die Konkurrenz von AMD und NVIDIA behaupten kann, werden ausführliche Tests in Kürze zeigen.

Source: GawroskiT, Geekbench

Kommentar

Lade neue Kommentare

v
vonXanten

Urgestein

831 Kommentare 364 Likes

Die große Frage ist ob es auch noch B7xx Karten geben wird und wann. Die würden mich dann schon ein wenig reizen.

Antwort 2 Likes

Lantis1986

Mitglied

53 Kommentare 23 Likes

Was um Himmels Willen soll man mit solchen Krücken anfangen? Hat Intel keine Lust? In der Schule würde man es mit „Ziel verfehlt, setzen 6.“ bewerten. Nvidia lacht sich doch über AMD und Intel schlapp.

Antwort Gefällt mir

R
Rhalin

Mitglied

27 Kommentare 3 Likes

Die werden vermutlich zu spät kommen, hatte auch auf eine spekuliert aber nun hauen ja schon Team Rot und Grün ihre Sachen raus.
Da wird für Intel nicht viel übrig bleiben in dem Bereich.

Antwort Gefällt mir

G
Guest

Ich verstehe diese Strategie auch nicht. Weshalb sollte man zu Intel greifen? Vor allem noch immer dieser exzessive Idle Verbrauch... die Karten sind also nicht für Alltagssysteme geeignet, sondern damit eigentlich nur für extra Gamingbuilds. Das macht aber in dieser Leistungsklasse auch keinen Sinn, dafür ein extra System aufzubauen...

Ich verstehe nicht, wie man ohne anderes Konzept in diesen Markt möchte... ehrlich gesagt bin ich aber vom Markt als ganzes enttäuscht und würde mir auch nichts moderneres mehr kaufen. Es ist nur mehr eine exorbitante Energie- und Resourcenverschwendung. Mit moderner Technik sollte ein System maximal im unteren 2stelligen Bereich Energie verbrauchen. Das ist alles völlig aus dem Ruder gelaufen. Diese steinzeitlichen anmutenden Powermonster sind nix. Dabei wäre es wohl kein Hexenwerk Karten auf max ein 1/10 der derzeitigen Leistungsaufnahme auszulegen und das für überschaubar weniger Rohleistung. Leider macht das nur Apple - und das liegt NICHT an Armtechnik, die ja ohnehin nicht im GPU Bereich greift... Es ist die Gier aufs letzte Prozent und eine Tim Taylor Einstellung - die fast die Leistungsaufnahme glorifiziert und alles drum herum. Mit riesigen Netzteilen und Waküs zu protzen. Echt seltsam.

Jedenfalls Intel: kommt wieder, wenn eure Karten eine passable Leistung bieten und die Karten eine maximale Leistungsaufnahme bieten wie jetzt im Idle. Gerne nur mit halber Leistung - dann würde ich sogar diesen Preis bezahlen. DAS ist modern - und vor allem im offenen x86 Bereich eine echte alternative zu dem traurigem Rest was es gibt - für alle wie mich, die eben auch keinesfalls in das "Apple-Universum" wollen. So muss ich zum Spielen bei Nintendo bleiben - da gibt es vom Verbrauch her leider auch keine Veränderung zum Uraltgameboy, aber zumindest keine immer weitere Verschlechterung. Das ist genauso eine schlechte Entwicklung und wohl symptomatisch zur politisch und gesellschaftlichen Entwicklung

Antwort Gefällt mir

Klicke zum Ausklappem
JayBee

Mitglied

18 Kommentare 4 Likes

Dann entwickel halt ne GPU die so schnell wie ne 4080 ist und nur 32 Watt verbraucht. Ist doch kein Hexenwerk.
Hörst du dir eigentlich selber zu.

Also komm wieder wenn du fertig bist damit..

Antwort 3 Likes

h
hilman2

Neuling

1 Kommentare 0 Likes

Das sind halt einfach B580 bei denen einige Bereiche defekt und deshalb deaktiviert sind.
Nichts anderes passiert doch auch bei den CPUs: AMD/Intel bringen ja nicht zum Spaß 10 verschiedene Versionen der gleichen CPU mit unterschiedlicher Kernanzahl sondern.

Antwort Gefällt mir

G
Guest

Du behauptest also, dass die B570 doppelt so schnell wie eine 4080 ist? Interessant. Da muss mir wohl doch etwas entgangen sein... vielleicht hättest Du bitte einen entsprechenden Link für mich von einem solchen Benchmark? Danke

Wenn nicht, täte ich mal an meiner Ausdrucksweise und Höflichkeit arbeiten, oder alternativ auch versuchen komplexere Texte zu verstehen, wenn ich denn schon mal was kommentieren möchte

Antwort Gefällt mir

ipat66

Urgestein

1,542 Kommentare 1,607 Likes

Ich glaube nicht, dass JayBee das so meinte … :)
Es ist bei der heutigen Grafikpracht ( Auflösung, FPS, Farbtiefe, RT, PT,....) einfach nicht
möglich mit 32 Watt Verbrauch auf einen grünen Zweig zu kommen.
Das kann Apple auch nicht !
Bei dem neuen M4 Pro Silizium ist zwar einiges sehr gut umgesetzt worden ; es handelt sich trotzdem „nur“ um eine iGPU, welche nicht mit dGPU's verglichen werden kann.
Schon eine 4060 ist in Spielen um einiges performanter.

Antwort Gefällt mir

Finnschi001

Mitglied

39 Kommentare 10 Likes

"überschaubar weniger Rohleistung"
Also -50% ist "überschaubar". Alles klar. Glückwunsch zum Troll des Tages 🥳

Antwort Gefällt mir

G
Guest

Fakt ist: ich schrieb, dass mir die Hälfte der Leistung der B570 dann reichen würde beim Idle-Verbrauch -> auch die 32W sind nicht von mir, aber egal... da schreibt er von einer 4080... und auch die 4060 die Du nun ins Feld führst ist sicher nicht nur halb so schnell wie diese Karte. Womöglich nicht mal langsamer... Eine Strix Halo wird diese Leistung wohl etwa erreichen und für den iGPU Teil dafür auch nicht wirklich mehr verbrauchen. Doch auch die ist nicht sosehr auf Effizienz ausgelegt sondern eben eher darauf die Flächenkosten gering zu halten. Möglich wäre sehr wohl noch mehr. Aber wie gesagt, diese Prio ist nicht erwünscht. Im Gegenteil, ich bin völlig überzeugt, dass Grafikchips machbar sind, die die Leistungsfähigkeit von 10Jahre alten High-End Grafikkarten bringen können im einstelligen Wattbereich. Aber es will niemand. Warum? Ich hatte früher zumindest nicht weniger Spaß mit den Spielen... Dabei geht es mir nicht mal um den Stromverbrauch oder die Effizienz an sich... es ist einfach unnötig und technisch nicht elegant. Steinzeit eben, V12 Mentalität. Und der Applechip ist auch nur eine mögliche Umsetzung. Auch mit nVidia in der Switch klappt es (natürlich mittlerweile auch komplett veraltet... bin schon neugierig auf die 2er) Doch ich will auch anderes Spielen können und nicht nur Nintendo Zeug...

Antwort Gefällt mir

Klicke zum Ausklappem
G
Guest

oh Gott der nächste: Wirklich, Lesekompetenz und Interpretation ist kein Hexenwerk. Und wenn etwas nicht verstanden wird, lässt sich nachfragen oder auf etwas Hinweisen. Höflich und nicht angriffig. Und schon gar nicht aus dem Zusammenhang reissende Zitate. Der erste Punkt bezog sich selbstverständlich auf die allgemeine Situation und die 2. auf die spezielle Intelkarte. Wirklich zu schwer für Dich?

Aber selbst da: wenn ich es so geschrieben und gemeint hätte, hätte ich (meine) Interpretation von überschaubar auch gleich mitgeliefert. Und ja eigentlich würde es sogar passen - da es nur den Zeitraum der Betrachtung nicht inkludiert. Wie alt bist Du, dass -50% Performance nicht überschaubar sein kann?

Antwort Gefällt mir

v
vonXanten

Urgestein

831 Kommentare 364 Likes

@peru3232 anderen vorwerfen was einem selbst nicht liegt... Vllt einfach mal selber lesen und auch verstehen wäre ein Anfang.
Intel hat jetzt die zweite Gen an dGPUs und die Steigerungen sind gut sichtbar. Wenn du diese Leistung einer dGPU nicht benötigst, schön für dich. Jeder hat da andere Prioritäten.
Wenn ich für meinen Teil etwas in Ruhe zocken möchte dann auch in guten Einstellungen und wie Igor selbst immer sagt Kraft kommt von Kraftstoff. Und die Intelkarten sind nicht wirklich Kampftrinker wie einige andere Karten. Die Leistung über die wir hier lamentieren war vor ein paar Jahren noch am oberen Ende, da waren die Verbräuche deutlich höher! Aber bleib bei deiner Meinung wo kein anderer Recht hat und es auch keiner Versteht.
Als Pro Tipp für dich, such mal den Unterschied zwischen objektive und subjektive Sichtweise.

Antwort 2 Likes

Finnschi001

Mitglied

39 Kommentare 10 Likes

@vonXanten Danke das du ihm antwortest, dann kann ich mir meine Lebenszeit sparen.
Ich denke mal es ist wie beim Autofahren in den letzten Jahren. Da läuft es nach dem Motto:
Wenn jeder an sich selbst denkt, ist auch an jeden gedacht.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung