GPUs Graphics Pro Reviews Software Workstations

Intel Arc B580 workstation test – Battlemage benchmarks with real applications and full versions

SPECviewperf is a benchmark test designed to measure the 3D graphics performance of workstation graphics cards. This test is published by the Standard Performance Evaluation Corporation (SPEC), a non-profit organization that specializes in creating standardized benchmarks for various systems and applications. The SPECviewperf benchmark measures the 3D rendering performance of systems in professional applications typically used in industries such as engineering, medical, oil and gas exploration, entertainment and others. The main goal of this benchmark is to help end users, IT administrators and hardware manufacturers evaluate the graphics performance of their systems in these specific use cases.

The SPECviewperf contains a variety of test data sets based on real-world applications. These data sets are divided into so-called “viewsets”, with each viewset representing a specific application or application type, e.g. SolidWorks, Maya or CATIA. Benchmark measures a variety of graphics operations, including geometry, lighting, texturing and others. Because SPEC is an independent organization, its benchmarks are widely considered neutral and not influenced by any particular hardware or software manufacturer. However, it’s no secret that the two graphics card manufacturers like to optimize their drivers for this suite. That’s exactly what I’m going to deliberately exploit today though, as it should suit the three consumer cards just fine. Well, should…

Individual benchmarks

The benchmark for 3ds Max simulates the workloads in a typical modeling and animation environment. It includes tests that examine the rendering of 3D models with high polygon counts, textures and lighting effects. The aim is to evaluate the performance of the GPU when interactively navigating and editing these models. Particularly important here is the ability to deliver stable frame rates in demanding scenarios, such as scenes with complex shadows and ambient lighting, which are common in film and game development.

The next benchmark is tailored to the performance requirements of CATIA users and tests the GPU’s ability to smoothly render highly complex assemblies. It simulates typical design tasks such as rendering wireframe and shaded views as well as navigating through large assemblies. It also evaluates how well the GPU copes with interactive tasks such as zooming, panning and rotating. The results reflect the suitability of a system for high-end CAD design and product development.

The Energy Benchmark evaluates the system’s ability to visualize massive amounts of data typically used in energy and geoscience. Scenarios include the display of volumetric data, seismic simulations and 3D modeling of reservoirs. The test places high demands on the memory bandwidth and the ability of the GPU to enable smooth visualizations while simultaneously processing large amounts of data. It also tests how efficiently the system handles interactions such as zooming and rotating in data-intensive scenes.

The benchmark for Autodesk Maya tests GPU performance in animation and visualization applications. It focuses on scenarios with rigged characters, particle effects and textured models. The tests examine how well the system can handle demanding real-time rendering while making interactive changes to the scene. Of particular importance is the GPU’s ability to deliver consistent frame rates when editing and rendering animations.

This benchmark specializes in medical applications and simulates the visualization of complex volumetric data sets, such as those commonly used in the analysis of CT and MRI scans. It tests the efficiency of the system in displaying slices, reconstructing volumes and manipulating views to visualize detailed anatomical structures. The GPU’s performance in handling such high-resolution data is put to the test in demanding tests.

The NX benchmark evaluates the performance of systems in a Siemens NX environment, which is often used in the automotive and aerospace industries. It simulates the display and processing of highly complex CAD models, which can consist of several hundred components. The focus is on the GPU’s ability to handle interactive workloads such as zooming, panning and rotating without delays, even with data-intensive assemblies.

The SolidWorks benchmark tests performance in design applications, with specific tests challenging the GPU when rendering assemblies with RealView graphics, exploded views and textured models. In addition, scenarios with high demands on real-time rendering capability are simulated to evaluate how smoothly the system can handle visual effects used for presentations and designs.

Kommentar

Lade neue Kommentare

e
eastcoast_pete

Urgestein

2,201 Kommentare 1,405 Likes

@Igor Wallossek : Danke für den Test, der in der Tat vieles abdeckt, das andere Reviewer meistens nicht oder, wenn überhaupt, kaum angesprochen haben! Die B580 ist IMHO ein guter Neuanfang von Intel nach dem Desaster mit dem Alchemist Launch, gleichzeitig aber geben mir Deine Ergebnisse sehr zu denken, ob ich die B580 für einen eventuellen (etwas schrägen/ungewöhnlichen) Build in Erwägung ziehen soll oder eben nicht. Da für mich die dGPU "eine für Alles" sein soll (muss), sind die sehr durchwachsene Leistung der B580 in einigen Anwendungen und der hohe Stromverbrauch im Idle im Moment ("as is") Ausschlusskriterien.
Und, obwohl Intel Deutschland Dir die Karte erst ziemlich spät geschickt hatte, hoffe ich, daß sie Deine Ergebnisse und den gesamten Text Deines Artikels an ihre GPU Leute weiterleiten. Denn auch da scheint sich einiges zum Guten hin verändert zu haben: Intel hört wohl diesmal auch richtig zu, und reagiert zT sehr schnell mit Updates.
Wenn Intel die Baustellen beheben kann bevor sie die B780 rausbringen, wird's vielleicht dann die sein, die im Board landet. Da Nvidia laut vielen Leaks die 5060 auch wieder auf 8 GB VRAM beschränken wird, bleibt die Tür für AMD (die 800er Karten) und Intel im Bereich unter € 500 erst mal offen.

Antwort 1 Like

Klicke zum Ausklappem
konkretor

Veteran

352 Kommentare 365 Likes

Das Treiber Team hat noch viel Arbeit vor sich. Gerade der Idle Verbrauch, muss dringend angegangen werden

Antwort Gefällt mir

Igor Wallossek

1

11,672 Kommentare 22,609 Likes

Naja, man könnte beispielsweise auch mal den RAM runtertakten. Ich habe die Platine genau studiert, die haben NV und AMD zusammengeschmissen, aber so Manches sieht noch aus wie Polaris. :D

Die B580 hat noch eine ganz andere Baustelle und ich war dreimal geschockt. Das erste Mal, als ich sie zerlegt und mir die Pampe und Pads angesehen habe, das zweite Mal, als ich diese Schmiere dann gemessen habe und das dritte Mal nach dem Ersetzen von Paste und Billo-Pads mit CTG10 und dem Bärchenstreich-Putty mit den teuren Goldflocken :D

Das ist ein ganzes Universum :D
Und wenn es vorher die Limited Edition war, ist es jetzt die Pat Gelsinger Gedächtnis Edition als Unikat mit den drei Eissternchen :D

Antwort 6 Likes

komatös

Veteran

137 Kommentare 117 Likes

Wenn Intel mal den IDLE-Verbrauch über ihre Treiber senken könnte. Meine A770 gönnt sich seit Tag 1 im IDLE auch 34 Watt. Wenn es denn per Treiber möglich wäre, hat sich Intel wohl dazu entschlossen, hieran Treiberseitig nichts zu ändern.

Wie dem auch sei. Ich wünsche allen hier Mitlesenden eine besinnliche Weihnachtszeit

Antwort 2 Likes

P
Pokerclock

Urgestein

671 Kommentare 634 Likes

Ich habe mich gestern erst dran gesetzt, weil Vadder einen neuen PC erhält und in den die A770 LE wandert.

Zumindest bei mir hat das funktioniert und aus knapp 40 Watt wurden 6 bis 15 Watt, je nachdem. Habe aber anfangs auch erst einmal den falschen PCI-Slot erwischt. Wer kann schon ahnen, dass bei einem Mini-ITX-Board es der PEG01 ist und nicht der PEG00

Ich bin auf den Teardown gespannt. Das sah bei GN schwer nach PTM aus auf dem Chip. Nicht, dass dir Intel da ein Review-Opfer zugesendet hat. @Igor Wallossek

Und ein AV1-Encoding-Test hätte mich noch interessiert.

Antwort 2 Likes

Klicke zum Ausklappem
Ghoster52

Urgestein

1,608 Kommentare 1,286 Likes

Neue Karte = altes Leiden... 🤪
Die Probleme werden anscheinend gern ignoriert oder Sie können es einfach (noch) nicht besser.

Antwort Gefällt mir

s
seha

Mitglied

31 Kommentare 8 Likes

Auch wenn die das mit dem Idle noch immer nicht hinbekommen haben, so haben sie mittlerweile eine Sache endlich geschafft.
Das neue Control-Center (natürlich auch für die alte Generation) rennt nicht jedes Mal beim Systemstart in die Windows-UAC.

Antwort Gefällt mir

Igor Wallossek

1

11,672 Kommentare 22,609 Likes

Ich habe GN kontaktiert. Meine Karte kam von Heise und da hat auch wer dran rumgefummelt. Ich werden denen am Freitag einen Einlauf verpassen. Die haben genau gewusst, wem sie die Karte weiterschicken. Zerkratzte Schrauben, WLP aus dem letzten Jahrhundert und abgerissene Pads. Das kann man so nicht bringen. Wer zu doof ist, Pads und TPM mit dem Original wiederherzustellen, sollte das Aufschrauben einfach lassen. Ich sehe das als persönlichen Affront.

Allerdings musste ich bei der Platinenanalyse von GN laut lachen. Aber gut, stand nicht mehr im Plot :D

Antwort 8 Likes

Lagavulin

Veteran

299 Kommentare 258 Likes

Neulich im SM-Studio

Domina zum Kunden: „Was darf’s denn sein – Fesseln, Peitschen oder was Härteres?
Kunde zur Domina: „Bitte was Härteres: Intel Arc testen“.

Antwort Gefällt mir

R
Rooter

Veteran

190 Kommentare 70 Likes

Für den Idle Modus größer als G2 braucht Intel die ASPM L1 Einstellung. Das kann viel bringen je nach Monitor, aber eher mit single Monitor.

Ach wurde schon geschrieben, egal.

Antwort Gefällt mir

s
stch

Mitglied

46 Kommentare 14 Likes

Für die Gelegenheitsnutzung ganz ok, aber die Verbräuche und somit auch die Abwärme sind undankbar. Kann aber eine brauchbare Basis für die Zukunft sein.

Antwort Gefällt mir

M
McFly_76

Veteran

410 Kommentare 142 Likes

Ja, aber ich glaube auch nicht dass die "neuen" Intel Arc Pro A50 6GB / A60 12GB im Test besser abschneiden würden als die von dir getestete Intel Arc B580 :unsure:

Antwort Gefällt mir

exi78

Veteran

204 Kommentare 116 Likes

Hab die B580 ebenfalls verbaut, ohne aktivieren von ASPM hab ich im Idle ca 25W Mehrverbrauch.
Aktiviert man ASPM sinkt der Idle Verbrauch auf 4W bei 60Hz und auf 10W bei 120Hz, ab 144Hz sinds wieder 20W.
Jeweils in 1440p.

Antwort 2 Likes

e
eastcoast_pete

Urgestein

2,201 Kommentare 1,405 Likes

Wow! Das ist regelrecht unprofessionell von den oder dem "Experten" bei Heise, sowas zu machen. Wenn man etwas Paranoia mit einfließen lässt, könnte man fast denken, daß hier eine Abneigung gegen Intel durchgeschlagen hat. Denn ich bezweifle, daß sie eine neue AMD Radeon im ähnlich schlechten Zustand weiter geschickt hätten. Daß die Heise Leute das dann ausgerechnet mit einer Karte gemacht haben, die an Dich weitergereicht werden sollte, ist nicht mehr nur Faulheit, sondern eine Frechheit. Wenn man in dem Bereich arbeitet und nicht seit Jahren hinter dem Mond lebt weiß man, daß Du die GPU auf jeden Fall auseinander bauen und genau untersuchen wirst.
Hast Du denn bei Intel eine "Virgin" B580 aus der laufenden Fertigung angefordert, um die Karte im Original Zustand begutachten zu können?

Antwort 1 Like

Igor Wallossek

1

11,672 Kommentare 22,609 Likes

Ich habe kurz mit Steve gechattet. Von einem OEM weiß ich außerdem, welches Pad drauf ist und siehe da, die Werte passen wieder. Es wird also auch einen Pad- und Pasten-Mod geben. Hint: CTG10 und PCM8500 nehmen sich nichts. Aber das Putty ist dann der Brecher. Und diese Karte ist damit ein Unikat :D

Der Verlag wollte sogar, dass ich den beiligenden Lieferschein (Hallo? Das ist doch Intels Karte und nicht deren) und damit den ordnungsgemäßen Empfang offiziell quitiere. Das schägt dem Fass echt den Boden aus.

Antwort 5 Likes

a
aclogic

Veteran

150 Kommentare 63 Likes

In deren Artikel (einfach auf Heise nach ARC B580 suchen) ist auch ein Bild mit einem Ausschnitt der zerlegten Karte.

Antwort Gefällt mir

konkretor

Veteran

352 Kommentare 365 Likes

Heise Artikel zu Grafikkarten lese ich nicht mehr seit der Herr Fischer pro Nvidia geschrieben hat über Jahre.
Seit Andreas Stiller in Rente ist, sieht es im CPU Bereich auch mau aus.

Ich hatte die CT mehr als 18 Jahre im Abo. Die Artikel waren mir nicht mehr tief genug.

Antwort 1 Like

Igor Wallossek

1

11,672 Kommentare 22,609 Likes

Wenn man kein zahlender Kunde ist auch? Ich sah immer nur einen Ausschnitt und den Zahlungshinweis

View image at the forums

Antwort 2 Likes

S
Sternengucker80

Veteran

250 Kommentare 76 Likes

Also, das finde ich schon ein Unding🤷🏼. Von ( Profis) , so ein Elend zu bekommen. Da kann ich Igro, auch meine RVII schicken, zum testen . Die würde wahrscheinlich besser abschneiden. Alphacool Waterblock, mit Apex und deren Pads. Die wurde jetzt ü. 4/5 Jahre gequält, mit MPT. Alte Treiber, und noch mehr, bis die Spulen Rasseln. Also das Ding auf über 500W getrieben. Selbst in diesem Zustand, wäre die immernoch besser, was Heise zugeschickt hat. Aber dann PayWall, usw., jetzt weiß ich, warum ich Heise und Konsorten meide😋🤦🏼🤣

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Editor-in-chief and name-giver of igor'sLAB as the content successor of Tom's Hardware Germany, whose license was returned in June 2019 in order to better meet the qualitative demands of web content and challenges of new media such as YouTube with its own channel.

Computer nerd since 1983, audio freak since 1979 and pretty much open to anything with a plug or battery for over 50 years.

Follow Igor:
YouTube Facebook Instagram Twitter

Werbung

Werbung