Grafikkarten News

Schlacht der 250 $-GPUs: Intels Arc A750 besiegt die Radeon RX 6600 in 1440p, aber der Stromverbrauch ist immer noch ein dickes Problem

Ein interessanter Videovergleich zwischen zwei Grafikkarten unter 250 Dollar, der Intel Arc A750 und der Radeon RX 6600 non-XT von AMD, wurde von Techtesters veröffentlicht. Beide Varianten sind natürlich keine High-End-Gaming-Karten, aber für viele Gamer da draußen ist das immer noch eine vernünftige Option.

Quelle: Techtesters

Mit der jüngst angekündigten Preissenkung für die Arc A750 auf 249 US-Dollar sieht Intels Option jetzt noch besser aus, besonders wenn man bedenkt, dass diese relativ neue Architektur erst im letzten Jahr ihr Debüt feierte. Die Arc A750 basiert auf Intels bester Alchemist ACM-G10 GPU, die jedoch auf 28 von 32 verfügbaren Xe-Cores reduziert wurde. Trotzdem bieten beide Karten eine ähnliche Anzahl an GPU-Kernen (Radeon hat 28 Compute Units), aber Arc hat mehr FP32-Kerne (3584 vs. 1792). Darüber hinaus haben beide GPUs die gleiche Speicherkapazität von 8 GB GDDR6, aber Arc hat einen doppelt so breiten Speicherbus. In diesem Vergleich sind die Zahlen auf der Seite von Intel, aber nicht in allen Fällen. Die A750 hat nur einen großen Nachteil: eine TBP von 225W, die weit über dem Wert der RX 6600 von 132W liegt. Aber dazu später mehr.

Quelle: Techtesters
Quelle: Techtesters

Techtesters haben beide Karten bei 1080p- und 1440p-Auflösungen mit Spieleinstellungen auf hoch oder ultra in die Schlacht geworfen. Die Ergebnisse wurden mit den neuesten Treibern und auf einer modernen Ryzen 5 7600X-Plattform ermittelt. Bei 1080p war die A750 Limited Edition im Durchschnitt etwa 3 % langsamer als die Radeon RX 6600 von Gigabyte (nicht übertaktet), aber die höhere Speicherbandbreite von Arc zeigt ihre Stärke bei der 1440p-Auflösung, wo Intel im Durchschnitt um 9 % führt. Beim Spielen verbraucht die Intel A750 167W, was nicht so schlimm ist wie der offizielle TDP-Wert von 225W, aber immer noch höher als die 121W der RX 6600, die von Techtesters gemessen wurden. Allerdings hat Arc immer noch ein Problem mit dem Stromverbrauch im Leerlauf mit 35W, also fast 9 mal höher als Radeon.

Quelle: Techtesters

Ein sehr interessanter Ansatz von Techtesters ist die Darstellung der langfristigen GPU-Nutzung und ihrer Kosten. Dabei wird auch die Zeit berücksichtigt, in der der Grafikprozessor tatsächlich nicht genutzt wird. Abhängig von den Energiekosten kann dies ein entscheidender Faktor bei der Entscheidung für einen neuen Grafikprozessor sein, insbesondere für diejenigen, die in Europa leben, wo die Energiekosten höher sind. Die Kosten für die Nutzung der A750 könnten sich in 4 Jahren verdoppeln, wenn die Karte 2 Stunden pro Tag zum Spielen und 8 Stunden im Leerlauf genutzt wird und die Energiekosten 50 Cent pro kWh betragen. Intel ist sich des Problems der Leerlaufleistung der Arc Alchemist-GPUs bewusst. Das Unternehmen hat eine Lösung vorgestellt, die Änderungen an Windows und BIOS erfordert, aber nicht immer funktioniert.

Quelle: 

 

Kommentar

Lade neue Kommentare

A
Arcbound

Veteran

138 Kommentare 105 Likes

Ich hab jetzt nicht ins Video geschaut, aber war das Testsystem mit PCIe4 gesegnet? Das hat für die RX6600 ja doch Auswirkungen.
Insgesamt ist die Situation bei den kleinen Karten paradox: Von der Leistung attraktiv für alte Systeme, aber entweder braucht es rBar oder PCIe 4 für volle Funktionalität, was ältere Systeme (zum Teil) ausschließt 😐

Antwort 2 Likes

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Die 3050 hättens da auch noch mittesten können, die 20.- mehr...

Antwort 2 Likes

Y
Yumiko

Veteran

494 Kommentare 212 Likes

Aber die ist doch viel zu langsam für den Preis. Und gibt es die nicht in 4GB und 8GB?

Antwort Gefällt mir

Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Ich hab bei Geizhals 27 mit 8 GB gefunden, sonst keine. Zu Satz 1: les ich den wirklich?

Antwort Gefällt mir

O
Oberst

Veteran

337 Kommentare 131 Likes

Ja, zumindest bei Computerbase war das so. Da ist die 6600 (non-XT) in Raster 34% schneller als die 3050, und selbst in den zwei getesteten RT Titeln (Resident Evil Village und F1 2021) war die AMD nicht schlechter als die NVidia. Auflösung war immer FHD, macht bei den Karten auch Sinn. Insofern: Die 3050 hätte man zwar mit rein nehmen können, aber eigentlich ist die tatsächlich zu teuer für die Leistung.
War übrigens auch bei Igor so. In Necromunda kommt sie noch am ehesten an die AMD (AVG 13%, low 20% langsamer), in den meisten anderen Titeln sind die Avg. der 3050 oft ähnlich der Low FPS der 6600, nicht selten sogar schlechter:

Antwort Gefällt mir

Klicke zum Ausklappem
Derfnam

Urgestein

7,517 Kommentare 2,029 Likes

Wie schreib ich dir am besten, dass dir die sarkastische Ironie der Frage allem Anschein nach irgendwie entgangen ist? Ich schlaf mal drüber...

Antwort Gefällt mir

d
derin

Mitglied

18 Kommentare 2 Likes

War mit nem Ryzen 7600 oder 7700 also ja

Generell ein sehr interessantes Review

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung