Asrock Phantom ARC 770 8GB im Overclocking und Undervolting Test

@Gurdi
Danke dir für den Test :)

Für mich ist es unverständlich warum INTEL vor der Veröffentlichung der Arc GPU's so viel Werbung gemacht hat und jetzt wo die Grafikkarten im Handel und die Treiber weiter verbessert worden sind, von INTEL selbst nichts mehr kommt.

Dabei sichert sich die INTEL Arc GPU @16 GB VRAM jetzt schon den P/L Sieg ( incl. RT ) in Spielen.

Die Zeit muss INTEL jetzt intensiv nutzen und die Erfolge der Programmierer deutlich in die Welt kommunizieren.
Mehr Muster an bereitwillige Tester verteilen damit sie der Gemeinschaft die erreichten Fortschritte in der Praxis präsentieren können.
 
Tatsache, man vergisst manchmal, dass nicht alles selbstverständlich für jedermann ist. Aber wer es sonst schafft seine graka zu tauschen wird auch nicht an den Intel Karten scheitern. Wenigstens weißt asrock explizit auf rBAR hin.

Auch da kann ich aus der Praxis sagen, dass die Kunden durchaus fähig sind, Grafikkarten einzubauen. Manchmal nur mit persönlicher Anleitung, aber sie haben es alle bislang bei mir hinbekommen. Ich versende seit zwei Jahren Systeme nur noch mit ausgebauter Grafikkarte.

Dann geht das große Scheitern aber los, u.a. wie oben erwähnt ein Monitorkabel, das aus welchen Gründen auch immer ans Mainboard dran gemacht wird, und nicht an die eben eingebaute Karte (trotz knallorangenen Warnhinweis, der über dem Powerbutton klebt). Oder eben auch die Softwaregeschichten, die hier beachtet werden müssen. Ich bin definitiv keine große Leuchte bei Softwaregeschichten, aber auch bei mir besteht das Bewusstein, dass ich mit Arc auf Bugs stoßen könnte. Mir ist das vollstens bewusst. Dem unbedarften Käufer, der seine 400 € für eine Arc gelatzt hat, leider eher nicht. Die Folgen sind dann Produktbewertungen, die objektiv gerechtfertigt scheinen (weil Bug ist ja vorhanden) aber subjektiv (dem informierten Käufer musste das vor Kauf bewusst gewesen sein durch öffentlich einsehbare Tests) eben nicht.
 
@Gurdi
Danke dir für den Test :)

Für mich ist es unverständlich warum INTEL vor der Veröffentlichung der Arc GPU's so viel Werbung gemacht hat und jetzt wo die Grafikkarten im Handel und die Treiber weiter verbessert worden sind, von INTEL selbst nichts mehr kommt.

Dabei sichert sich die INTEL Arc GPU @16 GB VRAM jetzt schon den P/L Sieg ( incl. RT ) in Spielen.

Die Zeit muss INTEL jetzt intensiv nutzen und die Erfolge der Programmierer deutlich in die Welt kommunizieren.
Mehr Muster an bereitwillige Tester verteilen damit sie der Gemeinschaft die erreichten Fortschritte in der Praxis präsentieren können.
Intel hat tatsächlich versucht das offensiv zu kommunizieren im Dezember, hat auch diverse Influencer eingespannt zusammen mit Asrock z.B.
Nur gehen die halt jetzt im großen Relasezeitraum der neuen Gens von AMD und NV völlig unter. Auch Computerbase wurde ja von Intel angesprochen aber die Crunshen ja derzeit ein Thema nach dem Anderen die Mags.
 
Danke, daß war ein interessanter Test! Wie auch schon von mehreren anderen hier geschrieben, ist es schon verwunderlich, daß Intel nicht viel aktiver Karten an so viele Reviewer wie möglich schickt. Wenn sie Angst vor schlechten Reviews haben - die hatten sie ja schon als die Karten rauskamen, also kann's nur aufwärts gehen. Wenigstens würde dann auch die ganze Arbeit, die ja offensichtlich in die Treiber gesteckt wurde und wird, auch den möglichen Kunden bekannt gemacht. Und gerade das Segment, das früher so schön als "solide Mittelklasse" (um oder unter € 400) betrachtet wurde, ist im Moment ja fast verwaist, also eigentlich eine gute Chance für Intel, hier das "Comeback Kid" zu sein.
Und, zum Thema RAM: stimme denen zu, die hier auch "was man hat, hat man" schreiben; wenn 770, dann mit 16 GB. Wie oft hört man denn "ich hab zu viel RAM"? Ich noch nie, egal ob VRAM oder Arbeitsspeicher. Und vielleicht will man ja auch Ray Tracing einsetzen, oder sowas wie Resolve (Videobearbeitung) damit wagen. Da stimmt "viel hilft viel" eben.
Abschließend: wär toll, wenn Du (Gurdi) oder vielleicht sogar Igor die 770 mit 16GB nochmals durchtesten könntet. Wie gesagt, der < €400 Bereich liegt im Moment sonst ziemlich brach.
 
16GB würden die Lebensdauer sehr erhöhen.
Finde die Karten gar nicht so schlecht, würde sie mir selber gönnen, wenn grad nicht andere Sachen wichtiger wären.

Danke für den Test! Schön mal wieder was von den Karten zu hören :giggle:
 
Finde die Karten gar nicht so schlecht

Das war ja auch nur der erste Wurf....
Die nächste Gen wird sich wohl im oberen Mittelfeld etablieren können.
Mittel dürften genug zur Verfügung stehen.
AMD bekommt Konkurrenz.

Mich würde ein Test der Großen mit 16Gb auch interessieren.

Danke für das Review Gurdi.
 
Stimmt, bin gespannt was da noch kommt :unsure: :geek:
 
Sehr schöner Artikel!

Überlege auch immer wieder eine zu bestellen, sei es aus Neugierde, Basteldrang oder was auch immer... Aber dann, kommt doch wieder die Vernunft angerannt.
 
Sehr schöner Artikel!

Überlege auch immer wieder eine zu bestellen, sei es aus Neugierde, Basteldrang oder was auch immer... Aber dann, kommt doch wieder die Vernunft angerannt.
Ist schon ganz interessant sich da das neue Ökosystem mal anzuschauen.
 
Denk ich auch. Man muss manchmal über den Tellerrand rausschauen.
 
Also ich war überrascht wie problemlos alles ging. Das Control Center ist auch nicht übel. Was ich aber sehr vermisst habe ist die Möglichkeit den Vram zu übertakten. Das verstehe ich überhaupt nicht.
 
So wie man liest hat Intel da viel nachgeholt. Vielleicht kommt das mit einem späteren Treiber Release?
Würd mich nicht wundern, fehlt halt doch irgendwie :unsure:
Schön zu sehen das es vorwärts geht und sie sich durch die ersten A380 Reviews und Treibermacken nicht haben aufhalten lassen.
 
So wie man liest hat Intel da viel nachgeholt. Vielleicht kommt das mit einem späteren Treiber Release?
Würd mich nicht wundern, fehlt halt doch irgendwie :unsure:
Schön zu sehen das es vorwärts geht und sie sich durch die ersten A380 Reviews und Treibermacken nicht haben aufhalten lassen.
Hoffentlich und dann bei der nächsten Gen nochmal einen ordentlichen Sprung nach vorne.
Als Hardware Kunde zumindest drücke ich auch im Sinne des Wettbewerbes beide Daumen das Intel dem ganzen eine Chance gibt und es nicht gleich wieder abdreht.
So Aktienkonzerne sind halt schwer berechenbar....
 
Nach längerer Abstinenz hier, zumindest bei den Artikeln, melde ich mich nun mit einem kleinen Intel ARC Spezial zurück. Die Karten fristen ein Nischendasein was einerseits an der eher dürftigen Verfügbarkeit liegt, insbesondere von Custommodellen, aber auch an den eher durchwachsenen Tests der Karten nach Ihrem Relase im November wo die Karten vor allem bei (den ganzen Artikel lesen...)
Schönen guten Morgen,
erstmal vielen Dank für den tollen Artikel von dir @Gurdi .

Da ich auch eine Karte von Asrock in Betrieb habe, hatte sowohl die A750 und jetzt die A770 in Verwendung, ist mir etwas aufgefallen, vielleicht hast du die Möglichkeit dies bei dir zu prüfen.

Beide Karten, egal ob die A750 und jetzt die A770 von Asrock, werden im Intel Arc Control Center als auch bei GPU-Z nicht mit der beworbenen GPU Taktung erkannt und angezeigt.

Erkannt werden beide Karten als "normale" stock Varianten mit der GPU Geschwindigkeit der "originalen" Intel Karte.
Bei der A750 und A770 hat Asrock 2200 MHz angegeben, bei beiden Karten werden "nur" die 2100 MHz bzw. 2050 MHz angezeigt.

Kannst du dies verifizieren?

Mit Intel und Asrock hatte ich schon Kontakt aufgenommen, jeder schiebt es auf den anderen.
Intel´s Aussage, dafür ist Asrock zuständig.
Asrock, dafür ist Intel zuständig und es sein ein Treiber Problem mit der Anzeige.

Bilder habe ich sowohl der A750 als auch der A770 von Asrock im Anhang beigefügt.


Viele Grüße Roman
 

Anhänge

  • Screenshot 2023-01-05 114808_Intel_Control_Center.png
    Screenshot 2023-01-05 114808_Intel_Control_Center.png
    271,4 KB · Aufrufe : 11
  • Screenshot 2023-01-05 114808_Intel_Control_Center_A770.png
    Screenshot 2023-01-05 114808_Intel_Control_Center_A770.png
    53,1 KB · Aufrufe : 9
  • Screenshot 2023-01-05 114839_GPU_Z.png
    Screenshot 2023-01-05 114839_GPU_Z.png
    49,3 KB · Aufrufe : 13
  • Screenshot 2023-01-05 114839_GPU_Z_A770.png
    Screenshot 2023-01-05 114839_GPU_Z_A770.png
    49,8 KB · Aufrufe : 14
Zuletzt bearbeitet :
Da ich auch eine Karte von Asrock in Betrieb habe, hatte sowohl die A750 und jetzt die A770 in Verwendung, ist mir etwas aufgefallen, vielleicht hast du die Möglichkeit dies bei dir zu prüfen.
Ich muss da leider erstmal vertrösten. Die ARC habe ich nun ausgebaut und wieder gegen die Radeon getauscht. Da die GPU wegen fehlendem RBar in meinem eGPU Dock sehr schlecht läuft, muss ich mal schaun was ich damit mache. Ich kann aber bei Gelegenheit mir das mal anschauen.
 
sag mal @Gurdi, die Karte hast du im Mindstar für 299 gekriegt? Ich habe eine da gekauft, Finde sie selber auch ziemlich interessant, vor allem für den Preis. Da war ich zwar auch ein wenig unentschieden, ob man nich lieber die LE um die 350e nimmt, aber ist jetzt so...
Ich habe zwar nur mit den Treibern OC gemacht und nicht mit dem speziellen Tool, aber es ging ganz gut. Konnte die ASIC TDP auf 155 W zusammen mit einem OC Wert von 53 einstellen und somit war die Stock Performance bei deutlich niedriegerem Verbrauch zu erreichen.
Mit einem leichten OV sowie dem OC Wert auf 49 konnte ich sogar das Beste Timespy GPU Score für eine A770 aufstellen, welches jedoch leider nicht galt, da ich die Beta Treiber genutzt hatte,
Schade, dass man bei dieser Karte den Ram nicht OCen kann, wusste auch selber nicht, dass bei der Karte der Ram langsamer als bei der Intel A770 LE ist.
 
@RomanSp also bei meiner AsRock A770 steht auch 2100 mhz bei der GPU, aber unter Last geht die auf 2400 mhz stock und wie schon oben eben gesagt, der OC ist ziemlich gut mit dieser Karte (zumindest der GPU OC), Speicher OC geht ja leider nicht...
 
Noch nicht. Vielleicht kommt es ja noch.
Glaube Intel ist es erst mal wichtiger die Treiber Probleme
zu lösen.
 
sag mal @Gurdi, die Karte hast du im Mindstar für 299 gekriegt? Ich habe eine da gekauft, Finde sie selber auch ziemlich interessant, vor allem für den Preis. Da war ich zwar auch ein wenig unentschieden, ob man nich lieber die LE um die 350e nimmt, aber ist jetzt so...
Ich habe zwar nur mit den Treibern OC gemacht und nicht mit dem speziellen Tool, aber es ging ganz gut. Konnte die ASIC TDP auf 155 W zusammen mit einem OC Wert von 53 einstellen und somit war die Stock Performance bei deutlich niedriegerem Verbrauch zu erreichen.
Mit einem leichten OV sowie dem OC Wert auf 49 konnte ich sogar das Beste Timespy GPU Score für eine A770 aufstellen, welches jedoch leider nicht galt, da ich die Beta Treiber genutzt hatte,
Schade, dass man bei dieser Karte den Ram nicht OCen kann, wusste auch selber nicht, dass bei der Karte der Ram langsamer als bei der Intel A770 LE ist.
Ja hab die Karte aus der Aktion im Mindstar. Für 300 ein NoBrainer.
 
@RomanSp also bei meiner AsRock A770 steht auch 2100 mhz bei der GPU, aber unter Last geht die auf 2400 mhz stock und wie schon oben eben gesagt, der OC ist ziemlich gut mit dieser Karte (zumindest der GPU OC), Speicher OC geht ja leider nicht.

@rokzo Danke Dir fürs nachschauen.

Also liegt meine Vermutung doch nahe, dass entweder Asrock bzw. Intel geschlampt hat.

Die Frage die ich mir dabei stelle, stimmen denn die Angaben dann überhaupt, mit denen Asrock wirbt, OC?
Weil laut deren Werbung soll die Karte ja mit einem höheren Standard Takt kommen, dieser wird aber nicht angezeigt in beiden Tools.

Dann könnte ja jeder Hersteller einfach eine Behauptung aufstellen.

Die originale Intel hatte ich auch zum Test @rokzo die taktet auch auf 2400 MHz unter Last, wäre ja dann "null" unterschied zur Asrock, wenn deren Standard Takt nicht erkannt wird.
Du kannst dich auch gerne bei Github mit einklinken, denke je mehr sich melden, desto eher schaut Intel da mal drüber.
https://github.com/IGCIT/Intel-GPU-Community-Issue-Tracker-IGCIT/issues/228

Oder liegt es an Intel mit dem Treiber und der "richtigen" Erkennung der Asrock Karte.

Wäre vielleicht auch mal einen Artikel Wert @Gurdi
Die Werbeversprechen und deren Umsetzung. ;)

Erstmal vielen lieben Dank, ich warte noch die Antwort von Intel ab, nachdem Asrock schon total abgeblockt hat und es auf Intel geschoben.
 
Zuletzt bearbeitet :
Oben Unten