Asrock Phantom ARC 770 8GB im Overclocking und Undervolting Test

Was halt sehr schade ist, dass man mit dem rBar Zwang viele "Alt"systeme ausschließt, für die die Leistungsklasse der Karte aber eigentlich noch super attraktiv wäre :(
 
@RomanSp also bei meiner AsRock A770 steht auch 2100 mhz bei der GPU, aber unter Last geht die auf 2400 mhz stock und wie schon oben eben gesagt, der OC ist ziemlich gut mit dieser Karte (zumindest der GPU OC), Speicher OC geht ja leider nicht...
Wunderbar, denke langsam entweder Asrock hält sein Werbeversprechen betreffs OC nicht ein, oder der Intel Treiber erkennt einfach nicht das hinterlegte Stock OC. :(

Bei Last gehen auch die "originalen" Intel Karten auf 2400MHz hoch, hatte ich auch schon zum Test zu Hause.
Im Moment ist die Asrock eine "originale" Intel Karte mit "nur" 8 GB Ram und weniger Speichertakt. :(

Spricht aktuell außer dem Preis wenn man sie günstiger bekommen kann/konnte nichts für Asrock.
 
Wunderbar, denke langsam entweder Asrock hält sein Werbeversprechen betreffs OC nicht ein, oder der Intel Treiber erkennt einfach nicht das hinterlegte Stock OC. :(

Bei Last gehen auch die "originalen" Intel Karten auf 2400MHz hoch, hatte ich auch schon zum Test zu Hause.
Im Moment ist die Asrock eine "originale" Intel Karte mit "nur" 8 GB Ram und weniger Speichertakt. :(

Spricht aktuell außer dem Preis wenn man sie günstiger bekommen kann/konnte nichts für Asrock.
also, ganz ehrlich.
Für den Preis habe ich keine Lust mit Intel, Asrock oder MF zu diskutieren =/
 
;) Ich liebe Kunden wie dich, ohne mir jetzt böse zu sein.

Alles gut, musst du ja auch nicht.

Viele Grüße
Bin dir nicht böse,
normalerweise bin ich wie du, dass ich es bis zum geht nicht mehr bei denen ausreize wenn die versuchen mich zu verarschen.
Aber ehrlich hier die a770 habe ich nur zum rumspielen gekauft und ich gebe ehrlich zu, dass ich nicht einmal gewusst hatte, dass ich eine OC karte kaufe, geschweige denn, dass es OC karten gibt. Ich dachte tatsächlich, dass die Intel Limited Edition die OC Karte mit mehr Speicher ist.
Und zudem kann ich die Karte super übertakten, wie gesagt, hatte an dem Wochenende, als ich es probiert hatte den höchsten Timespy GPU Wert aller a770 :D, nur wurde es nicht offiziel gespeichert, weil ich den Beta Treiber hatte..
Von daher und in Anbetracht, dass ich das OC ganz gut kann und das eh mein Hobby ist, bin ich richtig begeistert was die Karte schafft.
Mit Overvoltage geht noch mehr, aber ich sehe den Sinn aktuell nicht die karte kaputt zu machen...
 
Das ist hier aber teilweise echt überheblich, was man hier so liest.
Der normale Aufrüster, der immerhin seinen Rechner aufschrauben und den PCIE Slot identifizieren, die alte Grafikkarte ausbauen und die von Intel einbauen kann, soll also nicht in der Lage sein, die UEFI-Einstellung "Re-size BAR Support: AUTO" zu finden?

Ich glaube hier überschätzen sich sehr viele Leute unglaublich.
Vor 20 Jahren hätte ich gesagt "Ja bestimmt schwierig für die meisten".
Heutzutage baut mein 10jähriger Neffe mit Anleitung (youtube) auf seinem Handy seinen eigenen Rechner zusammen.

Aber ja die Boomergeneration 70+ hat bestimmt Probleme damit.
Die Frage ist, ob die sich nicht sowieso eher eine 4090RTX holen bei der Rente... 😉

rBar ist sicherlich nicht das Problem der Intel-Grafikkarten. Die Performance ist es leider schon.
 
Mich würde hier das Test-Setup Intressieren.

Benütze selber eine Asrock A770 , habe die Benchmarks bei mir wiederholt mit den Einstellung für die GPU, die ich hier entnommen habe und kam zum Teil zu massiv Besseren Ergebnissen.
z.B: Bei Time Spy bei jeder Einstellung gute 1000Punkte mehr bei den Graphics-score , bei Superpositions sind es jeweils 200-300 Punkte.

Mein Setup:
Intel i9 13900k (Stock), Asus Prime Z790 P , 64GB DDR5 Kit Kingston Fury Beast 5600Mhz , Asrock Phantom Arc 770 8GB,
Windows 11 Pro (Neuste Version und Treiber Aktuell)

Falls Ihr ein Intel Setup verwendet, habt Ihr die IGPU deaktiviert?
Die Arc kann die Xe Cores der IGPU mitnutzen.

Würde mich brennend Intressieren, Danke
 
Mich würde hier das Test-Setup Intressieren.

Benütze selber eine Asrock A770 , habe die Benchmarks bei mir wiederholt mit den Einstellung für die GPU, die ich hier entnommen habe und kam zum Teil zu massiv Besseren Ergebnissen.
z.B: Bei Time Spy bei jeder Einstellung gute 1000Punkte mehr bei den Graphics-score , bei Superpositions sind es jeweils 200-300 Punkte.

Mein Setup:
Intel i9 13900k (Stock), Asus Prime Z790 P , 64GB DDR5 Kit Kingston Fury Beast 5600Mhz , Asrock Phantom Arc 770 8GB,
Windows 11 Pro (Neuste Version und Treiber Aktuell)

Falls Ihr ein Intel Setup verwendet, habt Ihr die IGPU deaktiviert?
Die Arc kann die Xe Cores der IGPU mitnutzen.

Würde mich brennend Intressieren, Danke
Poste doch deine Ergebnisse hier gerne.
Ich habe einen 5900X verwendet mit 32GB Ram auf einer X570 Platine.
Eine IGP ist nicht vorhanden.
 
Poste doch deine Ergebnisse hier gerne.
Ich habe einen 5900X verwendet mit 32GB Ram auf einer X570 Platine.
Eine IGP ist nicht vorhanden.
Wie anhand der Screenshots zu sehen ist , hab ich deutlich bessere Ergebnisse bis zu 7% und das ist nicht wenig.
(konnte leider nur 5 Bilder anhängen)
Hab das ganze nochmal in einem anderem System getestet das keine Intel IGPU mit XE Cores hat.
Hab die Tests wiederholt mit einem Intel I9 10900F auf einem Z490 Mainboard, dort kam ich ziemlich auf die selben Ergebnisse (+/-) wie bei deinem Testbericht.
Da bei diesen Tests sowohl dein System wie auch das I9 10900F System sicher nicht der Flaschenhals wahren für die Grafikleistung, währe ein weiterer Test mit einem Intel System der 12th oder der 13th Generation mit einem F oder KF CPU Intressant ( Ohne Intel IGPU mit XE Cores) und ein weiteres System mit einem Zen4.
Nur zum Schauen was passiert.
Vielleicht gibt es hier ja ein paar, die das machen könnten :) währe sehr cool.

Für mich Persöndlich ist die ARC keine Gamerkarte, mein Intresse liegt vorallem bei Video Bearbeitung und hier muss man klar sagen, was die ARC in dieser Beziehung leistet ist aussergewöhnlich im vergleich zu Nvidia und AMD. Alle Sprechen von AV1 (AMD/Nvidia 8Bit , Intel 8Bit und 10Bit) aber es sagt niemand das die RTX 40XX oder Radeon 7XXX im Jahr 2023 immernoch nicht in der Lage sind HVEC (H265) bei 12Bit zu Encodieren und zu Decodieren. ( 8 und 10Bit können Sie bei annehmbarer Qualität)
Auf dem CPU zu Decodieren und Encodieren, macht wirklich keinen Spass.
Was für mich auch Sprach ist der Deep Link und Hyper Encoding, in der Verbindung einer Intel IGPU und der ARC. Was die Decoder und Encoder Leistung der ARC gegenüber einer RTX4090 deutlich übertrifft.
Zudem ist die ARC 770 nicht beschnitten und liefert bei 64Bit Berechnungen die 2.5 Fache Leistung einer RTX4090. ( Nicht das die GPU der RTX das nicht könnte, sondern NVIDIA möchte lieber eine Tesla Karte verkaufen und die hohle Hand machen)

Währe ich jetzt ein Gamer hätte ich ganz klar eine RTX4080 oder eine RTX4090 gekauft.
 

Anhänge

  • Superposition Balanced.png
    Superposition Balanced.png
    1,1 MB · Aufrufe : 9
  • Superposition Stock.png
    Superposition Stock.png
    1,1 MB · Aufrufe : 11
  • TimeSpy Balanced.png
    TimeSpy Balanced.png
    549,5 KB · Aufrufe : 12
  • TimeSpy OC.png
    TimeSpy OC.png
    532,2 KB · Aufrufe : 12
  • TimeSpy Stock.png
    TimeSpy Stock.png
    565,8 KB · Aufrufe : 11
Zuletzt bearbeitet :
Interessant die Weiterentwicklung der Treiber bei der Arc. Hätte Lust eine zum Ausprobieren zu kaufen, ein Bekannter berichtet, dass mit neuesten Treibern auch einige ältere Spiele besser laufen.
 
Durchaus interessante Ergebnisse. Du hast auch eine Asrock Phantom verwendet?
Hab auch eine Asrock Phantom verwendet. Hab mir jetzt noch eine Acer Predator Bifrost bestellt , die sollte am Dienstag bei mir sein. (Bin Gespannt)
Hab noch das Problem das die Phantom via IGPU denn halben Arbeitsspeicher sich einverleibt. (Auf dem Scrennshot von Superpositions ist zu sehen das die IGPU 32GB Vram hat. Wollte ja Deep Link und Hyper Encoding)
Kann im UEFI nur die mind. Menge angeben für das Shared Memory.
Wird wahrscheinlich auch nicht besser mit der Acer aber die Hoffnung besteht. (Wunsch Denken)
Ansonsten kauf ich mir halt nochmal 64GB Ram.( Hab bei Fotobearbeitung und Video so ca. 45GB Ram, die ausgelastet sind)
 
Berichte mal zur Bifrost, wäre sicher interessant.
 
Interessant die Weiterentwicklung der Treiber bei der Arc. Hätte Lust eine zum Ausprobieren zu kaufen, ein Bekannter berichtet, dass mit neuesten Treibern auch einige ältere Spiele besser laufen.
Was bei dir Intressant währe, ist ein Hybrides System.
Das heisst die Arc als Decoder/Encoder und High Compting Beschleuniger zu verwenden und die Geforce 4090 als Primäre Karte weiter verwenden.
 
Dann müsste die Arc ausgelagert werden mit Riserkabel, der 4090 darf man nicht die Luftzufuhr abschneiden. :)
Die Notwendigkeit zum Filme-Decodieren habe ich nicht. Also einfach mal ausprobieren und später in einem Einsteiger-PC einbauen.
 
Für mich Persöndlich ist die ARC keine Gamerkarte, mein Intresse liegt vorallem bei Video Bearbeitung und hier muss man klar sagen, was die ARC in dieser Beziehung leistet ist aussergewöhnlich im vergleich zu Nvidia und AMD. Alle Sprechen von AV1 (AMD/Nvidia 8Bit , Intel 8Bit und 10Bit) aber es sagt niemand das die RTX 40XX oder Radeon 7XXX im Jahr 2023 immernoch nicht in der Lage sind HVEC (H265) bei 12Bit zu Encodieren und zu Decodieren. ( 8 und 10Bit können Sie bei annehmbarer Qualität)
Auf dem CPU zu Decodieren und Encodieren, macht wirklich keinen Spass.

Ähm die Bit Tiefe ist klar vom Quell Material abhängig, wenn die Kamera nur HDR macht sind es 10 Bit wenn sie mit 12bit Aufnimmt ist das HDR+.

Also keine Sorge wenn H265 keine 12Bit Decoded oder Encoded, dann kann es schlicht das Quell Material nicht.

Ich finde die Bild Qualität immer noch besser mit der CPU. ;)
 
Ähm die Bit Tiefe ist klar vom Quell Material abhängig, wenn die Kamera nur HDR macht sind es 10 Bit wenn sie mit 12bit Aufnimmt ist das HDR+.

Also keine Sorge wenn H265 keine 12Bit Decoded oder Encoded, dann kann es schlicht das Quell Material nicht.

Ich finde die Bild Qualität immer noch besser mit der CPU. ;)
Qualitative ist Encoden mit Decoden besser mit dem CPU dauert einfach nur viel lenger.
Jedoch muss man sagen das der Intel Decoder Qualitativ der beste Hardware Encoder/Decoder ist.


Als Ergänzen was AMD/NVIDEA bei 10Bit Farbtiefe kann, bei H.265 ist 4.2.0, Intel kann hier 4.2.0 , 4.2.2 und 4.4.4
 
Oben Unten