Grafikkarten News VGA

Intels Arc zu langsam? Wenn eine Grafikkarte nicht reicht, dann müssen es eben mehrere richten

SLI ist abgekündigt, Crossfire ist tot – da ist es für Intel natürlich ein Leichtes, in diese leere Nische zu springen und die Flucht nach vorn zu suchen. Mein Freund Rob Squires von TweakTown hat gestern auf der SIGGRAPH 2022 nämlich etwas sehr Interessantes erfahren. Ihm zufolge ist Intel gerade dabei, seine oneAPi-Software auch für die Multi-GPU-Unterstützung fertigzustellen. Eine pikante Randnotiz dabei war auch, dass es wohl nur an der Unfähigkeit Intels lag, schnell noch ein passendes System zu finden, um diese Multi-GPU-Lösung auf der Messe auch in echt zeigen zu können.

Die Unterstützung für eine Multi-GPU-Lösung könnte es Intel dann doch noch ermöglichen, den Abstand der restlichen Arc-Karten (die ja in Kürze auf den Markt kommen sollen) gegenüber den GPUs von NVIDIA und AMD etwas zu verringern. Denn aktuell sieht sich Intel ja bei eigenen Benchmarks mit der Arc A750 auf Augenhöhe bzw. knapp vor einer „pfeilschnellen“ RTX 3060 (ohne Ti). Da aber auch bei AMD und NVIDIA in Kürze eine neue Generation ins Haus steht, ist der Rückstand schon recht groß geworden. Also muss ein Doppel-Whopper her. Mindestens.

Warum das mit dem Gehäuse (da war wohl das komplette System gemeint) angeblich nicht geklappt haben soll, konnte keiner vor Ort so recht erklären, zumal Intel ja bereits fertige Systeme (mit passendem Gehäuse) vorbereitet haben soll, die in kürzester Zeit an speziell ausgewählte und vorab auch streng gebriefte Redaktionen verschickt werden sollen. Somit könnte man den Launch mit der Kraft der zwei Herzen aus Sicht Intels vielleicht doch noch etwas versöhnlicher gestalten, was vor allem die Länge der Benchmark-Balken betrifft. Allerdings schwant mit bei der Beurteilung der Frame Times und Varianzen, sowie der aufzuwendenden elektrischen Energie, dann nichts Gutes.

Plasma bubble…

Was man jedoch eindeutig klargestellt hat ist, dass die Softwareunterstützung für eine Multi-GPU-Lösung durch Intel existiert und auf der SIGGRAPH 2022 auch fast ihr Debüt gehabt hätte. Wenn nicht wie immer rein zufällig was dazwischen gekommen wäre. Was natürlich schade ist, aber durchaus ins Gesamtbild passt. Und ich glaube auch nur den Benchmarks, die ich selbst erstellt habe, auch wenn es den zwei bekannten PR-Strategen aus dem Blaulicht-Milieu wieder nicht so recht passen könnte. Wer weiß…

Quellen: TweakTown, eigene

Kommentar

Lade neue Kommentare

M
Mr.Danger

Mitglied

64 Kommentare 35 Likes

Ach das wird gut. Alle bekommen günstige Midrange-Karten, die Systemintegratoren werden die Karten lieben lernen. Das wird der Preis regeln. Intel ballert jetzt die Karten raus, die müssen auch raus und konzentrieren sich schon auf die nächste Generation. Shit happens 😁✌

Antwort Gefällt mir

konkretor

Veteran

248 Kommentare 236 Likes
Tolotos66

Mitglied

21 Kommentare 9 Likes

Da auch AMD an einer Multi-GPU-Lösung arbeiten soll (>Multichipletdesign auf einem PCB), könnte das Angestrebte von Intel gar nicht so dumm sein. Auch wenn da natürlich Unterschiede bestehen.
Das monolithische Design scheint sich ja langsam aber sicher verabschieden zu wollen.
Gruß T.

Antwort Gefällt mir

ipat66

Urgestein

764 Kommentare 629 Likes

Wer stellt sich denn ein ARC A750 SLI-System zusammen,um dann mit einer 3070 (Ti) konkurrieren zu können ?
Das wird immer peinlicher....

Danke Igor für die Info; habe herzlich gelacht!

Antwort 3 Likes

D
Dezor

Veteran

476 Kommentare 201 Likes

Wenn ich mich an die letzten Benchmarks zu Multi-GPU erinnere, dann waren SLI und Crossfire zuletzt beide auf dem absteigenden Ast (https://www.computerbase.de/2018-07/crossfire-sli-test-2018/).

UND: Gerade Multi-GPU braucht gute Treiber. Wenn damit AMD und Nvidia schon Probleme haben, sehe ich für Intel - sagen wir mal "nicht die beste Ausgangsposition".

Aber ich lasse mich gerne überraschen. @Igor Wallossek wird selbst neugierig genug sein um uns mit gewohnt objektiven und ehrlichen Tests zu beliefern.

Antwort 3 Likes

D
Dezor

Veteran

476 Kommentare 201 Likes

@Tolotos66 Man korrigiere mich, wenn ich falsch liege, aber Multi-GPU und Multichiplet ist nicht das gleiche. Ersteres ist eher ein 2-Sockel-Mainboard aus dem Serverbereich, letzteres ist eher wie bei den Ryzen-Prozessoren. Bandbreite und Latenzen dürften weitaus besser sein, wenn die Wege zwischen den Chips kurz und breit sind.

Jedenfalls ist das mein Verständnis.

Antwort 3 Likes

Igor Wallossek

Format©

7,933 Kommentare 13,651 Likes

Diskretes Kommunizieren über den Bus ist echt grässlich. Ab Windows 10 bietet DX12 ja solche mGPU-Features quasi ab Werk (es gab ja auch schon solche Versuche, AMD und NVIDIA zu verkuppeln), aber das ist alles grandios gescheitert. Warum das jetzt bei Intel besser gehen soll... naja, aber man braucht dafür sicher auch wieder rBAR. :D

Ich bin nur gespannt, wem Intel soweit vertraut, dass er so ein tolles System unter Aufsicht dann auch testen darf :D

Antwort 3 Likes

konkretor

Veteran

248 Kommentare 236 Likes

@Igor Wallossek dir werden sie das System sicherlich nicht in die Finger drücken da Wette ich ne Arc380 drauf :LOL:

Antwort 1 Like

ipat66

Urgestein

764 Kommentare 629 Likes

Bei Dir werden die wohl nicht anklopfen...:)

Uups @Konkretor,da hatten wir wohl den gleichen Reflex...

Antwort 1 Like

Tolotos66

Mitglied

21 Kommentare 9 Likes

Ich habe es so verstanden, das es sich, trotz "Zusammenkleben", um 2 Chips handelt, welche miteinander kommunizieren müssen. Wie ich in meinem Beitrag schrieb, gibt es sehr wohl Unterschiede. Aber miteinander reden müssen die GPUs (CPUs) schließlich doch. Meines Verständisses nach liegt auch genau hier das Problem mit den Mikrorucklern etc. Gabs ja schon mit Voodoo. Bei Ryzen und vllt auch bei RDNA 3 löst, respektive verringert, dieses Problem der IF.
Von daher sind SLI/CF, vom Grundgedanken her, gar nicht soweit weg von einem Multichipdesign auf einem Substrat.
Aber falls ich da total daneben liege, würde es mich sehr freuen, es erklärt zu bekommen.
Schon mal ein Danke im voraus :)
Gruß T.

Antwort Gefällt mir

konkretor

Veteran

248 Kommentare 236 Likes

Bei der Voodoo gab's keine ruckler im SLI Verband. Hab das Jahre aktiv genutzt.

Antwort 1 Like

D
Dezor

Veteran

476 Kommentare 201 Likes

Letztendlich müssen bei Mehrkern-CPUs die Kerne auch untereinander kommunizieren. Die Frage ist halt mit welcher Bandbreite das geschehen kann. Wenn alles auf einem Chip sitzt, geht das sehr schnell. Bei Multi-Chip wird das schon schwieriger, man wird eine geringere Bandbreite haben, da die Wege aber noch recht kurz sind geht es noch einigermaßen. Wenn es zwei separate Chips sind, die nur durch eine Platine (oder ein CF/SLI-Kabel oder das Mainboard) verbunden sind, ist die Bandbreite nochmal deutlich geringer, weil die Wege länger sind und lange Leitungen nahe beieinander mit hochfrequenten Signalen sich gegenseitig beeinflussen.
Die Bandbreite ist dann oft so gering, dass die GPUs dann oftmals nicht mehr gleichzeitig am gleichen Bild rendern konnten sondern meistens die eine Karte Bild 1, die zweite Karte Bild 2, die erste dann wieder Bild 3 usw. (= alternate Frame Rendering) berechnet hat. Da die Bilder dann nicht immer den gleichen zeitlichen Abstand hatten gab es Mikroruckler.

Oder noch anschaulicher (Ja, ich weiß, Autovergleiche hinken):
Monolithisches Die = 5 km Autobahn (ohne Baustelle und Tempolimit)
Multi-Chip-Package = 10 km Landstraße
Multi-GPU = 50 km Feldweg

Antwort 1 Like

B
BummlerD

Neuling

2 Kommentare 2 Likes

Auch wenn das jetzt etwas offtopic ist; Wäre VR nicht für so etwas prädestiniert? Eine GPU rendert das eine Auge und vis a vis.

Antwort 2 Likes

Tolotos66

Mitglied

21 Kommentare 9 Likes

Die gute alte Voodoo kommt mit einigen heutigen Verfahren nicht mehr so gut zurecht > Mikroruckler.
Möglicherweise war für Dich die Voodoo ein schleichtes Beispiel. Von daher mea culpa.
Aber dann nehmen wir doch von damals eine HD 3870 X2, 7950 GX2, HD 7970 X2 oder GTX 690.
Gruß T.

Antwort Gefällt mir

konkretor

Veteran

248 Kommentare 236 Likes

@Tolotos66 das verfahren bei 3dfx SLI ist Technologisch ganz anders wie das was von NV SLI und von ATI/AMD Crossfire genannt ist.
Welche Spielen laufen heute noch mit einer 3dfx? Welche Verfahren sollen das sein? Ich verstehe den Vergleich nicht.
Der Vergleich NV /AMD halte ich da schon für besser mit Intel.

Ich gehe nicht davon aus das Intel die Probleme die bei NV SLI/AMD Crossfire aufgetreten sind lösen kann/könnte.

Antwort 1 Like

A
Arcbound

Mitglied

77 Kommentare 61 Likes
C
CKBVB

Mitglied

46 Kommentare 17 Likes

Bevor du so etwas schreibst, solltest du dich mit der Materie auseinandersetzen, Vodoos hatten reich technisch bedingt niemals Probleme mit Mikrorucklern, weil vereinfacht gesagt die Berechnungen auf Zeilenbasis und nicht Bildbasis erfolgte, Chip 1 berechnete jede ungerade Zeile, Chip 2 jede gerade Zeile. Dadurch war es ausgeschlossen, dass Bilder noch nicht fertig waren und es zu einem Ruckeln führte.
Die letzten erschienen Vodoo Karten könnten DX6 Kriterien erfüllen, Spectee der nie erschiene Nachfolger wäre wohl DX 7 kompatibel gewesen. Alle heutigen Spiele nutzen wahlweise DX11/12 oder eben technisch vergleichbar herausfordernde Schnittstellen, keine der je konzipierten Vodoos wurde heute auch nur ein Spiel zum laufen bewegen, kein (vielleicht mag es da noch Exoten geben) Spiel seit 15 Jahren.
Die Aussage sollte also lauten:
Die gute alte Voodoo kommt mit einigen heutigen Verfahren gar nicht zurecht, weil sie schlicht die Hardwareanforderungen nicht einmal im Ansatz beherrscht (wie im übrigen auch für die zeitlich ähnlich erschiene GF3 nicht)

Antwort 3 Likes

C
CKBVB

Mitglied

46 Kommentare 17 Likes

Denke ich auch, AMDs Chipletansatz ist da ganz anders konzipiert und die Chips haben ja einen eigens dafür entwickelten Interconnect, der sicherlich sowohl Latenz als auch Bandbreite liefern wird, wie es derzeit keine externe (Sli Bridge etc.) Liefern könnte.

Intel kann das Rad nicht neu erfinden und wenn zwei etablierte Hersteller im GPU Markt das Unterfangen einstellen, dann muss man schon ganz schön vermessen sein um als Neuling zu denken, dass man jahrelang ungelöste Probleme gleich in der ersten Generation besser machen kann.

Letztlich aber wieder typisch Intel

Antwort Gefällt mir

arcDaniel

Urgestein

1,020 Kommentare 436 Likes

Bei einer anderen Intel Arc hatte ich geschrieben:

Irgendwie erinnert mich das an 3dfx und hier kommt wieder der gleiche Gedanke.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung