Intels Arc zu langsam? Wenn eine Grafikkarte nicht reicht, dann müssen es eben mehrere richten

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.748
Bewertungspunkte
8.479
Punkte
1
Standort
Redaktion
SLI ist abgekündigt, Crossfire ist tot – da ist es für Intel natürlich ein Leichtes, in diese leere Nische zu springen und die Flucht nach vorn zu suchen. Mein Freund Rob Squires von TweakTown hat gestern auf der SIGGRAPH 2022 nämlich etwas sehr Interessantes erfahren. Ihm zufolge ist Intel gerade dabei, seine oneAPi-Software auch für (read full article...)
 
Ach das wird gut. Alle bekommen günstige Midrange-Karten, die Systemintegratoren werden die Karten lieben lernen. Das wird der Preis regeln. Intel ballert jetzt die Karten raus, die müssen auch raus und konzentrieren sich schon auf die nächste Generation. Shit happens 😁
 
Da auch AMD an einer Multi-GPU-Lösung arbeiten soll (>Multichipletdesign auf einem PCB), könnte das Angestrebte von Intel gar nicht so dumm sein. Auch wenn da natürlich Unterschiede bestehen.
Das monolithische Design scheint sich ja langsam aber sicher verabschieden zu wollen.
Gruß T.
 
Wer stellt sich denn ein ARC A750 SLI-System zusammen,um dann mit einer 3070 (Ti) konkurrieren zu können ?
Das wird immer peinlicher....

Danke Igor für die Info; habe herzlich gelacht!
 
Wenn ich mich an die letzten Benchmarks zu Multi-GPU erinnere, dann waren SLI und Crossfire zuletzt beide auf dem absteigenden Ast (https://www.computerbase.de/2018-07/crossfire-sli-test-2018/).

UND: Gerade Multi-GPU braucht gute Treiber. Wenn damit AMD und Nvidia schon Probleme haben, sehe ich für Intel - sagen wir mal "nicht die beste Ausgangsposition".

Aber ich lasse mich gerne überraschen. @Igor Wallossek wird selbst neugierig genug sein um uns mit gewohnt objektiven und ehrlichen Tests zu beliefern.
 
@Tolotos66 Man korrigiere mich, wenn ich falsch liege, aber Multi-GPU und Multichiplet ist nicht das gleiche. Ersteres ist eher ein 2-Sockel-Mainboard aus dem Serverbereich, letzteres ist eher wie bei den Ryzen-Prozessoren. Bandbreite und Latenzen dürften weitaus besser sein, wenn die Wege zwischen den Chips kurz und breit sind.

Jedenfalls ist das mein Verständnis.
 
Diskretes Kommunizieren über den Bus ist echt grässlich. Ab Windows 10 bietet DX12 ja solche mGPU-Features quasi ab Werk (es gab ja auch schon solche Versuche, AMD und NVIDIA zu verkuppeln), aber das ist alles grandios gescheitert. Warum das jetzt bei Intel besser gehen soll... naja, aber man braucht dafür sicher auch wieder rBAR. :D

Ich bin nur gespannt, wem Intel soweit vertraut, dass er so ein tolles System unter Aufsicht dann auch testen darf :D
 
Zuletzt bearbeitet :
@Tolotos66 Man korrigiere mich, wenn ich falsch liege, aber Multi-GPU und Multichiplet ist nicht das gleiche. Ersteres ist eher ein 2-Sockel-Mainboard aus dem Serverbereich, letzteres ist eher wie bei den Ryzen-Prozessoren. Bandbreite und Latenzen dürften weitaus besser sein, wenn die Wege zwischen den Chips kurz und breit sind.

Jedenfalls ist das mein Verständnis.
Ich habe es so verstanden, das es sich, trotz "Zusammenkleben", um 2 Chips handelt, welche miteinander kommunizieren müssen. Wie ich in meinem Beitrag schrieb, gibt es sehr wohl Unterschiede. Aber miteinander reden müssen die GPUs (CPUs) schließlich doch. Meines Verständisses nach liegt auch genau hier das Problem mit den Mikrorucklern etc. Gabs ja schon mit Voodoo. Bei Ryzen und vllt auch bei RDNA 3 löst, respektive verringert, dieses Problem der IF.
Von daher sind SLI/CF, vom Grundgedanken her, gar nicht soweit weg von einem Multichipdesign auf einem Substrat.
Aber falls ich da total daneben liege, würde es mich sehr freuen, es erklärt zu bekommen.
Schon mal ein Danke im voraus :)
Gruß T.
 
Bei der Voodoo gab's keine ruckler im SLI Verband. Hab das Jahre aktiv genutzt.
 
Letztendlich müssen bei Mehrkern-CPUs die Kerne auch untereinander kommunizieren. Die Frage ist halt mit welcher Bandbreite das geschehen kann. Wenn alles auf einem Chip sitzt, geht das sehr schnell. Bei Multi-Chip wird das schon schwieriger, man wird eine geringere Bandbreite haben, da die Wege aber noch recht kurz sind geht es noch einigermaßen. Wenn es zwei separate Chips sind, die nur durch eine Platine (oder ein CF/SLI-Kabel oder das Mainboard) verbunden sind, ist die Bandbreite nochmal deutlich geringer, weil die Wege länger sind und lange Leitungen nahe beieinander mit hochfrequenten Signalen sich gegenseitig beeinflussen.
Die Bandbreite ist dann oft so gering, dass die GPUs dann oftmals nicht mehr gleichzeitig am gleichen Bild rendern konnten sondern meistens die eine Karte Bild 1, die zweite Karte Bild 2, die erste dann wieder Bild 3 usw. (= alternate Frame Rendering) berechnet hat. Da die Bilder dann nicht immer den gleichen zeitlichen Abstand hatten gab es Mikroruckler.

Oder noch anschaulicher (Ja, ich weiß, Autovergleiche hinken):
Monolithisches Die = 5 km Autobahn (ohne Baustelle und Tempolimit)
Multi-Chip-Package = 10 km Landstraße
Multi-GPU = 50 km Feldweg
 
Auch wenn das jetzt etwas offtopic ist; Wäre VR nicht für so etwas prädestiniert? Eine GPU rendert das eine Auge und vis a vis.
 
Bei der Voodoo gab's keine ruckler im SLI Verband. Hab das Jahre aktiv genutzt.
Die gute alte Voodoo kommt mit einigen heutigen Verfahren nicht mehr so gut zurecht > Mikroruckler.
Möglicherweise war für Dich die Voodoo ein schleichtes Beispiel. Von daher mea culpa.
Aber dann nehmen wir doch von damals eine HD 3870 X2, 7950 GX2, HD 7970 X2 oder GTX 690.
Gruß T.
 
@Tolotos66 das verfahren bei 3dfx SLI ist Technologisch ganz anders wie das was von NV SLI und von ATI/AMD Crossfire genannt ist.
Welche Spielen laufen heute noch mit einer 3dfx? Welche Verfahren sollen das sein? Ich verstehe den Vergleich nicht.
Der Vergleich NV /AMD halte ich da schon für besser mit Intel.


Ich gehe nicht davon aus das Intel die Probleme die bei NV SLI/AMD Crossfire aufgetreten sind lösen kann/könnte.
 
Meines Verständisses nach liegt auch genau hier das Problem mit den Mikrorucklern etc. Gabs ja schon mit Voodoo
Bevor du so etwas schreibst, solltest du dich mit der Materie auseinandersetzen, Vodoos hatten reich technisch bedingt niemals Probleme mit Mikrorucklern, weil vereinfacht gesagt die Berechnungen auf Zeilenbasis und nicht Bildbasis erfolgte, Chip 1 berechnete jede ungerade Zeile, Chip 2 jede gerade Zeile. Dadurch war es ausgeschlossen, dass Bilder noch nicht fertig waren und es zu einem Ruckeln führte.
Die gute alte Voodoo kommt mit einigen heutigen Verfahren nicht mehr so gut zurecht
Die letzten erschienen Vodoo Karten könnten DX6 Kriterien erfüllen, Spectee der nie erschiene Nachfolger wäre wohl DX 7 kompatibel gewesen. Alle heutigen Spiele nutzen wahlweise DX11/12 oder eben technisch vergleichbar herausfordernde Schnittstellen, keine der je konzipierten Vodoos wurde heute auch nur ein Spiel zum laufen bewegen, kein (vielleicht mag es da noch Exoten geben) Spiel seit 15 Jahren.
Die Aussage sollte also lauten:
Die gute alte Voodoo kommt mit einigen heutigen Verfahren gar nicht zurecht, weil sie schlicht die Hardwareanforderungen nicht einmal im Ansatz beherrscht (wie im übrigen auch für die zeitlich ähnlich erschiene GF3 nicht)
 
Ich gehe nicht davon aus das Intel die Probleme die bei NV SLI/AMD Crossfire aufgetreten sind lösen kann/könnte.
Denke ich auch, AMDs Chipletansatz ist da ganz anders konzipiert und die Chips haben ja einen eigens dafür entwickelten Interconnect, der sicherlich sowohl Latenz als auch Bandbreite liefern wird, wie es derzeit keine externe (Sli Bridge etc.) Liefern könnte.

Intel kann das Rad nicht neu erfinden und wenn zwei etablierte Hersteller im GPU Markt das Unterfangen einstellen, dann muss man schon ganz schön vermessen sein um als Neuling zu denken, dass man jahrelang ungelöste Probleme gleich in der ersten Generation besser machen kann.

Letztlich aber wieder typisch Intel
 
Bei einer anderen Intel Arc hatte ich geschrieben:

Irgendwie erinnert mich das an 3dfx und hier kommt wieder der gleiche Gedanke.
 
Oben Unten