Intels Arc zu langsam? Wenn eine Grafikkarte nicht reicht, dann müssen es eben mehrere richten

Ich sehe da eher eine dGPU + iGPU Kombination.
iGPU ist bei intel ja eh vorhanden... könnte die ARCs etwas unterstützen :devilish:
 
Wieder mal nett geschriebener Artikel! :)
Viele Worte, auch im Forum, ich vermisse trotzdem die Analyse, WARUM Intel das denn macht.
Aber keiner fragt nach, keiner hinterfragt, scheinbar gehen alle wie selbstverständlich davon aus, dass die Multi-GPUs nur zum Rendern EINES Targets verwendet werden dürfen, also EIN Spiel oder EIN CAD-Programm o.ä., im Fenster oder Fullscreen. Am besten noch wie bei den ersten Quad-SLIs: Die Power von 4 GPUs schön durch EINEN Dual-LinK-DVI fädeln ;)
Alle wetzen schon die langweiligen Benchmarks, die keiner braucht, weil man auf 2-4 Intel Karten bestimmt nicht spielt, keiner kommt auf die Idee, dass man mit 3 Karten z.B. 9 Displays ansteuern könnte. Und nein, auch dort bitte (!) wieder NICHT für Gaming, aber z.B. für Video-Playback über 3 GPUs! "Wir werden sehen"... :)
 
WARUM Intel das denn macht.
Aber keiner fragt nach, keiner hinterfragt

Naja,...
Die Strategie von Intel zuerst nur China zu bedienen,trägt nicht dazu bei Vertrauen aufzubauen...
Die ersten Ergebnisse der Testberichte auch nicht.Außer Marketing Geschwafel gibt es wenig konkretes.

Die offensichtlichen Treiber-Probleme,tragen in meinen Augen nicht gerade dazu bei,diese Intel GPU Generation zusätzlich in vermeintlich kompliziertem SLI-(oder was auch immer)-Verbund zu sehen.

Obwohl Igor als Anbieter exzellenter und neutraler Reviews bekannt ist,würde er wahrscheinlich
keine Antwort seitens Intel bekommen. Glücklicherweise ist er ja sehr gut vernetzt.
Seine Vorhersagen sind eigentlich immer zutreffend...
Da vertraue ich Ihm vollkommen.
 
@Tolotos66 Man korrigiere mich, wenn ich falsch liege, aber Multi-GPU und Multichiplet ist nicht das gleiche. Ersteres ist eher ein 2-Sockel-Mainboard aus dem Serverbereich, letzteres ist eher wie bei den Ryzen-Prozessoren. Bandbreite und Latenzen dürften weitaus besser sein, wenn die Wege zwischen den Chips kurz und breit sind.

Jedenfalls ist das mein Verständnis.
So wie ich die aktuelle Gerüchteküche verstanden habe, dürfte sich der Multichiplet Ansatz in der RX 7000er Serie sich auch primär darauf beschränken, dass die GPU aus einem "Compute" Chiplet und mehreren "Memory Controller + Infinity Cache" Chiplets besteht (je nach gewünschter Speicherbandbreite halt)

Modelle mit mehreren Compute Chiplets dürften dann später kommen.
 
Als MI gibts das ja schon :)
 
Also, Intel möchte jetzt Multi machen, obwohl der Treiber noch nicht einmal Single richtig beherrscht, das kann ja nur lustig werden.
 
Bei der Voodoo gab's keine ruckler im SLI Verband. Hab das Jahre aktiv genutzt.
Wollte gerade sagen. Das Verfahren war so stumpf, die Karten haben im Tandem gearbeitet. Spielte auch keine Rolle, wenn eine Karte mit ner Zeile schneller fertig war als die andere
 
In einem Jahr ist das Thema Grafikkarten bei Intel Geschichte. Intel ist zur einer Geldverbrennungsmaschine mutiert, da ist selbst Tesla in seinen früheren Jahren ein Musterknabe gewesen.
 
Wie war das mit dem viel hilft viel?
 
Einen HDMI oder DP Eingang und fertig ist der sellingpoint "GraKa" und Capture Karte in einem.
 
da Wette ich ne Arc380 drauf :LOL:

Ich wette einen Döner dagegen.

Möglicher Weise könnte man einen dunklen Kanal verwenden und Intel schaut wissend, was passiert, im richtigen Moment einfach mal in die "falsche" Richtung. Gute Publicity ist für ein gutes Produkt Goldwert.

Vor allem, wenn sie von einem Kritiker mit guter Reputation kommt. Ob das Produkt dann gut genug sein wird, um es zu zeigen, kann aktuell nur Intel sagen.

Offensichtlich war ihnen das Risiko eines Bluescreens beim Vorstellen zu groß. Das wäre dann echt doof gelaufen. Die Verteilung von Testmustern, ist dann aber schon eine neue Liga.

mfg

p.s.

Das Blaulichtmilieu ist übrigens den Damen und Herren in Fahrzeugen mit Signalhorn vorbehalten. :D
Oder soll ich in Zukunft darüber reden, dass Lisa die Chefin des Rotlichtmilieus ist?

Der Wortwitz war trotzdem cool. (y)
 
p.s.

Das Blaulichtmilieu ist übrigens den Damen und Herren in Fahrzeugen mit Signalhorn vorbehalten. :D
Oder soll ich in Zukunft darüber reden, dass Lisa die Chefin des Rotlichtmilieus ist?

Der Wortwitz war trotzdem cool. (y)
Na, wie gut, dass sie Lisa heißt und nicht Layla 😁
 
Bei Dir werden die wohl nicht anklopfen...:)

Uups @Konkretor,da hatten wir wohl den gleichen Reflex...
Wäre aber mit Abstand das Intelligenteste was sie tun könnten.

Igor, du brauchst unbedingt einen Manager. :devilish:
 
Auch wenn das jetzt etwas offtopic ist; Wäre VR nicht für so etwas prädestiniert? Eine GPU rendert das eine Auge und vis a vis.
VR gab es schon, da gab es noch SLI Systeme. Ich hatte bis 2019 eines. Das haben die nie auf die Kette bekommen. Ausserdem spielt VR in der Gamingszene leider kaum noch eine Rolle.
 

Kann man das gendern?

Es ist immerhin ein Kleidungsstück für Frauen und was kann der arme Zug dafür, von den Wörtern "Hosen" und "an" in ein Substantiv verwendet zu werden, welches nicht mehr viel mit seinem Wortsinn zu tun hat.

Könnte man auch den Schottenrock gendern?

So eine Schottenrocker*in wäre doch geil. :)

Am Ende soll jeder machen wie er will und wie es für seinen Bedarfsfall nötig ist. Da landen wir wieder bei Hardware.

Egal ob Röcke oder Hosen.

Es muss für die jeweilige Software passen und die verwendeten Wörter, schaden sehr häufig nur der Kommunikation, weil der Wortschatz des Sendenden (Sprechers) und des Empfängers (Zuhörers) oft eine größere Indiskrepanz darstellt, als die Schwerhörigkeit von bestimmten Menschen.

Die Art und Weise der Verwendung der Wörter der deutschen Sprache zur Erstellung von harmlosen Witzen, gefällt mir aber sehr.

Lisa, von den Simpsons mit Rotlichtmilieu zu verbinden, wird aber extrem schwer. Die Simpsons sind gelb.

Da wäre es ja fast einfacher, gelbe Politiker mit dem Rotlichtmilieu in einem witzigen Satz zu verbinden. :)

mfg
 
[...] spielt VR in der Gamingszene leider kaum noch eine Rolle.
Zum Glück spielt es keine Rolle.
Viel zu schlecht, viel zu teuer vor allem für Brillenträger, die zusätzlich optische Gläser für ein Headset brauchen. Dumm nur, dass sich die Sehstärke im Alter immer noch ändert...
'motion sickness' nicht vergessen.
 
Sprecht ihr nur für euch selbst :p ich habe letztens erst per VR die Mona Lisa "besucht" und etwas lovecraftschen Horror erlebt. Was fehlt, sind echte Knüller wie HL Alyx und wenn MW5 denn endlich den VR Support einbauen würde, wäre das auch schön. An Inhalten insgesamt fehlt es jedenfalls nicht, wohl aber an qualitativen Inhalten, sodass man auch gewillt ist, sich den Trümmer um den Kopf zu schnallen. Elite funktioniert echt geil, vor allem, wenn man zufälligerweise auch noch genau das HOTAS (X52) hat, welches für die in-game Knüppel und Schubkontrolle Modell stand, nur ist das Spiel an sich nicht so ganz mein Fall, auch in "2D" nicht.

Brillenträger bin ich auch, auf die geringe Entfernung macht es für mich aber keinen Unterschied, ob ich die Brille noch dazwischen quetsche oder nicht. Was mich mehr nervt ist das Gewicht und die Fliegengitteroptik meiner Vive.
 
Da auch AMD an einer Multi-GPU-Lösung arbeiten soll (>Multichipletdesign auf einem PCB
Nein, AMD arbeitet nicht an einer Multi-GPU-Lösung, sondern an einer GPU, die sich aus mehreren Chiplets zusammensetzt. Was SLI(alt)/SLI(NVIDIA)/CF und nun Intels Lösung mit AMDs neuer Lösung gemeinsam haben, ist die Tatsache, dass man mehrere Chips mit einander verbindet und gemeinsam arbeiten lässt, von da an gehen die Konzepte aber stark getrennte Wege.

Auf SLI(alt) gehe ich später ein SLI (NVIDIA) und CF (ATI) und nun Intels Ansatz laufen entweder auf Treiber- oder API-Ebene ab. In SLI und CF gibt es "zwei" bekannte Modi: Alternate Frame Rendering und Splited Frame Rendering, also AFR und SFR. AFR war dabei vorherrschend, weil es noch am einfachsten umzusetzen ist, da man einfach die Frames 1, 2, 3, 4, 5, ... n auf die GPUs A und B aufteilt und man (eigentlicht) nur die Wiedergabe synchronisieren muss. GPU A berechnet Frame 1, 3, 5, ... n-1 und GPU B 2, 4, ... n. Braucht GPU A länger, muss B warten bis A fertig ist und kann dann erst das Bild ausgeben und mit dem nächsten Frame anfangen. Das funktionierte auch solange gut, bis immer mehr "temporalen" Komponenten bei verschiedenen Effekten genutzt wurden um den Aufwand zu verringern.

SFR wiederum beruht daruf, dass man ein Bild in Teilbilder zerlegt und diese Happen auf GPU A und B berechnen lässt - SLI von 3dFX arbeitet "ähnlich". Der Treiber zerlegt das Bild in Abschnitte und gibt die Abschnitte auf GPU A und B. Das funktioniert bei Spielen der Ära < DX7 sehr gut, ab DX 7 und "Hardware T&L" sowie ab DX 8 mit den Shadern funktioniert das weniger gut. Auch weil der Kommunikationsaufwand teilweise steigt.

Natürlich arbeiten heute fast alle modernen GPUs "intern" mit einem SFR-Ansatz, da NVIDIA seit Maxwell(?) auf ein Tiled-Based-Render umgestellt hat und AMD mit Vega, die Lasten müssen dennoch gleichmäßig verteilt werden, damit alle Teile zur selben Zeit fertig sind und ebenso muss man dafür sorgen, dass man die Kommunikation weitgehend minimiert und auf das nötigste reduziert. AMD hat nun bereits angedeutet, dass sie ihren Renderer um noch eine Stufe erweitern, der eine "Vorberechnung" des Frames vornimmt um Anhand dieser die Aufteilung in Arbeitspakete vorzunehmen und dann auf die weiteren Chiplets zu verteilen. Colindo hat das echt schön aufgearbeitet. Zu mal AMD in RDNA2 bereits den Infinity-Cache eingeführt hat, den man in nächsten Ausbaustufen zusammen mit Memory-Controllern auch eine Schicht einführt, die die Synchronisation deutlich einfacher machen kann.
könnte das Angestrebte von Intel gar nicht so dumm sein. Auch wenn da natürlich Unterschiede bestehen.
Was Intel anstrebt - nach den jetzigen Informationen - ist etwas, was AMD und NVIDIA aus gutem Grund aufgeben haben, weil die Ansätze davon noch aus der Zeit von DX 6 stammten, als es wesentlich einfacher war eine "Multi-GPU"-Lösung bereit zu stellen, weil die eigentlich relevanten Berechnungen für ein Frame von der CPU übernommen wurde und die GPU einfach nur Polygone gerastert und mit Texel sowie Licht- und Schattenwerte versehen hat (stark vereinfacht).

Es gab eine Frima, die ein entsprechendesw Konzept entwickelt haben, dass zwar "Multi-GPU" war, dass aber bereits weiter entwickelt war als das, was NVIDIA und ATi mit SLI und CF abgeliefert haben, da geh ich aber gleich drauf ein.
Das monolithische Design scheint sich ja langsam aber sicher verabschieden zu wollen.
Richtig, es reicht aber nicht, dass man einfach SLI/CF wieder belebt, die ihre Wurzeln in der DX6 und DX7 haben und die zwar bei DX8 und den frühen DX9-Titeln wunderbar noch funktionierten, seit dem aber immer weniger, weil immer mehr "Zwischendaten" aus bestimmten Schritten benötigt werden oder auch die temporalen Komponenten in den Effekten wichtiger werden.
Von daher sind SLI/CF, vom Grundgedanken her, gar nicht soweit weg von einem Multichipdesign auf einem Substrat.
Ja, vom Grundgedanken mag SLI/CF an der Lösung von AMD ran sein, in der Ausführung liegen dazwischen Welten. AFR wird heute nicht mehr wirklich funktionieren, da die temporalen Komponenten immer wichtiger werden.

SFR wiederum benötigt eine hohe Synchronisation in der "entfernten" Form und verteilt die Arbeit nicht gleichmäßig. Weite Wege sind dazu auch Gift. Also muss man weiter denken.
Bei der Voodoo gab's keine ruckler im SLI Verband. Hab das Jahre aktiv genutzt.
Du kannst das nicht mit einander wirklich vergleichen. Voodoo und Voodoo 2 sowie später die Voodoo 5 waren Karten DX6-Karten. Die Berechnung der Geometrie sowie Beleuchtung wurden damals von der CPU durchgeführt. Voodoo, Voodoo 2 und VSA-100 haben wirklich nur das Bild gerastert, die Pixel mit den Texeln versehen und dann die fertigen Beleuchtungswerte und Co noch dazu gerechnet, das war es.

Dazu kommt, dass auf der Voodoo 5 die beiden VSA-100 ihre fertigen Zeilen einfach in den RAMDAC schreiben konnten. Ähnliches bei den Voodoo 2 SLI und der Verbindung, so dass die Daten aus dem einen RAMDAC in den anderen geschoben wurden.

Was 3dFX bei Voodoo 1 - 5 gemacht hat, wäre aber spätestens bei DX7 und nachfolgend nicht mehr so einfach möglich gewesen und deswegen hat sich 3dFX da auch etwas einfallen lassen, dass dem Ansatz von AMD nicht mal so "unähnlich" ist, aber auch komplexer als es SLI und CF sind. Es wäre auch auf ein zweistufiges Konzept hinaus gelaufen.
Spectee der nie erschiene Nachfolger wäre wohl DX 7 kompatibel gewesen.
Specter war sogar DX8 kompatibel und Specter hatte auch nicht mehr viel mit dem klassischen SLI von 3dFX gemeinsam, da 3dFX wegen dem Hardware T&L und eben den Vertex-Shader vor den gleichen Problemen gestanden ist, wie heute AMD, NVIDIA und Co, wenn es darum geht die Last auf die Chips passend zu verteilen.

Da man damals auch in der Hardware zwischen Vertex- und Pixel-Shader unterschieden hat und DX8 noch eine "relativ" stare Struktur in der Renderpipeline hatte, hat 3dFX bei Specter die Chance ergrifen die zwei logisch getrennten GPU-Bestandteile auch in zwei eigene Chips zutrennen.

Sage als Gemoetrie-Prozessor, der die Komponenten aus DX7 für Transform & Lightning sowie die Vertex-Shader, damit die Geometrie berechnet wird. Erst nach diesem Schritt hätten dann die Rampage-Chips mit den ROP, TMU, TAU und Pixelshader über nommen und dann hätte man wieder "zeilenweise" arbeiten könnten.

Der Ansatz wäre auch bei den erste DirectX 9 Versionen gut gegangen, später mit den den ersten Postprocessing-Effekte (und da meine ich nicht Bloom und Co, sondern Effekte) wäre es schon problematischer geworden. Für eine "unified" Shader-Architektur hätte sich 3dFX auch wieder eine andere Lösung überlegen müssen.

3dFX kannte die Probleme und hatte diese auch direkt auf dem Schirm. AMDs Ansatz ist dem "Specter"-Ansatz nicht ganz unähnlich.
 
Oben Unten