Grafikkarten Testberichte VGA

AMD Crossfire vs. Nvidia SLI – Mikroruckler, Kernskalierung und Nutzen | Retro

Leistungsindex

Zwischenfazit

Wenn man über den gesamten Testverlauf zurückblickt und auch die einführenden Seiten und die geschilderte Problematik betrachtet, verliert so manche Position in dieser Tabelle an nutzbarem Wert. Während sich die Triple- und Quad-Crossfire-Varianten die Plätze durch Leistung und eingermaßen ruckelfreie Varianten erkämpft haben, stellt sich vor allem das Crossfire mit nur 2 GPUs oft genug als Blendwerk heraus. Doch wir wollen dem abschließenden Fazit natürlich nicht vorgreifen.

Leistungsaufnahme („Stromverbrauch“)

Es war schon immer etwas Besonderes, möglichst die höchste Framerate zu erzielen. Koste es was es wolle. Diesen Schluss muss man auch bei unserem Test ziehen, denn von Effizienz ist nichts zu spüren. Zumals fast immer die Multi-GPU-Lösungen in der Summe mehr verbrauchen.

Wenn man so etwas wie den leistungsstärksten „Stromsparer“ küren wollte, so käme man wiederum um die Lösung mit den drei Barts-Kernen nicht herum. Über 100 Watt weniger als zwei Geforce GTX 570 und trotzdem mehr Leistung sind immerhin ein Ausrufezeichen. Auch wenn nur ein sehr dünnes. Über den Verbrauch der zwei GTX 580 muss man nichts mehr schreiben. Die Tabelle spricht für sich.

 

Kommentar

Lade neue Kommentare

Kleine-Eule73

Mitglied

57 Kommentare 52 Likes

Schön nochmal so einen ausführlichen Test zu lesen. War bei mir komplett in der Versenkung verschwunden weil es ja zu damaliger Zeit schon nicht wirklich funktioniert hat. Hatte mich seiner Zeit auch mal dafür interessiert ob es vielleicht ne Möglichkeit wäre mit einer zweiten GPU den Wechsel auf neuere hinaus zu zögern, aber aus den genannten Gründen hab ich mich dann immer für eine neue GPU entschieden weil mir das alles zu viel Aufwand bei Try and Error war. Sicherlich ist das Heutzutage vielleicht nochmal zu testen wie sich die aktuellen Karten im SLI/Crossfire verhalten würden, aber ich schätze mal das sich daran nicht viel verändern wird weil die Problematik ja dieselbe bleibt. Kann mir auch nicht vorstellen das Intel da etwas besseres zustande bekommt weil die bei der Singlekarte ja schon die Treiber nicht in den Griff bekommen.

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Sehr schöner Test. Mittlerweile ist diese Technik ja aufgrund diverser Kostenexplosionen sowie Unfähigkeit der Spieleprogrammierung und technicher Probleme ja völlig ad absurdum geführt. Im Gegenteil, wir haben und werden erleben, das High-End Singlekarten ohne Wasser kaum vernünftig zu kühlen sind. Man stelle sich 2 lüftgekühlte 3090er vor.

Antwort Gefällt mir

DrDre

Veteran

237 Kommentare 92 Likes

Die Idee hatte ich auch mal, 2 günstige Karten koppeln.
Genauso gab es von AMD auch die Option, die integrierte Grafik der APU mit der dedizierten Grafikkarte zu koppeln. Auch das funktionierte nicht immer.

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Es wird ja definitiv nicht mehr unterstützt. Mein wassergekühltes Setup aus 2 x1080GTX war stellenweise schneller als eine 2080ti, wenn es denn mal vernünftig unterstützt wurde.

Antwort Gefällt mir

Ghoster52

Urgestein

1,365 Kommentare 1,029 Likes

Schöner Test und aktuell würde kaum einer den Preis und den Sinn bzw. Unsinn in Frage stellen.
Bei einer NV GPU habe ich SLI nie probiert oder irgendwo testen können, man las immer von kleinen Problemen.
(für jedes Spiel Profil erstellen, Mikroruckler usw.)
Ich nutze heute noch (manchmal) einen "Retro-PC" für sehr alte Spiele einen Voodoo 2 SLI-Verbund,
3DFx hatte das relativ gut im Griff und war auch vorteilhaft für höhere Auflösungen.

Antwort Gefällt mir

T
Tom42

Mitglied

25 Kommentare 13 Likes

SLI oder CFX waren und sind ungeeignet. Nette Idee... aber bereits damals war die Empfehlung die nächst-schnellere Karte zu kaufen anstelle 2 kleiner und hoffen.
Eine Hardware die von Entwicklern gezielt programmiert werden muss ist in meinen Augen nicht optimal. Nvidia hat damals die Entwickler finanziell unterstützt...

Antwort Gefällt mir

Lagavulin

Veteran

224 Kommentare 180 Likes

Ich mag diese Retro-Artikel sehr. Einige, weil sie mich an die (teilweise gar nicht so guten) „alten Zeiten“ erinnern und einige, wie diesen hier, weil das Thema SLI irgendwie komplett an mir vorbeigegangen war. Und da Intel ja sowas ähnliches planen soll, bekommt der Retro-Artikel mit der Erläuterung der Technik dahinter und den (ungelösten) Problemen sogar wieder Aktualität. Vielen Dank dafür!

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 370 Likes

Interessanter Retro-Artikel. Die Multi-GPU-Zeit habe ich damals komplett übersprungen (zum Glück wie es scheint).

Man vergleiche mal die GPU Preise von damals mit heute. Aber hey, die Löhne wurden seither ja ebenfalls um diesen Faktor erhöht. Wer Zynismus findet kann....

Antwort Gefällt mir

v
vonXanten

Urgestein

801 Kommentare 335 Likes

Hab hier selber noch ein Crossfire Set liegen aus zwei Sapphire HD4870X2. Wenn die Unterstützung da war, gut aber wenn nicht nur viel Lärm (und Wärme) um nichts.
Inzwischen ist aber die (Verlust-)Leistung bei einer Karte schon mehr als ausreichend, das mal zwei oder mehr... Da ist das dann auch ein Heizlüfter mit mindestens 1kW :ROFLMAO: :cool:

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung