Grafikkarten Testberichte VGA

AMD Crossfire vs. Nvidia SLI – Mikroruckler, Kernskalierung und Nutzen | Retro

Technik

Testsystem
CPU Intel Core i5 2500K @4,5 GHz (zum Verifizieren der GPU-Skalierung bis 5,0 GHz übertaktet)
Cooling Prolimatech SuperMega + 2 x Noiseblocker Multiframe PWM
Mainboard Gigabyte Z68X UD7

RAM 8 GB Kingston HyperX 1600 „Genesis“

SSD 256GB SAMSUNG MZ5PA256HMDR-01000
PSU Cougar GX 105080 Plus Gold

Gesamt 1050 Watt
Combined Power 3,3V/5V 160 Watt
Combined Power 12V 1008 Watt
Effizienz 93 %
OS Windows 7 x64 Ultimate
Messgeräte
Strom- und
Verbrauchs-
Messung
Energy Logger 4000 (Conrad Electronic)

• Langzeitmessungen
• Monitoring
• Verbrauchsmessungen bis 1,2 KW

Voltcraft SBC-500 (Conrad Electronic)

• Genauere Messungen im Milliwattbereich
• Verbrauchsmessungen bis 500 Watt

Lärmpegel-
Messung
Voltcraft SL-400 (Conrad Electronic)

• Lärmpegelmessungen
• Langzeitaufzeichnungen
• Monitoring

Benchmarkauswahl

Synthetische Tests

Für unsere Tests greifen wir als Erstes auf den 3DMark11 zurück, bei dem wir die weitgehend prozessorunabhängigen Grafiktests bewerten. Die Ergebnisse sind im Hinblick auf die Aktualität des Benchmarks sicher recht aussagekräftig. Auf 3DMark06 und Vantage haben wir hingegen auf Grund des Alters bzw. der vielen Abhängigkeiten von äußeren Umständen verzichtet. Die getesteten DirectX10-Karten sind in den Ergebnissen zu 3DMark11 nicht aufgeführt. Als zweiten synthetischen Test haben wir Sanctuary v. 2.3 von Unigine gewählt und bewusst auf eine DirectX11-Funktionalität verzichtet, da immer noch viele ältere Grafikkarten im Umlauf sind und auch viele aktuelle Spieletitel keine explizite DirectX11-Unterstützung beinhalten.

Spiele

Auch in diesem Bereich setzen wir vorrangig auf Ausgewogenheit, denn einige Vortests haben ergeben, dass vor allem in den älteren DirectX-Modi durchaus Überraschungen lauern können. Die Relevanz ist durchaus gegeben, denn die Spielesammlung der meisten Anwender beinhaltet schließlich nicht nur reine DirectX11-Spiele. Zu Tessellation und PhysX ist genug schrieben worden, wir werden uns hier nicht mit Machbarkeitsstudien beschäftigen, sondern den Spiele-Alltag austesten. Die DirectX10-Karten haben wir unter AvP nicht getestet, bei Metro 2033 nutzen wir die Fallback-Funktion auf DirectX10, jedoch ohne Tessellation.

Syntethic Benchmarks
3DMark11
  • Grahpics Tests 1-4
Unigine Sanctuary v. 2.4
  • Dynamic lights
  • HDR rendering
  • Parallax occlusion mapping
  • Ambient occlusion mapping
  • Translucence
  • Volumetric light and fog
  • Particle systems
  • Postprocessing
  • Interactive experience with fly-through mode
Gaming Benchmarks
DirectX 11 Metro 2033
Aliens vs. Predator
DirectX 10 Call of Juarez
S.T.A.L.K.E.R. Call of Pripyat
DirectX 9 Mafia II

Leistungsklassen: Gamer- und Enthusiast

Wir testen absichtlich erst ab untere Mittelklasse, die Einsteiger und Office-Karten bekommen demnächst eigene Charts, damit der Praxisbezug nicht ganz verloren geht. Es macht einfach keinen Sinn, Edel-Shooter mit 4 fps oder weniger zu bestaunen. Wir haben uns nach längerem Überlegen auf zwei Leistungsklassen festgelegt, die auch die Anschaffungskosten berücksichtigen und widerspiegeln. Diesbezüglich wird auch der Bereich Gamer mit einer Auflösung von 1680 x 1050 Pixeln und der Bereich Enthusiast mit 1920 x 1080 Pixeln gebencht. Nach interner Diskussion und Beratung mit einigen Lesern haben wir uns entschlossen, sowohl auf die übergroßen Auflösungen, als auch auf die kleineren zu verzichten, da dies die angestrebte Zielgruppe noch nicht bzw. nicht mehr betrifft. Auch die Auswahl der Settings wurde dieser Gruppeneinteilung untergeordnet.

Leistungsindex und Berechnungsgrundlagen

Anstelle kumulierter Frameraten zur Gesamteinordnung haben wir erstmals insgesamt 2 neue Leistungsindizes geschaffen, den Gamer- und den Enthusiast-Index. Jede getestete Karte kann demnach leistungsmäßig gleichzeitig im Gamer oder Enthusiast-Bereich bewertet werden. So kann eine im Enthusiast-Bereich zu schwache Karte im Gaming-Bereich durchaus noch gut brauchbar sein. Kumulierte Raten sagen nämlich nichts über die Leistungsfähigkeit unter bestimmten Voraussetzungen aus, so dass wir dies durch die transparenteren Index-Varianten ersetzen.

Wie kommen wir nun zu den Werten? Dazu haben wir je einen typischen Vertreter jedes Herstellers der guten Mittelklasse (AMD Radeon HD 6870, Nvidia Geforce GTX 470) und der Oberklasse (AMD Radeon HD 6950, Nvidia Geforce GTX 570) hergenommen und deren Verhalten in insgesamt 15 getesteten Spielen bewertet, gruppenweise ins Verhältnis gesetzt und so je eine fiktive „Raforce Gedeon“ geschaffen. Diese „Karten“ haben wir in jedem der Benchmarktests zum Gradmesser der jeweiligen Qualitätseinstellungen genommen und die erzielbaren Frameraten als 100%-Marke für den Gamer- bzw. Enthusiast-Index dieses einen Benchmarks gesetzt. Die Summe aller Prozentzahlen innerhalb der beiden Bereiche, geteilt durch die Anzahl der Tests, ergibt dann jeweils den Gamer- und Enthusiast-Index für jede einzelne Karte. Da die „Raforce Gedeon“ herstellerneutral daherkommt, werden Vorteile bestimmter Karten bereits im Voraus weitgehend ausgeschlossen. Das Ganze mag kompliziert klingen, ist es aber nicht. Wenn man sich auf praxisübliche Spielesettings beschränkt, dann sind die Indizes mit Sicherheit ein guter Anhaltspunkt für das Preis-/Leistungsverhältnis.

Verbrauchsmessung

Nach einigen Versuchen wollen wir diesmal einen abweichenden Weg beschreiten, um Schwankungen auszuschließen. Wir haben unsere CPU mit Prime95 zu 100% ausgelastet, lassen diese Threads aber im Hintergrund mit niedriger Priorität laufen. Dann haben wir den Verbrauch einer kleineren Karte, deren Werte uns sehr genau bekannt sind, einmal im Idle und einmal mit Furmark gemessen. Zieht man von den gemessenen beiden Gesamverbrauchswerten jeweils den Idle- bzw. den Lastverbrauchswert ab, erhält man als Differenz jeweils den Gesamtverbrauch des Systems unter Last ohne Grafikkarte. Bei uns stimmten beide Werte bis aufs Watt überein, so dass wir von allen weiteren Messwerten nur 131 Watt abzuziehen brauchen, um auf den Verbrauch der Karte zu schließen. Natürlich nehmen wir zu Kontrolle noch die tatsächlichen Werte her und überprüfen die Ergebnisse auf mögliche Ausreißer.

 

Kommentar

Lade neue Kommentare

Kleine-Eule73

Mitglied

57 Kommentare 52 Likes

Schön nochmal so einen ausführlichen Test zu lesen. War bei mir komplett in der Versenkung verschwunden weil es ja zu damaliger Zeit schon nicht wirklich funktioniert hat. Hatte mich seiner Zeit auch mal dafür interessiert ob es vielleicht ne Möglichkeit wäre mit einer zweiten GPU den Wechsel auf neuere hinaus zu zögern, aber aus den genannten Gründen hab ich mich dann immer für eine neue GPU entschieden weil mir das alles zu viel Aufwand bei Try and Error war. Sicherlich ist das Heutzutage vielleicht nochmal zu testen wie sich die aktuellen Karten im SLI/Crossfire verhalten würden, aber ich schätze mal das sich daran nicht viel verändern wird weil die Problematik ja dieselbe bleibt. Kann mir auch nicht vorstellen das Intel da etwas besseres zustande bekommt weil die bei der Singlekarte ja schon die Treiber nicht in den Griff bekommen.

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Sehr schöner Test. Mittlerweile ist diese Technik ja aufgrund diverser Kostenexplosionen sowie Unfähigkeit der Spieleprogrammierung und technicher Probleme ja völlig ad absurdum geführt. Im Gegenteil, wir haben und werden erleben, das High-End Singlekarten ohne Wasser kaum vernünftig zu kühlen sind. Man stelle sich 2 lüftgekühlte 3090er vor.

Antwort Gefällt mir

DrDre

Veteran

237 Kommentare 92 Likes

Die Idee hatte ich auch mal, 2 günstige Karten koppeln.
Genauso gab es von AMD auch die Option, die integrierte Grafik der APU mit der dedizierten Grafikkarte zu koppeln. Auch das funktionierte nicht immer.

Antwort Gefällt mir

Megaone

Urgestein

1,703 Kommentare 1,600 Likes

Es wird ja definitiv nicht mehr unterstützt. Mein wassergekühltes Setup aus 2 x1080GTX war stellenweise schneller als eine 2080ti, wenn es denn mal vernünftig unterstützt wurde.

Antwort Gefällt mir

Ghoster52

Urgestein

1,365 Kommentare 1,029 Likes

Schöner Test und aktuell würde kaum einer den Preis und den Sinn bzw. Unsinn in Frage stellen.
Bei einer NV GPU habe ich SLI nie probiert oder irgendwo testen können, man las immer von kleinen Problemen.
(für jedes Spiel Profil erstellen, Mikroruckler usw.)
Ich nutze heute noch (manchmal) einen "Retro-PC" für sehr alte Spiele einen Voodoo 2 SLI-Verbund,
3DFx hatte das relativ gut im Griff und war auch vorteilhaft für höhere Auflösungen.

Antwort Gefällt mir

T
Tom42

Mitglied

25 Kommentare 13 Likes

SLI oder CFX waren und sind ungeeignet. Nette Idee... aber bereits damals war die Empfehlung die nächst-schnellere Karte zu kaufen anstelle 2 kleiner und hoffen.
Eine Hardware die von Entwicklern gezielt programmiert werden muss ist in meinen Augen nicht optimal. Nvidia hat damals die Entwickler finanziell unterstützt...

Antwort Gefällt mir

Lagavulin

Veteran

224 Kommentare 180 Likes

Ich mag diese Retro-Artikel sehr. Einige, weil sie mich an die (teilweise gar nicht so guten) „alten Zeiten“ erinnern und einige, wie diesen hier, weil das Thema SLI irgendwie komplett an mir vorbeigegangen war. Und da Intel ja sowas ähnliches planen soll, bekommt der Retro-Artikel mit der Erläuterung der Technik dahinter und den (ungelösten) Problemen sogar wieder Aktualität. Vielen Dank dafür!

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 370 Likes

Interessanter Retro-Artikel. Die Multi-GPU-Zeit habe ich damals komplett übersprungen (zum Glück wie es scheint).

Man vergleiche mal die GPU Preise von damals mit heute. Aber hey, die Löhne wurden seither ja ebenfalls um diesen Faktor erhöht. Wer Zynismus findet kann....

Antwort Gefällt mir

v
vonXanten

Urgestein

801 Kommentare 335 Likes

Hab hier selber noch ein Crossfire Set liegen aus zwei Sapphire HD4870X2. Wenn die Unterstützung da war, gut aber wenn nicht nur viel Lärm (und Wärme) um nichts.
Inzwischen ist aber die (Verlust-)Leistung bei einer Karte schon mehr als ausreichend, das mal zwei oder mehr... Da ist das dann auch ein Heizlüfter mit mindestens 1kW :ROFLMAO: :cool:

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung