Grafikkarten Testberichte VGA

AMD Crossfire vs. Nvidia SLI – Mikroruckler, Kernskalierung und Nutzen | Retro

Was sind Mikroruckler?

Erinnern wir uns kurz zurück, wie die einzelnen aufeinanderfolgenden Frames entstehen. Da die von uns angestrebte Konstanz in der Praxis nicht zu erreichen ist und man auch keine 30 Frames auf Vorrat als Puffer vorab rendern kann, wird im Allgemeinen das nachfolgende Szenario wohl am Ehesten auftreten:

Wir sehen hier den Ausschnitt aus einer Sekunde Metro 2033 und der Arbeit zweier Radeon HD 6850, die uns deswegen als geeignet erschienen, weil wir uns exakt im Fenster um die 30 Frames pro Sekunde bewegen konnten, bei denen die Mikroruckler, wenn sie denn auftreten, angeblich am störendsten empfunden werden. Was uns bei der Betrachtung des Diagramms zuerst auffällt, ist die sehr ungleiche Länge in ms, die für die Erstellung der einzelnen Frames benötigt wird.

Im Diagramm sind alle 30 Teilbilder der dokumentierten Sekunde erfasst. Wir sehen in der Abfolge vor allem die Verzögerung einiger Frames, die als Stocken wahrgenommen werden. Da hilft es dann auch nichts, wenn der der nächste Frame dann alles zeitlich wieder aufholt. Man kann es mit einem stotternden Motor vergleichen. Man kann mit diesem genauso gut z.B. 30 km/h fahren, wie mit einem funktionierenden. Nur das man ordentlich durchgeschüttelt wird.

Wann nimmt man Mikroruckler wahr?

Kurz und knackig: immer. Je niedriger die mittlere Framrate liegt, um so mehr nimmt man durch die Ruckler den tatsächlichen Durchnittswert als gefühlt niedrigere Framerate wahr. So wirkt eine Framerate mit 30 fps mit etwas Pech schnell einmal wie nur eine mit 20-25 fps. Die jeweilgen Unterschiede in den Erstellungszeiten für die Frames nimmt ein geübtes Auge jedoch auch bei Frameraten jenseits der 60 fps noch deutlich wahr. Dies ist auch einer der Gründe, warum wir in den nachfolgenden Tests zur GPU-Skalierung einen Test mit hohen Frameraten vorziehen. Denn es ist geradezu erstaunlich, wie sich auch oberhalb der gern zitierten zitierten Grenze von ca. 40 fps das Grauen breit machen kann, wenn die Renderei einmal aus dem Takt kommt.

 

Kommentar

Lade neue Kommentare

Kleine-Eule73

Mitglied

58 Kommentare 52 Likes

Schön nochmal so einen ausführlichen Test zu lesen. War bei mir komplett in der Versenkung verschwunden weil es ja zu damaliger Zeit schon nicht wirklich funktioniert hat. Hatte mich seiner Zeit auch mal dafür interessiert ob es vielleicht ne Möglichkeit wäre mit einer zweiten GPU den Wechsel auf neuere hinaus zu zögern, aber aus den genannten Gründen hab ich mich dann immer für eine neue GPU entschieden weil mir das alles zu viel Aufwand bei Try and Error war. Sicherlich ist das Heutzutage vielleicht nochmal zu testen wie sich die aktuellen Karten im SLI/Crossfire verhalten würden, aber ich schätze mal das sich daran nicht viel verändern wird weil die Problematik ja dieselbe bleibt. Kann mir auch nicht vorstellen das Intel da etwas besseres zustande bekommt weil die bei der Singlekarte ja schon die Treiber nicht in den Griff bekommen.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Sehr schöner Test. Mittlerweile ist diese Technik ja aufgrund diverser Kostenexplosionen sowie Unfähigkeit der Spieleprogrammierung und technicher Probleme ja völlig ad absurdum geführt. Im Gegenteil, wir haben und werden erleben, das High-End Singlekarten ohne Wasser kaum vernünftig zu kühlen sind. Man stelle sich 2 lüftgekühlte 3090er vor.

Antwort Gefällt mir

DrDre

Veteran

240 Kommentare 93 Likes

Die Idee hatte ich auch mal, 2 günstige Karten koppeln.
Genauso gab es von AMD auch die Option, die integrierte Grafik der APU mit der dedizierten Grafikkarte zu koppeln. Auch das funktionierte nicht immer.

Antwort Gefällt mir

Megaone

Urgestein

1,746 Kommentare 1,645 Likes

Es wird ja definitiv nicht mehr unterstützt. Mein wassergekühltes Setup aus 2 x1080GTX war stellenweise schneller als eine 2080ti, wenn es denn mal vernünftig unterstützt wurde.

Antwort Gefällt mir

Ghoster52

Urgestein

1,408 Kommentare 1,064 Likes

Schöner Test und aktuell würde kaum einer den Preis und den Sinn bzw. Unsinn in Frage stellen.
Bei einer NV GPU habe ich SLI nie probiert oder irgendwo testen können, man las immer von kleinen Problemen.
(für jedes Spiel Profil erstellen, Mikroruckler usw.)
Ich nutze heute noch (manchmal) einen "Retro-PC" für sehr alte Spiele einen Voodoo 2 SLI-Verbund,
3DFx hatte das relativ gut im Griff und war auch vorteilhaft für höhere Auflösungen.

Antwort Gefällt mir

T
Tom42

Mitglied

26 Kommentare 13 Likes

SLI oder CFX waren und sind ungeeignet. Nette Idee... aber bereits damals war die Empfehlung die nächst-schnellere Karte zu kaufen anstelle 2 kleiner und hoffen.
Eine Hardware die von Entwicklern gezielt programmiert werden muss ist in meinen Augen nicht optimal. Nvidia hat damals die Entwickler finanziell unterstützt...

Antwort Gefällt mir

Lagavulin

Veteran

227 Kommentare 182 Likes

Ich mag diese Retro-Artikel sehr. Einige, weil sie mich an die (teilweise gar nicht so guten) „alten Zeiten“ erinnern und einige, wie diesen hier, weil das Thema SLI irgendwie komplett an mir vorbeigegangen war. Und da Intel ja sowas ähnliches planen soll, bekommt der Retro-Artikel mit der Erläuterung der Technik dahinter und den (ungelösten) Problemen sogar wieder Aktualität. Vielen Dank dafür!

Antwort Gefällt mir

F
Furda

Urgestein

663 Kommentare 370 Likes

Interessanter Retro-Artikel. Die Multi-GPU-Zeit habe ich damals komplett übersprungen (zum Glück wie es scheint).

Man vergleiche mal die GPU Preise von damals mit heute. Aber hey, die Löhne wurden seither ja ebenfalls um diesen Faktor erhöht. Wer Zynismus findet kann....

Antwort Gefällt mir

v
vonXanten

Urgestein

803 Kommentare 335 Likes

Hab hier selber noch ein Crossfire Set liegen aus zwei Sapphire HD4870X2. Wenn die Unterstützung da war, gut aber wenn nicht nur viel Lärm (und Wärme) um nichts.
Inzwischen ist aber die (Verlust-)Leistung bei einer Karte schon mehr als ausreichend, das mal zwei oder mehr... Da ist das dann auch ein Heizlüfter mit mindestens 1kW :ROFLMAO: :cool:

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung