Reviews Mit NVIDIA und DLSS 2.0 auf dem Öko-Trip von Turing zu Ampere? Stromsparen gegen den Trend geht nämlich auch!

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.177
Bewertungspunkte
18.760
Punkte
114
Alter
59
Standort
Labor
Der heutige Artikel ist eigentlich eher ein Zufallsprodukt, denn bei den Vorbereitungen für den Ampere-Launch habe ich ja nicht nur das Testsystem erneuert und gravierend erweitert, sondern auch die ganzen Metriken und Grafiken für die Auswertung. Genau hier setzt dann auch der ganze Test an, denn die Tiefe der Auswertung war in dieser Form bisher nicht möglich und es hat wirklich ewig gedauert, bis auch die Auswertungssoftware für meinen Messplatz endlich fertig wurde.

Kann man mit DLSS wirklich Energie sparen?

Genau die Frage hatte ich mir gestellt...



>>> Hier den ganzen Artikel lesen <<<
 
Danke für den Test. Ohne den Limiter zu berücksichtigen, dachte ich mir schon, das mit DLSS Energie gespart werden könnte.
 
Schön auch zu sehen, dass die CPU hier auch etwas "leidet" :D
 
Auch wenn ich den Test recht erhellend finde,sehe ich dennoch kein Szenario indem ich die Technik zum einsparen von Energie verwenden würde.
Selbst wenn ich "Öko" wäre käme das nicht in Frage,weil dann hätteich gar nicht solch eine Karte/System.
 
Man kann, je nach Spiel, einstellen, was man gern hätte. Die RTX 2080 Ti ist mit DLSS und Limiter immer noch so schnell wie eine 2080 Ti ohne Limiter mit 80 Watt weniger. Das schaffte gerade mal eine 2080 Super mit DLSS und dann höherer Leistungsaufnahme :)

Ich bin nur ein Halb-Öko, aber da mein UHD-Monitor eh nur 60 Hz kann, limitiere ich alles auf 60 FPS. Also ich HÖRE auch die eingesparten 80 Watt :p
 
Ich finde das durchaus sinnvoll und habe bis vor kurzem per Gsync, bis max.120 Hz (165Hz wären noch gegangen) eingestellt und gezockt.
 
Und hier sind wir erst bei DLSS 2.0. Sollte V3.0 oder Nachfolger tatsächlich mal so weit sein, die Technik für jedes Spiel ohne dezidierte Implementierung Nutzbar zu machen, kann sich deren Marketing schonmal mit Seramis zusammen tun :D

Aber im Ernst: Danke für den Test, wird meine künftigen Kaufentscheidungen mit berücksichtigen und ich hoffe, auch AMD wird im Bereich der KI-gestützten Bildberechnung was vergleichbares bringen können.
 
@Igor Wallossek: wie wären denn wohl die Ergebnisse beim Energieverbrauch wenn Du einfach VSync aktivierst und die Karte in den beiden Szenarien mit/ohne DLSS so auf 60Hz festgenagelt wäre? Oder mal der Vergleich Limiter vs. VSync bei 60Hz?
 
Wenn, dann adaptive Sync... Vsync hoppelt auch schon mal runter auf 30. Und genau das macht ja auch der Framelimiter. Hier wird die Frame Time mitgezählt, bei 60 Hz sind das 1/60 sec pro Frame. Ist man Schneller, entstehen Pausen, die man als fast identische Varianz zu meinen Kurven sieht. Es deckt sich quasi komplett. Cut, wenn man drüber ist, laufen lassen, wenn man drunter ist. besser als Vsync allemal.
 
War zu erwarten, allerdings ist das Ausmaß dann doch ziemlich heftig.

Was passiert eigentlich, wenn man den Limiter nicht auf den avg setzt, sondern evtl 5 bis 10% unterhalb der non limited Leistung? Spart man dann eventuell nur die Hälfte an Strom und Lärm, hat aber nicht so das Problem mit den teilweise harschen cuts der frame times?
 
Je geringer die Bremsvorgänge, umso smoother das Ganze :)
 
Ja, das würde mich auch interessieren: Skaliert die Einsparung mit der Einstellung des Framelimits? Also wenn ich 60/75/90 FPS einstelle?
Ist für mich auch interessant, denn ich hab ja nur einen 75Hz WQHD-Monitor und könnte das mit 2080S+DLSS mal checken. Allerdings fehlt mir die Möglichkeit, Spannung und Verbrauch zu messen ;)
 
Wenn, dann adaptive Sync... Vsync hoppelt auch schon mal runter auf 30. Und genau das macht ja auch der Framelimiter. Hier wird die Frame Time mitgezählt, bei 60 Hz sind das 1/60 sec pro Frame. Ist man Schneller, entstehen Pausen, die man als fast identische Varianz zu meinen Kurven sieht. Es deckt sich quasi komplett. Cut, wenn man drüber ist, laufen lassen, wenn man drunter ist. besser als Vsync allemal.

D.h. also, der Limiter is NVidias Version von adapt. Vsync?
 
Ja, das kommt fast hin :)
 
Nein. G-Sync ist Nvidias Version von adaptive VSync. Mit dem Limiter kannst Du quasi „unterhalb“ der nativen refreshrate begrenzen.
 
Sehr interessanter Test. Ist besonders für Notebooks interessant, da kann man schon mehr Akkulaufzeit während des Gamings rausholen!
 
Nein. G-Sync ist Nvidias Version von adaptive VSync. Mit dem Limiter kannst Du quasi „unterhalb“ der nativen refreshrate begrenzen.
Der Ausgleich über den Treiber ist kein knallharter Cutter und irgendwie kommt im direkten Vergleich zwischen der Treiber-Lösung und G-Sync fast das Gleiche raus, nur dass der Monitor beim Display nicht "synct".
 
@Igor Wallossek Da hast Du mich jetzt irgendwie verloren: der "Monitor synct nicht beim Display"?
 
Also Igor, du bist ja schon so ein richtiger Fuchs. Solch einen Vergleich für DLSS hatte ich zuvor noch bei keinem anderen Tester/Redaktion bisher gelesen. Das bestärkt mich immer mehr, in meiner Ansicht, dass die anderen Tester (z.B. PCGH usw.) gar keine Tester sind, sondern nur etwas bessere "Probierer" die mit etwas mehr Hardware ausgestattet sind als der normale User, der sich dann die Ergebnisse der "Tester" durchließt.
Du könntest im Übrigen, Jensen einen kleinen Seitenhieb verpassen, damit er etwas von seinen vielen $ an dich abtritt, immerhin könnte er deinen Test zu Gunsten seines Marketinges nutzen, was solche Stromsparmechanismen seiner Grafikkarten bei gleich bleibender FPS Zahl betrifft.:sneaky:(y)
 
Man kann, je nach Spiel, einstellen, was man gern hätte. Die RTX 2080 Ti ist mit DLSS und Limiter immer noch so schnell wie eine 2080 Ti ohne Limiter mit 80 Watt weniger. Das schaffte gerade mal eine 2080 Super mit DLSS und dann höherer Leistungsaufnahme :)

Ich bin nur ein Halb-Öko, aber da mein UHD-Monitor eh nur 60 Hz kann, limitiere ich alles auf 60 FPS. Also ich HÖRE auch die eingesparten 80 Watt :p
Mein Vorschlag wäre noch mal mit vsync 30 fps das durchzuführen. Von DLSS ich bin sehr negativ "begeistert" Es ist nur ein mal die Performance Krücke...
 
Oben Unten