Reviews Mit NVIDIA und DLSS 2.0 auf dem Öko-Trip von Turing zu Ampere? Stromsparen gegen den Trend geht nämlich auch!

Sehr interessant, hoffen wir mal das DLSS in vielen Spielen zur Anwendung kommen wird.
Noch interessanter war der 8.9. für mich, dachte das Datum steht auch unter NDA :D
 
Wenn, dann adaptive Sync... Vsync hoppelt auch schon mal runter auf 30. Und genau das macht ja auch der Framelimiter. Hier wird die Frame Time mitgezählt, bei 60 Hz sind das 1/60 sec pro Frame. Ist man Schneller, entstehen Pausen, die man als fast identische Varianz zu meinen Kurven sieht. Es deckt sich quasi komplett. Cut, wenn man drüber ist, laufen lassen, wenn man drunter ist. besser als Vsync allemal.

Hallo Igor, könntest Du vielleicht im nächsten Test Vsync noch mit dazu nehmen und alles auf 60 FPS limitieren? Denn nicht jeder hat ein Monitor der adaptiven Sync unterstützt. Vielen Dank schon mal.
 
Zuletzt bearbeitet :
Das bestärkt mich immer mehr, in meiner Ansicht, dass die anderen Tester (z.B. PCGH usw.) gar keine Tester sind, sondern nur etwas bessere "Probierer" die mit etwas mehr Hardware ausgestattet sind als der normale User, der sich dann die Ergebnisse der "Tester" durchließt.

Dem muss ich leider zustimmen. Der neueste Test von PCGH in der Ausgabe 9 mit den Pumpentest ist mehr als da neben. Hier geht es um den Druckverlust der getesteten Kühler. Z.B. stimmen die 23 mbar beim XPX überhaupt nicht, ebenso das GPU Kühler mit 32 mbar einen angeblich höheren Widerstand hätten. Gestestet hat man mit einen Landefeld der Toleranzklasse 0,5 mit einen viel zu hohen Messbereich von 0 - 2,5 bar. Bedeutet das Messgerät hat eine Abweichung von 2500 * 0,005 +- 12,5 mbar. Somit könnte der XPX 11 mbar aber auch 33 mbar haben. In Wirklichkeit hat dieser ~ 32 mbar.
Also Leute glaubt nicht jeden Test, nur weil jemand was angeblich messen tut. Fragt immer nach den Messmittel und deren Tolaranzen nach. Aber eins muss man denen lassen, es gibt noch viel schlechtere Beispiele wie einem der8auer, der übertrifft alles.
 
Andere Tester, andere Tests. Kein Grund jemanden dafür schlecht zu machen.
 
Je mehr Auswahl, desto besser. Die ergänzen sich untereinander.
 
Ich finde das durchaus sinnvoll und habe bis vor kurzem per Gsync, bis max.120 Hz (165Hz wären noch gegangen) eingestellt und gezockt.

Hier ähnlich.
Mein Fernziel war immer 100 FPS "in schön", da mir die reichen(edit: Schön heißt für mich je nach Game nicht unbedingt "Ultra", sondern auch manches hoch/mittel und Sachen wie Motion Blur aus).
Hatte schon oft Situationen, wo ich im Spiel deutlich mehr als 100 fps hatte, die aber oben halt weggecappt werden, durch den Limiter.
Hab einen 144Hz G-sync Monitor. Und flüssiger als 100 fps brauch ich einfach nicht. :)

Die überflüssige Leistung spar ich mir dann halt ein.
Aber eigentlich schon immer. Auch in den Menüs. Da ballern die FPS ohne Limiter gern einfach mal auf mehrere hundert, oder sogar 4 Stellige Zahlen hoch(kann man dann schön am Spulenfiepen hören ;) ). Mit Limiter dann halt so, wie eingestellt(und natürlich ohne Spulenfiepen).

PS: Vsync hab ich natürlich immer aus. Hab ja g-sync.
(WQHD Monitor)


edit: Mit Ampere könnte ich mein Ziel von 100 festgetackerten FPS schon eher erreichen. :) Das gibt dann so einen schönen Strich beim Frameverlauf. :D
 
Zuletzt bearbeitet :
Dem muss ich leider zustimmen. Der neueste Test von PCGH in der Ausgabe 9 mit den Pumpentest ist mehr als da neben. Hier geht es um den Druckverlust der getesteten Kühler. Z.B. stimmen die 23 mbar beim XPX überhaupt nicht, ebenso das GPU Kühler mit 32 mbar einen angeblich höheren Widerstand hätten. Gestestet hat man mit einen Landefeld der Toleranzklasse 0,5 mit einen viel zu hohen Messbereich von 0 - 2,5 bar. Bedeutet das Messgerät hat eine Abweichung von 2500 * 0,005 +- 12,5 mbar. Somit könnte der XPX 11 mbar aber auch 33 mbar haben. In Wirklichkeit hat dieser ~ 32 mbar.
Also Leute glaubt nicht jeden Test, nur weil jemand was angeblich messen tut. Fragt immer nach den Messmittel und deren Tolaranzen nach. Aber eins muss man denen lassen, es gibt noch viel schlechtere Beispiele wie einem der8auer, der übertrifft alles.

Ist ja immer das Problem mit dem Horizont. Einer der sich selbst kaum informiert, für den sehen viele Tests valide und schlüssig aus. Wenn der eigene Horizont dann den des Testern erreicht, wird man anfangen können zu hinterfragen. Hinzu kommt, dass der Tester ja auch erstmal selbst im Tal der Verzweilung (Dunning-Kruger-Effekt) ankommen muss...
 
Auch wenn ich den Test recht erhellend finde,sehe ich dennoch kein Szenario indem ich die Technik zum einsparen von Energie verwenden würde.
Selbst wenn ich "Öko" wäre käme das nicht in Frage,weil dann hätteich gar nicht solch eine Karte/System.

Bei Notebooks könnte das ein ordentliches Pfund werden sich für eine dedizierte nV-Karte zu entscheiden wenn sie es a) in allen Chips verfügbar machen b) einfacher machen zu implementieren oder sogar nachzupatchen und c) es natürlich ordentlich pushen. Die OCler könnten den gesparten Strom dann wieder in OC investieren zB.
 
Das mit dem FPS-Limiter praktiziere ich schon seit langem um Stromverbrauch der GPU zu senken.
Aber wenn die Grafikeinstellungen im Spiel so hoch gewählt werden bzw. das Spiel durch Zusatzeffekte ( z.B. RTX, HDR, etc. ) so fordernd ist dass die Grafikkarte es sowieso nicht schafft mehr FPS zu berechnen ( über die native Bildwiederholfrequenz des Monitors ), dann verpufft der Nutzen.
Da lobe ich bei AMD die "Radeon-Chill"-Stromsparfunktion. Hier stelle ich als "Mind.-FPS" 40 ein ;)
 
Würde ich nicht sagen! Es gab bei einigen Themen durchaus Ausreißer (selten), aber im Normalfall,
kann man die erzielten Ergebnisse, trotzdem für den eigenen Bedarf verwerten oder als Richtschnur verwenden.
Selten das ein Reviewer das exakt selbe System oder Basis nutzt, da muss man schätzen oder ableiten.
 
Wenn sich jemand mit Technik etwas auskennt oder auch Beruflich aus einer Technik-Sparte kommt, der kennt sehr wohl den Unterschied zwischen Probieren und Testen.
Das Probieren geht auch einher mit dem schätzen und zweifelhaften ableiten, da keine fundierten selbst durchgeführten Messergebnisse vorliegen.
Solches probieren kann jeder von uns hier im Forum selbst durchführen, dass sieht dann so aus:
- Mainboard auspacken und auf den Karton legen.
- CPU (XY) einstecken und Kühler montieren.
- RAM entsprechend der CPU-Spezifikation einstecken.
- Grafikkarte (XY) einstecken.
- Netzteil anschließen
- Diverse Programme laufen im Hintergrund wie z.B. MSI-Afterburner, HWInfo, Core Temp usw., dann wird eine Runde Prime 95 und Cinebench gezockt und anschließend noch einige Spiele, Daten werden dann aus den Tools abgelesen und die Stromaufnahme mit dem Stromzähler an der Steckdose verglichen.
Genau so läuft es dann bei PCGH und Konsorten ab, dann nennen sich diese "Reviewer" (welch schreckliches Wort) auch noch Tester oder Fachjournalisten und treten den Unfug in der breiten Öffentlichkeit breit und möchten sogar noch mit Geld entlohnt werden.

Dieses Vorgehen hat doch nicht das geringste mit einem Test zu tun. Für mich ist ein Test genau dass, was Igor als quasi Oneman-Show macht, nämlich echtes Messen mit den entsprechenden Messinstrumenten (Infrarot-Messung, Messungen mit dem Oszilloskop usw.) und dem Marketing-Läuten auf den Zahn fühlen, ob die getätigten Versprechungen auch den reellen Tatsachen entsprechen.
Wenn das da wie oben beschrieben "Tester" sind, dann ist Igor der einzig wahre und unsterbliche Hardware-Gott!
 
Bei Notebooks könnte das ein ordentliches Pfund werden sich für eine dedizierte nV-Karte zu entscheiden wenn sie es a) in allen Chips verfügbar machen b) einfacher machen zu implementieren oder sogar nachzupatchen und c) es natürlich ordentlich pushen. Die OCler könnten den gesparten Strom dann wieder in OC investieren zB.
Notebooks sind eine andere Welt, ich geb dir da recht. Auf den kleinen Panels sieht man meist auch wenig unterschied zu geringeren Auflösungen. Auf meinem 32Zöller sieht das schon anders aus, da kann ich in FHD Minecraft spielen.
 
@RD500YPVS
Es lohnt sich für gute Techniker und Ingenieure kaum, für Gaming- oder PC Zeitschrifen zu arbeiten, außer in führenden Positionen oder als Miteigentümer. So kommt das eine zum anderen.
 
@RD500YPVS Dir ist schon bewusst, das ich es aus der Warte des Konsumenten geschrieben habe?
 
Auf den kleinen Panels sieht man meist auch wenig unterschied zu geringeren Auflösungen.

Genau hier liegt auch eine Stärke von DLSS, welcher noch kaum Beachtung geschenkt wurde. Hier steht Nvidia noch ganz alleine auf weiter Flur, vor allem auch was die potentielle Langlebigkeit ihrer verbauten mobilen RTX Ableger anbelangt. Der Großteil der Laptops sind leitungsmäßig aufgrund der thermischen Gegebenheiten, welcher der kompakten Bauweise geschuldet ist, limitiert.

Der aus Kostengründen immer seltener eingesetzte MXM Standard ermöglicht nur einem kleinen Prozentsatz der mobilen Geräte eine Grafikkarten-Upgrade, weswegen man in der Regel mit einer direkt auf dem Mainboard verlöteten mobilen GPU, welche somit nicht austauschbar ist, vorlieb nehmen muss.

Nvidias DLSS bietet hier einen entscheidenden Vorteil bzw. Mehrwert. Aktuelle Spiele können ganz normal ohne DLSS in FullHD (1920x1080) mit hohen Details gespielt werden. In zukünftigen Titel kann einfach die Render-Auflösung auf HD (1280x720) halbiert werden, um eine ansprechende Detailstufe sowie flüssige Bildwiederholrate zu ermöglichen. Der Output wird im Anschluss mittels DLSS ohne großartige Qualitätsverluste, wie aktuelle Tests zeigen, auf FullHD hoch skaliert.

Mobile Gamer können somit viel länger in den Genuss von AAA Titeln mit angemessenen Details und Bildwiederholraten auf ihren Endgeräten kommen, was bis dato schon ziemlich ein Novum wäre.

Stehen und fallen wird das ganze natürlich mit der bereiten Implementierung von DLSS seitens den Spielentwicklern oder ob Nvidia wirklich mit DLSS 3.0 eine unabhängige Universallösung anbieten wird.

@Igor Wallossek

Wäre ein follow-up Artikel denkbar wo man DLSS von Seiten eines Laptops Nutzers beleuchtet, mit potentieller Leistungsprognose für zukünftige Titel und wie sich die nicht ganz so ausgefeilte Konkurrenzlösung, Radeon Image Sharpening, von AMD auf so einem kleinen Display bei reduzierter Render-Auflösung schlägt?
 
Zuletzt bearbeitet :
@Dragus - leider ist es so, zu Glück gibt es jedoch Ausnahmen, sonst würden wir hier nicht mitlesen, auch andere Leute haben bereits den Weg hierher gefunden.

@Case39 - mein Beitrag war nicht gegen dich gerichtet, bitte nicht falsch verstehen!
Jedoch verstehe ich deine Aussage nicht so ganz, soll das bedeuten, dass es für den Konsumenten egal ist welch einen Hardwaretest er vorgelegt bekommt?
 
@RD500YPVS
Igorslab ist die einzige deutsche PC-Website, deren Artikel ich regelmäßig lese. Auch dieser Artikel hier bringt neue Erkenntnisse, guter Journalismus.
 
@ Igor

Ich habe eine wichtige Frage: Mir ist nicht bekannt, das Shadow of the Tomb Raider DLSS 2.0 nutzt. Was nicht bedeutet, dass ich mir 100% sicher bin hier richtig zu liegen.

Bist du dir sicher, dass dieses Spiel nicht eher nur DLSS 1.0 nutzt was sich signifikant zur DLSS 2.0 Implementierung unterscheidet?

@ All
Gibt es offizielle Quellen von Nvidia oder der Entwickler des Spiels die bestätigen, dass hier DLSS 2.0 genutzt wird?
 
Zuletzt bearbeitet :
Oben Unten