Reviews GeForce RTX 2080 Ti - Warum Wasserkühlung wichtiger ist als manuelle Übertaktung und diese herzlich wenig bringt

Status
Nicht offen für weitere Antworten.
Das ist doch ganz einfach
Die Temperatur fällt von links nach rechts ab, wärend der Takt in gleichem Maße von links nach rechts steigt. Dafür gibt es nun einmal Primär- und Sekundärachsen für verschiedene Y-Maßeinheiten und Wertebereiche. Man muss einfach alle Kurven miteinander korrelierend betrachten. Das machen wir seit 15 Jahren so und es hat sich noch nie jemand beschwert. Klar könnte ich jetzt die Temperatur oder die Leistungsaunahme z.B. ohne Kurven einfach auf die X-Achse legen, aber man sieht nie die gegenläufigen Abhängigkeiten. Mein Sohn ist 6 Jahre und kapiert das. :(


Beispiel:

1537973349465.png
 
Zuletzt bearbeitet :
Warum hat man dann die Temperatur nicht einfach auf die x-achse gelegt, damit man die Grafik normal ablesen kann?
 
Dann hätte ich keine Kurve für die Temperatur oder zwei gleich beschriftete Achsen. Findest Du das wirklich besser?
Und was mache ich mit der Leistungsaufnahme? Da ist nichts linear, was man auf eine Achse pressen könnte.
 
Dann hätte ich keine Kurve für die Temperatur oder zwei gleich beschriftete Achsen. Findest Du das wirklich besser?
Und was mache ich mit der Leistungsaufnahme? Da ist nichts linear, was man auf eine Achse pressen könnte.

Die kurve ist eh eine gerade, man kann also unten schauen bei weilcher temperatur welcher takt erzielt wird. mehr ist in dem diagramm doch auch nicht drin? Wo ist die leistungsaufnahme herauszulesen?

EDIT: Klar, beim zweiten Diagramm ist es doof, wobei... x-achse takt, y-achse dafür nötige leistung. Mehr ist ja in diesem Diagramm nicht drin?
 
Wenn wir dort angekommen sind, dass nach 15 Jahren wieder über Diagramme diskutiert wird, bin ich schon zufrieden. :)
Beim zweiten Diagramm wirst Du sehen, dass das mit dem Takt so nicht geht, denn keiner der vier Graphen ist linear.
Und ich wollte beide gleichhalten :)
 
Der Testbericht ist wiedermal super. Besonders freue ich mich auf das, was ganz unten angekündigt wurde:
"Teaser: ich werde nach eintreffen weiterer Wasserkühlungsblöcke auch einmal einen Vergleich der Kühler und der jeweiligen GPU- bzw. Platinentemperaturen machen. Der Block von EKWB ist bereits im Zulauf, andere sind bereits angefragt."
Dort wird sich wohl die Spreu vom Weizen trennen. Ist es sinnvoll, die Wärmebildkamera für Wasserkühlblöcke einzusetzen?
 
Natürlich ist es sinnvoll, sogar noch wichtiger als bei Luftkühlung. Backplates bringen da eh nichts.
 
Okay. Ich war mir nicht im Klaren, inwieweit das Wasser im Kühlkörper die Messungen verfälscht.
 
Ich messe ja "nur" die Platine. Dank meines zentralen Kühlsystems kann ich das Wasser konstant bei 20°C halten, womit die perfekte Vergleichbarkeit gegeben ist, solange ich stets auch dieselbe Karte unter den gleichen Loops teste. Was aber das Wichtigste neben den Temperatursensoren der GPU ist, sind die jeweiligen Hotspots der Karte. Dann sieht man mit der Kamera nämlich wirklich auch anhand der filmbaren Platinenrückseite perfekt, wo die Heatsinks näher zu den Komponenten angeordnet sind oder auch nicht (dickere Pads), ob der Anpressdruck ausreichend ist und ob nicht irgendetwas vergessen oder zumindest vernachlässigt wurde. DAS halte ich nämlich für komplett unique im Internet.
 
Laut....

Kann man aber räumlich auch auslagern. Ich habe nahezu unendlich viele Schläuche verlegt und noch genügend lagernd :)
 
Danke für die Info. Damit spart man dann die Radis, Radilüfter, AGB und Pumpe?
 
Frage an Igor:
ich habe 2 Grafikkarten (GTX 1080 Ti und Titan Xp) mit dem Shunt-Mod versehen. Und das nicht irgendwie, sondern fachlich korrekt, einen Widerstand (an allen 3 Steuerkanälen) parallel angelötet. Nun würde man erwarten, dass die Grafikkarten durch PT nicht mehr limitiert sein sollten. Dem ist es aber nicht so. Ja, der GPU-Takt ist jetzt beim Übertakten fast konstant. PT wird kaum erreicht, dennoch bei sehr hohen Last auf der Grafikkarte greift dieses PT immer noch. Wie schaut es denn bei einer RTX aus? Und wie kann man, wenn überhaupt, dagegen wirken? Du sagst ja, bei 350 Watt ist Schluss. Auch mit einem Shunt-Mod? Dann würde sich ja das Phänomen erklären.
 
Gibt es eigentlich eine konkrete Aussage von nVidia, warum sie bei 350Watt so zu sagen die Bremse gezogen haben? Möglich, dass ich es irgendwo überlesen habe, aber ich hab bisher noch keine Aussage dazu gesehen.
 
Natürlich ist es sinnvoll, sogar noch wichtiger als bei Luftkühlung. Backplates bringen da eh nichts.
Bringt die wirklich nichts? Die von EKWB hat diesmal erhabene Stellen im bereich des VRM und relativ viel Wärmeleitpad dabei. Ich werde vermutlich in dem Bereich wo nvidia auf der vorderseite noch komponenten kühlt (die durch die Wasserkühler nicht abgedeckt werden, leider), auf der Rückseite evtl auch noch pads anbringen. Wobei bei diversen Thermoaufnahmen im Internet dort eigentlich keine Hotspots auszumachen waren. Nur der Speicher wird diesmal irgendwie unverhältnissmäßig warm.
 
Der Shunt-Mod allein bringt nichts, NV lernt auch dazu. Man könnte z.B. den PWM Controller driften lassen, indem man ihn über Specs versorgt. ist aber sehr kippelig. Du brauchst höhere Spannungen, Power allein reicht nicht. Solange die Voltage gekappt ist, nützt die auch das höhere PT nichts.
 
Gibt es eigentlich eine konkrete Aussage von nVidia, warum sie bei 350Watt so zu sagen die Bremse gezogen haben? Möglich, dass ich es irgendwo überlesen habe, aber ich hab bisher noch keine Aussage dazu gesehen.
Ich denke nicht, dass NVidia preisgibt, weshalb das PT derart begrenzt wurde. Falls doch, dürften das nur allgemein bekannte Hinweise zur Haltbarkeit ihrer Produkte sein.
Tatsächlich hat NVidia kaum etwas ausgelassen, das PT zu beschränken. Wenn sogar eine Hardware-Mod. nur marginale Verbesserungen bringt und das VGA-BIOS im Übrigen noch dicht macht, verbleiben Kühlung und bisschen Software-OC. Sollte noch ein Mod.-BIOS rauskommen, wäre insoweit noch ein wenig drin.
 
Zuletzt bearbeitet :
Es ist schade das man nicht mehr aus den Karten raus holen kann. Anderer seits hat der Test zur MSI ja gezeigt, dass man für die letzten 2-3% mehr Leistung unverhältnismäßig viel Strom (+Abwärme) benötigt. Ich kann damit leben und werde wohl einen Boost für die Mentale Grenze von 2.000 Mhz anpeilen und mich damit zufrieden geben ;)

Für alle Extremübertakter und auch für Testlabore ist das natürlich ein richtiger Spaßverderber.

Was Nvidia damit bezweckt kann man wohl nur erahnen. Vielleicht weniger Reklamationen? oder Sie gehen schlicht davon aus das die Leistungssprünge je Gen zukünftig nicht mehr zu hoch ausfallen und Sie wollen nicht das hochgezüchtete Customs zu viel Konkurrenz für die nächste Gen machen. Man sieht ja wozu eine WAKÜ 2080TI in der Lage ist, die RTX 2080 hat wegen der Preisdifferenz zu kämpfen und der Abstand zur 2080TI ist zwar da, aber mit ~ 30-35% geringer wie die letzten paar Generationssprünge. Wenn man Customs (z.B. MSI Trio 1080TI vs 2080Ti) vergleicht dürfte der Abstand wohl noch geringer ausfallen.
 
So schaut's aus. leider.
 
Status
Nicht offen für weitere Antworten.
Oben Unten