Was ist drin? Heatsink, Heatpipe und Kühlfinnen des Rajintek Morpheus in der Materialanalyse | Ausgabe 3

Redaktion

Artikel-Butler
Mitarbeiter
Mitglied seit
Aug 6, 2018
Beiträge
1.822
Bewertungspunkte
8.836
Punkte
1
Standort
Redaktion
Da mich immer wieder Anfragen erreichen, aus welchem Material was genau besteht und es mir mittlerweile auch mit überschaubarem Aufwand möglich ist, solche Fragen zu beantworten, starte ich heute rückwirkend einfach mal eine neue Artikelreihe, die sich beliebig fortsetzen lässt. Egal, ob nun Kühler, Heatspreader von CPUs, diverse Pasten und Pads, Kabel und Stecker, Gehäuseteile (read full article...)
 
Kannst Du das mal verlinken? Ist schon lange eine vage Vermutung.
Nvidia DLSS 3.0 nur für RTX 4000: Deshalb bleiben Besitzer älterer ... https://www.gamestar.de/artikel/dlss3-nur-fuer-rtx-4000-nvidia-gruende,3384788.html

Natürlich ist es so.
Nvidia ist eine geldgierige AG.🤑 <-- Nvidia
Aber die sind trotzdem anders als AMD, Beispiel G-Sync, Freesync ist dagegen opensource
(frei für alle).
Es kann schon sein das es auf bzw mit Turing (RTX2000) nicht so gut läuft, aber nicht bei Ampere (RTX3000).

Es kann aber auch sein das DLSS 3.0 auf Turing und Ampere problemlos läuft!
Und das es nur eine billige Ausrede ist, um den Konsumenten noch mehr Geld aus ihren Taschen zu ziehen.

Ändern können wir eh nichts daran, wenn Nvidia es nicht frei gibt.
Es soll aber auch DLSS 3.0 Mods geben für RTX 3000, es sah aber sehr kompliziert aus.

Aber zum Glück gibt es ja noch AMD die geben FSR 3.0 für alle Karten und alle Konsolen frei.
FSR 3.0 ist eigentlich technisch gesehen ähnlich wie DLSS 3.0.
 
Zuletzt bearbeitet :
Aber zum Glück gibt es ja noch AMD die geben FSR 3.0 für alle Karten und alle Konsolen frei.
FSR 3.0 ist eigentlich technisch gesehen ähnlich wie DLSS 3.0.
Technisch gesehen kann man es bisher gar nicht vergleichen. Das eine gibts, das andere nicht (aber hoffentlich bald). Und der Ansatz ist anders.

Nur wird es sich erst einmal beweisen müssen. Dass sich AMD dabei ausgerechnet auf Cyberpunk eingelassen hat, zeugt entweder vom extremen Selbstbewustsein oder einem puren Sado-Masochismus. :D
 
Nvidia DLSS 3.0 nur für RTX 4000: Deshalb bleiben Besitzer älterer ... https://www.gamestar.de/artikel/dlss3-nur-fuer-rtx-4000-nvidia-gruende,3384788.html

Natütlich ist es so.
Nvidia ist eine geldgierige AG.🤑 <-- Nvidia
Aber die sind trotzdem anders als AMD, Beispiel G-Sync, Freesync ist dagegen opensource
(frei für alle).
Es kann schon sein das es auf bzw mit Turing (RTX2000) nicht so gut läuft, aber nicht bei Ampere (RTX3000).

Es kann aber auch sein das DLSS 3.0 auf Turing und Ampere problemlos läuft!
Und das es nur eine billige Ausrede ist, um den Konsumenten noch mehr Geld aus ihren Taschen zu ziehen.

Ändern können wir eh nichts daran, wenn Nvidia es nicht frei gibt.
Es soll aber auch DLSS 3.0 Mods geben für RTX 3000, es sah aber sehr kompliziert aus.

Aber zum Glück gibt es ja noch AMD die geben FSR 3.0 für alle Karten und alle Konsolen frei.
FSR 3.0 ist eigentlich technisch gesehen ähnlich wie DLSS 3.0.
Danke. Mit der Aussage, dass es für ältere GPUs schlecht aussehen würde, redet sich der Nvidia-Heini dann raus ohne das irgendwie zu belegen. Man hätte also schon können, wollte aber nicht nach dem Motto "Wir wissen was gut für euch ist. Glaubt es uns einfach!" Das ein Aufschrei kommen würde war klar und dann hätte man die User entscheiden lassen können, wie im Artikel erläutert, per Treiberoption. Stinkt also gewaltig mal wieder. Da FSR 3 auf allen Karten laufen soll und die Technik dahinter nicht wesentlich abweichen sollte von FG bekräftigt diese Annahme.
 
Technisch gesehen kann man es bisher gar nicht vergleichen. Das eine gibts, das andere nicht (aber hoffentlich bald). Und der Ansatz ist anders.

Nur wird es sich erst einmal beweisen müssen. Dass sich AMD dabei ausgerechnet auf Cyberpunk eingelassen hat, zeugt entweder vom extremen Selbstbewustsein oder einem puren Sado-Masochismus. :D
Dadrauf ein Stoßgebet!
 
Technisch gesehen kann man es bisher gar nicht vergleichen. Das eine gibts, das andere nicht (aber hoffentlich bald). Und der Ansatz ist anders.

Nur wird es sich erst einmal beweisen müssen. Dass sich AMD dabei ausgerechnet auf Cyberpunk eingelassen hat, zeugt entweder vom extremen Selbstbewustsein oder einem puren Sado-Masochismus. :D
Wenn es soweit ist, und FSR 3.0 endlich für alle anderen Grafikkarten verfügbar ist, dann wirst Du es auch hoffentlich ausführlich testen.
Ich hoffe du hast noch eine ganze gut gemichte Kiste mit alten Grafikkarten da.

Wenn es aber wirklich sehr gut funktioniert, wirst Du baff sein! 😁

Ich hoffe es natürlich!

Immerhin behauptete es der AMD Steve, das es gut funktionieren wird.

Wenn es genauso kommt feiere ich aber!
Wie er hier! 😁

 
Zuletzt bearbeitet :
Danke. Mit der Aussage, dass es für ältere GPUs schlecht aussehen würde, redet sich der Nvidia-Heini dann raus ohne das irgendwie zu belegen. Man hätte also schon können, wollte aber nicht nach dem Motto "Wir wissen was gut für euch ist. Glaubt es uns einfach!" Das ein Aufschrei kommen würde war klar und dann hätte man die User entscheiden lassen können, wie im Artikel erläutert, per Treiberoption. Stinkt also gewaltig mal wieder. Da FSR 3 auf allen Karten laufen soll und die Technik dahinter nicht wesentlich abweichen sollte von FG bekräftigt diese Annahme.
Ganz genau 🤣😆
 
Danke. Mit der Aussage, dass es für ältere GPUs schlecht aussehen würde, redet sich der Nvidia-Heini dann raus ohne das irgendwie zu belegen. Man hätte also schon können, wollte aber nicht nach dem Motto "Wir wissen was gut für euch ist. Glaubt es uns einfach!" Das ein Aufschrei kommen würde war klar und dann hätte man die User entscheiden lassen können, wie im Artikel erläutert, per Treiberoption. Stinkt also gewaltig mal wieder. Da FSR 3 auf allen Karten laufen soll und die Technik dahinter nicht wesentlich abweichen sollte von FG bekräftigt diese Annahme.
Ganz genau 🤣
Wir planen ein aufweniges Special mit Cyberpunk und DLSS vs. FSR3. Ich hoffe, es wird interessant :)
Na auf jeden Fall wird definitv FSR 3.0, DLSS 2.0 platt machen.
Da bin ich mir ziemlich sicher.
Dann fehlen mir nur noch die Popcorn dazu.
 
puren Sado-Masochismus.
Wie bei Starfield, Pepsi und Cola, präzise geplant...

Mich stören nur die extrem lauten Lüfter bei der Karte.
Frag doch mal Marc @al_bundy von Liquid Extasy, ob er Dir eine aufschlussreiche leise watercooling solution für Deine 3090ti kreieren kann und dann werden wir alle mit Dir sehr gespannt sein, wie nahe Du damit auf eine 4080 aufschließen kannst.

 
Auch mit wakü ist die 30er nicht besonders gut zu übertakten.
 
Wie bei Starfield, Pepsi und Cola, präzise geplant...


Frag doch mal Marc @al_bundy von Liquid Extasy, ob er Dir eine aufschlussreiche leise watercooling solution für Deine 3090ti kreieren kann und dann werden wir alle mit Dir sehr gespannt sein, wie nahe Du damit auf eine 4080 aufschließen kannst.

Willst Du mich rollen oder wie?
Von RTX 4090 sagte ich nie etwas! 🙄
Eine Wakü habe ich zwar da, aber es ist sinnlos, jetzt noch ein Wakü Gehäuse für diese Karte zu kaufen, weil ich diese Karte nur maximal 2 Jahre behalten werde.
Wakü wurde schon getestet es bringt nicht mehr als 200 MHZ +.

An die RTX 4090 kommt nichts herran bis jetzt.
Noch nicht einmal Steve Burke (Gamers Nexus) & Roman Hartung (Der 8auer) würden mit der Ampere Karte an die RTX 4090 mit Stickstoff ran kommen!
Sogar mit 2x RTX 3090ti im SLI Verbund, würden die Ampere Karten kein Land mehr sehen.
Zumal SLI tot ist.

Eine RTX 4080 ist natürlich besser und stärker als die RTX 3090ti.
Aber 16 GB VRAM sind mir einfach zu wenig, und ich müßte dafür aber auch
das doppelte hinblättern.
Die RTX 4080 ist einfach zu teuer für ihre Leistung.
 
Zuletzt bearbeitet :
Von RTX 4090 sagte ich nie etwas
Ich erwähnte die 4080 im Zusammenhang mit Deiner Zielvorstellung diese ursprünglich schlagen zu wollen,
mein Ziel ist es eine RTX 4080 oder RX 7900XTX zu schlagen.

was sich dann in ein:
nur etwas in die Richtung aufschließen
Deinerseits relativierte.

Vermutlich handelt es sich entweder um visuelle Wahrnehmungsstörungen Deinerseits, oder einen freudschen Verleser.
Wenn Du ein von mir geschriebenes 4080 als 4090 lesen tust.
Datenübertragungsstörungen von Sehnerv und Gehirn, als wie medikamentöse Nebenwirkungen können so etas auch verkausulieren.
Falls so etwas häufiger auftreten sollte, kann evtl. auch ein Augenarzt zu Rate gezogen werden.
 
Ich erwähnte die 4080 im Zusammenhang mit Deiner Zielvorstellung diese ursprünglich schlagen zu wollen,


was sich dann in ein:

Deinerseits relativierte.

Vermutlich handelt es sich entweder um visuelle Wahrnehmungsstörungen Deinerseits, oder einen freudschen Verleser.
Wenn Du ein von mir geschriebenes 4080 als 4090 lesen tust.
Datenübertragungsstörungen von Sehnerv und Gehirn, als wie medikamentöse Nebenwirkungen können so etas auch verkausulieren.
Falls so etwas häufiger auftreten sollte, kann evtl. auch ein Augenarzt zu Rate gezogen werden.
@Starfox555
Tut mir Leid, ich habe mich verlesen!
Mein Smartphone ist zu klein. 😖
Du hast Recht.....🤐

Die RTX 3090Ti ist im Vs : Vs Vergleich, immer 10 FPS entfernt von der RTX 4080.
Test Ohne DLSS 3.0 weil es sonst unfair wäre.
Mir ist aber aufgefallen das sich die RTX 3090Ti fast überhaupt nicht übertakten läßt, die ist mir dann nur noch abgeschmiert.


Vieleicht ändert sich es mit der neuen WLP, und den Copper Ram Cooler.


Entschuldige bitte nochmal. 🙊
 
Schön das ihr mit den obligatorischen zwei Seiten Kaufberatung nun hoffentlich durch seit, und wir eventuell doch mal wieder zum Thema LIBS Materialanalyse zurück kommen können.

Mir fehlt bei der Kühleranalyse auf jeden Fall die Materialanalyse des verwendeten Lot, zwischen Heatpipe und Kühlergrundplatte. Ist das ein spezielles Silberlot oder NiedrigtemperaturLot? In dem Zusammenhang wäre vielleicht auch interessant, ob die Heatpipe vor oder erst nach dem Verlöten mit der Grundplatte "vakuumiert" werden?
 
Vorher. Ich muss mal versuchen, einen der Prototypen zu zerstören :D
 
Ich hätte halt gedacht, das ne funktionsfähige Heatpipe Schaden nimmt, wenn man sie zu heiß macht. Also die Plombe am oberen Ende der Heatpipe irgendwie aufplatzt oder bricht.

Daher die Frage, ob das Einlöten der Heatpipe in der Grundplatte mit speziellen Niedrigtemperatur Lot geschieht. Das sollte sich doch auch ohne Zerstörung, mit ein paar Laserschüßen auf ne Lot Wulst mit deinem LiBS analysieren lassen.
 
Das setzt aber voraus, dass ich das Lot unter die Linse bekomme. Der Kühler seitlich ist zu hoch
 
Oben Unten