Neue Details zur NVIDIA GeForce RTX 4090 und RTX 4080 – Speicherausbau, Pin-Layout, Spannungsversorgung und Kühlung

@Megaone Da hast du sicher Recht. Wer Geld hat - zumindest genug, um eine Highend Karte zu kaufen - hat aber oft wenig Zeit. Mir ist es deshalb quasi egal, ob 300 oder 500 Watt, weil ich pro Woche maximal 2-4h spielen kann. Das macht auf der Stromrechnung so gut wie keinen Unterschied.
Aber: Ich kann dem schon etwas mehr abgewinnen, wenn ich eine ähnliche Leistung bei höherer Effizienz bekomme. Für meinen Geschmack sehen die 4000er wie eine ">60FPS@4K inkl. Raytracing"-Generation aus. Und soo toll ist das Feature nicht, um neue Karten für >1.000 Euro zu rechtfertigen.
 
Ich empfehle immer einen Blick auf die Steam-Systemstatistikseite. Dort bekommt man einen vagen Eindruck, welche Hardware die Masse nutzt, Karten oberhalb 3060 sind es nicht.
Eben. Für die meisten sind Karten oberhalb von 600 Euro sowieso ausserhalb jeder Diskussion. Und die Enthusiasten intereressiert am Ende weder Preis noch Effizenz.
 
Das wird mit den Nachfolgern nochmal deutlich teurer, siehe oben. Zumal ich beim erneuten Nachrüsten alles mal 2 brauche.

Es gibt keine Karten und so gut wie keine Hardware für 8K. Und wenn, dann zu völlig absurden Preisen. Eine 4090 wird dafür auch noch zu schwach sein.

Ich bin sehr viele Jahre mit FHD und SVGA gut zu Recht gekommen. Mit 4 K stehe ich da noch am Anfang.

Das sehe ich ähnlich, zumal sich die Frage nach dem Mehrwert stellt, denn ab/nach 8K, könnte die erhöhte Auflösung optisch bei einigen wohl schon nicht mehr wahrgenommen werden.

Des Weiteren muss dieser Standard (egal ob 2K, 4K, 5K oder 8K) erst einmal gehalten werden, welches auch neue/stärkere Grafikkarten in regelmässigen Abständen erfordert, denn es ist - ebenso wie bei Full HD über lange Zeit - davon auszugehen, dass die Anforderungen innerhalb einer Auflösungsstufe durch weniger ressourcenschonendes Programmieren der Entwickler sowie neue ressourcenhungrige Features (bspw. RT-Raytracing bei dem man noch nicht weit fortgeschritten ist) weiter deutlich zunehmen (die 6 GB von gestern sind die 8 GB von heute, usw.).

Von (5 bis 8K) "brauchen" kann in dem Zusammenhang keine Rede sein, das ist reinster Luxus für die meisten, insbesondere, wenn so eine Anschaffung primär nur auf Computerspielen ausgerichtet ist.

4K/UHD sollte es bei mir auch als nächstes sein (WQHD werde ich wohl beim nächsten Monitorkauf definitiv überspringen) und wenn ich vorausschauend Geld anlege, dann soll das bitteschön auch eine Weile halten und die Hardware nicht ab Kauf schon limitiert sein.

Somit sind die aktuellen Mondpreise für Grafikkarten mit überschaubarer Mehrleistung zur vorherigen Generation und oft verknapptem Speicher auch kein Thema, selbst wenn unterhalb einer RX 6800 so langsam eine Annäherung zu UVP hin stattfindet, aber das dann erst 1,5 bis 2 Jahre Jahre nach Markstart der dGPU-Generation und wohl nur wegen des nahenden AMD/RTG-Refreshs, der Intel Arc Karten (damit zusammen hängend wohl auch der kleinen nVidia Preissenkung) und der Ethereum-Umstellung bzw. warten auf Lovelace und RDNA3 (ausbleibenden Minerkäufen und gemunkelten verstärkten dGPU-Verkäufen dieser im Juni und Juli).
 
Zuletzt bearbeitet :
@Megaone Da hast du sicher Recht. Wer Geld hat - zumindest genug, um eine Highend Karte zu kaufen - hat aber oft wenig Zeit. Mir ist es deshalb quasi egal, ob 300 oder 500 Watt, weil ich pro Woche maximal 2-4h spielen kann. Das macht auf der Stromrechnung so gut wie keinen Unterschied.
Aber: Ich kann dem schon etwas mehr abgewinnen, wenn ich eine ähnliche Leistung bei höherer Effizienz bekomme. Für meinen Geschmack sehen die 4000er wie eine ">60FPS@4K inkl. Raytracing"-Generation aus. Und soo toll ist das Feature nicht, um neue Karten für >1.000 Euro zu rechtfertigen.
Ich bin diesbezüglich völlig bei dir. Selbst ich komme ja ins Grübeln. Mein Plan war ja ursprünglich die 2080s durch die 3090 zu ersetzen und diese wiederum durch die 4090.

Ich hab mich dann bewußt für die 3080ti entschieden. Die 2080s konnte ich gut verkaufen und hab die Option die 4000er Reihe ggf. zu überspringen.

Bei Netzteilen über 1000 Watt, nur zum zocken, wird es einfach heftig.

Zum Preis eines guten 1300 Watt Netzteiles und einem vernünftigen Big Tower hab ich vor nicht allzulanger Zeit für das Schreibbüro meiner Lebensgefährtin komplette Rechner gebaut.

Und wie lange sollen denn 1300 Watt reichen?- Bis zum nächsten Refresh?

Ich hab meine 1000 Watt Netzteile nicht bewusst mit 10 Jahren Garantie gekauft um sie nach 3 Jahren auszutauschen.

Ich bin von nicht wenigen bei der Anschaffung wegen der Leistung verlacht worden.

Und nun?
 
Zuletzt bearbeitet :
Dann schau ich mir lieber die 40xx-er Mittelklasse an, die hoffentlich vernünftiger daherkommt, oder greif zur 3090.
Wahrscheinlich letzteres, weil es sicher noch ein Jahr dauert, bis Nvidia seine Mittelklassekarten releast.

Mit etwas Glück wird die RTX 4070 auch kurz nach Marktstart von Lovelace kommen (wie verfügbar und zu welchen Preisen, steht natürtlich in den Sternen und ja, ich bin da auch eher pessimistisch unterwegs), die immer noch sparsamer und ähnlich leistungsstark wie eine RTX 3090 daherkommen sollte, der einzige Knackpunkt wird der Speicherausbau sein und ob man die Karte dann genauso mager/unterdimensioniert ausstattet wie aktuell die RTX 3060Ti und 3070(Ti) mit nur 8GB oder man man mindestens 12 GB, besser noch gleich 16GB Speicher, spendiert, wird man sehen.

Die Modelle oberhalb einer RTX 4070Ti würden für mich preis-leistungs- und effizienztechnisch sowieso keinen Sinn mehr machen und mehr als 850W für das komplette System gibt es von mir (und sicherlich vielen anderen) nicht.

Mit Produkten für die 1000(+)W Netzteile hersteller-empfohlen werden (siehe RTX 3090Ti), können die dGPU-Hersteller und deren Boardpartner m.E. dahin gehen, wo der Pfeffer wächst.
Eine (EU) Umweltsteuer für Netzteile ab 1000W für Hersteller und Käufer könnte ähnlich Emissionszertifikaten vielleicht Anreiz (für CPU- und GPU-Entwickler) schaffen wieder in die richtige (energieeffizientere) Richtung Hardware zu entwickeln.

Solange der hohe Verbrauch eine High-End-/EarlyAdopter-/Hobby-Enthusiasten-Nische bleibt ist es vielleicht nicht problematisch, aber wenn der Energiehunger auch bei niedrigeren Leistungsklassen Einzug hält bzw. durchgereicht wird - wovon aktuell leider auszugehen ist - dann wird das schon problematisch.
 
Zuletzt bearbeitet :
Mit etwas Glück wird die RTX 4070 auch kurz nach Marktstart von Lovelace kommen (wie verfügbar und zu welchen Preisen, steht natürtlich in den Sternen und ja, ich bin da auch eher pessimistisch unterwegs), die immer noch sparsamer und ähnlich leistungsstark wie eine RTX 3090 daherkommen sollte, der einzige Knackpunkt wird der Speicherausbau sein und ob man die Karte dann genauso mager/unterdimensioniert ausstattet wie aktuell die RTX 3060Ti und 3070(Ti) mit nur 8GB oder man man mindestens 12 GB, besser noch gleich 16GB Speicher, spendiert, wird man sehen.

Die Modelle oberhalb einer RTX 4070Ti würden für mich preis-leistungs- und effizienztechnisch sowieso keinen Sinn mehr machen und mehr als 850W für das komplette System gibt es von mir (und sicherlich vielen anderen) nicht.

Mit Produkten für die 1000(+)W Netzteile hersteller-empfohlen werden (siehe RTX 3090Ti), können die dGPU-Hersteller und deren Boardpartner dahin gehen, wo der Pfeffer wächst.
Eine (EU) Umweltsteuer für Netzteile ab 1000W für Hersteller und Käufer könnte ähnlich Emissionszertifikaten vielleicht Anreiz (für CPU- und GPU-Entwickler) schaffen wieder in die richtige (energieeffizientere) Richtung Hardware zu entwickeln.
Genau das war doch das Problem. Eine 3080 mit 10 GB erschien nicht wirklich zukunfsträchtig und eine 6900XT seinerzeit ohne FSR und mit rudimentären RT Fähigkeiten ebensowenig.

Selbst die 3080TI mit ihren 12 GB sind doch in Wahrheit Grenzwertig.
 
Selbst die 3080TI mit ihren 12 GB sind doch in Wahrheit Grenzwertig.
Ja, stimmt, die viel zu späte 12 GB RTX 3080 hätte zum Marktstart von Ampere vielleicht gut gepasst, widersprach aber wohl dem nVidia Speichergeiz (es sei denn man kann es sich "vergolden" lassen wie bspw. zu Zeiten von Kepler noch).

Dazu eine RTX 3080Ti mit 16GB wäre stimmig gewesen, aber der Energiehunger von 512-Bit-Speicherinterfaces ist da leider das Problem und 256-Bit-Versionen würde die Bandbreite zu sehr beschneiden bei den kleinen Chip-/Leistungsabstufungen in dem Bereich und ein passendes Inifinity Cache Pendant gibt es bei nVidia absehbar noch eine ganze Weile nicht (wohl auch nicht bei Lovelace, wie es scheint).

Abwarten, ob es nVidia bei den RTX 4000er Karten besser gelingt, zumal man den Speicherausbau auch nutzen könnte, um (leicht) schwächere Produkte (im Vergleich zu RDNA3) anderweitig attraktiver (da langlebiger) zu machen, Spekulationen wurden von MLID in der Richtung ja schon gemacht (ab 1:25):

 
Das glaube ich nicht und das ist auch bei der aktuellen Generation nicht der Fall.
Die Oberklasse wird neu eingepreist, die alte Oberklasse wird einfach die neue gehobene Mittelklasse. Zu den aufgerufenen Preisen. Für mich sieht Lovelace nicht nach Evolution aus. Es wird schlicht mehr Energie reingepumpt, um mehr Leistung rauszukriegen. Für die Leistung einer 3080 wird man auch 2023 rund 1000 Euros zahlen müssen.
Keine Sorge.
Lovelace wird die Performance um - konserativ geschätzt - 80% erhöhen. (Die Leaks sprechen ja alle von 2 fach und teils noch etwas mehr.)
D.h. eine 4060/4060TI wird die Leistung einer 3080 haben.
Und du willst doch wohl nicht ernsthaft erzählen, dass eine 4060 1000 Euro kosten wird? Also bitte.
Lovelace wird dir 3080 Niveau mit ca. 200-250W bringen für ca. 500 Euro - falls Mining wieder massiv relevant wird eher 700 Euro. Falls Mining keine Rolle mehr spielt eher etwas weniger.

Der Horror den viele vor der neuen Generation haben ist schlicht völlig unbegründet. Ja, das Spitzenmodell wird mehr brauchen - who cares? Soll das eben 600W brauchen. Muss sich keiner kaufen.
Lovelace wird den absoluten Leistungsenthusiasten massiv Performance liefern - für neue Stromrekorde. Ist doch super für diese Leute.
Ich will das nicht, aber ich muss es auch nicht kaufen. Denn:
Wer 300W möchte wird auch für 300W Karten bekommen, die deutlich mehr Performance haben als die aktuellen Karten.
Und wer nur 200W möchte wird dafür Karten bekommen, die weit mehr Leistung haben als die aktuellen.

Die neuen GraKas legen im Spitzenbereich noch mal eine Schippe drauf, ja - aber die muss keiner kaufen.
Kauft man eben eine 4070, 4060 oder sonstwas.
Es wird für jeden was dabei sein, keine Bange.
Wer natürlich keinerlei Flexibilität hat und das Spitzenmodell kaufen MUSS weil sein Ego es nicht verkraftet eine Nummer kleiner zu kaufen - der wird mit höherem Stromverbrauch leben müssen. Aber mit sojemandem braucht man ja auch kein Mitleid haben.
 
Es wird für jeden was dabei sein, keine Bange.
Das habe ich auch gedacht, als vor 2 Jahren die 3060ti für 350.- angekündigt wurde. Ich glaube es erst, wenn ich es sehe. o_O

Bis jetzt bekommt man für 300.- nicht mal mehr Grafikkarten, die man vor 2 Jahren für 180.- kaufen konnte. Früher war der Preisbereich der am meisten gekauft wurde 150 bis 400.-. Es wäre schön, wenn es für die Leute die keine 500.- für eine Grafikkarte übrig haben auch mal wieder etwas geben würde. Das ist ein sehr grosser Teil der PC-Nutzer, die einfach nur warten, weil immer wieder nichts kommt, was sie sich leisten können oder sie zu zahlen bereit sind.

Sorry, wenn das jetzt pessimistisch tönt. Aber ich kann einfach nicht jubeln, vor auf dem Markt auch wieder günstige Garfikkarten kaufbar sind. (mit kaufbar meine ich nicht nur angekündigt)
 
Keine Sorge.
Lovelace wird die Performance um - konserativ geschätzt - 80% erhöhen. (Die Leaks sprechen ja alle von 2 fach und teils noch etwas mehr.)
D.h. eine 4060/4060TI wird die Leistung einer 3080 haben.
Und du willst doch wohl nicht ernsthaft erzählen, dass eine 4060 1000 Euro kosten wird? Also bitte.
Lovelace wird dir 3080 Niveau mit ca. 200-250W bringen für ca. 500 Euro - falls Mining wieder massiv relevant wird eher 700 Euro. Falls Mining keine Rolle mehr spielt eher etwas weniger.

Der Horror den viele vor der neuen Generation haben ist schlicht völlig unbegründet. Ja, das Spitzenmodell wird mehr brauchen - who cares? Soll das eben 600W brauchen. Muss sich keiner kaufen.
Lovelace wird den absoluten Leistungsenthusiasten massiv Performance liefern - für neue Stromrekorde. Ist doch super für diese Leute.
Ich will das nicht, aber ich muss es auch nicht kaufen. Denn:
Wer 300W möchte wird auch für 300W Karten bekommen, die deutlich mehr Performance haben als die aktuellen Karten.
Und wer nur 200W möchte wird dafür Karten bekommen, die weit mehr Leistung haben als die aktuellen.

Die neuen GraKas legen im Spitzenbereich noch mal eine Schippe drauf, ja - aber die muss keiner kaufen.
Kauft man eben eine 4070, 4060 oder sonstwas.
Es wird für jeden was dabei sein, keine Bange.
Wer natürlich keinerlei Flexibilität hat und das Spitzenmodell kaufen MUSS weil sein Ego es nicht verkraftet eine Nummer kleiner zu kaufen - der wird mit höherem Stromverbrauch leben müssen. Aber mit sojemandem braucht man ja auch kein Mitleid haben.
Was abzuwarten bleibt. Aktuell läuft eine 3060ti in etwa auf dem Niveau einer 2080S und kostet um die 650 Euro. Die vollmundig angekündigten Geschwindigkeitsverdopplungen erleben wir bei jeder neuen Grakageneration. Mal schauen was davon übrig bleibt. Am Ende wahrscheinlich eher wieder 35% wie immer.

Aber ich hoffe, das du Recht hast.
 
Zuletzt bearbeitet :
Keine Sorge.
Lovelace wird die Performance um - konserativ geschätzt - 80% erhöhen. (Die Leaks sprechen ja alle von 2 fach und teils noch etwas mehr.)
D.h. eine 4060/4060TI wird die Leistung einer 3080 haben.
Keine Sorge, je näher der Marktstart von Lovelace rückt, desto mehr werden diese Prognosen nach unten korrigiert werden, wie bisher bei so ziemlich jeder anderen Generation auch. Für dich mögen 80% konservativ geschätzt sein; ich halte das für extrem optimistisch. Und was du Leaks nennst, sind wohl eher ganz ordinäre Gerüchte.

Das gilt umso mehr, wenn man an die begrenzten Fertigungskapazitäten und diverse Unwägbarkeiten (Corona, Mining, Krieg etc.) denkt. Will sich Nvidia hier - analog zur jüngst neu aufgelegten 2060 - die Möglichkeit offen halten, gemeinsam mit Lovelace auch Teile von Ampere weiter anzubieten, wäre ein riesiger Leistungssprung zwischen diesen beiden nicht gerade hilfreich. Warten wir's ab ...
 
4090 mit 2 facher Leistung einer 3090… wer‘s glaubt. Ich jedenfalls noch nicht. Normal waren irgendwas zwischen 15% und 30% - je nach Spiel bzw. Generation. Ich würd mich ja freuen, wenn’s stimmt, aber Abwarten und Tee trinken.

Ich bin jedenfalls ganz froh, damals die 3090 genommen zu haben. Für 15-25% plus tu‘ ich mir das Rennen um ne neue GPU bei Release wohl eher nicht an. Bei 25-40% komm ich ins Grübeln und ab 50% wird wohl zugeschlagen.

So rede ich mir das jedenfalls gerade selber ein. :D
 
Keine Sorge.
Lovelace wird die Performance um - konserativ geschätzt - 80% erhöhen. (Die Leaks sprechen ja alle von 2 fach und teils noch etwas mehr.)
D.h. eine 4060/4060TI wird die Leistung einer 3080 haben.
Und du willst doch wohl nicht ernsthaft erzählen, dass eine 4060 1000 Euro kosten wird? Also bitte.
Lovelace wird dir 3080 Niveau mit ca. 200-250W bringen für ca. 500 Euro - falls Mining wieder massiv relevant wird eher 700 Euro. Falls Mining keine Rolle mehr spielt eher etwas weniger.
Dass es einen Leistungszuwachs gibt, bestreitet doch niemand. Ich kann mich noch gut an die 1000er, 2000er und 3000er Presseshow erinnern. Jedes Mal war es "bahnbrechend", was da im oberen Leistungssegment gezeigt wurde - und dann (in der echten Anwendung) kam die Ernüchterung. Für einen Wechsel von 1070/1080/Ti auf 2000er gab es - abgesehen von der 2080Ti - keinen Grund. Zu wenig Leistung, zu wenig Speicher. Bei der 3000er Gen ist das etwas anders: Leistung satt, aber lange nicht da, wo es angekündigt wurde - ich kann das Video der handverlesenen Promis raussuchen, die mittels 3090 (und NVLink) in 8K "flüssig" spielten. Am Ende kriegte man nur das, was nötig war - die 3080 mit 12GB und ohne Ti wurde elend spät erst nachgereicht zu Preisen, die sogar über dem UVP der 3090 lagen.
Alles darunter - bis zur 3070TI, die einfach keine gute Karte ist - konnten sich Besitzer einer 2070/S sparen. Die anderen mussten >1.000 € raushauen.
Von den Kühllösungen will ich garnicht anfangen, die haben aber nachhaltig dafür gesorgt, dass ich zum ersten Mal seit Jahren wieder bei AMD gelandet bin (natürlich auch wegen des Speichers). Ich bin einfach gespannt, was da kommt. Und obwohl es wohl schlau gewesen wäre, sich direkt eine Karte zu holen - Stichworte Preis und Verfügbarkeit - zeigt sich im Long Run, dass die 3080er mit 10GB einfach keine guten Highend-Karten sind.
 
Dass es einen Leistungszuwachs gibt, bestreitet doch niemand. Ich kann mich noch gut an die 1000er, 2000er und 3000er Presseshow erinnern. Jedes Mal war es "bahnbrechend", was da im oberen Leistungssegment gezeigt wurde - und dann (in der echten Anwendung) kam die Ernüchterung. Für einen Wechsel von 1070/1080/Ti auf 2000er gab es - abgesehen von der 2080Ti - keinen Grund. Zu wenig Leistung, zu wenig Speicher. Bei der 3000er Gen ist das etwas anders: Leistung satt, aber lange nicht da, wo es angekündigt wurde - ich kann das Video der handverlesenen Promis raussuchen, die mittels 3090 (und NVLink) in 8K "flüssig" spielten. Am Ende kriegte man nur das, was nötig war - die 3080 mit 12GB und ohne Ti wurde elend spät erst nachgereicht zu Preisen, die sogar über dem UVP der 3090 lagen.
Alles darunter - bis zur 3070TI, die einfach keine gute Karte ist - konnten sich Besitzer einer 2070/S sparen. Die anderen mussten >1.000 € raushauen.
Von den Kühllösungen will ich garnicht anfangen, die haben aber nachhaltig dafür gesorgt, dass ich zum ersten Mal seit Jahren wieder bei AMD gelandet bin (natürlich auch wegen des Speichers). Ich bin einfach gespannt, was da kommt. Und obwohl es wohl schlau gewesen wäre, sich direkt eine Karte zu holen - Stichworte Preis und Verfügbarkeit - zeigt sich im Long Run, dass die 3080er mit 10GB einfach keine guten Highend-Karten sind.
Genau genommen war die 3000er Serie bei erscheinen kompletter Müll. Die einzig kaufbare Karte war die 3090er. Wäre ich im Besitz einer 1080ti oder besser noch einer 2080ti gewesen, hätte ich mir das Aufrüsten komplett erspart.

Selbst Heute ist der Kauf der 3000er Serie immer noch fragwürdig. Hier hätte man sich ein Beispiel an AMD nehmen müssen und mit 16 GB einsteigen sollen. Alles unter 3080/ti 12 GB ist dauerhaft bestenfalls 1440p geeignet. Und die 12 GB werden hier auch nicht ewig halten.

Die einzigen relevanten Punkt für NVIDIA war damals DLSS und RT und die aus meiner Sicht bessere Softwareunterstützung.. Wobei sich ersteres mittlerweile relativiert und RT durchaus Ansichtssache ist.
 
Zuletzt bearbeitet :
Wie dick sind denn eigentlich die Lüfter bei "titti" ?

Wenn man irgendwann net mehr Gewicht kann/will, sollte mit fetteren 25mm Lüftern doch noch deutlich mehr Druck gehen.
und
Wenn man mal 10°C mehr Temp. in den Heatpipes zulässt, geht vermutlich auch mehr Wärme/Watt durch.
(da staune ich über die kleine 6900-LC mit der 140er AiO, was die bei rel. hoher Temp so an Watt abtransportiert bei Apollo@OCen =570W asic)
Das ist ja bei Wakü eh so ein Thema. Viele arbeiten mit ineffizient niedrigen Delta T´s (habe ich auch lange so gemacht) Aber für die Funktion nicht nötig.

Mir fällt nur ein Beispiel ein, wo mit einem Koolance HX-CU1401V (1x 140mm Radiator) bei 20k, mit einem Noctua 140mm Industrial (natürlich mit Absurden Drehzahlen[3000]) rund 500W bei 20K abgeführt werden können. Wenn man Wassertemperaturen von 50 bis absoluten Hochsommer in der Spitze bis 55°C zulässt. Kann man mit Delta T 25K auch 600W Kühlen. Klar hat die GPU dabei um 65-70°C.
 
Das sollte ja aber für GPUs mit ner Grenze bei 105° kein Problem sein - im Gegenteil.
 
Der wirklich spannende Faktor ist der Boost. Bei einem Modell (1080 Ti, 2080 Ti?) war es früher mal so, dass die den Boost ab glaub 41°C GPU-Temp (!) anfingen zu drosseln. Drum wollte man die Wakü so eingestellt haben, dass das Ding auch bei Dauerlast nicht über 40°C GPU-Temp kommt und eben den Boost als Dauertakt halten konnte, was dann entsprechende Wassertemps voraussetzte und das wiederum dann ein entsprechendes Verhältnis von Lüfterdrehzahlen, Radiatorfläche, Durchfluss & Co.

Wie das aktuell bei den 3000ern aussieht, weiß ich gar nicht. Gefühlt ist z.B. meine 3090 aktuell mit der reinen Performance-Brille auch nicht optimal eingestellt (GPU z.T. deutlich über 40°C), zuletzt hat bei mir aber die Lautstärke die Lüfterdrehzahlen bestimmt.
 
Da kann man ja schon allein für die Karte nen Mora zusätzlich dran hängen, um alles schön leise und kühl zu halten..
Ist dann noch das Package so dermaßen krass verbogen wie bei Ampere, kann man eine gute Kühlung dann wohl echt vergessen oder?

Dazu stellt sich mir die Frage:
Wie heiß sollen dann bitte die wassergekühlten Exemplare werden? 60-70°C auf der GPU?
 
Ich tu mich schwer mit Wassertemperaturen deutlich über 45 Grad.
 
Der wirklich spannende Faktor ist der Boost. Bei einem Modell (1080 Ti, 2080 Ti?) war es früher mal so, dass die den Boost ab glaub 41°C GPU-Temp (!) anfingen zu drosseln. Drum wollte man die Wakü so eingestellt haben, dass das Ding auch bei Dauerlast nicht über 40°C GPU-Temp kommt und eben den Boost als Dauertakt halten konnte, was dann entsprechende Wassertemps voraussetzte und das wiederum dann ein entsprechendes Verhältnis von Lüfterdrehzahlen, Radiatorfläche, Durchfluss & Co.

Wie das aktuell bei den 3000ern aussieht, weiß ich gar nicht. Gefühlt ist z.B. meine 3090 aktuell mit der reinen Performance-Brille auch nicht optimal eingestellt (GPU z.T. deutlich über 40°C), zuletzt hat bei mir aber die Lautstärke die Lüfterdrehzahlen bestimmt.
Klar geht der takt schon ein paar Stufen runter. Aber was soll es. Das eine ist eine Wakü für beengte Platzverhältnisse, das andere sind einfach mit Masse klotzen, bis die Wakü kotzt ;).

Was spielt es real für eine Rolle, ob die Karte mit 1950, oder 1900Mhz taktet. Das ist ja nu nicht wirklich sichtbar, im flüssigen Bild.
Ich tu mich schwer mit Wassertemperaturen deutlich über 45 Grad.
Rechenzentren nicht ;)

Ich finde 50°C bei einem ordentlichen Aufbau noch ganz ok. Natürlich nimmt man lieber 30°C.
Mir schwebt derzeit ein Mini Aufbau vor, den man halt auch mal theoretisch mitnehmen könnte 8-9 Liter mit 3080 (3090) und Wakü intern. Aber hier sollen natürlich auch Schnellanschlüsse dran, damit man Daheim sich an die Leitung in den Garagenboden anschließen kann. (Ähnlich wie hier der Wakü Keller)

Der Boder der Garage hat im Hochsommer lauschige 18°C

PS: Gerade auf dem Profilbild gesehen... Du hast aktuell noch ein Aquaduct ;), cool... Hatte ich auch mal, an einem InWin 904, war schick.
 
Oben Unten