Leistungsaufnahme der GeForce RTX 4090 richtig limitieren: MSI Afterburner vs. Adapter oder beides?

Ich denke mal, dass man nur einen Anschluss genommen hat, weil es im Regelbetrieb (=innerhalb der Specs) schlicht nur einen braucht. Ich fahre ja nur mit der kleinen Lösung und hab nur den Vergleich zu 2080S und 6900XT - Letztere hat mehr aus der Dose gezogen als die 4080. Grundsätzlich liest man doch recht wenig, will sagen: fast nichts, über abgerauchte 4090er Karten bzw deren Stecker. Das ganze Gewese um den ach so schlimmen Adapter ist mindestens genauso nervig, wie der Adapter selbst.
Ich bin ja bei euch: Das ist eine Fehlkonzeption. Aber geplante Obsoleszenz...
 
So ein "sweet spot" des GPUsystems verschiebt sich aber, abhängig von der Kühlung
genau! deshalb habe ich auch weiter oben im Thread dazu (zu den Wassertemperaturen der WaKü) gefragt.
Was wäre denn der Sweetspot für die GPU-Kühlung?
Interessant ist, dass 3DMark Badges für Temperatur unter ... 42°C oder so bei der GPU vergibt. Das scheint so ein Sweetspot zu sein.
Da wäre ich daran interessiert. Gibt es da Erkenntnisse?

Momentan sehe ich das so, das bekommt mann nur mit Chillern, Peltier-Kühlung oder ähnliches hin, nicht mit normaler WaKü, welche im Raum selbst entwärmt. Da geht die Wassertemperatur bei Last und Zimmertemperatur 24° (bei mir) auf über 35°C, und dann kommt die GPU-Temp nicht genug runter. Ab da throttelt es dann halt an der Kurve entlang.
 
Ich denke mal, dass man nur einen Anschluss genommen hat, weil es im Regelbetrieb (=innerhalb der Specs) schlicht nur einen braucht. Ich fahre ja nur mit der kleinen Lösung und hab nur den Vergleich zu 2080S und 6900XT - Letztere hat mehr aus der Dose gezogen als die 4080. Grundsätzlich liest man doch recht wenig, will sagen: fast nichts, über abgerauchte 4090er Karten bzw deren Stecker. Das ganze Gewese um den ach so schlimmen Adapter ist mindestens genauso nervig, wie der Adapter selbst.
Ich bin ja bei euch: Das ist eine Fehlkonzeption. Aber geplante Obsoleszenz...
Ist ja nur meine dumme EndverbraucherVermutung, warum sich ein Hersteller bei einer 2000€ Grafikkarte die vieleicht 5% Mehrkosten für eine etwas größere Leiterplatte mit einen zweiten 12VHPWR Anschluss spart.

Klar reicht theoretisch ein 12VHPWR Anschluss laut den Datenblättern aus. Aber eben halt auch nur ganz knapp! Und sowas ist aushalbt von Laborbedingungen nie ne gute Idee. Das solche Umstände einem hochbezahlten EntwicklerTeam nicht durch den Kopf gehen, oder zufällig übersehen wurden, kann mir keiner erzählen.
 
Weil das sicherlich auch mit NT-Herstellern abgesprochen ist. Die wollen 1 Kabel und können das mit den 750-850W Netzteilen locker realisieren, was für eine "normale" 4090 auch reicht. Hätten wir 2 Stecker und diese müssten jeweils 600W, oder auch wenn nur 450W bringen, würde es schon kompliziert werden.

Aber ich fände es eine gute Idee, dass die Karten mit 2 Steckern ausgeliefert würden und nur OC zulassen, wenn auch die 2 Stecker benutzt werden (es wird doch eh alles überwacht, also wäre so eine Umsetztung leicht zu realisieren). So würde man ein paar Fehlerquellen aus dem Weg räumen.

Ich würde auch einen klassischen 8-Pin Stecker als Unterstützung gar nicht so verkehrt finden.

Es wundert mich, dass man nicht schon an Reparatur Kits gebracht hat, wo der einzelne Stecker durch eine Auflötplatine mit 2 Steckern ersetzt wird... Eingelich liesse sich das sehr gut realisieren. Würde der Stecker meiner 4080 verbrennen und ich bekäme keine RMA, wüsste ich was ich tun würde.

Als SFF-User ist läuft meine 4080 allerdings auch mit UV und ich fühle mich hier schon sicher, dass der Stecker 240W stand hält.

Würde ich noch einen normalen Tower nutzen, hätte ich sicher auch eine 4090 und wüsste ich auch wie ich mit der Situation umgehen würde.

Was mich im Moment deutlich mehr stört ist, dass die Kühlungen durch solche durstigen Karten immer wachsen (eigentlich gut) und hier die Platinen der mechanischen Belastng nicht mehr stand halten.
 
Ja, überflogen, ist aber nicht so interessant. Ich kenne hier richtige fanboys, die picken sich alles heraus was bei der jeweils anderen Marke eventuell negativ sein könnte und stellen es jedesmal groß heraus. Ein 850W Netzteil ist seit RTX 3090 und 6900XT der Standard, das tut es noch immer, wunderbar.
Also nix für dich hier.
Warum Standard?
Wenn einer mit nem AMD System aufrüstet auf z.b. eine RX6900XT mit seinem 500-600Watt Netzteil ist solch ein Artikel um einiges Hilfreicher als ein neues Netzteil was er nicht braucht.
Klar wer seine CPU schon mit 300Watt + betreibt,der hat sich auch vor 5 Jahren ein 1000Watt + Netzteil gekauft.
 
Zuletzt bearbeitet :
Klar reicht theoretisch ein 12VHPWR Anschluss laut den Datenblättern aus. Aber eben halt auch nur ganz knapp!
Aber doch nur, wenn das Ding dauerhaft an der Kotzgrenze betrieben wird. Da gibt es sicher ein paar Enthusiasten, die wissen aber, was sie tun (Overclocking, ...). Für die Otto Normalos spielt das keine Rolle.
 
Klar wer seine CPU schon mit 300Watt + betreibt,der hat sich auch vor 5 Jahren ein 1000Watt + Netzteil gekauft.
Erst vor drei Jahren für die 3090 war das angebracht. Ich überlege aber vorsichtshalber auf ein 1300W NT umzusteigen. Ein bisschen Reserve für kommende GPUs kann ja nie schaden. :D
 
Ich würde im Moment kein neues NT kaufen wollen, da zum einen meines sehr gut ist und zum anderen die 12V only vor der Tür stehen. Hoffe meinen Raptor Lake die nächste CPu Gen zu überspringen und dann, denke ich sjnd wir auch bei den Mainboards bei 12V only (für die Einspeisung), dann wird ganz rund um erneuert
 
Ich auch nicht, meins reicht auch für die nächste Generation. So etwas schreibe ich nur um Casi zu ärgern.
 
Wenn allein durch ne "überdimensionierte" Netzteilverkabelung(inkl. Kontaktierung), bei gleicher Leistungsaufnahme, vielleicht 5% mehr Grafikrechenleistung raus zu kitzeln ist, spielt das irgendwann auch für Ottos ne Rolle.

Ne Auflötplatine ist zu kompliziert. Dann kann man auch gleich ein NT-Kabel direkt auf der GPU-Leitplatte einlöten, an dessen Ende dann 2-4 NT Stecker sind. Problem ist aber, das der filigrane 12VHPwR Header auf der Grafikkarte, ein genauso filigranes Leiterplatten-Lochraster hat. In die 1mm Lötlöcher bekommt man selbst ein AWG18 Kabel nicht ohne "Kunstgriff" direkt eingelöttet. Man braucht also crimpbare 1mm Einlötstifte, die man vor dem Einlöten am besten an AWG17 Kabel crimpen kann. Dazu noch ein Printkontaktgehäuse im 3mm Rastermaß, damit das Ganze dann auch vernünftig aussieht, und ausreichend Knickschutz bekommt.

Ich mache gerade ein paar Versuche, wie man so einen Umbau mit direkt eingelötten Stromversorgungskabel in einem 12VHPwR Lötraster elegant hin bekommt. Aber der Markt für so ein UmbauSet ist halt sehr begrenzt, da so einen Umbau halt nicht jeder Otto so auf die Schnelle mal hin bekommt. Weil es doch schon einiges an Erfahrung braucht, um an solchen MultiLayer Leiterplatten den Lötkolben erfolgreich zu schwingen.

Die höhere Leistungsfähigkeit(Spannungsstabilität) eines größeren NTs kommt ja nur am Verbraucher(PC-Komponenten) auch an, wenn eine halbherzige KabelAnbindung(Zwischenadapter, Verlängerung, zu kleine oder zu wenige Stecker) nicht gleich wieder alles zu Nichte macht.
 
Weil es doch schon einiges an Erfahrung braucht, um an solchen MultiLayer Leiterplatten den Lötkolben erfolgreich zu schwingen.
Für den freiwilligen Verzicht auf die Herstellergarantie bei einer 2000€ Karte braucht es vor allem einen gehörigen Schuss. :rolleyes:
 
Ich auch nicht, meins reicht auch für die nächste Generation. So etwas schreibe ich nur um Casi zu ärgern.
Da bin ich mir nicht so sicher,Intel15K mit 400Watt + RTX 5090 mit 600Watt,da greift DU 100% zum 1600Watt Netzteil. :p
Nur ist es hier ja der falsche Thread dafür.;)
Der Artikel ist ja was für Aufrüster oder Leute mit Netzteilabschaltung die sich für 30-50Watt Lastspitzen kein neues Netzteil kaufen wollen oder müssen.
 
Den gehöhrigen Schuss hat man ja schon, wenn man breit ist 2000€ für so einen Murks aus zu geben. Da ist mMn der Schritt nicht mehr so groß für 100€ mehr, idiotensichere Funktionalität gegen Herstellergarantie zu tauschen.
 
Ich verstehe nicht wo der Murks ist, die 4090 oder besser die Ada Karten sind die Effizientesten Karten am Markt auch ohne irgendwelche Optimierungen.
Technisch gesehen sind die Chips Meisterwerke und nur wegen einem Stecker, wo die Hysterie mittlerweile grösser ist, als das eigentliche Problem, soll es jetzt Murks sein?

Und zu den 2000Euro ausgeben, es wird niemand gezwungen diese Summe zu zahlen und es wird auch niemand gezwungen überhaupt eine Nvidia zu kaufen.
 
Sind auch immer die selben Leute, die die Meldungen über verschmorte 12VHPWR kolportieren, sich darüber echauffieren. Da ist immer so ein Geschmack von Missgunst dabei.
 
Ich verstehe nicht wo der Murks ist, die 4090 oder besser die Ada Karten sind die Effizientesten Karten am Markt auch ohne irgendwelche Optimierungen.
Technisch gesehen sind die Chips Meisterwerke und nur wegen einem Stecker, wo die Hysterie mittlerweile grösser ist, als das eigentliche Problem, soll es jetzt Murks sein?

Und zu den 2000Euro ausgeben, es wird niemand gezwungen diese Summe zu zahlen und es wird auch niemand gezwungen überhaupt eine Nvidia zu kaufen.
Der Artikel richtet sich ja auch nicht nur an Besitzer einer 4090......
4080,4070er NEU Besitzer sind ja genau so betroffen,sollte man nicht Vergessen.
 
Betroffen klingt wie eine Krankheit. Der Artikel Zeit nur, dass Optimierungspotential vorhanden und hier 2 verschiedene Wege betrachtet wurden. Nicht mehr und nicht weniger.
 
Oben Unten