News NVIDIA Ampere mit heißem Speicher und selbst die Boardpartner tappen noch im Dunkeln

Wo ist das Problem mit über 40°c?
Also meine Rtx 2070Super hat bis 50°c noch die Turbo Boost Taktrate (ca 2110mhz) gehabt, erst ab 50 Grad ist die dann auf den "normalen" Wert von 1980mhz runter gefahren.
Das klappte mit 420er +360er+280er. wobei im Kreislauf noch die 3700x CPU und der x570 Chipsatz gekühlt wurden. Alles bei lüfterdrehzahlen von ca 900rpm. Die gpu wurde nie heißer als 45°c.

Aktuell mit meiner Air-only Konfiguration ist die GPU mit Deshroud Mod und 2x NocTua A12x25 (120er) Lüfter beim Spielen bei 65°C.
Also dennoch besser und leise als in der Stock Ausführung mit den 3x 90mm Stock fans.
 
attachment.php
@Albae von welchem Hersteller ist das?
Wakü oben und unten macht Sinn. Hoffentlich kollidiert das nicht mit den M.2 Slots/ Heatsinks auf dem Mainboards. 🤔
 
LiquidExtasy. Der Inhaber hat auch schon mitgeteilt, dass er für Ampere einen Kühler mit wassergekühlter Backplate anbieten wird, wenn ihm eine Karte zur Vermessung zugesendet wird.
Eine M.2 dürfte da nicht mehr passen, sehe ich auch so.
 
Ich möchte ja nicht hoffen, das wegen dem Block, mir ein M.2 wegfällt.
 

Also wenn ich dieses Design sehe, wie sollen dort 350 Watt abgeführt werden? Von den Speichertemperaturen mal ganz zu schweigen. 2 Slot Design, dünner Kühlkörper... und die Karte ist auch nicht sonderlich hoch.
 
Mich würde mal Igors Meinung, zu Gainwards und Zotacs, Kühllösungen interessieren.
Diese sehen auf den ersten Blick recht konventionell aus.
 
Warte mal die Glows Like Hell ab...
 
CB565AB0-D31E-49E5-BEA2-9FB022DF7F29.jpeg

Burn Ampere Burn...
 
Die Kühlung der FE scheint ja auch nicht so toll, wird doch ein großer Teil der Abwärme schön auf die CPU und den RAM geblasen.
 
Und am Ende ersteigt eine der Phoenixe aus der Asche?
 
Leute mit verschiedenen Asus Boards freuen sich, wenn der rückseitige Kühler mit den RAM Slots kollidiert xD
 
Ich vermute es wird das gleiche wie bei meiner XFX RAW II sein, die Karten mit zu schwacher Kühllösung drosseln sich permanent und sorgen ggf. für unregelmäßige Frametimes. Das letzte was man möchte, wenn man 1.xxx € ausgibt.

Die Foundersedition der RTX 3090 ist riesig und hat 2 sehr große Lüfter. Wenn diese Kühlung nicht ausreicht, wäre das schon sehr enttäuschend.
 
Ich muss davon ausgehen das es reicht und kein Höllenlärm macht...sonst müsste man das ganze Konzept der Karte in Frage stellen...

@Igor Wallossek Wann soll denn die Pilotproduktion gestartet sein? Es soll ja in drei Wochen los gehen?
 
Zuletzt bearbeitet :
Meint ihr das sind auch "Fakes" oder eher echt? Also das was @Eragoss - gepostet hat von VideoCardz.


Hmm auf dem ersten Bild sieht das so aus als ob das PCB sehr kurz wäre - wie bei der FE "angekündigt" - so, dass der hintere Teil der Graka nur vom Kühler überragt wird und die Luft da gut "durchpusten" kann.
Backplate sieht hier auf den ersten Blick auch nicht viel anders aus als sonst- außer dass sie hinten luftdurchlässig ist.

1598814343786.png


1598814425379.png

1598814484023.png
Links: angebliche 3090 und Rechts die angebliche 3080

Finde die 350 bzw. 320 Watt echt enttäuschend. (280W bei TitanRTX und 250W 2080Ti ). Das ist nicht Fortschritt sondern "Brachial ich brauch unbedingt mehr Power der Rest ist mir egal..." Dabei wurden schon auf 7nm verkleinert - was den Energiebedarf verringern sollte.....

Bei den CPUs geht es doch auch? Siehe aktuelle Ryzen die haben zur Vorgänger Generation mehr Kerne (8=>12 bzw. 16) , brauchen weniger Saft (105 => 65W) und die Rechenpower verbessert.

Leider sieht es so aus als ob NVidia auch echt einen auf "Arsch..." und Abzocker macht.
Wie sonst ist zu erklären dass sie eine Abstufung von 24 GB zu 10 GB Version machen?
Die wollen alle Leute die richtig fette Leistung haben wollen auch den maximalen Preis bezahlen.
Bei der aktuellen Titan RTX war es ja so dass die mit den 24gb kaum einen unterschied in Spielleistung gebracht hat. Nun setzten sie die Shader Anzahl massiv rauf und bestücken das model mit mehr als doppelt soviel RAM wie die 3080.



1598814537445.png1598814609041.png
 
Was genau geht auch bei den CPUs? Von 105 W TDP auf 65? Bitte erklär mal, was genau du da meinst, ich schnall das grade nicht.
Und was den RAM angeht: eine 3080 mit 20 GB ist doch im Werden, aber zuerst kommt wohl die mit 10 GB. Wo ist da jetzt das Problem?
Bisher hat Nvidia das mit dem RAM-Verbrauch ganz ordentlich hinbekommen.
Warte doch einfach mal ab, bevor du hier irgendwelche unbewiesenen und noch durch nichts gerechtfertigten Anschuldigungen losläßt.
 
Was genau geht auch bei den CPUs? Von 105 W TDP auf 65? Bitte erklär mal, was genau du da meinst, ich schnall das grade nicht.
Und was den RAM angeht: eine 3080 mit 20 GB ist doch im Werden, aber zuerst kommt wohl die mit 10 GB. Wo ist da jetzt das Problem?
Bisher hat Nvidia das mit dem RAM-Verbrauch ganz ordentlich hinbekommen.
Warte doch einfach mal ab, bevor du hier irgendwelche unbewiesenen und noch durch nichts gerechtfertigten Anschuldigungen losläßt.

Ich meinte die TDP - also ganz einfach der vergleich bei CPUs über die Jahre:
z.b:

AMD Ryzen 7 3700X: 8-Kerne 65 Watt TDP,
AMD Ryzen 7 2700X: 8-Kerne 105 Watt TDP,
AMD Ryzen 7 1700X: 8-Kerne 95 Watt TDP,
AMD Phenom II X4 955 4 Kerne 95 Watt TDP
AMD Athlon II X4 645 4 Kerne 125 Watt TDP
AMD Athlon 64 X2 6000 2 Kerne 125 Watt TDP


Also was ich damit sagen will - über die Jahre werden die Prozessoren eigentlich immer sparsamer - und steigern dabei auch noch massiv die Leistung.
Wenn die neue Geforce wirklich > 300 Watt verbraucht - klar hat sie mehr leistung - aber bei dem Verbrauch dann auch kein wunder oder?
 
Na, komm: der 1700er: 65 W, der 2700er: 65 W, der 3700X: 65 W. Du kannst auch bequem dagegen argumentieren, dass es keinen Sechskerner mit einer TDP unter 65 W gab und gibt. Und ebenso, dass die schnelleren Versionen immer ne höhere TDP hatten, also 3800X, 2700X, 1700X. Die alten Krechel waren ineffizient, die neuen weniger - das ist zweifellos ein Fortschritt, der aber sicher auch mit der neuen Architektur zu erklären ist. Die riesige Lücke zwischen Phenom 2 und Ryzen spricht da ja auch für sich.
 
Edit: falscher Thread.
 
Zuletzt bearbeitet :
@Blubbie videocardz hat sich hier bisher als sehr verlässliche Quelle kurz vor Release erwiesen. Die hatten bei der RTX 2080Ti damals auch fleißig die Bilder der Boardpartner gepostet, was sich im Nachlauf auch immer als korrekt erwiesen hat. Dazu sieht das Material sowieso zu gut aus, als das es sich lohnen würde hier etwas zu fälschen.

@ all Es gibt übrigens die nächsten Leaks ;)

1598859530814.png

So richtig ersichtlich wie das mit der zusätzlichen Speicherkühlung (Rückseite) gelöst ist, ist es hier aber nicht. Bin gespannt wie die Test bei Igor verlaufen und ab wann diese verfügbar sind.
 
Die Customs sollen ja läbger PCBs haben. Da wird es mit der Kühlung im Allgemeinen, hoffentlich nicht so kritisch...oder?
 
Oben Unten