Reviews GDDR6X am Limit? Über 100 Grad bei der GeForce RTX 3080 FE im Chip gemessen! | Investigativ

Frage: wie "Custom" können die PCBs der Custom-Karten denn überhaupt sein? Ich dachte, daß NVIDIA viele (fast alle?) Elemente der PCB vorgibt, inklusive Zahl und Positionen der GDDR6 Module; wenn das auch auf die VRM Anordnung zutrifft, kann da ein Custom Design mit Custom Kühler überhaupt einen Unterschied machen? Denn wenn ich das richtig sehe, ist das Hauptproblem hier der sehr geringe Abstand des VRM zu dem betroffenen GDDR6 Modul, und der wird sich nur mit einem anderen PCB Layout ändern lassen.
 
Hallo, auch zwei 'kurze' Frage meinerseits.

Teil 1)
Ich erinnere mich ja noch daran, dass du den Verbrauch eines GDDR6X Chips mit ~2.5W erwartet hattest.
Nun habe ich hier einen Screenshot von der ausgegebenen Sensorik einer TUF 3080.
Die Verteilung zwischen NVDD und MVDDC(MSVDD) kann ja nie im Leben stimmen, der 10GB GDDR6X wird ja bei weitem nicht an diese Nummern herankommen. Auch ist der GPU draw sehr gering. Kann man hier annehmen, dass die Aufteilung des Power Draws bei dieser Custom Card einfach nicht stimmt? Auch PWR_SRC ist ziemlich hoch, wofür wird diese eigentlich verwendet? Sollte doch eigentlich auch auf den GPU gehen, oder?

Teil 2)
Im Review schreibst du, dass Microns GDDR6X für 21 Gb/s spezifiziert ist.
Laut dem für DAU's zugänglichem Datenblatt (ich hoffe mal, dass es das Richtige ist) (Link: Micron) gibt es sowohl eine 19Gb/s als auch eine 21Gb/s Option. Kann es sein, dass Nvidia packages mit beiden and die OEM/ODM's verschickt? Oder werden bei 3080 (3090) hier tatsächlich nur die auf 21Gb/s spezifizierten genutzt.

LG :)
 

Anhänge

  • 3080TuF.png
    3080TuF.png
    363 KB · Aufrufe : 23
Noch einmal:
GPU-Z liest Schmarrn aus, das stimmt hinten und vorn nicht. Selbst das hauseigene Engineering-Tool gibt nur die Spannungen von NVVDD und MSVDD (beides GPU!) aus, aber keine Leistung. Da hat Michi sich komplett vertan und ins Blaue geraten. Und der Speicher wird unter FBVDDQ geführt, MVDDC und PWR_SRC gibt es bei Ampere gar nicht mehr. Knicken bitte. PEXVDD ist die PCIe-Spannung, aber das sind keine 20 Watt.

Mircon produziert nur 21 Gbps Module. Die mit 19 angegebenen sind vielleicht die ausortierten, die den Spot scheinbar nicht ganz schaffen. Aber das hatten wir früher auch beim GDDR6, dass die Module eigentlich identisch waren und am Ende auf ähnlichen Taktraten laufen konnten. Im Review ist ja das Foto vom RAM. Daraus geht NICHT hervor, welcher das ist.

Im öffentlichen Datenblatt stehen 105 °C Tcase als max. Operating Temperature. Tjunction gibt man hier leider gar nicht erst an.
 
Da hast du ja mal wieder schöne Exklusivinfos für uns gewonnen Igor. (y)
Ich hab mir schon gedacht dass der Ram derart getoastet wird, wer eine Navi hatte wusste dass der Speicher hier ordentlich brutzelt.

So richtig trau ich den Karten nicht bzgl. der Haltbarkeit.
 
Das sind ziemlich unschöne Erkenntnisse. Wie die Boardpartner damit umgehen, wär sehr interessant oder ob es mit der 3090 gar anders gelöst wird.
 
Ich denke die Temps auf meiner TUF auf dem Speicher sollten auch so weit in Ordnung gehen, da hat man wirklich ne schöne Kühllösung gefunden für den Ram auf der Karte. Ich kann den Speicher bis +940Offset ziehen und scheitere knapp an den 21Gbps.
 
kann da ein Custom Design mit Custom Kühler überhaupt einen Unterschied machen?

Aber hallo !
Dieses FE Design sah im ersten Monent vielleicht toll und Hightech aus, aber ... wie soll ich's sagen !? Ich nehm auf jeden Fall ein Custom Design.
Da gibt es schöne Lösungen.

Wie Gurdi etwas weiter oben sagte, hat die TUF z.B. ganz eigene Lösungen dafür.
btw @Gurdi Lese ich da heraus, dass du eine bekommen hast ? Die scheint ja echt besser geworden zu sein, als ich zuerst dachte.
Mag es sein, dass sie sich die Kritik zuletzt zu Herzen genommen haben und diesmal sogar versuchen, ihren Ruf durch besonders tolle Herstellung zum fairen Preis(auf der TUF) wieder aufzubessern ?

Schaut mal hier bei HU:


Das sieht echt gut aus, in meinen unwissenden Zockeraugen. :)
Die TUF sieht nicht aus wie ein Blender. Die hat da echt viel Metall verbaut. Selbst die Backplate, die bei manchen Karten wieder irgendein Mischmaterial ist(Plastik) is bei der wohl auch aus Alu.

Sieht echt gut aus.

Vor allem hab ich gehört, dass die nicht schlechter wird, je günstiger die Teile sind, also das "nicht OC Modell" scheint ebenfalls den gleichen Kühler zu bekommen. Und die 30 MHz niedrigerer Takt durch Selektion(falls überhaupt ;) ) da kann ich durchaus mit leben. :) Watt runter, FPS Limiter rein, feddich. :D


PS: @RawMangoJuli hatte mir ja auch schon gesagt, ich soll die TUF nicht zu früh abschreiben, bzw. mir noch mal genauer ansehen.
Hatte nur 2 Berichte gesehen, die beide Spulenfiepen kritisiert hatten und die direkt aussortiert aus meiner Auswahl, aber wie es scheint zu früh ! :)
 
Zuletzt bearbeitet :
ich hoffe auch Wasserkühler für die 3080 die beide Seiten der PCB kühlen. Damit dürften die Temperaturen niedrig gehalten werden können.
 
Ich hoffe AMD wirft wieder etwas mit HBM auf dem Markt, technisch ist das die Zukunft, alles auf und bei dem DIE, besser kann man die Wärme ja wohl nicht abführen als noch X Bausteine ringsrum, die auch mal nett einzeln ausfallen können...
 
Hmm, wenn die Referenzplättchen für die Boardpartner "eigentlich besser" sind, stellt mir sich die Frage warum nV für sich selbst auf die Mini-PCB Lösung gesetzt hat? Die Entwicklung dürfte doch parallel gelaufen sein, oder? Ist das ein typischer Fall von Rechte Hand - Linke Hand -Kommunikation braucht man nicht? Es klingt irgendwie ein bisschen nach der typischen Großkonzern-Krankheit. Da würde ich gerne mal Mäuschen spielen was da intern abgegangen ist. 😇
 
.
 
Zuletzt bearbeitet von einem Moderator :
Es wird Zeit das es neben dem 08.10 zügig 28.10 wird.
Spekulationsmodus an: Wenn ich mir das Lineup und die Preisgestaltung von Nvidia ansehe, habe ich den Eindruck, dass BigNavi mit den beiden Chips und den kolportierten 16GB RAM doch eine gute Chance haben, wenn die Leistung auch noch im Bereich 3070 respektive 3080 liegt.
Wer nicht an GSync gebunden ist, kauft doch keine 3080 mit nur 10GB, wenn die Konkurrenz im Falle vergleichbaren Leistung und Preises 6GB mehr drauflegt.
Die beiden Wenns - AMD kommt an die Leistung ran und hat - die Produktionskosten betreffend - die Möglichkeit, den Angebotspreis auf dem Niveau der Konkurrenz zu halten - vorausgesetzt. Igor hat ja glaube ich schon ein bisschen „Erwartungen an BigNavi zurückschrauben“ angedeutet.

In anderen Foren ist viel Hoffnungs-Geschreibsel über noch potentielle Leistungssteigerung seitens Nvidia über die Software.
 
.
 
Zuletzt bearbeitet von einem Moderator :
Galax bitte nicht mit Inno3D verwechseln. Die haben den 4 (und m.E.) unnützen Lüfter. Gabs schon mal als iChill x4 und war Nonsens.
 
Die Galax hat nen zusätzlichen Hecklüfter verbaut.
Ich nehme an, mit 4. Fan Rückseite?
So doof ist der ja nicht platziert, weil da vermutlich da keine heiße Luft heraus kommt bei Durchsatz und mein Speicher sich für bisschen Luftbewegung freuen würde.
Meine letzten beiden neu gekauften VGA sind KFA² (1070ti und 2070Super) war eigentlich zufrieden - hatte schon nach KFA² 3080 geschaut.
Gibt es von dir einen Test?
Bestimmt, sonst wäre es ja kein Spoiler^^


 
Zuletzt bearbeitet :
Oben Unten