Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 3080 Ti FE im Test – Fast schon eine RTX 3090, aber mit halbiertem Speicherausbau für Gamer

Platinenanalyse und Spannungsversorgung

Die bei Foxconn assemblierte Karte besitzt die von mir bereits im Frühjahr 2020 beschriebene 12-Layer-Platine mit Backdrill-Verfahren. Auch die Art der Spannungsversorgung ist beim GA102-225 wieder analog zu den anderen Karten mit dem GA102 gestaltet. Werfen wir einmal einen Blick auf die Oberseite der Platine, dann erkennen wir sofort die Zweiteilung der Hauptspannungsversorgung. NVDD (Blau) steht für die herkömmliche Core-Voltage, also das, was wir gern als GPU- Spannung bezeichnen. Und doch unterscheidet sich diese Platine leicht von der Platine der GeForce RTX 3080, denn NVIDIA hat auch aus den thermischen Problemzonen die richtigen Schlüsse gezogen.

Hier sind es insgesamt jetzt 10 statt neun einzelne Phasen für NVDD, die von einem Monolith MP2888A auf der Rückseite (Blau) bzw. einem pin-kompatiblen Äquivalent bereitgestellt werden. Hier handelt es sich um einen digitalen PWM-Controller mit VID-Interface, kompatibel zu NVIDIAs Open VReg Spezifikation. Der MP2888A kann bis zu 10 Phasen generieren, ist also hier jetzt auch voll ausgelastet. Die 10 Phasen werden jeweils mit noch sehr spärlich dokumentierten Smart Power Stages (SPS) MP86957 des gleichen Herstellers realisiert, die auch eine MOSFET DCR ermöglichen.

Die Bestückung der Spannungsversorgung MSVDD (Grün), die ich als “Gedönsspannung” bezeichnet hatte und die für “Miscellaneous” steht, ist ähnlich aufgebaut. Wir finden insgesamt noch fünf (statt sechs bei der RTX 3080) einzeln angesteuerte Phasen, die von einem MP2886B von Monolith (Rückseite) erzeugt werden, also dem kleinen Bruder des MP2888A von eben. Die sechs SPS setzen wieder auf den MP85957 desselben Herstellers. Am Ende ergeben sich also 15 Phasen allein für die GPU und die verschiedenen Spannungen zur selbigen. Damit sollte auch das Power-Gating in der GPU etwas einfacher werden, wobei AMD mit VDDCI ja eine ähnliche, wenn auch viel kleinere Auslagerung nutzt. Der Spannungsspielraum beider Bereiche liegt zwischen 0.7 und maximal 1.2 Volt, wobei der Maximalwert ohne spezielle Firm- und Software vom Endanwender nie erreicht werden kann.

Die Verlagerung des hinzugekommenen Regelkreises für NVDD nach links macht auch thermisch durchaus Sinn, denn eine Phase mehr trägt nicht nur der um bis zu 30 Watt gestiegenen TBP im Power Limit Rechnung, sondern es reduziert auch die Verlustleistung jeder einzelnen Phase, denn auch die Schaltfrequenz scheint angepasst worden zu sein. Rechnet man für die zwei hinzugekommenen Speichermodule zusammen noch ca. 5 bis 6 Watt ab, dann entfallen mit Sicherheit so um die 20 Watt mehr auf NVDD, der Rest von 4 bis 5 Watt ist dann für MSVDD.

Für den Speicher nutzt NVIDIA drei Phasen, die ein noch weiter abgespeckter MP2884B von Monolith erzeugt, wobei auch hier die SPS von gleichen Typ sind, wie die bisherigen. Der PWM-Controller befindet sich jedoch auf der Vorderseite Die SPS der PCI-Express-Spannung PEXVDD und der 1,8 Volt befinden sich ebenfalls auf der Rückseite, die dazugehörigen Spulen vorn auf der Frontseite. Dort gibt es rechts unten auch noch eine 5V-Aufbereitung. Wir sehen hier auf der Rückseite auch noch mehrere Wärmeleitpads, vor allem ein großes auf den Caps von NVDD, was zeigt, das sich NVIDIA den Pad-Mod und meine Anmerkungen zum Hotspot auf der Platine recht aufmerksam durchgelesen haben muss.

Zur Eingangsglättung nutzt man drei Spulen mit jeweils 1 µF hinter denen ein Shunt liegt, über dessen Spannungsabfall man die fließenden Ströme misst. Da aber die Firmware auch die MOSFET DCR der SPS auswerten kann, sind Shunt-Mods nicht mehr so ohne weiteres möglich. Rechts daneben sehen wir den großen PWM-Controller MP2880A von Monolith für NVDD auf der Rückseite.

Die beiden nachfolgenden Bildern zeigen stellvertretend für alle SPS einen der Power Stages vom Typ MP86957, der bei allen drei großen Versorgungskreisen eingesetzt wird, sowie exemplarisch eine der vielen 220 mH Spulen. Den MP2880A für MSVDD schenke ich mir hier mal als Bild, denn der sieht nicht viel anders aus als der MP2884B des Speichers.

Wir sehen unten den MP2884B für den Speicher und eines der Speichermodule von Micron. Die insgesamt 12 1-GB-Module des GDDR6X Speichers kommen von Micron. Der Speicher läuft mit nur 19 Gb/s, obwohl er eigentlich 21 Gb/s könnte. Inwieweit NVIDIA hier thermischen Problemen vorbeugen wollte, lässt sich natürlich nur spekulieren.

Kühler und Demontage

Das Auseinandernehmen des Kühler ist reichlich tricky, hier verweise ich gern auf das passende Video, das ich bereits für die GeForce RTX 3080 zweisprachig hochgeladen habe und das analog auch 1:1 für die RTX 3080 Ti gilt. Der Body ist überwiegend aus Leichtmetall mit einer recht cleveren Oberfläche, was mich auch beim Unboxing aufgrund des eingearbeiteten “GEFORCE RTX” Schriftzuges zunächst von einem mit Metallpulver beschichteten Kunststoff ausgehen ließ. Der eigentliche Kühler ist mehrteilig und besteht aus einem effizienten, vernickelten Heatsink an dessen Rückseite vier abgeflachte Heatpipes verlötet wurden, die sich dann längs bis zum Kartenende hinziehen.

Über dem Heatsink und dem offenen Aufbau sitzen insgesamt zwei PWM-geregelte 8.5-cm-Lüfter mit einer sehr interessanten Rotorblatt-Geometrie, die fast schon an das Design von Radial-Lüftern erinnert. Nun ja, fast. Aber auch die maximale Drehzahl der beiden getrennt geregelten Lüfter (Front bis zu 3800 U/min, Rückseide bis zu 3400 U/min) ist nicht gerade ein Ausdruck vornehmer Zurückhaltung. Wollen wir mal hoffen, dass es hier leiser bleibt, als die Karte könnte, wenn sie denn müsste.

Die Backplate besteht ebenfalls aus Leichtmetall, das man außen mattschwarz beschichtet hat. Der Hersteller verbindet thermisch nur die Spannungswandler, sowie die PWM-Controller mit der Backplate. Die Bereiche unter dem Speicher und dem BGA bleiben rückseitig ohne Kühlung.

Über das Prinzip mit den verschiedenen Ansaug- und Ausblasrichtungen wurde ja schon ausgiebig spekuliert, so dass ich mich nicht mehr wiederhole, sondern nur noch einmal die Folie bemühe. Den Test im geschlossenen Gehäuse sehen wir dann ja eh noch.

Kommentar

Lade neue Kommentare

Thy

Urgestein

1,843 Kommentare 745 Likes

Haben! Nur wo?

Edit: Danke für den informativen Artikel, der meine Kaufentscheidung bestärkt.

Antwort Gefällt mir

Igor Wallossek

1

11,307 Kommentare 21,447 Likes

Gute Frage. Frag doch Jensen :D

Antwort Gefällt mir

R
Rheinfels

Mitglied

52 Kommentare 28 Likes

Der Link unter dem Artikel zum Forum führt, zumindestens bei mir, ins leere.
Ansonsten spannende Grafikkarte, nur wenn man mal von den UVPs ausgeht sind es 700€ für die 3080 vs 1200€ für die 3080 Ti für 9,3%+ laut Fazit. Das finde ich schon heftig. Aber wen interessieren heutzutage schon UVPs, das ist ja so 2020...🤪

Antwort 1 Like

G
Guest

Sinnlose Karte wie jeder Vollausbau, eine 3080 mit 12GiB VRAM hätte von Anfang an mehr Sinn ergeben. 500 $ mehr für 2GiB VRAM und 5-10fps, sieht wie melken aus. Die direkte Konkurrenz ist die 3080 und da verliert die ti vor allem beim Preis. Ich weiß nicht wie man Karten, die teilweise 400w schlucken noch positiv bewerten soll. Passt absolut nicht mehr in diese Zeit.

Antwort 2 Likes

RX480

Urgestein

1,920 Kommentare 900 Likes

Aus technischer Sicht ist das Ganze schon interessant., weil die 12GB sparsamer sind als die 24GB.
Schade eigentlich nur, das net der größere Kühler der 3090 für die Ti genommen wurde.

Vermutlich wäre dann der eff.Takt der Ti ca.30-45MHz höher und man würde noch in mehr Games
an der 3090 vorbeiziehen.

In einer idealen Welt hätte Es auch ne 3090 mit nur 16...20GB in Form von 2GB-Modulen gegeben.
Uups, da hätte man ja fast ne 6900 super.

Antwort 1 Like

P
Phoenixxl

Veteran

160 Kommentare 124 Likes

Wenn ich die angeblichen Preise höre, dann kann ich mich nur freuen für eine 6900 XT Ref. 1300 bezahlt zu haben (550 gab es für meine alte 1080 ti).

Bin wirklich gespannt, was amd Treiberseitig noch bringt, wie z.B. die DLSS Alternative.

Raytracing mag interessant klingen, bei CoD Modern warfare habe ich die Kampagne einmal ohne gespielt (1080 ti) und jetzt mit. Ich merke davon exakt NICHTS. Mit Screenshots ist das sicherlich möglich, aber so? Fehlanzeige!

Antwort 1 Like

g
gerTHW84

Veteran

414 Kommentare 254 Likes

@gastello: Die Karte wird nicht weniger "sinnvoll", weil die erst jetzt kommt. *) Zudem ist die späte Veröffentlichung für nVidia in jeder Hinsicht ebenso sinnvoll, denn der Chip bewegt sich nahe dem Vollausbau, d. h. der Yield wird hier durchaus zum Thema. Mittlerweile hat man die 3080 als eine Art "Resteverwertung" (etwas überspitzt formuliert), die A6000 und A40 nutzen den Vollausbau und die 3090 und 3080 Ti nahezu den Vollausbau, d. h. hier gibt es durchaus einiges an Produkten zu versorgen und das muss sichergestellt sein und da macht ein gestaffelter Start Sinn. In einer naiven Sichtweise könnte man zwar fordern, dass der Hersteller doch einfach mit viel mehr Vorlauf zu produzieren beginnen wollte, offensichtlich ist das betriebswirtschaftlich aber eher eine schlechte Idee, jedenfalls scheinen AMD und nVidia bspw. nicht allzu viel davon zu halten. ;-)
Die Karte ergänzt das Portfolio und bietet nahezu die Leistung einer 3090 für rund 300 € weniger UVP. Und so wie ich nVidias Product Development einschätze, wird die sich auch gut verkaufen, denn die werden schon sehr genau erarbeitet haben, was der Markt hier abnimmt und was nicht.
Ergänzend ist deine Watt-Betrachtung zwar löblich, nur gibt es auch einen nennenswerten Anteil Gamer, denen das egal ist und die Auflösung und visuelle Qualität über alles stellen und solange es diesen Markt gibt, wird der auch bedient, denn würde nVidia den brachliegen lassen, würde sich AMD den schnappen (oder vielleicht in den nächsten ein, zwei Jahren Intel).

*) Abgesehen davon hat sich am allgemeinen IT-Mantra nichts geändert in den letzten Jahrzehnten. Wer länger wartet bekommt mehr Leistung und zumeist auch noch für weniger Geld.

@RX480: Ich denke die Custom-Designs werden tendenziell interessanter sein und in in wie weit man da die NV-Shop-Lotterie in die Waagschale werfen kann bzgl. des Preises ... hmm. ;-)
Zudem werden hier absehbar vereinzelte Modelle, wie Igor schon skizzierte, die ein oder andere 3090 ggf. gar auch vollends erreichen, insbesondere die FE.

Btw ... eine 3090 mit 256 Bit-Interface würde bandbreitentechnisch verhungern. ;-)

@Phoenixxl: CoD ist glaube ich auch das denkbar schlechteste Beispiel diesbezüglich. Ich habe dazu einige RT-ScreenShots gesehen und war auch mit der Lupe am suchen bzgl. der RT-Effekte. Das sieht dort aus wie nur nachträglich angeflanscht, denn offensichtlich scheint man das Beleuchtungssystem, etc. weitestgehend unverändert beizubehalten und hat lediglich an einigen Stellen RT-Effekte "hinzugenommen", wobei letzteres, wie gesagt, mit anscheinend minimalstem Zugewinn; hätte man sich hier auch sparen können.
Andere Titel könnte da vielmehr von zehren.

Antwort Gefällt mir

Klicke zum Ausklappem
Igor Wallossek

1

11,307 Kommentare 21,447 Likes

Metro Exodus EE ist schon geil. Optisch wirklich ein Unterschied. 😁

Antwort Gefällt mir

RX480

Urgestein

1,920 Kommentare 900 Likes

1+

Verstehe Asus net so richtig, mit 360er AiO wärs echt geil! (wird wohl erst mit EVGA kommen)
(genauso wie bei der 6900XTH bleibt Asus bei 240er, ... besser ist die TOXIC mit 360er)

Antwort Gefällt mir

Klicke zum Ausklappem
G
Guest

Sehe ich absolut nicht so und was für Nvidia dabei heraus springt kann dem Anwender völlig egal sein. Ich kaufe keine Hardware weil ich einem millardenschwerem Unternehmen wohlgesonnen bin. Ich kaufe sie weil ich sie brauche, immer dann dann wenn bspw. neue Anforderungen an mein Hobby gestellt werden (wie Gaming) oder steigen (technische Neuerungen sich durchsetzen und sie als Standards gelten, das die alte Hardware nicht mehr packt oder sie ausgedient hat).

Wie die Vollausbauten in der Vergangenheit hat die 3080ti das gleiche Problem, nahe oder Vollausbau braucht einfach mehr, wobei sich der Leistungszugewinn nur lohnt wenn man das ausklammert. Und was die 3080ti angeht, musste die mit der Brechtstange an der 6900xt vorbei, schon wie die 3080 an der 6800xt vorbei musste. Wenig mehr FPS mit höherer Leistungsaufnahme einzukaufen, ist kein Wunder, dass kann jeder. Wenn das, dass neue Ziel in der Fortentwicklung werden oder sein soll, dann gute Nacht.

Eine Suprim X wird im Gamingloop jetzt 48db laut (hat dazu noch das schlechte Die, weil alles andere in der FE verwurstet wird, oder extrem teuer eingekauft werden muss), AMD hatte man unter Vega bei solchen Werten noch in der Luft zerrissen und in der Vergangenheit ziemlich belächelt und kritisiert. Die 3080ti ist nichts weiter eine melkende Kuh (werden eher für 2500$ aufwärts verkauft), die paar UVP Papiertiger die Interessenten erwerben können, sind doch nur eine Tropfen auf einen heißen Stein. Daran wird sich bis Mitte 2022 auch nichts ändern.

Wie wäre es denn mit einem neuen Stepping für die GA102 ala 3080 gewesen? Gleicher Preis bei 2GiB VRAM mehr (um endlich mal mit dem Klischee des zu wenigen VRAM bei Nvidia aufzuräumen?, die 3070ti kommt ja auch noch und könnte die Lücke schließen), wo UVP doch sowieso keinen interessiert. Nicht mal Nvidia selbst. Für 10% Mehrleistung dann auch noch 40% Preisaufschlag zu verlangen ist, wie du richtig feststellt einfach nur für Nvidia gut, für niemand anderen.

Mantra=wer länger wartet bekommt alten Tant (mittlerweile ein Jahr alt) mit etwas mehr Leistung und zahlt reichlich mehr. Tolle Produktpolitik, die nur der Gewinnmaximierung dient.

Nvidia und auch AMD muss sich also nicht wundern, dass immer mehr in den Konsolenbereich abwandern und Hardware im PC zu einem Art Goldstatus wird, den sich die meisten Normalo-Gamer kaum noch leisten können. Das erfordert dann Modelle wie der Mininghardware um die Kosten für die Entwicklung reinzubekommen, weil immer weniger bereit sind solche Preise noch zu zahlen. Natürlich kann man dann Karten die der Miner aus dem Gamingsegment kauft, auch unter Gaming verrechnen. Den Aktionären geht es dabei sichtlich gut. Eine hohe Anzahl abgesetzter Karten und nur wenige Prozentpunkte mehr in Statistiken wie Steam, decken diese Art Vorgehensweise zu Lasten der Gamer fast zu erbarmungslos auf. Traurig. Also interessieren die Gamer kaum, wenn sie nicht bereit sind Mondpreise für Hardware zu zahlen. Ein Standbein mit dem die gesamte Branche und besonders Nvidia groß geworden ist. Dank NDAs liest man solcherlei Kritik immer weniger.

Antwort 1 Like

Klicke zum Ausklappem
blazethelight

Mitglied

36 Kommentare 16 Likes

Sehr guter Test Igor!
Vielen Dank.

Besonders die Audio Datei zum Geräusch Charakter finde ich Klasse und kannst du gerne zum Standard machen! 👍

Somit fällt die Karte für mein M-ITX raus (zu hoher Verbrauch und die Lautstärke passt mir nicht).

Drückt mir die Daumen, dass ich eine RX 6800 ergattern kann.

Antwort Gefällt mir

Igor Wallossek

1

11,307 Kommentare 21,447 Likes
G
Guest

@blazethelight
Würde da nicht auch eine 6700xt reichen? Gleiche VRAM Menge, die die GPU eh nicht füllt. Die Customboards fallen alle rieisg aus, was Formate wie M-ITX angeht. Dann würde sich eine Referenz empfehlen (6800 non XT) die man kaum bekommt, aber der Kühler auch nicht besonders leise agiert, sonst eine 3070FE in die engere Wahl einschließen, vermutl. auch Referenzdesign. Undervolten über den AMD Treiber geht wiederum problemlos, was die Lautstärke positiv beeinflussen kann.

Antwort Gefällt mir

RX480

Urgestein

1,920 Kommentare 900 Likes

Die 6800ref und die Gigabyte sind small. (kürzer)

Ne 6700XT@OCen ist keine gute Wahl für kleine Gehäuse. Ist am Ende hot+laut ggü. 6800@UVen.(x)
Man sollte immer seinen Moni+Fps-Limit kennen und danach die erf. Hardware dimensionieren.
Für Games ohne FSR ist Es günstig, wenn der Moni/TV auch mit 1800p statt 4k kann.(ein 30Hz-Mode=DoubleVsync hilft auch)
Den Rest machen dann die Regler in den Game Settings.(meist schafft schon ein mixed Setting die Graka 99% auszulasten)
Wer MAXED spielt ist selbst dran Schuld. (für 5% mehr Optik 50% mehr W)

Mit FSR wirds dann sparsamer, siehe Ghostrunner @TSR bzw. 50% FX Upsampling.

(x) 6800 bei mir: Ich gehe auch nur so hoch mit den realen W asic wie Gurdi im HTPC = kühl+leise
(MSi 6800 Gaming X trio)

Antwort Gefällt mir

G
Guest

Wenn er über eine 3080ti nachdachte? Die FE wird jedenfalls zum Fön (2750udm, 550 mehr als eine 3080, Peak 400w) und der VRAM wird trotzdem 104°C warm (unter Lastszenarien auf Dauer, Gaming usw.). Erinnert an Turing. Der Referenz-Kühler der 3080 passt nicht zur ti, die kann richtig laut werden.

6700 eben weil's um Referenzen ging (die 6800 ist trotzdem nicht besonders leise im Referenzdesign, dann lieber die 6800xt undervolten), die Platinen der Custom's selbst sind nicht riesig, aber die Kühlkörper (ragen teilweise deutlich darüber hinweg).:)

Natürlich ist das Auflösungsverhältnis + Bildrate zielführend und dabei das eigene Preset und der Anspruch. Im M-ITX Format der Platz fürs Netzteil, wo die 6800 schon eine Nummer größer braucht. Die kann Peak deutlich mehr ziehen als eine 6700. Avg Last sagt letztlich nicht viel aus, bzw. nur was dauerhaft an Abwärme abgeführt werden muss (TD...was auch immer).

Antwort 1 Like

G
Guest

Ach die Strix Ti hätte ich mir gefallen lassen - die hat bestimmt ordentlich BUMS und würde meine im Gaming schlagen. 🤩

Versteh aber nicht warum im Herbst nicht gleich die 3080 sowie 3080 Ti rauskamen und die 3090 als Titan für Creator oder so... :rolleyes:

Aber heute haben wieder viele in die Röhre geguckt. Leidiges Thema...

Quelle surprise! :ROFLMAO:

View image at the forums

Antwort Gefällt mir

HerrRossi

Urgestein

6,909 Kommentare 2,297 Likes

Ich könnte eine 3080 ti Strix für nur 2.800 EUR direkt lieferbar bestellen. Wer will nochmal wer hat noch nicht :ROFLMAO:

Antwort Gefällt mir

RX480

Urgestein

1,920 Kommentare 900 Likes

Antwort Gefällt mir

RX480

Urgestein

1,920 Kommentare 900 Likes

Mit Fps-Limit und vernünftigen Settings in Game kommt man schon ein Stück, kann ja versuchen ca. 5-10W unter seiner
kühlbaren Schmerzgrenze ne Einstellung zu finden. (und mit Chill-Untergrenze ca. 3 Fps unter Limit nochmal zusätzlich sparen)
Fanstopp gehört = AUS.

Wenn die Spawas erstmal auf 100°C sind ist eh die Effizienz im Eimer.
Dann lieber ne stramme Lüfterkurve und die Lautstärke vom TV anheben.

Kann da nur auf Gurdi´s HTPC verweisen, der einen extrem schlechten Airflow hat.

(seine Settings wird net jeder Chip 1:1 schaffen, meiner auch net)

Antwort Gefällt mir

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung