Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 3080 Ti FE im Test – Fast schon eine RTX 3090, aber mit halbiertem Speicherausbau für Gamer

Nach dem heißen Herbst 2020 und der nunmehr fast schon ewig scheinenden Grafik-Karten-Durststrecke, haben wir zwischenzeitlich auch viele neue Begriffe und diverse Nöte kennengelernt. Wer nicht gerade auf SM-Spielchen steht, also auf Scalper & Mining, der hat es gegenwärtig wirklich schwer, seinen Wunschtraum einer neuen, super-schnellen Pixelschleuder in einem vernünftigem Rahmen zu realisieren. Und dann kam die GeForce RTX 3080 Ti samt LHR. Ich will und kann keine Prognosen abgeben, wie wirkungsvoll die neue Gangart zumindest gegen die Casual-Miner auch in Zukunft sein wird, aber genau dieses neue Gaming-Produkt aus Jensens GeForce-Küche habe ich heute für Euch im Test. 

Ohne es vorab zu spoilern, weil Ihr es ja noch lesen sollt, die Tests haben sich auch diesmal wirklich gelohnt. Ob es am Ende die Founders Edition für eine UVP von 1199 Euro oder eine Boardpartner-Karte wird (falls mal was im Angebot als bestellbar auftaucht), das muss jeder mit sich, seinen Präferenzen, seinem modischen Geschmack und natürlich auch dem Füllstand des Gelbeutels sowie der Marktlage ausmachen. Der Einzelhandel ist leider wie immer mit im Boot, denn Angebot und Nachfrage regeln leider wie immer den Preis, Weniger teurer zu verkaufen ist da auch keine Lösung im Sinne der Kunden, aber Knappheit weckt nun mal auch Begehrlichkeiten.

Die neue GeForce RTX 3080 Ti soll sich zwischen der GeForce RTX 3080 und der RTX 3090 einordnen. Doch ob sie genau in die Mitte fällt oder sich das Pendel vielleicht doch eher in Richtung der kleineren oder größeren Karte bewegt, dass muss heute noch herausgefunden werden. Denn am Ende möchte NVIDIA ja eine Gaming-Grafikkarte für höchste Ansprüche unters Volk bringen, was bei der GeForce RTX 3090 durch Preis und Verfügbarkeit, sowie den immensen Speicherausbau eher nicht so Massen-kompatibel ausschaute. Diese RTX 3090 ist und bleibt wohl auch ein Leuchtturm-Projekt. Doch man sinnt ja immer noch auf Rache wegen AMDs Radeon RX 6900XT, die der RTX 3090 schon oft recht nahe kam.

Und dann wären wir wieder beim unsäglichen Just buy it! eines gewissen Kollegen aus Übersee. Schön wär’s ja, wenn man es so könnte (wie man möchte) und es seinerzeit auch so bestellt wurde. Doch solcherart Vorschusslorbeeren gibt es hier keine, denn der neueste Spross aus NVIDIAs Hochglanz-Katalog muss erst mal zeigen, was er wirklich kann. Die Gene passen schon einmal, denn das Herzstück der GeForce RTX 3080 Ti ist der GA102-225 Grafikprozessor. Er basiert auf Samsungs speziell für NVIDIA entwickeltem 8-nm-Prozessknoten und verfügt über insgesamt 28 Milliarden Transistoren. Den kennen wir ja schon vom letzten Jahr.

Er misst knapp 628 mm², was ihn zum zweitgrößten jemals produzierten Gaming-Grafikprozessor direkt unter dem Turing TU102 Grafikprozessor macht. Für die GeForce RTX 3080 Ti hat NVIDIA immerhin 80 SM-Einheiten auf seinem Flaggschiff aktiviert, was zu insgesamt 10240 CUDA-Kernen führt. Zusätzlich zu den CUDA-Kernen ist NVIDIAs GeForce RTX 3080 Ti auch mit RT-Kernen der nächsten Generation (Ray-Tracing), Tensor-Kernen und den neuen SM- oder Streaming-Multiprozessoreinheiten ausgestattet. Was den Speicher betrifft, so ist die GeForce RTX 3080 Ti mit 12 GB GDDR6X Speicher ausgerüstet, der Speichergeschwindigkeiten von 19,0 Gbps liefern kann. Zusammen mit einem 384 Bit Interface wird dies eine kumulative Bandbreite von 912,4 Gbps liefern.

Alle GeForce-Karten wurden mittlerweile gepatcht, so dass alle Karten im Testfeld mit dem erweiterten Speicherbereich (Resizeable BAR) umgehen können, was die Charts deutlich vereinfacht und im Artikel auch nicht weiter erwähnt werden muss.

Die GeForce RTX 3080 Ti Founders Edition

Theorie, naja, nimmt man gern mit, aber jetzt geht es direkt und schnörkellos ans Eingemachte. Das Gehäuse der Karte ist ein ziemlich cleverer Mix aus Leichtmetall, Kunststoff und Eisenwaren, der sich toll und wertig anfasst und zudem auch optisch ordentlich was hermacht. Das Design mit den 3.8 cm Einbautiefe und der 4 mm Backplate macht diese Karte zu einem astreinen Dual-Slot-Design mit allen bekannten Vor- und Nachteilen. Man kann es lieben oder hassen, es schreckt in Form dieser Grafikkarte aber nicht ab, trotz den Leistungsaufnahme, die es zu bewältigen gilt.

Mit den 1372 Gramm ist die Karte beileibe kein Fliegengewicht und 20 Gramm schwerer als die RTX 3080 ohne Ti, was wohl auf die zwei hinzugekommenen Speichermodule zurückzuführen ist. Die Länge von 28,5 cm ist moderat auch die Einbauhöhe ist mit 10,5 cm ab der Oberkante des PCIe-Slots bei eingebauter Karte bis zur Oberseite der Abdeckung nichts, was Angst einflößen sollte. Der lustige 12-Pin Micro-Fit 3.0 an der Oberseite ist um 45° abgeschrägt und zeigt leicht nach hinten. Hier darf man dann den mitgelieferten 12-Pin Adapter anschließen, an den die zwei herkömmlichen 6+2-Pin Stecker passen, die man ja schon seit Jahren kennt. Ihr werdet auf der nächsten Seite noch die Platine sehen und verstehen, warum das so sein musste. Form follows Function, oder so. Zum Kühlerdesign gibt es dort dann gleich auch noch weitere Details.

NVIDIA verzichtet wieder auf den USB Type C am Slot-Panel, wohl auch deshalb, weil sich der VR-Hype mittlerweile wieder deutlich abgekühlt hat. Interessanterweise hat AMD dieses Feature bei Big-Navi mit aufgenommen, während man hier damit bereits abgeschlossen zu haben scheint. Der HDMI-2.1.-Anschluss darf nicht fehlen, die drei aktuellen 1.4-DisplayPorts natürlich auch nicht. Die großen Kühlöffnungen zeigen, woher (bzw. wohin) der Wind weht und damit wären wir mit den Äußerlichkeiten auch schon wieder komplett fertig. Es ist ja nichts komplett Neues.

Die Daten der Founders Edition zeigt uns noch einmal der aktuelle GPU-Z Screenshot, den Rest hatte ich ja schon weiter oben aufgeführt. Die 1365 MHz Basis und die 1665 MHz Boost-Takt sind sind ja bereits genauso bekannt, wie die 1188 MHz Speichertakt und er Speicherausbau mit 12 GB am 384-Bit Interface. Man liegt beim Takt leicht unterhalb der beiden anderen Karten, was aber nicht verwundert. Kannibalisierung ist bei NVIDIA gerade nicht so sehr in Mode.

Im direkten Vergleich zu den anderen neuen Karten liegt die RTX 3080 Ti mit der 3090 am oberen Ende der Nahrungskette und der leistungsbezogene Abstand der 1199-Euro-Karte zur 1499 Euro teuren GeForce RTX 3090 ist deutlich kleiner als der Preisunterschied. Auch hier habe ich noch einmal eine Tabelle für alle Statistiker unter Euch, bevor es dann ab der nächsten Seite wirklich voll losgeht.

  GeForce RTX 3070 GeForce RTX 3080 GeForce RTX 3080 Ti
GeForce RTX 3090
GPU GA104-300 GA102-200 GA102-225
GA102-300
Process Node Samsung 8 nm
Die Size 395.2 mm2 628.4 mm2
Transistoren 17.4 Mrd. 28 Mrd.
CUDA Cores 5888 8704   10496
TMUs/ROPs TBA 272 / 96 320/112
TBA
Tensor/RT 184 / 46 272 / 68 320 / 80 328 / 82
Basis-Takt
1500 MHz 1440 MHz 1365 MHz
1400 MHz
Boost-Takt
1730 MHz 1710 MHz 1665 MHz
1700 MHz
Speicher 8 GDDR6 10 GB GDDR6X 12 GB GDDR6X 24 GB GDDR6X
Interface 256-bit 320-bit 384-bit 384-bit
Durchsatz 14 Gbps 19 Gbps 19 Gbps
19.5 Gbps
Bandbreite 448 Gbps 760 Gbps 912.4 Gbps
936 Gbps
TGP 220W 320W 350 W
350W
Launch 15.10.2020 17.09.2020 02.06.2021
24.09.2020

Testsystem und Auswertungssoftware

Das Benchmarksystem ist neu und steht jetzt nicht mehr nur im Labor, sondern auch wieder als Doublette im Redaktionsraum. Ich setze auch auf PCIe 4.0, das passende X570 Motherboard in Form eines MSI MEG X570 Godlike (Gaming-Benchmarks) bzw. einem MSI MEG X570 Ace (Messlabor) und jeweils einen selektierten Ryzen 9 5900X, die beide wassergekühlt bis auf 4.7 GHz übertaktet wurden. Dazu kommen der passende DDR4 3800 RAM (Corsair, G.Skill) sowie mehrere schnelle NVMe SSDs. Für das direkte Loggen während aller Spiele und Anwendungen nutze ich NVIDIAs PCAD, was den Komfort ungemein erhöht.

Die Messung der Leistungsaufnahme und anderer Dinge erfolgt hier im Speziallabor auf einem redundanten und fast identischem Testsystem dann zweigleisig mittels hochauflösender Oszillographen-Technik…

…und dem selbst erschaffenen, MCU-basierten Messaufbau für Motherboards Grafikkarten (Bilder unten), wo am Ende im klimatisierten Raum auch die thermografischen Infrarot-Aufnahmen mit einer hochauflösenden Industrie-Kamera erstellt werden. Die Audio-Messungen erfolgen außerhalb in meiner Chamber.

Die einzelnen Komponenten des Testsystems habe ich auch noch einmal tabellarisch zusammengefasst:

Test System and Equipment
Hardware:
AMD Ryzen 9 5900X @4.7 GHz
MSI MEG X570 Godlike / X570 Ace
2x 16 GB DDR4 3800, CL16
Be Quiet! Dar Power Pro 1200W
Cooling:
Alphacool Eisblock XPX Pro
Alphacool Eiswolf (modified)
Alphacool Subzero
Case:
Raijintek Paean
Monitor: BenQ PD3220U
Power Consumption:
Oscilloscope-based system:
Non-contact direct current measurement on PCIe slot (riser card)
Non-contact direct current measurement at the external PCIe power supply
Direct voltage measurement at the respective connectors and at the power supply unit
2x Rohde & Schwarz HMO 3054, 500 MHz multichannel oscilloscope with memory function
4x Rohde & Schwarz HZO50, current clamp adapter (1 mA to 30 A, 100 KHz, DC)
4x Rohde & Schwarz HZ355, probe (10:1, 500 MHz)
1x Rohde & Schwarz HMC 8012, HiRes digital multimeter with memory function

MCU-based shunt measuring (own build, Powenetics software)
Up to 10 channels (max. 100 values per second)
Special riser card with shunts for the PCIe x16 Slot (PEG)

NVIDIA PCAT and FrameView 1.1

Thermal Imager:
1x Optris PI640 + 2x Xi400 Thermal Imagers
Pix Connect Software
Type K Class 1 thermal sensors (up to 4 channels)
Acoustics:
NTI Audio M2211 (with calibration file)
Steinberg UR12 (with phantom power for the microphones)
Creative X7, Smaart v.7
Own anechoic chamber, 3.5 x 1.8 x 2.2 m (LxTxH)
Axial measurements, perpendicular to the centre of the sound source(s), measuring distance 50 cm
Noise emission in dBA (slow) as RTA measurement
Frequency spectrum as graphic
OS: Windows 10 Pro (all updates, current certified drivers)

Kommentar

Lade neue Kommentare

Thy

Urgestein

1,843 Kommentare 744 Likes

Haben! Nur wo?

Edit: Danke für den informativen Artikel, der meine Kaufentscheidung bestärkt.

Antwort Gefällt mir

Igor Wallossek

1

10,173 Kommentare 18,757 Likes

Gute Frage. Frag doch Jensen :D

Antwort Gefällt mir

R
Rheinfels

Mitglied

52 Kommentare 28 Likes

Der Link unter dem Artikel zum Forum führt, zumindestens bei mir, ins leere.
Ansonsten spannende Grafikkarte, nur wenn man mal von den UVPs ausgeht sind es 700€ für die 3080 vs 1200€ für die 3080 Ti für 9,3%+ laut Fazit. Das finde ich schon heftig. Aber wen interessieren heutzutage schon UVPs, das ist ja so 2020...🤪

Antwort 1 Like

G
Guest

Sinnlose Karte wie jeder Vollausbau, eine 3080 mit 12GiB VRAM hätte von Anfang an mehr Sinn ergeben. 500 $ mehr für 2GiB VRAM und 5-10fps, sieht wie melken aus. Die direkte Konkurrenz ist die 3080 und da verliert die ti vor allem beim Preis. Ich weiß nicht wie man Karten, die teilweise 400w schlucken noch positiv bewerten soll. Passt absolut nicht mehr in diese Zeit.

Antwort 2 Likes

RX480

Urgestein

1,858 Kommentare 851 Likes

Aus technischer Sicht ist das Ganze schon interessant., weil die 12GB sparsamer sind als die 24GB.
Schade eigentlich nur, das net der größere Kühler der 3090 für die Ti genommen wurde.

Vermutlich wäre dann der eff.Takt der Ti ca.30-45MHz höher und man würde noch in mehr Games
an der 3090 vorbeiziehen.

In einer idealen Welt hätte Es auch ne 3090 mit nur 16...20GB in Form von 2GB-Modulen gegeben.
Uups, da hätte man ja fast ne 6900 super.

Antwort 1 Like

P
Phoenixxl

Veteran

158 Kommentare 120 Likes

Wenn ich die angeblichen Preise höre, dann kann ich mich nur freuen für eine 6900 XT Ref. 1300 bezahlt zu haben (550 gab es für meine alte 1080 ti).

Bin wirklich gespannt, was amd Treiberseitig noch bringt, wie z.B. die DLSS Alternative.

Raytracing mag interessant klingen, bei CoD Modern warfare habe ich die Kampagne einmal ohne gespielt (1080 ti) und jetzt mit. Ich merke davon exakt NICHTS. Mit Screenshots ist das sicherlich möglich, aber so? Fehlanzeige!

Antwort 1 Like

g
gerTHW84

Veteran

409 Kommentare 248 Likes

@gastello: Die Karte wird nicht weniger "sinnvoll", weil die erst jetzt kommt. *) Zudem ist die späte Veröffentlichung für nVidia in jeder Hinsicht ebenso sinnvoll, denn der Chip bewegt sich nahe dem Vollausbau, d. h. der Yield wird hier durchaus zum Thema. Mittlerweile hat man die 3080 als eine Art "Resteverwertung" (etwas überspitzt formuliert), die A6000 und A40 nutzen den Vollausbau und die 3090 und 3080 Ti nahezu den Vollausbau, d. h. hier gibt es durchaus einiges an Produkten zu versorgen und das muss sichergestellt sein und da macht ein gestaffelter Start Sinn. In einer naiven Sichtweise könnte man zwar fordern, dass der Hersteller doch einfach mit viel mehr Vorlauf zu produzieren beginnen wollte, offensichtlich ist das betriebswirtschaftlich aber eher eine schlechte Idee, jedenfalls scheinen AMD und nVidia bspw. nicht allzu viel davon zu halten. ;-)
Die Karte ergänzt das Portfolio und bietet nahezu die Leistung einer 3090 für rund 300 € weniger UVP. Und so wie ich nVidias Product Development einschätze, wird die sich auch gut verkaufen, denn die werden schon sehr genau erarbeitet haben, was der Markt hier abnimmt und was nicht.
Ergänzend ist deine Watt-Betrachtung zwar löblich, nur gibt es auch einen nennenswerten Anteil Gamer, denen das egal ist und die Auflösung und visuelle Qualität über alles stellen und solange es diesen Markt gibt, wird der auch bedient, denn würde nVidia den brachliegen lassen, würde sich AMD den schnappen (oder vielleicht in den nächsten ein, zwei Jahren Intel).

*) Abgesehen davon hat sich am allgemeinen IT-Mantra nichts geändert in den letzten Jahrzehnten. Wer länger wartet bekommt mehr Leistung und zumeist auch noch für weniger Geld.

@RX480: Ich denke die Custom-Designs werden tendenziell interessanter sein und in in wie weit man da die NV-Shop-Lotterie in die Waagschale werfen kann bzgl. des Preises ... hmm. ;-)
Zudem werden hier absehbar vereinzelte Modelle, wie Igor schon skizzierte, die ein oder andere 3090 ggf. gar auch vollends erreichen, insbesondere die FE.

Btw ... eine 3090 mit 256 Bit-Interface würde bandbreitentechnisch verhungern. ;-)

@Phoenixxl: CoD ist glaube ich auch das denkbar schlechteste Beispiel diesbezüglich. Ich habe dazu einige RT-ScreenShots gesehen und war auch mit der Lupe am suchen bzgl. der RT-Effekte. Das sieht dort aus wie nur nachträglich angeflanscht, denn offensichtlich scheint man das Beleuchtungssystem, etc. weitestgehend unverändert beizubehalten und hat lediglich an einigen Stellen RT-Effekte "hinzugenommen", wobei letzteres, wie gesagt, mit anscheinend minimalstem Zugewinn; hätte man sich hier auch sparen können.
Andere Titel könnte da vielmehr von zehren.

Antwort Gefällt mir

Klicke zum Ausklappem
Igor Wallossek

1

10,173 Kommentare 18,757 Likes

Metro Exodus EE ist schon geil. Optisch wirklich ein Unterschied. 😁

Antwort Gefällt mir

RX480

Urgestein

1,858 Kommentare 851 Likes

1+

Verstehe Asus net so richtig, mit 360er AiO wärs echt geil! (wird wohl erst mit EVGA kommen)
(genauso wie bei der 6900XTH bleibt Asus bei 240er, ... besser ist die TOXIC mit 360er)

Antwort Gefällt mir

Klicke zum Ausklappem
G
Guest

Sehe ich absolut nicht so und was für Nvidia dabei heraus springt kann dem Anwender völlig egal sein. Ich kaufe keine Hardware weil ich einem millardenschwerem Unternehmen wohlgesonnen bin. Ich kaufe sie weil ich sie brauche, immer dann dann wenn bspw. neue Anforderungen an mein Hobby gestellt werden (wie Gaming) oder steigen (technische Neuerungen sich durchsetzen und sie als Standards gelten, das die alte Hardware nicht mehr packt oder sie ausgedient hat).

Wie die Vollausbauten in der Vergangenheit hat die 3080ti das gleiche Problem, nahe oder Vollausbau braucht einfach mehr, wobei sich der Leistungszugewinn nur lohnt wenn man das ausklammert. Und was die 3080ti angeht, musste die mit der Brechtstange an der 6900xt vorbei, schon wie die 3080 an der 6800xt vorbei musste. Wenig mehr FPS mit höherer Leistungsaufnahme einzukaufen, ist kein Wunder, dass kann jeder. Wenn das, dass neue Ziel in der Fortentwicklung werden oder sein soll, dann gute Nacht.

Eine Suprim X wird im Gamingloop jetzt 48db laut (hat dazu noch das schlechte Die, weil alles andere in der FE verwurstet wird, oder extrem teuer eingekauft werden muss), AMD hatte man unter Vega bei solchen Werten noch in der Luft zerrissen und in der Vergangenheit ziemlich belächelt und kritisiert. Die 3080ti ist nichts weiter eine melkende Kuh (werden eher für 2500$ aufwärts verkauft), die paar UVP Papiertiger die Interessenten erwerben können, sind doch nur eine Tropfen auf einen heißen Stein. Daran wird sich bis Mitte 2022 auch nichts ändern.

Wie wäre es denn mit einem neuen Stepping für die GA102 ala 3080 gewesen? Gleicher Preis bei 2GiB VRAM mehr (um endlich mal mit dem Klischee des zu wenigen VRAM bei Nvidia aufzuräumen?, die 3070ti kommt ja auch noch und könnte die Lücke schließen), wo UVP doch sowieso keinen interessiert. Nicht mal Nvidia selbst. Für 10% Mehrleistung dann auch noch 40% Preisaufschlag zu verlangen ist, wie du richtig feststellt einfach nur für Nvidia gut, für niemand anderen.

Mantra=wer länger wartet bekommt alten Tant (mittlerweile ein Jahr alt) mit etwas mehr Leistung und zahlt reichlich mehr. Tolle Produktpolitik, die nur der Gewinnmaximierung dient.

Nvidia und auch AMD muss sich also nicht wundern, dass immer mehr in den Konsolenbereich abwandern und Hardware im PC zu einem Art Goldstatus wird, den sich die meisten Normalo-Gamer kaum noch leisten können. Das erfordert dann Modelle wie der Mininghardware um die Kosten für die Entwicklung reinzubekommen, weil immer weniger bereit sind solche Preise noch zu zahlen. Natürlich kann man dann Karten die der Miner aus dem Gamingsegment kauft, auch unter Gaming verrechnen. Den Aktionären geht es dabei sichtlich gut. Eine hohe Anzahl abgesetzter Karten und nur wenige Prozentpunkte mehr in Statistiken wie Steam, decken diese Art Vorgehensweise zu Lasten der Gamer fast zu erbarmungslos auf. Traurig. Also interessieren die Gamer kaum, wenn sie nicht bereit sind Mondpreise für Hardware zu zahlen. Ein Standbein mit dem die gesamte Branche und besonders Nvidia groß geworden ist. Dank NDAs liest man solcherlei Kritik immer weniger.

Antwort 1 Like

Klicke zum Ausklappem
blazethelight

Mitglied

36 Kommentare 16 Likes

Sehr guter Test Igor!
Vielen Dank.

Besonders die Audio Datei zum Geräusch Charakter finde ich Klasse und kannst du gerne zum Standard machen! 👍

Somit fällt die Karte für mein M-ITX raus (zu hoher Verbrauch und die Lautstärke passt mir nicht).

Drückt mir die Daumen, dass ich eine RX 6800 ergattern kann.

Antwort Gefällt mir

Igor Wallossek

1

10,173 Kommentare 18,757 Likes
G
Guest

@blazethelight
Würde da nicht auch eine 6700xt reichen? Gleiche VRAM Menge, die die GPU eh nicht füllt. Die Customboards fallen alle rieisg aus, was Formate wie M-ITX angeht. Dann würde sich eine Referenz empfehlen (6800 non XT) die man kaum bekommt, aber der Kühler auch nicht besonders leise agiert, sonst eine 3070FE in die engere Wahl einschließen, vermutl. auch Referenzdesign. Undervolten über den AMD Treiber geht wiederum problemlos, was die Lautstärke positiv beeinflussen kann.

Antwort Gefällt mir

RX480

Urgestein

1,858 Kommentare 851 Likes

Die 6800ref und die Gigabyte sind small. (kürzer)

Ne 6700XT@OCen ist keine gute Wahl für kleine Gehäuse. Ist am Ende hot+laut ggü. 6800@UVen.(x)
Man sollte immer seinen Moni+Fps-Limit kennen und danach die erf. Hardware dimensionieren.
Für Games ohne FSR ist Es günstig, wenn der Moni/TV auch mit 1800p statt 4k kann.(ein 30Hz-Mode=DoubleVsync hilft auch)
Den Rest machen dann die Regler in den Game Settings.(meist schafft schon ein mixed Setting die Graka 99% auszulasten)
Wer MAXED spielt ist selbst dran Schuld. (für 5% mehr Optik 50% mehr W)

Mit FSR wirds dann sparsamer, siehe Ghostrunner @TSR bzw. 50% FX Upsampling.

(x) 6800 bei mir: Ich gehe auch nur so hoch mit den realen W asic wie Gurdi im HTPC = kühl+leise
(MSi 6800 Gaming X trio)

Antwort Gefällt mir

G
Guest

Wenn er über eine 3080ti nachdachte? Die FE wird jedenfalls zum Fön (2750udm, 550 mehr als eine 3080, Peak 400w) und der VRAM wird trotzdem 104°C warm (unter Lastszenarien auf Dauer, Gaming usw.). Erinnert an Turing. Der Referenz-Kühler der 3080 passt nicht zur ti, die kann richtig laut werden.

6700 eben weil's um Referenzen ging (die 6800 ist trotzdem nicht besonders leise im Referenzdesign, dann lieber die 6800xt undervolten), die Platinen der Custom's selbst sind nicht riesig, aber die Kühlkörper (ragen teilweise deutlich darüber hinweg).:)

Natürlich ist das Auflösungsverhältnis + Bildrate zielführend und dabei das eigene Preset und der Anspruch. Im M-ITX Format der Platz fürs Netzteil, wo die 6800 schon eine Nummer größer braucht. Die kann Peak deutlich mehr ziehen als eine 6700. Avg Last sagt letztlich nicht viel aus, bzw. nur was dauerhaft an Abwärme abgeführt werden muss (TD...was auch immer).

Antwort 1 Like

G
Guest

Ach die Strix Ti hätte ich mir gefallen lassen - die hat bestimmt ordentlich BUMS und würde meine im Gaming schlagen. 🤩

Versteh aber nicht warum im Herbst nicht gleich die 3080 sowie 3080 Ti rauskamen und die 3090 als Titan für Creator oder so... :rolleyes:

Aber heute haben wieder viele in die Röhre geguckt. Leidiges Thema...

Quelle surprise! :ROFLMAO:

View image at the forums

Antwort Gefällt mir

HerrRossi

Urgestein

6,778 Kommentare 2,243 Likes

Ich könnte eine 3080 ti Strix für nur 2.800 EUR direkt lieferbar bestellen. Wer will nochmal wer hat noch nicht :ROFLMAO:

Antwort Gefällt mir

RX480

Urgestein

1,858 Kommentare 851 Likes

Antwort Gefällt mir

RX480

Urgestein

1,858 Kommentare 851 Likes

Mit Fps-Limit und vernünftigen Settings in Game kommt man schon ein Stück, kann ja versuchen ca. 5-10W unter seiner
kühlbaren Schmerzgrenze ne Einstellung zu finden. (und mit Chill-Untergrenze ca. 3 Fps unter Limit nochmal zusätzlich sparen)
Fanstopp gehört = AUS.

Wenn die Spawas erstmal auf 100°C sind ist eh die Effizienz im Eimer.
Dann lieber ne stramme Lüfterkurve und die Lautstärke vom TV anheben.

Kann da nur auf Gurdi´s HTPC verweisen, der einen extrem schlechten Airflow hat.

(seine Settings wird net jeder Chip 1:1 schaffen, meiner auch net)

Antwort Gefällt mir

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung