Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 3080 Ti FE im Test – Fast schon eine RTX 3090, aber mit halbiertem Speicherausbau für Gamer

Kommen wir nun zur Zusammenfassung und der Frage, wo sich die neue GeForce RTX 3080 Ti  (in diesem Falle die Founders Edition) denn nun einordnet. Dazu habe ich alle Spiele analysiert, die Ergebnisse zunächst normalisiert und dann daraus ein geometrisches Mittel (GEOMAN) errechnet. Dieser Wert liegt, mathematisch begründet, nie höher und sogar meist niedriger als das normale arithmetische Mittel, das hier aber deutlich unzweckmäßiger wäre, da ich ja keine Absolutwerte aus nur einem Benchmark nutze und man dieses Verfahren auch bei den ganzen professionellen Benchmark-Bewertungen verwendet.

Spiele-Performance

In den nachfolgenden Ergebnisübersichten habe ich einerseits die durchschnittlichen FPS aller Karten und in allen Spielen erfasst und dann andererseits noch einmal prozentual gegenübergestellt. Insgesamt 10 Spiele in drei Auflösungen hatte ich getestet, um dann am Ende doch die Full-HD-Auflösung bei den ganzen Einzelbenchmarks wegzulassen. Der Grund ist schnell erklärt, denn die Systeme waren durchgängig nicht in der Lage, diese schnellen Grafikkarten in dieser niedrigen Auflösung ohne ein CPU-Limit zu betreiben. In manchen Spielen waren die Balken dann überwiegend gleich lang. Da ich mir auf diese Weise ca. 240 einzelne Grafiken sparen kann, lasse ich Full-HD im Test einfach weg, denn es ist auch fürs Gesamturteil nicht zu gebrauchen.

In WQHD liegt die GeForce RTX 3090 FE nur hauchzart vor der 3080 Ti FE, wobei ich den Grund ja bereits im Verlaufe der Einzelbenchmarks genannt hatte. Mit 25 bis 30 Watt mehr Power für die GPU, da viel Speicher wegfällt, kann die RTX 3080 Ti nämlich Vieles wettmachen. Ich sehe beide Karten also durchaus auf Augenhöhe bzw. einem sehr ähnlichen Level.

In Ultra-HD geht dann die Post ab und wir dürfen nie vergessen, dass dies kein Cherry-Picking ist, sondern sich in jeder Situation Spiele in der Auswahl befinden, die die Schönwetterfront leicht durchbrechen können. Dann steigt auch der Vorsprung der GeForce RTX 3090 FE leicht an, wenn auch nur im sehr niedrigen Prozentbereich. Mit den reichlich 2 Prozentpunkten Rückstand (bei einer anderen Konstellation im Chip-Lotto hätten es sicher bis zu 4 sein können) ist die GeForce RTX 3080 Ti allerdings immer noch ein echter Gegenpart zur RTX 3090, denn man wird diesen eher kleinen Rückstand in der Praxis kaum spüren.

Je nach Chipgüte ist die Streuung sicher noch etwas größer, aber wenn Potato (RTX 3090) und ordentlicher Chip (RTX 3080 Ti) aufeinander treffen, dann verwischen sich die Unterschiede zwischen den preislich so unterschiedlich positionierten Karten recht schnell und man kann auch getrost zur RTX 3080 Ti greifen, wenn die RTX 3090 zu teuer und nicht verfügbar ist. Genau das dürfte NVIDIA mit diesem Modell ja auch erreichen wollen.

Zusammenfassung

Die GeForce RTX 3080 Ti ist kein Lückenfüller zwischen einer GeForce 3080 und der RTX 3090 im herkömmlichen Sinne, dazu wäre auch viel zu wenig Luft zwischen den Karten, um das wirklich genau hinzubekommen. Da man das gleiche Power Limit wie bei der GeForce RTX 3090 nutzt, der Karte aber durch den halbierten Speicherausbau fast 30 Watt mehr für die GPU zugesteht, ist die Zielstellung, einen „Ersatz“ für die RTX 3090 hinzubekommen, durchaus plausibel gelöst worden. Wäre der Kühler potenter, dann hätte man bei gleicher TBP die RTX 3090 sogar leicht überholen können. Das zeigen ja auch die Custom-Modelle, die oft genug auch schneller als eine GeForce RTX 3090 FE agieren. Aber wer kannibalisiert sich schon gern selbst das Spitzenmodell weg?

Und das Spielen in Ultra-HD? Es ist am Ende genau der Zuwachs, denn man z.B. beim Spielen in Ultra-HD schon immer eingefordert hat. Das klappt, vor allem mit Hilfe von DLSS (aber mittlerweile nicht nur!) in den passenden Spielen so gut, dass man mit einem 60-Hz-Monitor bereits wieder freiwillig den Frame-Limiter anwirft. was wiederum die Karte deutlich sparsamer agieren lässt. Aber die Reserven sind da, keine Frage. Dass der RAM mit seinen 12 GB spätestens in Ultra-HD in Zukunft auch mal knapp werden könnte, liegt auch an vielen Spieleherstellern, die mit Daten genau das zumüllen, was zuzumüllen geht. Was natürlich keine pauschale Entschuldigung und somit auch der einzige Knackpunkt wäre. Aber 12 GB sind zumindest schon einmal mehr als nur 10 GB, immerhin.

Abhilfe schafft da in jedem Fall DLSS 2.0, denn das, was man mit DLSS bei NVIDIA vorgelegt hat, ist fast schon eine Art Wunderwaffe, solange es denn sauber implementiert ist. Da sind natürlich auch die Spielehersteller gefragt, so dass man sich bei NVIDIA aktuell den DLSS und DXR-Turbo zündet und immer mehr Spiele (laut NVIDIA um die 130) unterstützt. Das gilt im Übrigen auch für den inflationären Einsatz der fordernden Raytracing-Features. Weniger ist mehr und wenn es zweckmäßig implementiert wird, dann muss auch keine Karte nach Luft schnappen. In Kombination mit DLSS und Brain 2.0 ist das Gesamtpaket sicher zukunftsweisend, wenn man denn auf solche Dinge steht. Schöner sterben kann Spaß machen, vor allem dann, wenn es nicht mehr in Zeitlupe geschieht. Was AMD am 22.06.2021 dann als quelloffenen DLSS-Konkurrenten anbieten wird, kann aktuell noch nicht beurteilt werden.

Für die Schnellklicker gibt es ja auch noch NVIDIA Reflex. Vorausgesetzt man besitzt eine Ampere-Karte, einen geeigneten G-Sync-Monitor und ein Spiel, wo das Feature im Spiel integriert ist. Dann kann man die Systemlatenzen durchaus noch minimieren. Dazu hatten wir ja unlängst auch einen längeren Artikel. Der Reflex Low Latency-Modus in Spielen wie Valorant oder Apex Legends ist durchaus eine Offerte, aber es wird sich noch durchsetzen müssen. Und dann sind ja auch noch dien fiesen Latenzen im Internet, für die NVIDIA nichts kann, die einem aber den Erfolg schon mal verhageln können. Nur ist die Summe immer kleiner, wenn man wenigsten den Haufen abträgt, der vor der eigenen Tür liegt. Das bringt oft auch schon was. Siehe Artikel.

Und erinnert sich noch wer an die geheimnisvolle SKU20 zwischen der GeForce RTX 3080 und RTX 3090, die ich seinerzeit vor fast einem Jahr mal „geleakt“ hatte ? Ich schrieb dann später beim Launch der GeForce RTX 3080: „Falls es AMD diesmal nicht wieder versemmelt, wird diese SKU20 sicher noch zum Tie-Break beim Pixel-Tennis. Abwarten“ . Und genau da hat sich heute nun die RTX 3080 Ti als Shooting-Star positioniert. Sie ist damit eine RTX 3090 Light mit Hash Light und Preis Light und als Gegenstück zur Radeon RX 6900XT bestens positioniert.

Die Boardpartner werden diesen Chip mit potenten Kühlern sicher noch einmal aufwerten und Power Limits von 440 Watt (wie hier bei einer MSI RTX 3080 Ti SUPRIM) sind dann erst recht der elektrische Sargnagel für die GeForce RTX 3090 FE als Referenz-Objekt.

GeForce RTX 3080 Ti Founders Edition

Die kompakte Founders Edition macht vieles richtig, auch wenn die heftigen Klimmzüge beim Dual-Slot-Design dann doch nicht ganz reichen, um die Karte thermisch und akustisch auf den Thron zu setzen. Optisch und haptisch ist das Teil allererste Sahne und relativ platzsparend dazu. Das mit dem 12-Pin-Stecker ist mittlerweile ein Running-Gag, aber tolerierbar. Außerdem gibt es Adapter-Alternativen, die nicht mal schlecht aussehen. Es ist aber, das muss man neidlos zugestehen, auch das Maximum dessen, was man bei 350 Watt TBP und mehr aus einem so kompakten Kühlerdesign überhaupt herausquetschen kann, ohne sich gleichzeitig das Trommelfell zu zerstören.

Genau deshalb wird auch sie ihre Freunde und Käufer finden, da bin ich mir sicher, falls es sie jemals ohne Glücksfee und Bot zu kaufen gibt. Aber ohne spoilern zu wollen, mit mehr Kühlfläche ginge sicher mehr. Doch die Umsetzung der FE ist smart und spätesten die Platine mit dem Shape-Design macht sie mit Sicherheit mal zu einem begehrten Sammlerstück. Die Größe der Karte liegt in ihrer Größe, der Rest ist zu verschmerzen. Kaufen? Gern. Umbau auf Wasserkühlung? Ginge auch. So gesehen passt das also und man kann bei den Wasserblöcken auch gern die Altkleiderbestände der RTX 3080 FR auftragen.

Der einzige kleine technische Fehler, den ich hier gefunden habe, liegt im Balancing und der sehr exzessiven Nutzung des PEG für die Spannungsversorgung. Das kann man nun tolerieren oder nicht, je nach Interpretation bestehender Normen. Es ist nicht so viel, dass Motherboards gleich Schaden nehmen werden, aber es ist – spätestens nach einem stärkeren OC, auch nichts, das man in den Bereich von Messtoleranzen schieben kann. Dramatisch ist es nicht, aber eben auch nicht kommentarlos zu übergehen.

Fazit und Schlussbemerkung

Einen Kauftipp würde ich gern geben, verkneife ihn mir jedoch fairerweise aufgrund der unklaren Marktsituation. Sagen wir es mal so: Wer die Karte zu einem vernünftigen Preis irgendwo sieht und zufällig auch eine braucht, der darf gern und guten Gewissens zugreifen. Für die UVP von 1199 Euro wäre ein Kauf sogar schon so etwas wie ein Muss. Ich befürchte nur, es wird genauso ein begehrtes Zwischenhandels-Objekt werden, wie schon die anderen aktuellen Grafikkarten. Nur kann hier NVIDIA wieder nichts dafür. Auch die Hersteller haben mit steigenden Preisen und Komponentenverknappung zu kämpfen, wobei der Hauptanteil der überzogenen Preise im nichtproduzierenden Gewerbe zu suchen sein wird.

Die Leistungsaufnahme ist noch einmal gestiegen, die Performance allerdings auch, so dass man nun einer GeForce RTX 3090 FE wohl weniger hinterherträumt als noch vor dem Launch. Warten wir also mal auf die Boardpartnerkarten und das, was die jeweilige Interpretation der Hersteller noch so bietet. Getestet wird das alles natürlich auch noch, Step-by-Step. Langeweile? Eher kaum.

Kommentar

Lade neue Kommentare

Thy

Urgestein

1,843 Kommentare 744 Likes

Haben! Nur wo?

Edit: Danke für den informativen Artikel, der meine Kaufentscheidung bestärkt.

Antwort Gefällt mir

Igor Wallossek

1

10,197 Kommentare 18,810 Likes

Gute Frage. Frag doch Jensen :D

Antwort Gefällt mir

R
Rheinfels

Mitglied

52 Kommentare 28 Likes

Der Link unter dem Artikel zum Forum führt, zumindestens bei mir, ins leere.
Ansonsten spannende Grafikkarte, nur wenn man mal von den UVPs ausgeht sind es 700€ für die 3080 vs 1200€ für die 3080 Ti für 9,3%+ laut Fazit. Das finde ich schon heftig. Aber wen interessieren heutzutage schon UVPs, das ist ja so 2020...🤪

Antwort 1 Like

G
Guest

Sinnlose Karte wie jeder Vollausbau, eine 3080 mit 12GiB VRAM hätte von Anfang an mehr Sinn ergeben. 500 $ mehr für 2GiB VRAM und 5-10fps, sieht wie melken aus. Die direkte Konkurrenz ist die 3080 und da verliert die ti vor allem beim Preis. Ich weiß nicht wie man Karten, die teilweise 400w schlucken noch positiv bewerten soll. Passt absolut nicht mehr in diese Zeit.

Antwort 2 Likes

RX480

Urgestein

1,871 Kommentare 864 Likes

Aus technischer Sicht ist das Ganze schon interessant., weil die 12GB sparsamer sind als die 24GB.
Schade eigentlich nur, das net der größere Kühler der 3090 für die Ti genommen wurde.

Vermutlich wäre dann der eff.Takt der Ti ca.30-45MHz höher und man würde noch in mehr Games
an der 3090 vorbeiziehen.

In einer idealen Welt hätte Es auch ne 3090 mit nur 16...20GB in Form von 2GB-Modulen gegeben.
Uups, da hätte man ja fast ne 6900 super.

Antwort 1 Like

P
Phoenixxl

Veteran

158 Kommentare 120 Likes

Wenn ich die angeblichen Preise höre, dann kann ich mich nur freuen für eine 6900 XT Ref. 1300 bezahlt zu haben (550 gab es für meine alte 1080 ti).

Bin wirklich gespannt, was amd Treiberseitig noch bringt, wie z.B. die DLSS Alternative.

Raytracing mag interessant klingen, bei CoD Modern warfare habe ich die Kampagne einmal ohne gespielt (1080 ti) und jetzt mit. Ich merke davon exakt NICHTS. Mit Screenshots ist das sicherlich möglich, aber so? Fehlanzeige!

Antwort 1 Like

g
gerTHW84

Veteran

409 Kommentare 248 Likes

@gastello: Die Karte wird nicht weniger "sinnvoll", weil die erst jetzt kommt. *) Zudem ist die späte Veröffentlichung für nVidia in jeder Hinsicht ebenso sinnvoll, denn der Chip bewegt sich nahe dem Vollausbau, d. h. der Yield wird hier durchaus zum Thema. Mittlerweile hat man die 3080 als eine Art "Resteverwertung" (etwas überspitzt formuliert), die A6000 und A40 nutzen den Vollausbau und die 3090 und 3080 Ti nahezu den Vollausbau, d. h. hier gibt es durchaus einiges an Produkten zu versorgen und das muss sichergestellt sein und da macht ein gestaffelter Start Sinn. In einer naiven Sichtweise könnte man zwar fordern, dass der Hersteller doch einfach mit viel mehr Vorlauf zu produzieren beginnen wollte, offensichtlich ist das betriebswirtschaftlich aber eher eine schlechte Idee, jedenfalls scheinen AMD und nVidia bspw. nicht allzu viel davon zu halten. ;-)
Die Karte ergänzt das Portfolio und bietet nahezu die Leistung einer 3090 für rund 300 € weniger UVP. Und so wie ich nVidias Product Development einschätze, wird die sich auch gut verkaufen, denn die werden schon sehr genau erarbeitet haben, was der Markt hier abnimmt und was nicht.
Ergänzend ist deine Watt-Betrachtung zwar löblich, nur gibt es auch einen nennenswerten Anteil Gamer, denen das egal ist und die Auflösung und visuelle Qualität über alles stellen und solange es diesen Markt gibt, wird der auch bedient, denn würde nVidia den brachliegen lassen, würde sich AMD den schnappen (oder vielleicht in den nächsten ein, zwei Jahren Intel).

*) Abgesehen davon hat sich am allgemeinen IT-Mantra nichts geändert in den letzten Jahrzehnten. Wer länger wartet bekommt mehr Leistung und zumeist auch noch für weniger Geld.

@RX480: Ich denke die Custom-Designs werden tendenziell interessanter sein und in in wie weit man da die NV-Shop-Lotterie in die Waagschale werfen kann bzgl. des Preises ... hmm. ;-)
Zudem werden hier absehbar vereinzelte Modelle, wie Igor schon skizzierte, die ein oder andere 3090 ggf. gar auch vollends erreichen, insbesondere die FE.

Btw ... eine 3090 mit 256 Bit-Interface würde bandbreitentechnisch verhungern. ;-)

@Phoenixxl: CoD ist glaube ich auch das denkbar schlechteste Beispiel diesbezüglich. Ich habe dazu einige RT-ScreenShots gesehen und war auch mit der Lupe am suchen bzgl. der RT-Effekte. Das sieht dort aus wie nur nachträglich angeflanscht, denn offensichtlich scheint man das Beleuchtungssystem, etc. weitestgehend unverändert beizubehalten und hat lediglich an einigen Stellen RT-Effekte "hinzugenommen", wobei letzteres, wie gesagt, mit anscheinend minimalstem Zugewinn; hätte man sich hier auch sparen können.
Andere Titel könnte da vielmehr von zehren.

Antwort Gefällt mir

Klicke zum Ausklappem
Igor Wallossek

1

10,197 Kommentare 18,810 Likes

Metro Exodus EE ist schon geil. Optisch wirklich ein Unterschied. 😁

Antwort Gefällt mir

RX480

Urgestein

1,871 Kommentare 864 Likes

1+

Verstehe Asus net so richtig, mit 360er AiO wärs echt geil! (wird wohl erst mit EVGA kommen)
(genauso wie bei der 6900XTH bleibt Asus bei 240er, ... besser ist die TOXIC mit 360er)

Antwort Gefällt mir

Klicke zum Ausklappem
G
Guest

Sehe ich absolut nicht so und was für Nvidia dabei heraus springt kann dem Anwender völlig egal sein. Ich kaufe keine Hardware weil ich einem millardenschwerem Unternehmen wohlgesonnen bin. Ich kaufe sie weil ich sie brauche, immer dann dann wenn bspw. neue Anforderungen an mein Hobby gestellt werden (wie Gaming) oder steigen (technische Neuerungen sich durchsetzen und sie als Standards gelten, das die alte Hardware nicht mehr packt oder sie ausgedient hat).

Wie die Vollausbauten in der Vergangenheit hat die 3080ti das gleiche Problem, nahe oder Vollausbau braucht einfach mehr, wobei sich der Leistungszugewinn nur lohnt wenn man das ausklammert. Und was die 3080ti angeht, musste die mit der Brechtstange an der 6900xt vorbei, schon wie die 3080 an der 6800xt vorbei musste. Wenig mehr FPS mit höherer Leistungsaufnahme einzukaufen, ist kein Wunder, dass kann jeder. Wenn das, dass neue Ziel in der Fortentwicklung werden oder sein soll, dann gute Nacht.

Eine Suprim X wird im Gamingloop jetzt 48db laut (hat dazu noch das schlechte Die, weil alles andere in der FE verwurstet wird, oder extrem teuer eingekauft werden muss), AMD hatte man unter Vega bei solchen Werten noch in der Luft zerrissen und in der Vergangenheit ziemlich belächelt und kritisiert. Die 3080ti ist nichts weiter eine melkende Kuh (werden eher für 2500$ aufwärts verkauft), die paar UVP Papiertiger die Interessenten erwerben können, sind doch nur eine Tropfen auf einen heißen Stein. Daran wird sich bis Mitte 2022 auch nichts ändern.

Wie wäre es denn mit einem neuen Stepping für die GA102 ala 3080 gewesen? Gleicher Preis bei 2GiB VRAM mehr (um endlich mal mit dem Klischee des zu wenigen VRAM bei Nvidia aufzuräumen?, die 3070ti kommt ja auch noch und könnte die Lücke schließen), wo UVP doch sowieso keinen interessiert. Nicht mal Nvidia selbst. Für 10% Mehrleistung dann auch noch 40% Preisaufschlag zu verlangen ist, wie du richtig feststellt einfach nur für Nvidia gut, für niemand anderen.

Mantra=wer länger wartet bekommt alten Tant (mittlerweile ein Jahr alt) mit etwas mehr Leistung und zahlt reichlich mehr. Tolle Produktpolitik, die nur der Gewinnmaximierung dient.

Nvidia und auch AMD muss sich also nicht wundern, dass immer mehr in den Konsolenbereich abwandern und Hardware im PC zu einem Art Goldstatus wird, den sich die meisten Normalo-Gamer kaum noch leisten können. Das erfordert dann Modelle wie der Mininghardware um die Kosten für die Entwicklung reinzubekommen, weil immer weniger bereit sind solche Preise noch zu zahlen. Natürlich kann man dann Karten die der Miner aus dem Gamingsegment kauft, auch unter Gaming verrechnen. Den Aktionären geht es dabei sichtlich gut. Eine hohe Anzahl abgesetzter Karten und nur wenige Prozentpunkte mehr in Statistiken wie Steam, decken diese Art Vorgehensweise zu Lasten der Gamer fast zu erbarmungslos auf. Traurig. Also interessieren die Gamer kaum, wenn sie nicht bereit sind Mondpreise für Hardware zu zahlen. Ein Standbein mit dem die gesamte Branche und besonders Nvidia groß geworden ist. Dank NDAs liest man solcherlei Kritik immer weniger.

Antwort 1 Like

Klicke zum Ausklappem
blazethelight

Mitglied

36 Kommentare 16 Likes

Sehr guter Test Igor!
Vielen Dank.

Besonders die Audio Datei zum Geräusch Charakter finde ich Klasse und kannst du gerne zum Standard machen! 👍

Somit fällt die Karte für mein M-ITX raus (zu hoher Verbrauch und die Lautstärke passt mir nicht).

Drückt mir die Daumen, dass ich eine RX 6800 ergattern kann.

Antwort Gefällt mir

Igor Wallossek

1

10,197 Kommentare 18,810 Likes
G
Guest

@blazethelight
Würde da nicht auch eine 6700xt reichen? Gleiche VRAM Menge, die die GPU eh nicht füllt. Die Customboards fallen alle rieisg aus, was Formate wie M-ITX angeht. Dann würde sich eine Referenz empfehlen (6800 non XT) die man kaum bekommt, aber der Kühler auch nicht besonders leise agiert, sonst eine 3070FE in die engere Wahl einschließen, vermutl. auch Referenzdesign. Undervolten über den AMD Treiber geht wiederum problemlos, was die Lautstärke positiv beeinflussen kann.

Antwort Gefällt mir

RX480

Urgestein

1,871 Kommentare 864 Likes

Die 6800ref und die Gigabyte sind small. (kürzer)

Ne 6700XT@OCen ist keine gute Wahl für kleine Gehäuse. Ist am Ende hot+laut ggü. 6800@UVen.(x)
Man sollte immer seinen Moni+Fps-Limit kennen und danach die erf. Hardware dimensionieren.
Für Games ohne FSR ist Es günstig, wenn der Moni/TV auch mit 1800p statt 4k kann.(ein 30Hz-Mode=DoubleVsync hilft auch)
Den Rest machen dann die Regler in den Game Settings.(meist schafft schon ein mixed Setting die Graka 99% auszulasten)
Wer MAXED spielt ist selbst dran Schuld. (für 5% mehr Optik 50% mehr W)

Mit FSR wirds dann sparsamer, siehe Ghostrunner @TSR bzw. 50% FX Upsampling.

(x) 6800 bei mir: Ich gehe auch nur so hoch mit den realen W asic wie Gurdi im HTPC = kühl+leise
(MSi 6800 Gaming X trio)

Antwort Gefällt mir

G
Guest

Wenn er über eine 3080ti nachdachte? Die FE wird jedenfalls zum Fön (2750udm, 550 mehr als eine 3080, Peak 400w) und der VRAM wird trotzdem 104°C warm (unter Lastszenarien auf Dauer, Gaming usw.). Erinnert an Turing. Der Referenz-Kühler der 3080 passt nicht zur ti, die kann richtig laut werden.

6700 eben weil's um Referenzen ging (die 6800 ist trotzdem nicht besonders leise im Referenzdesign, dann lieber die 6800xt undervolten), die Platinen der Custom's selbst sind nicht riesig, aber die Kühlkörper (ragen teilweise deutlich darüber hinweg).:)

Natürlich ist das Auflösungsverhältnis + Bildrate zielführend und dabei das eigene Preset und der Anspruch. Im M-ITX Format der Platz fürs Netzteil, wo die 6800 schon eine Nummer größer braucht. Die kann Peak deutlich mehr ziehen als eine 6700. Avg Last sagt letztlich nicht viel aus, bzw. nur was dauerhaft an Abwärme abgeführt werden muss (TD...was auch immer).

Antwort 1 Like

G
Guest

Ach die Strix Ti hätte ich mir gefallen lassen - die hat bestimmt ordentlich BUMS und würde meine im Gaming schlagen. 🤩

Versteh aber nicht warum im Herbst nicht gleich die 3080 sowie 3080 Ti rauskamen und die 3090 als Titan für Creator oder so... :rolleyes:

Aber heute haben wieder viele in die Röhre geguckt. Leidiges Thema...

Quelle surprise! :ROFLMAO:

View image at the forums

Antwort Gefällt mir

HerrRossi

Urgestein

6,778 Kommentare 2,243 Likes

Ich könnte eine 3080 ti Strix für nur 2.800 EUR direkt lieferbar bestellen. Wer will nochmal wer hat noch nicht :ROFLMAO:

Antwort Gefällt mir

RX480

Urgestein

1,871 Kommentare 864 Likes

Antwort Gefällt mir

RX480

Urgestein

1,871 Kommentare 864 Likes

Mit Fps-Limit und vernünftigen Settings in Game kommt man schon ein Stück, kann ja versuchen ca. 5-10W unter seiner
kühlbaren Schmerzgrenze ne Einstellung zu finden. (und mit Chill-Untergrenze ca. 3 Fps unter Limit nochmal zusätzlich sparen)
Fanstopp gehört = AUS.

Wenn die Spawas erstmal auf 100°C sind ist eh die Effizienz im Eimer.
Dann lieber ne stramme Lüfterkurve und die Lautstärke vom TV anheben.

Kann da nur auf Gurdi´s HTPC verweisen, der einen extrem schlechten Airflow hat.

(seine Settings wird net jeder Chip 1:1 schaffen, meiner auch net)

Antwort Gefällt mir

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung