Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 3080 Ti FE im Test – Fast schon eine RTX 3090, aber mit halbiertem Speicherausbau für Gamer

Beginnen wir mit den FPS-Werten in Verbindung mit dem 1% Low FPS, also der Betrachtung der Perzentile (die ich später noch über die gesamte Bandbreite als Kurve darstellen werde) im Worst-Case, da Min-FPS selbst nichts aussagen. Irgendeinen kleinen Huster gibt es ja immer. Das, was die GeForce RTX 3080 FE Ti hier abliefert, ist selbst auf WQHD bereits brachial und stellt sogar die GeForce RTX 3090 FE in vielen Spielen bereits vor echte Probleme. Bei gleichem Power Limit für die gesamte Karte stehen der RTX 3080 Ti ja fast 30 Watt mehr zur Verfügung, die bei der großen Karte dem riesigen Speicher von 24 GB zum Opfer fallen.

Diese Dominanz tritt später zwar in UHD nicht mehr ganz so extrem auf, allerdings liegen ja beide Karten schon von Haus aus so eng beieinander, dass sich hier auch zusätzlich zum Power Limit noch eine unterschiedliche die Chipgüte bemerkbar machen dürfte. In den Spielen, wo die RTX 3080 Ti FE vorn liegt, ist auch deren Boost-Takt etwas höher als der der RTX 3980 FE und erste Versuche haben gezeigt, dass speziell diese RTX 3080 Ti FE wirklich gut läuft, während die RTX 3090 mit ihrem stärker gebogenen Package eher ein Potato ist. Was wiederum zeigt, dass man auch die Chip-Lotterie mit einpreisen sollte.

Aktiviert man in Watch Dogs Legion die Raytracing-Reflektionen auf Ultra und lässt DLSS weg (was ja als Upscaler bei FHD auch kaum Sinn macht), dann liegt die RTX 3090 sogar knapp hinten. Ich habe das mehrmals gebencht und am Ende immer wieder das gleiche Ergebnis erhalten. Da es aber nur in diesem Spiel und dieser Auflösung so sehr auffiel, habe ich es einfach mal mit in das Review gepackt. Denn generell macht die GeForce RTX 3090 in Full-HD keine ganz so glückliche Figur mehr.

Kommentar

Lade neue Kommentare

Thy

Urgestein

1,843 Kommentare 745 Likes

Haben! Nur wo?

Edit: Danke für den informativen Artikel, der meine Kaufentscheidung bestärkt.

Antwort Gefällt mir

Igor Wallossek

1

11,314 Kommentare 21,478 Likes

Gute Frage. Frag doch Jensen :D

Antwort Gefällt mir

R
Rheinfels

Mitglied

52 Kommentare 28 Likes

Der Link unter dem Artikel zum Forum führt, zumindestens bei mir, ins leere.
Ansonsten spannende Grafikkarte, nur wenn man mal von den UVPs ausgeht sind es 700€ für die 3080 vs 1200€ für die 3080 Ti für 9,3%+ laut Fazit. Das finde ich schon heftig. Aber wen interessieren heutzutage schon UVPs, das ist ja so 2020...🤪

Antwort 1 Like

G
Guest

Sinnlose Karte wie jeder Vollausbau, eine 3080 mit 12GiB VRAM hätte von Anfang an mehr Sinn ergeben. 500 $ mehr für 2GiB VRAM und 5-10fps, sieht wie melken aus. Die direkte Konkurrenz ist die 3080 und da verliert die ti vor allem beim Preis. Ich weiß nicht wie man Karten, die teilweise 400w schlucken noch positiv bewerten soll. Passt absolut nicht mehr in diese Zeit.

Antwort 2 Likes

RX480

Urgestein

1,921 Kommentare 903 Likes

Aus technischer Sicht ist das Ganze schon interessant., weil die 12GB sparsamer sind als die 24GB.
Schade eigentlich nur, das net der größere Kühler der 3090 für die Ti genommen wurde.

Vermutlich wäre dann der eff.Takt der Ti ca.30-45MHz höher und man würde noch in mehr Games
an der 3090 vorbeiziehen.

In einer idealen Welt hätte Es auch ne 3090 mit nur 16...20GB in Form von 2GB-Modulen gegeben.
Uups, da hätte man ja fast ne 6900 super.

Antwort 1 Like

P
Phoenixxl

Veteran

160 Kommentare 124 Likes

Wenn ich die angeblichen Preise höre, dann kann ich mich nur freuen für eine 6900 XT Ref. 1300 bezahlt zu haben (550 gab es für meine alte 1080 ti).

Bin wirklich gespannt, was amd Treiberseitig noch bringt, wie z.B. die DLSS Alternative.

Raytracing mag interessant klingen, bei CoD Modern warfare habe ich die Kampagne einmal ohne gespielt (1080 ti) und jetzt mit. Ich merke davon exakt NICHTS. Mit Screenshots ist das sicherlich möglich, aber so? Fehlanzeige!

Antwort 1 Like

g
gerTHW84

Veteran

414 Kommentare 254 Likes

@gastello: Die Karte wird nicht weniger "sinnvoll", weil die erst jetzt kommt. *) Zudem ist die späte Veröffentlichung für nVidia in jeder Hinsicht ebenso sinnvoll, denn der Chip bewegt sich nahe dem Vollausbau, d. h. der Yield wird hier durchaus zum Thema. Mittlerweile hat man die 3080 als eine Art "Resteverwertung" (etwas überspitzt formuliert), die A6000 und A40 nutzen den Vollausbau und die 3090 und 3080 Ti nahezu den Vollausbau, d. h. hier gibt es durchaus einiges an Produkten zu versorgen und das muss sichergestellt sein und da macht ein gestaffelter Start Sinn. In einer naiven Sichtweise könnte man zwar fordern, dass der Hersteller doch einfach mit viel mehr Vorlauf zu produzieren beginnen wollte, offensichtlich ist das betriebswirtschaftlich aber eher eine schlechte Idee, jedenfalls scheinen AMD und nVidia bspw. nicht allzu viel davon zu halten. ;-)
Die Karte ergänzt das Portfolio und bietet nahezu die Leistung einer 3090 für rund 300 € weniger UVP. Und so wie ich nVidias Product Development einschätze, wird die sich auch gut verkaufen, denn die werden schon sehr genau erarbeitet haben, was der Markt hier abnimmt und was nicht.
Ergänzend ist deine Watt-Betrachtung zwar löblich, nur gibt es auch einen nennenswerten Anteil Gamer, denen das egal ist und die Auflösung und visuelle Qualität über alles stellen und solange es diesen Markt gibt, wird der auch bedient, denn würde nVidia den brachliegen lassen, würde sich AMD den schnappen (oder vielleicht in den nächsten ein, zwei Jahren Intel).

*) Abgesehen davon hat sich am allgemeinen IT-Mantra nichts geändert in den letzten Jahrzehnten. Wer länger wartet bekommt mehr Leistung und zumeist auch noch für weniger Geld.

@RX480: Ich denke die Custom-Designs werden tendenziell interessanter sein und in in wie weit man da die NV-Shop-Lotterie in die Waagschale werfen kann bzgl. des Preises ... hmm. ;-)
Zudem werden hier absehbar vereinzelte Modelle, wie Igor schon skizzierte, die ein oder andere 3090 ggf. gar auch vollends erreichen, insbesondere die FE.

Btw ... eine 3090 mit 256 Bit-Interface würde bandbreitentechnisch verhungern. ;-)

@Phoenixxl: CoD ist glaube ich auch das denkbar schlechteste Beispiel diesbezüglich. Ich habe dazu einige RT-ScreenShots gesehen und war auch mit der Lupe am suchen bzgl. der RT-Effekte. Das sieht dort aus wie nur nachträglich angeflanscht, denn offensichtlich scheint man das Beleuchtungssystem, etc. weitestgehend unverändert beizubehalten und hat lediglich an einigen Stellen RT-Effekte "hinzugenommen", wobei letzteres, wie gesagt, mit anscheinend minimalstem Zugewinn; hätte man sich hier auch sparen können.
Andere Titel könnte da vielmehr von zehren.

Antwort Gefällt mir

Klicke zum Ausklappem
Igor Wallossek

1

11,314 Kommentare 21,478 Likes

Metro Exodus EE ist schon geil. Optisch wirklich ein Unterschied. 😁

Antwort Gefällt mir

RX480

Urgestein

1,921 Kommentare 903 Likes

1+

Verstehe Asus net so richtig, mit 360er AiO wärs echt geil! (wird wohl erst mit EVGA kommen)
(genauso wie bei der 6900XTH bleibt Asus bei 240er, ... besser ist die TOXIC mit 360er)

Antwort Gefällt mir

Klicke zum Ausklappem
G
Guest

Sehe ich absolut nicht so und was für Nvidia dabei heraus springt kann dem Anwender völlig egal sein. Ich kaufe keine Hardware weil ich einem millardenschwerem Unternehmen wohlgesonnen bin. Ich kaufe sie weil ich sie brauche, immer dann dann wenn bspw. neue Anforderungen an mein Hobby gestellt werden (wie Gaming) oder steigen (technische Neuerungen sich durchsetzen und sie als Standards gelten, das die alte Hardware nicht mehr packt oder sie ausgedient hat).

Wie die Vollausbauten in der Vergangenheit hat die 3080ti das gleiche Problem, nahe oder Vollausbau braucht einfach mehr, wobei sich der Leistungszugewinn nur lohnt wenn man das ausklammert. Und was die 3080ti angeht, musste die mit der Brechtstange an der 6900xt vorbei, schon wie die 3080 an der 6800xt vorbei musste. Wenig mehr FPS mit höherer Leistungsaufnahme einzukaufen, ist kein Wunder, dass kann jeder. Wenn das, dass neue Ziel in der Fortentwicklung werden oder sein soll, dann gute Nacht.

Eine Suprim X wird im Gamingloop jetzt 48db laut (hat dazu noch das schlechte Die, weil alles andere in der FE verwurstet wird, oder extrem teuer eingekauft werden muss), AMD hatte man unter Vega bei solchen Werten noch in der Luft zerrissen und in der Vergangenheit ziemlich belächelt und kritisiert. Die 3080ti ist nichts weiter eine melkende Kuh (werden eher für 2500$ aufwärts verkauft), die paar UVP Papiertiger die Interessenten erwerben können, sind doch nur eine Tropfen auf einen heißen Stein. Daran wird sich bis Mitte 2022 auch nichts ändern.

Wie wäre es denn mit einem neuen Stepping für die GA102 ala 3080 gewesen? Gleicher Preis bei 2GiB VRAM mehr (um endlich mal mit dem Klischee des zu wenigen VRAM bei Nvidia aufzuräumen?, die 3070ti kommt ja auch noch und könnte die Lücke schließen), wo UVP doch sowieso keinen interessiert. Nicht mal Nvidia selbst. Für 10% Mehrleistung dann auch noch 40% Preisaufschlag zu verlangen ist, wie du richtig feststellt einfach nur für Nvidia gut, für niemand anderen.

Mantra=wer länger wartet bekommt alten Tant (mittlerweile ein Jahr alt) mit etwas mehr Leistung und zahlt reichlich mehr. Tolle Produktpolitik, die nur der Gewinnmaximierung dient.

Nvidia und auch AMD muss sich also nicht wundern, dass immer mehr in den Konsolenbereich abwandern und Hardware im PC zu einem Art Goldstatus wird, den sich die meisten Normalo-Gamer kaum noch leisten können. Das erfordert dann Modelle wie der Mininghardware um die Kosten für die Entwicklung reinzubekommen, weil immer weniger bereit sind solche Preise noch zu zahlen. Natürlich kann man dann Karten die der Miner aus dem Gamingsegment kauft, auch unter Gaming verrechnen. Den Aktionären geht es dabei sichtlich gut. Eine hohe Anzahl abgesetzter Karten und nur wenige Prozentpunkte mehr in Statistiken wie Steam, decken diese Art Vorgehensweise zu Lasten der Gamer fast zu erbarmungslos auf. Traurig. Also interessieren die Gamer kaum, wenn sie nicht bereit sind Mondpreise für Hardware zu zahlen. Ein Standbein mit dem die gesamte Branche und besonders Nvidia groß geworden ist. Dank NDAs liest man solcherlei Kritik immer weniger.

Antwort 1 Like

Klicke zum Ausklappem
blazethelight

Mitglied

36 Kommentare 16 Likes

Sehr guter Test Igor!
Vielen Dank.

Besonders die Audio Datei zum Geräusch Charakter finde ich Klasse und kannst du gerne zum Standard machen! 👍

Somit fällt die Karte für mein M-ITX raus (zu hoher Verbrauch und die Lautstärke passt mir nicht).

Drückt mir die Daumen, dass ich eine RX 6800 ergattern kann.

Antwort Gefällt mir

Igor Wallossek

1

11,314 Kommentare 21,478 Likes
G
Guest

@blazethelight
Würde da nicht auch eine 6700xt reichen? Gleiche VRAM Menge, die die GPU eh nicht füllt. Die Customboards fallen alle rieisg aus, was Formate wie M-ITX angeht. Dann würde sich eine Referenz empfehlen (6800 non XT) die man kaum bekommt, aber der Kühler auch nicht besonders leise agiert, sonst eine 3070FE in die engere Wahl einschließen, vermutl. auch Referenzdesign. Undervolten über den AMD Treiber geht wiederum problemlos, was die Lautstärke positiv beeinflussen kann.

Antwort Gefällt mir

RX480

Urgestein

1,921 Kommentare 903 Likes

Die 6800ref und die Gigabyte sind small. (kürzer)

Ne 6700XT@OCen ist keine gute Wahl für kleine Gehäuse. Ist am Ende hot+laut ggü. 6800@UVen.(x)
Man sollte immer seinen Moni+Fps-Limit kennen und danach die erf. Hardware dimensionieren.
Für Games ohne FSR ist Es günstig, wenn der Moni/TV auch mit 1800p statt 4k kann.(ein 30Hz-Mode=DoubleVsync hilft auch)
Den Rest machen dann die Regler in den Game Settings.(meist schafft schon ein mixed Setting die Graka 99% auszulasten)
Wer MAXED spielt ist selbst dran Schuld. (für 5% mehr Optik 50% mehr W)

Mit FSR wirds dann sparsamer, siehe Ghostrunner @TSR bzw. 50% FX Upsampling.

(x) 6800 bei mir: Ich gehe auch nur so hoch mit den realen W asic wie Gurdi im HTPC = kühl+leise
(MSi 6800 Gaming X trio)

Antwort Gefällt mir

G
Guest

Wenn er über eine 3080ti nachdachte? Die FE wird jedenfalls zum Fön (2750udm, 550 mehr als eine 3080, Peak 400w) und der VRAM wird trotzdem 104°C warm (unter Lastszenarien auf Dauer, Gaming usw.). Erinnert an Turing. Der Referenz-Kühler der 3080 passt nicht zur ti, die kann richtig laut werden.

6700 eben weil's um Referenzen ging (die 6800 ist trotzdem nicht besonders leise im Referenzdesign, dann lieber die 6800xt undervolten), die Platinen der Custom's selbst sind nicht riesig, aber die Kühlkörper (ragen teilweise deutlich darüber hinweg).:)

Natürlich ist das Auflösungsverhältnis + Bildrate zielführend und dabei das eigene Preset und der Anspruch. Im M-ITX Format der Platz fürs Netzteil, wo die 6800 schon eine Nummer größer braucht. Die kann Peak deutlich mehr ziehen als eine 6700. Avg Last sagt letztlich nicht viel aus, bzw. nur was dauerhaft an Abwärme abgeführt werden muss (TD...was auch immer).

Antwort 1 Like

G
Guest

Ach die Strix Ti hätte ich mir gefallen lassen - die hat bestimmt ordentlich BUMS und würde meine im Gaming schlagen. 🤩

Versteh aber nicht warum im Herbst nicht gleich die 3080 sowie 3080 Ti rauskamen und die 3090 als Titan für Creator oder so... :rolleyes:

Aber heute haben wieder viele in die Röhre geguckt. Leidiges Thema...

Quelle surprise! :ROFLMAO:

View image at the forums

Antwort Gefällt mir

HerrRossi

Urgestein

6,909 Kommentare 2,298 Likes

Ich könnte eine 3080 ti Strix für nur 2.800 EUR direkt lieferbar bestellen. Wer will nochmal wer hat noch nicht :ROFLMAO:

Antwort Gefällt mir

RX480

Urgestein

1,921 Kommentare 903 Likes

Antwort Gefällt mir

RX480

Urgestein

1,921 Kommentare 903 Likes

Mit Fps-Limit und vernünftigen Settings in Game kommt man schon ein Stück, kann ja versuchen ca. 5-10W unter seiner
kühlbaren Schmerzgrenze ne Einstellung zu finden. (und mit Chill-Untergrenze ca. 3 Fps unter Limit nochmal zusätzlich sparen)
Fanstopp gehört = AUS.

Wenn die Spawas erstmal auf 100°C sind ist eh die Effizienz im Eimer.
Dann lieber ne stramme Lüfterkurve und die Lautstärke vom TV anheben.

Kann da nur auf Gurdi´s HTPC verweisen, der einen extrem schlechten Airflow hat.

(seine Settings wird net jeder Chip 1:1 schaffen, meiner auch net)

Antwort Gefällt mir

Klicke zum Ausklappem

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung