Gaming Grafikkarten Testberichte VGA

NVIDIA GeForce RTX 4080 Founders Edition 16GB im Test – Schneller als gedacht und viel sparsamer als befürchtet

Real erreichbare Taktraten und Übertaktung

Die Taktraten des erzielbaren Boosts setzen wieder auf verschiedene Boost-Steps für klar definierte Temperaturbereiche. So erreichte die Karte bei unter 50 °C noch 2805 MHz, wobei man in der Realität bei 2760 MHz oder leicht darüber landen dürfte, wenn die Karte in einem guten Gehäuse voll durchwärmt arbeiten muss. Eine Wasserkühlung schafft somit zusätzliche Taktstufen beim Boost, wenn die Kühlflüssigkeit und der Kühlblock die GPU-Temperatur in diesen niedrigen Bereichen halten kann. Ansonsten wird man wohl etwas mehr Power freigeben müssen, was aber eigentlich unnötig ist.

Das mit dem Übertakten und Erhöhen des Power Limits ist so eine Sache für sich, wobei sich in mir allerdings auch alles widerstrebt, wenn man dann die hervorragende Effizienz etwas zerstört. Man erhält bei satten 355 Watt Power Limit (reale TBP im Spiel bis rund 340 Watt) bei Taktraten knapp über die 3,1 GHz noch rund 7 bis 10 % mehr Performance in Ultra-HD, bis dann die Spannungslimitierung brutal einsetzt. Die Varianzen werden leicht besser, wenn man den Takt nicht übermäßig erhöht, aber das sind Dinge, auf die man besser verzichtet. Die V/F-Curve endet im Prinzip bei dem Bereich, wo man die 320 Watt verorten kann, alles darüber hinaus ist reines Glück im GPU-Lotto.

Temperaturen im im Gehäuse

Die Unterschiede sind gar nicht so groß wie befürchtet, wenn man ein ordentliches Gehäuse einsetzt. Denn am Ende setzt die Karte auch nicht viel mehr Abwärme um als eine GeForce RTX 3080 FE, meist sogar deutlich weniger. Nimmt man dann noch den fetten Kühler dazu, dann kann man hier sicher viel entspannter leben. Schließt man das Panel, dann steigt die GPU-Temperatur (Edge) um 1 bis 2 Kelvin, der Hotspot steigt um bis zu 4 Kelvin. Das ist vergleichsweise wenig, kann aber zumindest einen Boost-Step kosten. Nichtsdestotrotz sind die Temperaturen eine Klasse für sich, trotz der Abwärme.

Lüfterkurve und Betriebsgeräusch (“Lautstärke”)

Kommen wir nun zu dem, was beim Abtransport der Abwärme automatisch mit entsteht: diverse Lüftergeräusche. Mit einer mittleren Lüftergeschwindigkeit von rund 1200 bis 1260 U/min ist die Karte richtig leise, wenn auch nicht flüsterleise. Doch wir sehen hier an den beiden Kurven auch, dass die beiden Lüfter unterschiedlich schnell drehen, damit keine hörbaren Intermodulationen entstehen. Man erkennt auch den kurzen Anlaufimpuls, der sicherstellen soll, dass die Lüfter auch wirklich starten. Sicher ist sicher, also nicht erschrecken.

Die Messungen in der Messkammer sind wie immer etwas tricky, denn man kann ja durch das geschlossene Seitenfenster nichts messen. Deshalb habe ich die Lüfter manuell auf genau die oben gemessene Geschwindigkeit eingestellt (NVIDIA GPUMon) und dann das Panel weggelassen. Während der Messungen habe ich die AiO-Lüfter kurz abgezogen, denn die CPU lief eh im Idle. Der Abstand betrug 50 cm lotrecht auf die Oberseite der Karte (Richtung 12VHPWR-Buchse).

Symbolbild

Die gemessenen 35,1 dB(A) sind gut und liegen meilenweit unter denen früherer Founders Editions. Für eine 300-Watt-Karte im eigentlich geschlossenen Aufbau ist das sogar richtig ordentlich. Schließt man das Seitenpanel, dann fällt der Schalldruckpegel auf rund 32 bis 33 dB(A), was fast eine Halbierung des Betriebsgeräusches bedeutet. Da sind sogar die Lüfter der AiO bei Prozessorlast deutlich dominanter.

Wenn man etwas kritisieren kann, dann ist es wiederum der leicht unrund laufende Lüfter über der GPU, wobei man hier auch ein etwas tieferes Motorgeräusch bei ca. 180 Hz messen kann. Die eigentlichen Lüftergeräusche, die beim Abriss der Luft und an den Kühlfinnen entstehen sind eher marginal. Sagen wir es einmal so: es ist die mit Abstand leiseste Founders Edition der letzten Jahre, aber immer noch etwas lauter, als manche (viel schwerere) AIC-Karten. Das ist schon einmal eine positive Erwähnung wert.

 

168 Antworten

Kommentar

Lade neue Kommentare

R
RX Vega_1975

Urgestein

610 Kommentare 83 Likes

Da hat AMD wohl "leichtes" Spiel bei der Rasterizer Leistung
Ist wohl mindestens 10%+ über einer RTX 4080
Bei Raytracing dann wohl 30% darunter.

Effizienz ist aber Extrem Wahnsinnig Gut bei der 4080 16GB
Dann sollten heute/ Morgen wohl Benchmarks zur AMD 7900XTX kommen um den Launch etwas zu bremsen!

Antwort Gefällt mir

S
Staarfury

Veteran

258 Kommentare 206 Likes

Ich mag den igoBOT in grün.

Beim Preis der Karte rollen sich mir leider immer noch die Zehennägel hoch :(

Antwort 4 Likes

Igor Wallossek

1

11,078 Kommentare 21,004 Likes

Genau das. Und die Infos hatten auch nur die, die auch in LA vor Ort dabei waren. Das ist halt eine Strategie :D

Antwort Gefällt mir

R
RazielNoir

Veteran

477 Kommentare 233 Likes

Ich bin mal eher auf das Duell AMD / Nvidia eine Etage darunter gespannt. Die Karte ist preislich völlig out of Range.
Eine 4070 gegen eine 7800XT sowohl was Preis, als auch Lastverbrauch angeht

Antwort Gefällt mir

~
~HazZarD~

Mitglied

57 Kommentare 38 Likes

Die Leistung/€ Stagnation ist ja absolut erschreckend. Im Grunde bekommt man bei der 4090, die ja eigentlich das Halo Produkt ist, mehr Leistung fürs Geld als bei ner 4080.

Ich bin für die Einführung eines "Christian Lindner approved" Awards. Den hätte die Karte jedenfalls verdient.

Antwort 8 Likes

grimm

Urgestein

3,267 Kommentare 2,208 Likes

Das ist im Prinzip die Leistungssteigerung, die ich von einer neuen Gen erwarte. Bei der Karte hat es sich ja dann auch komplett mit irgendwelchen 1.000+Watt NTs. Die liegt ja noch deutlich unter meiner 6900XT. Preislich sieht das allerdings nach einem Rohrkrepierer aus.
Ich kann das Pricing sogar nachvollziehen - zum 3090 Ti Preis gibts ein ordentliches Leistungsplus - allein, ich glaube in der aktuellen Wirtschaftslage bei parallel abschmierenden Kryptos nicht an einen Ansturm auf die Karten. Ich gehe davon aus, dass wir die ab Q2 für um die 1.000 Euro sehen. Wenn nicht vorher AMD einschlägt - die sind preislich vergleichsweise moderat aufgestellt. Moderat, sofern die Leitung stimmt.

Antwort 4 Likes

P
Phelan

Veteran

208 Kommentare 187 Likes

hm weiß nicht...

60% der Recheneinheiten und 66% Ram zu 75% des Preises...
Und mit den 60% ist es eher eine 4070ti ... und es fehlen eigentlich noch komplett die 4080 und 4080TI.

Der Abstand zu 4090 ist ja quasi noch geschönt, da die aktuellen spiele die Karte garnicht ausreitzen können.
IMO ist die 4080 deutlich zu teuer oder die 4090 zu billig je nach Sichtweise.

Wenn Nvidia die Preise bekommt, machen sie ja alles richtig. Und irgendwie auch besser als wenn bei Sclapern landet.
Ich bin da halt nur komplett raus aus dieser Produktgruppe.

Antwort Gefällt mir

Alexander Brose

Moderator

842 Kommentare 609 Likes

Geiler Test, so muss das!

Die Karte ist absolut gut gelungen, keine Frage. Das Nvidia sich extra viel Platz für eine potentielle 4080ti zwischen der 4080 und 4090 lässt war anhand der Leaks ja schon abzusehen und der Preisaufschlag zur vorherigen Generation (3080 = 759€ für nen 628mm² Chip zu 4080 = 1469€ für nen 379mm² Chip) ist einfach frech - Fertigungskosten für den N4 Prozess, bisschen Speicher und "alles wird teurer"-Faktor hin oder her.

Tut mir leid, aber ich bin da einfach raus. Ich hab das alles satt... erst GPU-Apokalypse durch Mining-Boom, dann der RTX-Aufschlag mit Turing, noch ein Mining-Boom samt künstlicher Verknappung und Scalper-Preisen und jetzt Jensens Größenwahn... irgendwann ist es auch mal gut.

Grüße!

Antwort 20 Likes

S
Staarfury

Veteran

258 Kommentare 206 Likes

Ja, leider sieht es so aus, als würde sich AMD für diese Generation gleich mal aus dem Rennen nehmen (zumindest für mich).

Nach eigenen Benchmarks schafft die 7900 XTX 21 FPS in CP2077 4k Ultra RT. Das ist 3080 Ti Niveau.
Bei einer neuen High-End Karte, die sicher die nächsten 2 Generationen (=4 Jahre) halten soll, ist das für mich leider keine Option.

Antwort Gefällt mir

grimm

Urgestein

3,267 Kommentare 2,208 Likes

Für mich besteht absolut kein Handlungsdruck bzw. ich hab mich selbst aus dem Rennen genommen. Ich hab den UHD Monitor ans MacBook gehängt und die Daddelkiste an ein 27" WQHD-Display. Die ganzen FPS-Balken haben mich selten so kalt gelassen. Und selten konnte man beim Launch schon erahnen, dass die wirklich sehr guten Produkte zur absoluten Unzeit kommen.

Kann sein, dass ich es überlesen habe: Braucht man für die 4080 einen 12-PIN Adapter?

Antwort Gefällt mir

DorianCrafts

Mitglied

29 Kommentare 26 Likes

Besser hätte ich es auch nicht schreiben können:

Antwort 2 Likes

S
Staarfury

Veteran

258 Kommentare 206 Likes

Ja
Und ich vermute mal das bleibt so bei allen 40er Modellen, die mindestens 2x 8 Pin benötigten.

Antwort Gefällt mir

Ghoster52

Urgestein

1,559 Kommentare 1,245 Likes

Genau aus dem Grund disqualifiziert sich die Grafikkarte für den Normalzocker. (n)
Das Leistungsplus + Effizienz ist beachtlich keine Frage, aber zu welchen Kurs...

Antwort 1 Like

G
Guest

Die Effizienz ist durchaus beeindruckend.
Allerdings brauche ich gar keine neue Grafikkarte :D. Und der Preis ist natürlich völlig verrückt. Leider.
Das macht das Ganze völlig unattraktiv.

Antwort 1 Like

H
HotteX

Veteran

110 Kommentare 79 Likes

Also die Preise die jetzt mit jeder neuen Generation aufgerufen werden, einfach nur noch lächerlich.
Vom Prinzip ist gegen die Karte nichts auszusetzen, hätte gerne nochmal ein UV Test gesehen, so auf
250W. Kommt ja vielleicht noch. Ah ich sehe grade Hardwareluxx hat die mit 250W laufen gelassen und
nur ca. 5% verloren. Sehr nice.
Aber bei mir ist bei 700€ eh Schluss was GPUs angeht, also maximal im Abverkauf.

Antwort 5 Likes

SchmoWu

Veteran

105 Kommentare 32 Likes

Schöner Test, danke dafür.
Scheint ja ein super Stück Hardware zusein. Mir gefällt der deutlich niedriger verbrauch, zur vorgänger Generation.
Doch preislich deutlich ausserhalb von dem was ich bereit bin zu zahlen.

Antwort Gefällt mir

g
gokkel

Neuling

3 Kommentare 2 Likes

An sich ist die Karte schon ok. Dass am Ende aber das P/L-Verhältnis je nach dem teilweise sogar leicht unter dem des Topmodells liegt, ist dann aber schon abstrus.

Interessant eigentlich nur für Käufer, die genau diese Leistungsklasse und nicht mehr erreichen wollen. Wer auf den Preis schauen muss, bedient sich wohl weiter bei den älteren Karten. Wem RT egal ist (was es mir persönlich in der Preiskategorie nicht ist; bei mir kommt dann noch NVENC dazu), hat dann außerdem noch bald bei AMD eine zusätzliche mögliche Alternative.

Antwort Gefällt mir

grimm

Urgestein

3,267 Kommentare 2,208 Likes

Völlig sinnbefreit... Aber danke für die Antwort.

Antwort 1 Like

grimm

Urgestein

3,267 Kommentare 2,208 Likes

Man sieht ja jetzt schon, dass die Verfügbarkeit im Vergleich zum Run auf die 30XXer deutlich besser ist. Ne 4090 kriegt man bei den normalen Händlern problemlos.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Igor Wallossek

Chefredakteur und Namensgeber von igor'sLAB als inhaltlichem Nachfolger von Tom's Hardware Deutschland, deren Lizenz im Juni 2019 zurückgegeben wurde, um den qualitativen Ansprüchen der Webinhalte und Herausforderungen der neuen Medien wie z.B. YouTube mit einem eigenen Kanal besser gerecht werden zu können.

Computer-Nerd seit 1983, Audio-Freak seit 1979 und seit über 50 Jahren so ziemlich offen für alles, was einen Stecker oder einen Akku hat.

Folge Igor auf:
YouTube   Facebook    Instagram Twitter

Werbung

Werbung