NVIDIA GeForce RTX 4080 Founders Edition 16GB im Test - Schneller als gedacht und viel sparsamer als befürchtet

Igor, danke für Test! Ja, die 4080 ist, wie schon die große Schwester (4090) eine tolle Karte. Wenn nur der Preis nicht wäre!
Davon abgesehen, zeigen die beiden Ada nicht nur wirklich bessere Technik als Ampere, sondern auch wie schlecht die Effizienz des Samsung 8nm Nodes war. Ohne den (großen) Vorteil beim Fertigungsprozess den AMD bis jetzt hatte (6xxx vs Ampere) muß sich AMD jetzt wirklich anstrengen, um da weiter mithalten zu können. Werden wir ja sehr bald sehen ob das so ist.
 
Technik ist sicherlich insgesamt Top, ich würde mich nur der Kritik anderer anschließen, dass der Kühler einfach viel zu groß geworden ist. Vor allem im Hinblick auf den dämlichen Stromstecker.
Und über den Preis braucht man nicht weiter reden. Wenn es AMD und NV verpassen, eine ordentlich bepreiste Mittelklasse zu bringen, werde ich wohl komplett auf Konsole wechseln. Ich zocke inzwischen einfach zu wenig, als dass sich solche Investitionen lohnen würden. Mal abgesehen davon, dass ich andere kostspielige Hobbys habe, die da bevorzugt Budget bekommen.
 
Hä?

Vom aktuellen Drama mal abgesehen, ist ja wohl ein Stromkabel mit genug Leistung für moderne GPUs sinnvoller als eine Wand mit bis zu drei identischen Steckern...
Ich bezog mich auf die Tatsache, dass ich ein NT besitze, das genau das bietet: ausreichend Leistung bei guter Effizienz. Und ich halte es für sinnbefreit, für eine neue Grafikkarte einen Adapter zu verwenden oder gar ein neues NT anzuschaffen.
 
Aus meiner Sicht ein schöner Test und eine interessante Grafikkarte. Aber das Preisschild macht die Grafikkarte für mich wieder unattraktiv.
 
Zuletzt bearbeitet :
Ich bezog mich auf die Tatsache, dass ich ein NT besitze, das genau das bietet: ausreichend Leistung bei guter Effizienz. Und ich halte es für sinnbefreit, für eine neue Grafikkarte einen Adapter zu verwenden oder gar ein neues NT anzuschaffen.
Huhn und Ei. Und in diesem Fall ist ein Adapter (wenn er denn anständig gefertigt ist) eine sehr kleine Umstiegshürde.

Mit deiner Haltung ziehen wir auch in 20 Jahren noch 3 Kabel vom Netzteil zur GPU.
 
Gegen die 7900 XT wird sie die Rücklichter sehen. Gegen die XTX sowieso. Bei dem Preis absolut unattraktiv.
 
Ich lehn mich mal etwas aus dem Fenster und behaupte, dass man bei Nvidia nur zu gut weiß, was die Konkurrenz zu bieten haben wird und sie ganz genau deswegen den aufgerufenen Preis gewählt haben.
 
Huhn und Ei. Und in diesem Fall ist ein Adapter (wenn er denn anständig gefertigt ist) eine sehr kleine Umstiegshürde.

Mit deiner Haltung ziehen wir auch in 20 Jahren noch 3 Kabel vom Netzteil zur GPU.
Nee, in 20 Jahren gibt es die entsprechenden NTs. Die Adapter-Lösung ist ja erstmal okay, wenn ordentlich umgesetzt.
Ich bevorzuge ein Szenario in dem die Karten effizienter werden, bei trotzdem gestiegener Leistung - genau das ist hier passiert. Also braucht man kein neues NT >1.000 Watt. Man bräuchte nicht mal einen Adapter. Und so niedrigschwellig der auch sein mag, es ist ein zusätzliches Stück Plastik plus metallisches Innenleben. Aber das ist hier nicht die Frage.
 
Danke für den Test. Wie schon die 4090 ein schönes Stück Technik. Aber wie auch ein Porsche, viel zu Teuer :/
Das einzige Positive was ich da wirklich sehe ist das die Leistungsaufnahme nicht wieder angestiegen ist. Auch wenn ich stark schätze das dies nur an dem geänderten Fertigungsverfahren liegt.
Allerdings der Aufschlag dafür ist heftig. Wenn das so weiter geht war die 6900xt für lange Zeit die letzte Grafikkarte die ich mir zwangsweise gegönnt habe.
 
….nettes Schlusswort im Video.

Bin da ganz bei Igor...:)
 
Die Leistung der Karte ist echt gut. Muß man ja auch mal so anerkennen. Was die aber geritten hat diesen Backstein von der 4090 zu übernehmen weiß warscheinlich auch keiner so genau oder die wollten damit die Gehäusebauer unterstützen. Die Preise die Nvidia aufruft sind weit weit entfernt von dem was ich bereit bin zu bezahlen bzw zu können. Auf der anderen Seite stört mich auch dieser 12-Pin Adapter. Hatte erst vor ein paar Monaten mein altes Netzteil nach 10 Jahren begraben müssen und nun kauf ich nicht schon wieder ein neues. Ich freu mich auch schon richtig auf Dezember wenn AMD ihre Karten rausbringt und dann mal sehen wo die sich einsortieren werden. Wird bestimmt ein interessantes Duell werden
 
1500 Steine für das Bauteil eines Computers? 🤯

Tut mir leid, aber da werden die restlichen Eigenschaften der Grafikkarte zur Nebensache.
 
Ich bezog mich auf die Tatsache, dass ich ein NT besitze, das genau das bietet: ausreichend Leistung bei guter Effizienz. Und ich halte es für sinnbefreit, für eine neue Grafikkarte einen Adapter zu verwenden oder gar ein neues NT anzuschaffen.
Musst Du ja nicht. Wenn Du eine solche Karte nutzen willst, reicht ein neues KABEL vom Netzteil zur Karte. Es sei denn, Du hast ein Netzteil mit fest verdrahteten Kabeln.
 
Tolle Karte und vielen Dank für den Test 🙂.

Krass finde ich die Effizienssteigerung, hoffe die setzt sich bei den kommenden kleineren Karten fort.

Die Preisentwicklung ist aber leider jenseits Gut und Böse. Ich möchte mir gar nicht ausmalen, wieviel die Customs wohl kosten werden.

Leisten kann ich ich sie mir ohne mit der Wimper zu zucken, bereit dazu bin ich aber nicht. Ich hoffe auf eine starke Konkurrenz von AMD und das Nvidia seine Preisgestaltung noch überdenken möge.

Schönen Abend 🙋‍♂️
 
@Igor Wallossek Schöner Test. Nur ein kleiner Kritikpunkt darf mir erlaubt sein. Nein man kann nicht hingehen und den Preis nicht nicht betrachten!
"Und es lohnt sich auch, neben den Balken auch das Gesamtpaket zu betrachten und den Preis erst einmal außen vor zu lassen."

Wenn das so weitergeht brauch ich deine Seite nicht mehr besuchen... Oder andere Hardwareseiten... Und ich bin gespannt - eine normale 6950 ist ja "effizienter" als das OC Modell - und darauf will AMD ja die 54% drauf legen... Ich denke da werden beide sehr nah beieinander liegen...
Und per se ist das Gesamtpaket das Gesamtpaket - und da zählt der Preis dazu.
 
Irgendwo habe ich gelesen/gehört, DLSS 3.0 geht nicht mit framerate limitern.
Ist das richtig, oder trifft das nur zu wenn frame generation aktiv ist? Sonst würde mir die framerate wohl immer aus dem gsync regelbereich rauslaufen...
 
„Bis dahin dürfen wir grübeln, warum NVIDIA zwischen der brachialen GeForce RTX 4090 24GB und der 60%-Lösung in Form der GeForce RTX 4080 16GB so eine riesige Lücke lässt.
Denn Platz für eine GeForce RTX 4080 Ti

Cool, frage und Antwort in einem einzigen Satz, da gibts meiner Meinung nach genau deswegen nichts zu grübeln…
 
Tolle Karte, die Effizienz nenn ich mal vorsichtig grandios... vor allem wenn man sie mit der vorigen Generation vergleicht.
 
Oben Unten