Reviews NVIDIA GeForce RTX 3080 Founders Edition Review- ein großer Schritt nach vorn und der Grabstein für Turing

Was für ein umfangreicher Test, alle Achtung! 🤯
Ein kleines Detail für den künftigen Augenschmaus als Anregung @Igor Wallossek: Bei den geplotteten FPS-Verläufen und ähnlichen Grafiken halte ich eine markantere Farbwahl auch zur Unterscheidung NVidia-AMD für sinnvoll (oder weniger Verläufe). Aber so oder so: Top Test (y)
Mein Fazit: Wer keinen 4K-Monitor hat, sollte lieber auf kleinere/effizientere Karten warten. Das ist ja wie mit Kanonen auf Spatzen. Bei 4K oder mehr hingegen ist die Karte echt beeindruckend.
Nur was ist eigentlich bei World War Z los? Die 1%-FPS von Turing sind alle fast gleich (die 3080 aber kann sich absetzten), die 1% von Navi&RVII ebenfalls, aber leicht niedriger. Wenn das DX11 wäre, würde es mich nicht wundern, aber bei Vulkan frag ich mich schon... Liegt das am Treiber? Warum schneidet dann die 3080 so gut ab? PCIe 4?
 
Die 5V-Versorgung ist auf der Platine ja drauf. ich denke eher, NV hat VR für sich begraben, passt nicht ins Portfolio. [...]

Ich sehe da auch ein bisschen das Elektroauto Henne - Ei - Problem.
Warum sollen wir Ladestationen bauen, wenn es kaum Elektroautos gibt ?
Warum sollen wir Elektroautos bauen, wenn es kaum Ladestationen gibt ?

VR hat weiterhin so wenig Verbreitung, dass sich kaum ein relevanter Publisher hier engagiert, Triple A Titel gibt es so gut wie gar nicht. Die volumenmäßigen "Big Player" Sony und Facebook (https://de.statista.com/statistik/d...steller-von-virtual-reality-brillen-weltweit/) ist hier eher in Richtung Console oder stand-alone Systeme unterwegs und am Horizont zeichnet sich wenig massentaugliches ab. Und wenn man in die Vergangenheit blickt, waren weder die ELSA Revelator noch die Nvidia 3d Shutterbrille der Bringer. Da wird man als Hersteller konsequenterweise vorsichtig und investiert lieber woanders.
 
finde es echt interessant, dass nv die 3080 so stark ans limit geprügelt hat... einfach nur so, haben sie sicherlich nicht auf die eigentlich sehr gute effizienz gepfiffen...
Bei Computerbase haben sie die 3080 auf 270W begrenzt, Ergebnis: nur 4% langsamer als mit 320W. Da fragt man sich schon: warum?

Was ich an der 3080 richtig spannend finde ist die Performance in Blender.
 
Besten Dank für den Test. Mal wieder mit Abstand derjenige mit dem meisten Tiefgang.

Ja, schon ein schönes Stück, allerdings wenn dann wohl als custom und da wirds dann teuer bzw auch evtl überdimensioniert.

Aber eine 3070... Oder 3070ti.... Mit DLSS 2.0 schön skalieren lassen.... Das sollte schon für vieles ausreichend sein. Bin gespannt.
 
@Alkbert
VR wird auch mit der Karte funktionieren, sicher sogar gut. Der Vorstoß mit dem einzelnen Kabel war zwar gut, aber hat sich eben nicht durchgesetzt. Ich schätze, hier dürfte HTC/Valve, als auch Dritthersteller mit ihren Funklösungen mehr reißen.
 
wie immer schöner Report.
Ich selbst befinde mich auch noch in der Entscheidungsfindung zwischen 3090 und einer 3080 mit mehr als 10gb speicher.

Deshalb hätte ich es sehr interessant gefunden bei den Benchmarks auch immer parallel CPU und RAM Auslastung des Benchmarks mit auswerten zu können.
Dann wäre die Entscheidungsfindung wenn man ein Farcry 5 in 1440p mit 8GB Auslastung sieht solider.
 
Bei Computerbase haben sie die 3080 auf 270W begrenzt, Ergebnis: nur 4% langsamer als mit 320W. Da fragt man sich schon: warum?
Weil der Chip an der Kotzgrenze läuft. Die Leistungsaufnahme steigt irgendwann exponentiell. Das selbe gilt für die Navi1 und auch für die schnellsten Ryzens.

Bei meiner Vega 64, die ich mal hatte, war es dagegen etwas merkwürdiger. Die habe ich bei ca. 95-98% der Leistung auf ca. 140 Watt runterprügeln können. Erklären konnte ich es mir nicht. Laut GPU-Z & Co. soll es so gewesen sein. Mit ner Strommesszange oder so ging ich nicht bei. So wichtig war es mir nicht. Zugegeben, der Treiber war etwas buggy und das ging immer nur mit viel rumgespiele im Betrieb.
 
Wie jetzt, kein DVI ??? Das war doch nVidia Markenzeichen... 🤘

@Igor Wallossek : Wie immer wieder ein geiler Test. Ich muss sagen, dass ich positiv überascht bin von der Karte bis auf die lächerlichen 10GB GRAM. Aber Top Kandidat für Undervolting wie ich finde. Scheint mir so, dass nVidia tatsächlich fast so vorgegangen ist, wie AMD mit der Vega64 und der LC Variante ein wenig. Bissle Brecheisen für die Performance bei 320Watt.
Ach ja, dein Labor und dein Testaufbau sowie die Methodik verblüfft und entzückt mich immer wieder aufs neue :love:

Mal schauen wie sich das mit den Konsolen und Spielen so entwickelt aber glaube, dass es bereits in nem Jahr schon sehr knapp werden dürfte wenn sich 4K vollends als das neue FHD etabliert hat und die Spiele entsprechend (auch wegen den neuen Konsolen) aufgebohrt werden. Es ist einfach nicht gut im PC weniger GRAM zu haben als in ner Konsole. Das hat nen komischen Beigeschmack und macht für die Zukunft nicht wirklich zuversichtlich wenn man die Entwicklung so anschaut. 10GB der 3080 ist mir echt zu wenig.

Werde auch definitiv noch mit dem Kauf auf die AMDs warten. Wenn garnichts passt wirds ne gebrauchte 1080Ti bis zur nächsten Generation Grakas wo dann auch Intel mitspielen wird. Bis dahin tuts der olle Dell 21:9 auch noch 😁

Ich glaube auch, dass die 3090 nicht der Nachfolger der 2080Ti ist sondern eine neue Klasse weil Luft nach oben ist noch genug (preislich).
Eine Titan wird sicherlich auch noch kommen. Bestimmt nächstes Jahr wenn Micron die Speicherkapa für GDDR6X 21Gbps pro Chip verdoppelt hat. Dann mit 48GB.
Ich denke alles mit "Nummer" und "Super" oder "Ti" am Ende ist in erster Linie für den Gaming / Consumer / Light Work / Streamer usw. Bereiche und die "Titan"en eher für die richtigen Renderer und Prosumer. Die wird dann bestimmt wie früher wieder über 2k€ liegen.
Dafür ist die 3090 noch zu "billig". Bestimmt auch eingeführt um gerade diese Lücke wieder zu füllen und um die alte "Ordnung" wieder zu beleben. Würde mich nicht wundern, wenn es sogar noch eine 3090Ti geben wird. Zwischen 1.5k€ und 2k€ ist auch noch platz.

Das Lineup von nVidia wird folgendermaßen aussehen (hat mir meine Glaskugel verraten): :ROFLMAO:

3060 - 300€
3060Ti - 350€
3070 - 500€
3070 S - 600€ (GDDR6X 21Gbps > 3070 Update)
3080 - 700€
3080 S - 800€ (GDDR6X 21Gbps > 3080 Update)
3080Ti - 1100€ (20GB (direkt GDDR6X 21Gbps?))
3090 - 1500€
3090Ti - 1900€ (direkt GDDR6X 21Gbps?)
Titan - 2500€ - 3000€ (48GB GDDR6X 21Gbps)

Vermutung aber klingt bissle logisch 🤔
 
Zuletzt bearbeitet :
Danke für den Test :)

@Igor Wallossek
Wenn man den Luftstrom der RTX 30x0 auf dem Bild ( Seite 2 ) betrachtet wo die warme Abluft durch die Speicherbänke geblasen wird, stellt sich mir die Frage wie stark die CPU und RAM Temperatur beeinflusst wird ?
 
Super Test, sehr ausführlich und mit Tiefgang!
War leicht erschlagen von den 16 Seiten in der unteren Übersicht...

@Igor Wallossek gab es Kaffee mit Redbull gekocht die letzten Tage? ;)

Bin auf die Test der Custom Modelle und dann was da noch so kommt gespannt! Wirklich ein heißer Herbst, in mehrfacher Hinsicht...
 
Echt ein klasse Test! Hut ab der Herr! :)
Wie schätzt du denn die Treiber ein Igor? Eher Riesenbaustelle, solide mit noch einigen Prozenten Reserve hier und da oder durchaus noch einige Handbremsen drin die sie lösen könnten?
Was mich beim Lesen wundert, das wohl schon ab und an die CPU am Röcheln ist. Das ist doch mal ein Ansporn für Intel und AMD. ;)
Was ich mal sehr interessant gefunden hätte, wäre eine Hitzemessung das Abgasstrahls des Slotblendenaustritts. :D
 
@Igor Wallossek
Da du es in jedem zweiten Satz im Video erwähnst.
Das Thema CPU Bottleneck.
Und das ein getesteter Intel maximal 2-3FPS schneller gewesen sei.

Darf man erfahren welchen Intel du da für diese Tests genommen hast und mit welchem Takt/Cache und RAM das passiert ist?
Denn ich sehe dort alleine schon drei Spiele bei denen die Engine eindeutig Intel bevorzugt.
Far Cry, Metro Exodus und Shadow of the Tomb Raider.

Vielen Dank und sehr schöner Test.

Ich bin schon auf deine WaKü Tests gespannt (y)
 
Weil der Chip an der Kotzgrenze läuft. Die Leistungsaufnahme steigt irgendwann exponentiell. Das selbe gilt für die Navi1 und auch für die schnellsten Ryzens.

Interessant hier wäre in wie weit sich der VRAM manipulieren lässt. Offensichtlich dreht die Karte erst in 4K richtig auf. Mit einem ordentlichen VRAM undervolt und underclock könnte man ggf. einiges einsparen, ohne das der Durchsatz für FullHD / WQHD unzureichend wäre.

Wie sich der Core zum Takt verhält, habe ich mir noch nicht genauer angeschaut.
 
Oben Unten