Reviews NVIDIA GeForce RTX 3080 Founders Edition Review- ein großer Schritt nach vorn und der Grabstein für Turing

Nachdem mir Alternate jetzt geschrieben hat das ihr Lieferant den Liefertermin nicht einhalten kann, hab ich jetzt storniert. Wenn das jetzt eh noch 3-4 Wochen dauert, kann ich wegen meines TV's mit FreeSnyc gleich auf Nummer sicher gehen und direkt BigNavi ordern. Die Gerüchte erhärten sich ja auch, das es eine 12 und 16GB Version geben wird - gibt mir dann auch ein besseres Gefühl wie die knapp bemessenen 10GB.

Bei Computerbase gab es auch eine Umfrage, wo es ziemlich klar ersichtlich ist, das das ganze ein 99%tiger Paperlunch ist. Von AMD erwarte ich nach Igors Einschätzungen auch keine Wunder und tollen Lieferzeiten, aber irgendwie ist mir das jetzt Symphatischer.

Die RX 5700XT von XFX hatte wegen der Speichertemperaturen bei mir Minuspunkte gesammelt. (was durch ergänzende Wärmeleitpads/Paste aber nun passt) aber zumindest ist hier AMD ehrlich und zeigt einem die Tjunction an. Nvidia verschweigt es für den Ottonormaluser, was meiner Meinung nach noch schwerer wiegt - danke hier an die Aufklärung von Igor.

Bin mal auf das Review der RTX 3090 gespannt, zumindest für Gamer die auch nur im entferntesten ein wenig auf das Preis-/Leistungsverhältnis achten, dürfte die Karte wohl durchfallen. Für Nutzer von Anwendungssoftware aber sicher eine sehr interessante Karte (gerade in Hinblick auf Speichermenge vs Preise der alten Titan RTX)
 
Nachdem mir Alternate jetzt geschrieben hat das ihr Lieferant den Liefertermin nicht einhalten kann, hab ich jetzt storniert. Wenn das jetzt eh noch 3-4 Wochen dauert, kann ich wegen meines TV's mit FreeSnyc gleich auf Nummer sicher gehen und direkt BigNavi ordern. Die Gerüchte erhärten sich ja auch, das es eine 12 und 16GB Version geben wird - gibt mir dann auch ein besseres Gefühl wie die knapp bemessenen 10GB.

Bei Computerbase gab es auch eine Umfrage, wo es ziemlich klar ersichtlich ist, das das ganze ein 99%tiger Paperlunch ist. Von AMD erwarte ich nach Igors Einschätzungen auch keine Wunder und tollen Lieferzeiten, aber irgendwie ist mir das jetzt Symphatischer.

Die RX 5700XT von XFX hatte wegen der Speichertemperaturen bei mir Minuspunkte gesammelt. (was durch ergänzende Wärmeleitpads/Paste aber nun passt) aber zumindest ist hier AMD ehrlich und zeigt einem die Tjunction an. Nvidia verschweigt es für den Ottonormaluser, was meiner Meinung nach noch schwerer wiegt - danke hier an die Aufklärung von Igor.

Bin mal auf das Review der RTX 3090 gespannt, zumindest für Gamer die auch nur im entferntesten ein wenig auf das Preis-/Leistungsverhältnis achten, dürfte die Karte wohl durchfallen. Für Nutzer von Anwendungssoftware aber sicher eine sehr interessante Karte (gerade in Hinblick auf Speichermenge vs Preise der alten Titan RTX)

Die Mail von Alternate hatte ich gestern in Bezug auf die bestellte MSI RTX 3080 Gaming X Trio auch bekommen (die gabs auch für andere Karten, von der Asus TUF hatte ich das auch irgendwo gelesen in einem Post), heute wurde sie dann trotzdem versendet. Aber die Entscheidung doch noch auf die Karte von AMD zu warten kann ich nachvollziehen, bin auch mal gespannt wie die so werden.
 
So endlich durch. Und es ist das eingetreten was ich befürchtet habe. Die Karten werden gut über den Sweetspot (wo auch immer der liegt) getrieben um sich vernünftig von der Vorgängergeneration absetzen zu können. Dabei spielt der Verbrauch keine Rolle, Hauptsache schneller. Das dies vielen auf einmal wieder egal ist, ist ja nichts neues. Bei AMD wird es kritisiert, bei nVidia ist es okay. Nichts neues.
Dann wird ab Seite 17 wieder von mehreren gesagt, dass 10GB Speicher ja die nächsten Jahre reichen. Schön, dass hier wieder einige festlegen wollen, welche Speichermenge für alle zu reichen hat. War bei der 2060 mit 6GB bei Launch auch schon so. Wäre mal für einige echt ganz gut, nicht immer von sich auf alle anderen zu schließen. Denn der Speicher reicht sicher nicht über Jahre. Und dabei spielt es keine Rolle ob der Entwickler schlampig programmiert. Denn nVidia lässt die Karte ja auch saufen wie ein Loch. Und wenn das zweite okay ist, dann ist das erste auch okay. Aber selbst wenn der Entwickler nicht schlampt, dann gibt es noch den Enduser der sich High-Res Texturen in sein Spiel knallt. Oder sogar beides in Kombination. Und schon reichen eben 10GB für 4K einfach mal gar nicht über Jahre. Somit ein weiterer Kritikpunkt bis zum Ti/Super Model mit dann 20GB. Für dann 200-300€ Aufpreis, wo man dann einen Kritikpunkt gegen einen anderen tauscht.
Auch die Temperaturen sind jetzt nicht gerade schön. Klar insgesamt gehen die Temps der Karte, aber das man an wichtigen stellen teils über 100°C kommt, was ja die Langlebigkeit der einzelnen Teile der Karte und somit der Karte insgesamt massiv nach unten drückt. Das wird halt einfach auch hingenommen.

Der Preis von 699€ ist im Grunde das einzige positive an der ganzen Sache. Der Rest ist einfach nur so typisch nVidia. Paperlaunch, hoher Verbrauch, Designfehler der zu hohen Einzeltemperaturen führt, zu geringe Speicherbestückung (mal wieder).

Wenigstens taugt das Lüfterdesign dahingehend, dass es die anderen Teile im Gehäuse nicht unnötig aufheizt.

Alles in allem doch eher eine ernüchternde neue Generation bis jetzt. Mal sehen ob AMD es besser hin bekommt. Wobei ich da auch so langsam meine Zweifel habe. Muss an 2020 liegen. Am besten gehe ich noch mal Eskimo Callboy mit Hypa Hypa schauen um wieder etwas bessere Laune zu bekommen. Für mich bis jetzt eins der wenigen positiven Überraschungen abseits des Techbereichs.
 
Gerade flatterte die Stornierung von Amazon rein, erst Zehntausende Karten verkaufen, die sie nicht haben und dann alles stornieren, damit sie die neu eintreffenden Karten teurer verkaufen können, ein echtes Abzockunternehmen!
 
It's amazon, isn't it?
 
Amazon, Caseking, Alternate, NBB, Mindfactory usw. Alles Unternehmen, die einfach nicht genug Geld in den Hals bekommen können. Und wir reden hier schon lange nicht mehr davon, das solche Unternehmen ja auch wirtschaftlich arbeiten müssen. Das würden sie schon bei den UVPs der Hersteller. Aber da ja die meisten "Nerds" keine Geduld haben bzw. einfach nicht warten wollen, wird es jetzt und auch in Zukunft immer wieder solche Preissteigerungen geben.

Was dann natürlich die "niedrigen" 699€ von nVidia immer mehr als reines Trollmarketing aussehen lässt. Man stellt einen niedrigen Preis als UVP rein für seine eigene Karte, hat von diesen im Grunde aber keine da und die Händler, die ja nur Custommodelle habe, treiben die Preise wieder nach oben. Und da nVidia ja an den Custom Chips mehr verdient als an den eigenen verkauften Karten, wird es nVidia selbst nach dem kurzen Shitstorm der jetzt vorherrscht, eher freuen statt wehtun, wenn sie nicht so viele FEs verkaufen.

Das Amazon jetzt, wie es scheint, einen Großteil der Zotac Bestellungen zu stornieren ist sehr ärgerlich.
 
Nachdem mir Alternate jetzt geschrieben hat das ihr Lieferant den Liefertermin nicht einhalten kann, hab ich jetzt storniert. Wenn das jetzt eh noch 3-4 Wochen dauert, kann ich wegen meines TV's mit FreeSnyc gleich auf Nummer sicher gehen und direkt BigNavi ordern. Die Gerüchte erhärten sich ja auch, das es eine 12 und 16GB Version geben wird - gibt mir dann auch ein besseres Gefühl wie die knapp bemessenen 10GB.

...

Bezüglich der 10GB, Gamestar hat da eine kleine Übersicht gemacht, wie viel VRAM genutzt wird in Spielen bei den Auflösungen.

gigabyte-rtx-3090-eagle-oc-vram-8k-vs-4k_6113891.jpg

Quelle: https://2images.cgames.de/images/gamestar/279/gigabyte-rtx-3090-eagle-oc-vram-8k-vs-4k_6113891.jpg
 
Auf dem Bild steht VRAM-Reservierung, das ist nicht das gleiche wie der tatsächlich genutzte Speicher. Man kann sich mit dem aktuellen Afterburner (Beta?) inzwischen die wahrscheinliche Nutzung des VRAMs anzeigen lassen, die liegt gerne mal 2-3GB unterhalb der reservierten Menge.
10GB VRAM der 3080 sind nach den 11GB der GeForce RTX 2080 Ti und GTX 1080 Ti (!) aber trotzdem relativ enttäuschend für eine Grafikkarte auf diesem Leistungsniveau.
 
Frei für andere isser aber trotzdem nicht, oder irre ich mich da?
 
Frei für andere isser aber trotzdem nicht, oder irre ich mich da?

Im Gegensatz zum Hauptspeicher müssen sich normal nicht allerhand Applikationen um den Speicher balgen (wobei bestimmte Apps auf dem Desktop inzwischen auch VRAM belegen, aber nicht so viel). Es läuft halt in der Regel nur ein Spiel.

Also nein, der Speicher ist von der Applikation (dem Spiel) belegt und nicht mehr "frei". Die Frage ist aber: Wie nutzt die Applikation den Speicher.

Einfach Beispiel: Jede neue Textur (und anderes Asset) wird im VRAM abgelegt, entsprechend steigt der VRAM die Menge des reservierten Grafikspeichers. Erst wenn sich der freie VRAM dem Ende entgegen neigt, wird die "am längsten nicht mehr benötigte Textur" (das wäre der einfachste Algorithmus) wieder aus dem Speicher entfernt, so dass wieder Platz für neue Daten ist.

Bei diesem Modell ist in einem großen OpenWorld Spiel das VRAM recht schnell voll, speziell wenn man viel von einer Gegend in die andere kommt (am besten noch per Schnellreise, wenn dabei das RAM nicht geflushed wird). D.h. aber nicht, dass das Spiel spürbar schlechter läuft, auch wenn man deutlich weniger Speicher zur Verfügung hätte. Denn ob eine Textur, die seit 5 Minuten nicht mehr gebraucht wird, im RAM rumliegt oder nicht, macht keinen Unterschied.

Statistisch ist es natürlich schon so, dass die Wahrscheinlichkeit steigt, mit der eine Textur ins VRAM nachgeladen werden muss, weil sie nicht noch im VRAM liegt, wenn dieser kleiner ist. Aber das wirkt sich sehr lange kaum aus, und ist auch nicht spürbar, so lange der verfügbare Speicher nicht tatsächlich zu knapp bemessen für das jeweilige Spiel ist.

Also:

Bei 16 GB - super
Bei 12 GB - super
Bei 10 GB - super
Bei 8 GB - ab und zu mal ein kurzes Ruckeln
Bei 6 GB - merkliche Einbrüche und auch sichtbares Nachladen

Und das kann auch dann gelten, wenn das Spiel bei 16 GB den vollen Speicher belegen würde.
 
Zuletzt bearbeitet von einem Moderator :
Es läuft meist nur 1 Spiel, stimmt; aber was is mit Win Desktop, anderen Apps, wie zB TS,
haben die beim ALT-TAB dann auch Platz, oder muss erst geräumt werden?
Bleiben die wenn man wieder ins Spiel wechselt im VRAM oder werden die zwangsgeräumt?

und mit 2. Monitor könnte das dann eng werden, oder?

*Mal suchen geh*

Edit: TH Antwort macht mich nicht wirklich glücklich.^^
 
Zuletzt bearbeitet :
@LurkingInShadows man darf Arbeitsspeicher nicht mit Grafikspeicher verwechseln. Teamspeak(TS) benötigt nur Arbeitsspeicher, keinen Grafikspeicher. Mit dem 2. Monitor wird es nur Eng, wenn dort parallel ein 2. Spiel läuft bzw. wenn ein Spiel beide Monitore nutzt und dadurch die Auflösung steigt.

Ansonsten hat es Grestorn sehr gut erklärt - die Speicherangaben darf man nur symbolisch verstehen, je nach Spiel, Detailgrad und der gewählten Auflösung.
 
Du kannst genau sehen, wieviel VRAM gerade von laufenden Apps verbraucht wird. Dazu im Taskmanager auf "Details" gehen und die Anzeige "Dedicated GPU memory" aktivieren (musst raussuchen wie das auf Deutsch heißt):

1602862977370.png

dwm.exe ist letztlich der Windows-Desktop.


Unter "Performance" kannst Du links die GPU anklicken und dann siehst Du unten, wieviel Speicher insgesamt gerade belegt ist:

1602863074111.png
 
Dezidierter GPU-Speicher heißts
Nur bleibts bei 0k gesamt bei mir^^
 
Zuletzt bearbeitet :
is ja nicht so dass ich eine Diashow laufen hätte, äh moment, hab ich :)

GPU-Z meint auch 760MB belegt.

Mir fällt nur grade auf ich hab auch den GPU-Teil im Performance-Fenster nicht; wahrscheinlich zu alt der Opa, der sagt Windows nix.
 
Zuletzt bearbeitet :
@Grestorn Wenn es einen Preis für den Tipp der Woche gäbe, Du hättest Ihn verdient ;)

Auf die Idee bin ich bisher schlicht noch nicht gekommen, das man beim Task-Manager diverse Spalten zusätzlich einblenden kann.
Interessant auf jeden Fall, das man sieht welches Programm wie viel Grafikspeicher nutzt. Bei Autostart kann man sich dann auch die Zeit einblenden lassen, die das jeweilige Tool beim Start benötigt, oder die Anzahl der Threads die ein Programm nutzt.


1602876678192.png
 
Du kannst genau sehen, wieviel VRAM gerade von laufenden Apps verbraucht wird. Dazu im Taskmanager auf "Details" gehen und die Anzeige "Dedicated GPU memory" aktivieren
Soweit ich weiß, ist die Anzeige des "dedicated" oder dedizierten GPU-Speichers auch nur die Menge des reservierten Speichers.

Um den tatsächlich verwendeten Speicher sehen zu können, braucht es die neueste Beta (4.6.3 Beta 2 Build 15840) des Afterburners oder ein anderes Tool, dessen Namen mir gerade entfallen ist.

Gerade mal einen Test mit Borderlands 3 gemacht:
Afterbruner Standardanzeige: ca. 7600MB
Windows Taskmanager: ca. 7300MB
AMD Treiber-Overlay: ca. 6800MB
Afterburner neues Beta-Plugin: 5600MB.

Egal welcher Wert näher am echten Grenzwert liegt, die bisher übliche Anzeige der dedizierten VRAM-Belegung scheint in diesem Fall 1-2GB von der tatsächlichen Menge abzuweichen.
 
reservierten Speichers
Da es für VRAM kein virtuelles Speichermanagement gibt ist reservierter Speicher = dem für andere Applikationen nicht mehr verfügbarer Speicher.

Deswegen wird das auch auf der Seite "Performance" entsprechend klar als belegt angezeigt (Obergrenze des Grafen ist 11 GB bei mir - mehr kann nicht alloziert werden).

Was Du meinst ist der Unterschied zum *notwendigen* Speicher, also die Speichermengem die notwendig ist, damit das Spiel flüssig läuft. Der ist *geringer* als der allokierte Speicher. Nichts desto trotz hat die Anwendung den Speicher allokiert und nutzt ihn in der Regel auch. Nur profitiert sie u.U. von der Speichermenge nicht mehr spürbar.
 
Habe nichts gegenteiliges geschrieben. Interessant ist in der Regel ja die Menge an VRAM, die für eine Anwendung notwendig ist. Da meistens diese Anwendung ein einziges Spiel ist und sich die Beiträge von @Obse und @Eragoss unter anderem darum drehte, welche Ausstattung an VRAM bei einer GPU angemessen sei, finde ich den Gradmesser dedizierte VRAM-Belegung relativ ungünstig, weil deren Aussagekraft gering ist.

Wenn man darüber diskutieren will, ob 8GB, 10GB oder 16GB eine sinnvolle Wahl für eine High-End-Grafikkarte ist, sehe ich die Metrik des tatsächlich benötigten VRAMs als eine bessere Maßeinheit an, als die Menge des reservierten/dedizierten VRAMs. Nicht mehr und nicht weniger.
 
Oben Unten