Reviews Nvidia GeForce RTX 2060 FE im Test - setzt diese Karte neue Maßstäbe in der Mittelklasse?

@Igor Wallossek
Die FE Karten der Turing Generation sind aber auch ohne OC schon Custom Modelle. Denn allein die Kühlung hat ja nichts mehr mit der Kühlung der letzten Generation zu tun. Wenn beide FE Versionen also die der Pascal Generation, wie auch die der Turing Generation denselben Lüfter hätten. Ja dann wäre ein direkter Vergleich richtig.
Aber durch den neuen Aufbau bei Turing, der sich definitiv an den Custom Modellen der Hersteller wie Asus, MSI, Gigabyte etc. orientiert wäre es definitiv richtiger hier gleich die neue FE gegen die alten Customs antreten zu lassen.

Aber das ist meine Meinung dazu.

@Topic
Die RTX 2060 ordnet sich von der Leistung der GPU selbst eigentlich als untere WQHD Karte ein. Wird aber in ihrer Gesamtheit eher als FHD Karte präsentiert. Aber selbst in FHD gibt es ja schon Einschränkungen durch den Speicher, der mit 6GB hat jetzt schon zu klein ist. Auch wenn Igor es anders sieht und den beiden bei CB als negativ Beispiel aufgeführten Spielen wenig Aufmerksamkeit schenkt, so sind diese beiden Spiele eben trotzdem vorhanden und werden von anderen Spielern auch gespielt.

Wenn man jetzt bedenkt, das die Auflösung 1080p ist und die neue Karte bevor sie rauskommt bei bestimmten Details nicht auf Max gehen kann, weil der Speicher eben durch die Größe von nur 6GB limitiert, dann kann man das einfach nicht schön reden. Keine Ahnung warum hier mit der Auflösung von einigen Argumentiert wird, wenn es darum geht Details jetzt schon reduzieren zu müssen bei einer neuen Karte, die von der Leistung eher in WQHD genutzt werden könnte. Und bei einem Preis von 370-400€, ist das einfach ein No-Go.

Und egal ob man die Spiele selber spielt, die eben diese Limitierung hervor rufen, oder nicht. Dabei spielt es in dem Fall auch erst einmal keine Rolle ob es sich um eine schlampige Portierung handelt oder um ein semi-aktuelles Spiel.
Es werden ja auch neue Spiele in Zukunft raus kommen, bei denen dann ebenso der Speicher limitieren wird. Und das wird nicht erst in 2-3 Jahren so sein, sondern je nach Pech schon in den nächsten 2-4 Monaten.
Und da nützt es auch nichts, wenn der GDDR6 Speicher X% schneller ist. Ist er voll, ist er voll. Und solange die Entwickler der Spiele nicht von sich aus lernen maßvoller um zu gehen mit dem Speicher der Grafikkarten, wird es eher noch schlechter.

Und wenn man sieht, das AMD jetzt einen Vega Refresh raushaut mit 16GB HBM2 Speicher für 700$ (Kann man jetzt von der möglichen Stärke der GPU halten was man will), dann weiß ich nicht, wie man stur immer an den Aussagen festhalten kann: mehr als X Speicher/X Kerne brauch doch eh keiner.

Auf der einen Seite werden neue Features bei der Turing Generation, die nicht einmal vernünftig umgesetzt sind bis jetzt, abgefeiert und nVidia das Geld blind hinterher geworfen. Auf der anderen Seite wird dann aber die konservative Speicherbestückung der Turing Karten verdeitigt mit: Mehr brauchen wir nicht.
Ja was denn nun, entweder stehe ich neuen positiv gegenüber (neu bedeutet in dem Fall == mehr Leistung), was eben auch bedeutet mehr Speicher ein zu bauen um den neuen Feature entsprechend gerecht zu werden. Oder man ist grundsätzlich dagegen, aber dann brauch man auch keine neuen Features, die eben mehr Speicher zur vernünftigen Nutzung benötigen.
 
Zuletzt bearbeitet :
Also wenn ich eine Custom Karte, wie die heute im Test befindliche MSI RTX 2080 Gaming X Trio, mit der 2080 FE vergleiche, dann ist der Unterschied schon recht gewaltig. Es wird also abzuwarten sein, was die Custom Modelle der 2060 noch bringen (oder vielleicht auch nicht). Bei der 2060 gibt es auch bei den Chips keine Nicht-A-Versionen mehr.

Beim Preis weiß ich in ungefähr, wo die Margen liegen und wie weit die Flexibilität nach unten reicht. Ich sehe hier auf dem eingepegelten Markt eine Einstiegskarte der 2060 bei 330 Euro und später ggf sogar noch deutlich darunter. Nvidia kann nur nicht zu niedrig einsteigen, sonst ist die Kluft zur 2070 zu groß und außerdem kein Platz mehr für die GTX 1660 Ti, die ich langfristig dann bei 250 Euro sehe (wobei die UVP auch an die 300 Euro gehen könnte).

Wenn man sich im Übrigen anschaut, wie und wo Nvidia den TU106 beschnitten hat (man kann ja bestimmte Funktionseinheiten und Controller per Hardware-Strap nur blockweise deaktivieren, wenn man es nicht per Laser filigraner cuttet), dann würde ich gern sehen, wie man da überhaupt 8 GB Speicher anbinden möchte. Da käme dann maximal so ein Murks raus, wie bei der GTX 970 und ich glaube kaum, dass Nvidia das noch einmal riskiert.

Ich habe seit dem Launch natürlich auch mit Kollegen gesprochen und keiner hat die Ergebnisse von CB in dieser krassen Form bestätigen können. Sicher, mit dem richtigen Preset bekomme ich jede Karte in den Keller, aber meine Frametimes werfen da schon Fragen auf. Ich habe es mir nämlich noch einmal genauer angesehen:

1547185268893.png

Es ist RICHTIG, dass die RTX 2060 (rot) in der letzten Hälfte des Runs hoppelt, wie so ein angestochenes Karnickel. FALSCH ist aber, dass es wirklich nur am Speicher hängen dürfte, denn dafür habe ich die GTX 1060 (grün) im Diagramm, deren Kurve mit den 6 GB relativ gut mit denen der anderen Karten korrelliert, die KEINE Probleme haben wie die Vega56 (gelb) und die RTX 2070 (schwarz). Mir ist in einigen Tests auch aufgefallen, dass der Treiber merkwürdige Dinge macht. Ich vermute mal ganz stark, dass man in den Presse-Treiber nur die Hardware-ID reingepatcht hat, jedoch keine weiteren Optimierungen implementiert hat. Wenn aber nur der TU106 erkannt wird, jedoch keine weitere Unterscheidung vorgenommen wird, dann gute Nacht.

Das Diagramm zeigt aber auch schön, dass der recycelte Bildausschnitt mit der GTX 1060 vs. RX 580 in einem älteren Artikel kaum echte Relevanz zum aktuellen Test hat. Jedenfalls nicht auf dieser Ebene. Ich gehe absolut damit konform, dass es bei maximalen Settings zu Problemen kommen kann, aber man sollte wirklich mal die Kirche im Dorf lassen. Im Gespräch mit so einigen (qualifizierten) Kollegen hat keiner dermaßen extreme Resultate wie CB :)
 
Abwarten, ich denke das raytracing genauso ein Flop wird wie physix...
 
Beim Gaming, nun ja - erst mal abwarten. Im Pro-Bereich haben die ersten Renderfarmen dicht gemacht und diverse Aktien sind im freien Fall. Es ist wirklich effizienter, am Tag sieben Plots fast in Echtzeit durchzurendern und zu beurteilen, als nach drei Tagen ein Ergebnis zu sehen, zu verwerfen und noch einmal rendern zu lassen. Time is money. Ihr vergesst immer, dass die RTX eigentlich abgespeckte Quadros sind. ich habe in Kanada auch mit einigen Unreal-Machern reden können - die sind alle aus dem Häuschen. Ich bin mir durchaus sicher, dass da noch was geht. Und wenn nicht, geht Jensen :D
 
Ich kann mir gut vorstellen, dass Entwickler begeistert sind. Ich denke eher das Problem ist, dies ist natürlich nicht Nvidia exklusiv, ist, dass der 0815 Gamer für Hardware Features mit zahlt, welcher er nie benutzen wird oder gar kann.

Der Falls RTX floppen würde oder kein Spiel, welches mir gefällt, erscheint was die Features nutzt, habe ich definitv zuviel gezahlt (eigentlich auch jetzt schon, Nvidia Steuer....)
 
Das Feature von RTX, das ja an sich sicher gut ist, ist ja auch nicht das Problem was wir im Moment haben. Sobald die Entwickler soweit mit RT eingearbeitet sind, wird es sicher gute Ergebnisse geben. AMD ist ja auch dran RT ein zu binden.
Das Problem ist einzig bei nVidia zu suchen, die eine neue Technik verbauen, die noch keiner der Spieleentwickler nutzt bis jetzt. Es wurde aber auf der Gamescon schon groß angekündigt (als wenn es schon nutzbar wäre) und auch mit solchen Marketingsprüchen wie "It just work's" befeuert.

Hätte nVidia entweder den Entwicklern (gibt ja genügend nVidia unterstützte Studios) mehr Zeit gegeben (also in dem Fall einfach mal 6 Monate eher die Technik offen gelegt) oder RT mit der nächsten Generation gebracht, dann hätten sicher alle mehr davon gehabt.
So zahlt man als RTX Käufer eben ein Feature was zum Launchzeitpunkt gar nicht oder nur bedingt nutzbar war. Und daran hat sich jetzt auch Monate später nichts geändert. Jetzt im neuen Jahr, kommen nach und nach Spiele raus, die die neuen Features nutzen wollen. Aber ob die Umsetzung diesen dann endlich im vernünftigen Rahmen gelingt, steht halt auch noch in den Sternen.

Und wenn man dann eine RTX 2060 hat mit nur 6GB VRAM, die aber RTX und/oder DLSS nutzen soll, wird es doch schon eng. Vor allem da ja gerade RTX mehr Leistung kostet und halt auch den VRAM ebenso benötigt. Wird interessant ob die 6GB dann noch ausreichen, oder ob bei RTX On dann einfach Ende mit der doch so guten Leistung der Karte ist.
 
Das Feature von RTX, das ja an sich sicher gut ist, ist ja auch nicht das Problem was wir im Moment haben. Sobald die Entwickler soweit mit RT eingearbeitet sind, wird es sicher gute Ergebnisse geben. AMD ist ja auch dran RT ein zu binden.
Das Problem ist einzig bei nVidia zu suchen, die eine neue Technik verbauen, die noch keiner der Spieleentwickler nutzt bis jetzt. Es wurde aber auf der Gamescon schon groß angekündigt (als wenn es schon nutzbar wäre) und auch mit solchen Marketingsprüchen wie "It just work's" befeuert.

Hätte nVidia entweder den Entwicklern (gibt ja genügend nVidia unterstützte Studios) mehr Zeit gegeben (also in dem Fall einfach mal 6 Monate eher die Technik offen gelegt) oder RT mit der nächsten Generation gebracht, dann hätten sicher alle mehr davon gehabt.
So zahlt man als RTX Käufer eben ein Feature was zum Launchzeitpunkt gar nicht oder nur bedingt nutzbar war. Und daran hat sich jetzt auch Monate später nichts geändert. Jetzt im neuen Jahr, kommen nach und nach Spiele raus, die die neuen Features nutzen wollen. Aber ob die Umsetzung diesen dann endlich im vernünftigen Rahmen gelingt, steht halt auch noch in den Sternen.

Und wenn man dann eine RTX 2060 hat mit nur 6GB VRAM, die aber RTX und/oder DLSS nutzen soll, wird es doch schon eng. Vor allem da ja gerade RTX mehr Leistung kostet und halt auch den VRAM ebenso benötigt. Wird interessant ob die 6GB dann noch ausreichen, oder ob bei RTX On dann einfach Ende mit der doch so guten Leistung der Karte ist.

Das ist quasi das Henne - Ei Problem das kann man ewig so weiter drehen .
 
Ist es eigentlich nicht. Wenn wenn ein Hersteller ein Feature in seine GPU Generation einbindet, sollte dieser auch den Entwicklern rechtzeitig dieses Feature näher bringen. Macht der Hersteller das nicht, ist es dann das was wir jetzt sehen. Somit ist das überhaupt kein Henne Ei Problem.
Es gibt hier 2 Probleme. Einmal die Null Einarbeitungszeit, die man den Entwicklern im Vorraus zu gestanden hat, bevor man die Generation gelaunched hat (Schnellschuß um überhaupt etwas neues zu präsentieren?). Und zum anderen ein überhöhter Preis beim Launch, was eine Verbreitung der Karten, die das Feature nutzen, erschwert.
 
Ist es eigentlich nicht. Wenn wenn ein Hersteller ein Feature in seine GPU Generation einbindet, sollte dieser auch den Entwicklern rechtzeitig dieses Feature näher bringen. Macht der Hersteller das nicht, ist es dann das was wir jetzt sehen. Somit ist das überhaupt kein Henne Ei Problem.
Es gibt hier 2 Probleme. Einmal die Null Einarbeitungszeit, die man den Entwicklern im Vorraus zu gestanden hat, bevor man die Generation gelaunched hat (Schnellschuß um überhaupt etwas neues zu präsentieren?). Und zum anderen ein überhöhter Preis beim Launch, was eine Verbreitung der Karten, die das Feature nutzen, erschwert.

Und das läuft nochmal wann so geschmeidig in der echten Welt ab ?

Bei DX11 und co. Genau das gleiche die gpus konnten es und es hat teils Jahre gedauert bis da vernünftig was kamn, kein Software Entwickler entwickelt gern für eine nicht breit verfügbare Basis egal wieviel Zeit er bekommt , entweder die Hardware entwickelt stellen was hin und buttern am besten noch dick in den Support um eine evtl. Adaption zu bekommen oder es stirbt.


ich kann das Geheule echt nichtmehr hören , das Features die technisch voran bringen bitte perfekt laufen sollen , von allen zum Start sauber unterstützt werden müssen und am besten nix kosten dürfen.
 
Vor oder wegen :D ?
 
Ich kann mich noch sehr gut an Batman Arkham City erinnern. Dies war einer der sehr frühen DX11 Titel mit Tesselation und hier wurde auch von sehr vielen eben DX9 empfohlen weil es stark bei DX11 haperte.

Ich quälte mich mit DX11, weil ich die neuen Effekte nicht missen wollte.

Ja die Geschichte wiederholt sich.....
 
Richtig es ist meistens so, das die Hardware vor der Software da ist. Völlig normal. Aber in diesem Fall wurde von nVidia ein riesen TamTam veranstaltet und mit markigen Sprüchen wie "It just work's" nur so um sich geworfen.
Und das wird dann von vielen auch noch blind geglaubt, weil es halt nVidia ist.

Wie die Realität aussieht, das sehen wir ja seit Monaten. 2 Spiele sind bis jetzt vorhanden die jeweils 1 neues Feature nutzen. Trotzdem wird immer stur weiter gepostet, dass die Features ja der Überburner sind.
Und gerade wenn eine Firma wie nVidia sich vor alle Welt stellt und solche Aussagen tätigt, kann man eigentlich erwarten, das diese Firma eben mehr macht als nur Technik auf den Markt zu werfen und dann zu meinen, das alle schon machen wie sie es wollen.
 
Naja, die Medaille hat schon zwei Seiten. Klar sollte man, wenn man eine neue Technologie etablieren möchte, die Softwareentwickler früh ins Boot holen und unterstützen. Auf der anderen Seite müssen die Softwareentwickler das auch wollen. Wenn die, aus welchen Gründen auch immer, das nicht wollen/können, dann kann sich der Techkonzern auf den Kopf stellen.

Ohne jetzt eine Lanze für den Lederjackenmann brechen zu wollen, aber wie ihr schon mehrfach angemerkt habt, das ist irgendwie immer so. Egal bei wem, egal bei was. FullHD TVs gibt es seit über 15 Jahren, aber das Material zum Befüllen kam erst mit Blu-Ray bzw. Internet-Streams. Mich würde es nicht wundern, wenn 80% der FHD TVs in Deutschland noch nie FHD gesehen haben (!).
 
Solange das öffentlich-rechtliche Zwangsfernehen noch in albernen 720p sendet, wird sich daran auch nichts ändern. Leider :(
 
Och ich weiß nicht... schauen ja schon viele vieles bei Netflix und Prime mit höheren Auflösungen. Jaaaa... vielleicht noch nicht die ganz breite Masse, aber bemerkbar ist das bestimmt bereits.
 
Mein tolles UHD-Entertain der Telekom bietet mir nur eine Handvoll Krimskrams On Demand auf UHD und RTL mit gefühlt zwei Stunden pro Monat. Sky hat nie funktioniert. Amazon habe ich auf UHD, das macht sogar Spaß - kostet aber auch extra. Trotzdem ist es schon geil, ganze zwei Meter vor einem 65" Ambilight zu sitzen und keine Pixel zu sehen. Kino-Feeling mit fast 1KW Sinus Dauerton an den Ohren :D
 
Jau... und das (glaub aufpreispflichtige) 4K-Angebot bei Netflix ist auch nicht schlecht. Die Darstellung ist sogar besser als bei meinem 4K-Player, weil mein blöder TV bei dem Ding auch die schwarzen Balken oben und unten beleuchtet, bei Netflix aber nicht...

Ich sitz leider ca. 6m von der Glotze entfernt... :( Naja, dafür ist der Schirm ein bisserl größer... ;) Aber ich seh trotzdem auch auf FullHD keine Pixel :D

Edit: meine Güte, da simmer aber mal fies ins off-topic abgerutscht... ;)
 
Oben Unten