News Launchgeflüster zur RTX 2060 und der GTX 1660 Ti mit dem TU116

@FfFCMAD
Mir ist nicht bekannt, wo AMD und Nvidia absichtlich ältere Karten ausbremsen.

Wenn Intel wirklich in dieser Liga mitspielen möchte, müssen die aber aus meiner Sicht ihre Treiber stark verbessern. Habe bisher viele negative Erfahrungen mit Intel-Grafiktreibern gemacht (Open-GL *hust*).
 
Ist aber so. Da haben schon einige Leute zu Benchmarks gemacht. Bei meiner GTX480 war das drastisch zu spueren. Fuer die waren viele Spiele in 2048x1536@85Hz mit AA und 16xAF bei ueber 100FPS kein Problem. Das ging 4 Jahre spaeter mit den gleichen Spielen nicht mehr. Da war dann Full HD und AA die absolute Grenze. Haengt die Karte zwei Generationen hinterher, wird sie per Treiber langsamer. Ist so. War schon immer so. Betraf die TNT und geht bis heute.

Bei ATI/ AMD hatte ich den selben Effekt.

Consumer-Karten werden vom Treiber bereits so oder so gebremst, wenn CUDA & Co genutzt werden. Bremsen sind da ueberall seit zig Jahren eingebaut.
 
Ist aber so. Da haben schon einige Leute zu Benchmarks gemacht. Bei meiner GTX480 war das drastisch zu spueren. Fuer die waren viele Spiele in 2048x1536@85Hz mit AA und 16xAF bei ueber 100FPS kein Problem. Das ging 4 Jahre spaeter mit den gleichen Spielen nicht mehr. Da war dann Full HD und AA die absolute Grenze. Haengt die Karte zwei Generationen hinterher, wird sie per Treiber langsamer. Ist so. War schon immer so. Betraf die TNT und geht bis heute.

Bei ATI/ AMD hatte ich den selben Effekt.

Consumer-Karten werden vom Treiber bereits so oder so gebremst, wenn CUDA & Co genutzt werden. Bremsen sind da ueberall seit zig Jahren eingebaut.
Absoluter Quatsch!
 
Ja. Da haste dir jetzt aber Muehe gegeben. Hier mal ein Test zu den alten Tagen:

Und das ist bis heute so geblieben. Ein wenig googlen hilft. Ist ja nicht so, das ich wilde Theorien in den Raum werfe.
Vor allem: Was soll da bitte Quatsch sein? Das Cuda auch gebremst wird ist ein alter und allgemein bekannter Hut...
 
Sollte man mal als Artikel, mit neueren Karten näher beleuchten.
 
Bisher hat es sich imho meistens so Verhalten, dass Nvidia Karten keine Optimierungen via Treiber (ab einem gewissen Alter) mehr bekommen haben und daher in neuen Spielen im Vergleich zu den AMD Pendants langsamer wurden.

So war zb eine Gtx 980 Launch um 13% schneller bei Cbase: https://www.computerbase.de/2014-09...vidia/6/#diagramm-rating-1920-1080-4xaa-16xaf

in Full Hd

und jetzt im Nachtest nur noch 17% https://www.computerbase.de/2018-09/amd-nvidia-grafikkarten-generationen-vergleich/

Klar sind es andere Spiele, anderes Testsystem usw, aber in gewisser Weise lies sich dies immer wieder daraus ableiten.
 
Zuletzt bearbeitet :
Wäre ja auch blöd, wenn in Benchmarks mit etablierten (also zwangsläufig älteren) Titeln die älteren GPU-Generationen noch locker mithalten könnte ... dann kauft ja keiner (außer ein paar Bekloppte wie ich) den aktuellsten hot shit. :D

Schon irgendwie krass, war mir gar nicht bewusst, dass die Performance über die Treibergenerationen schlechter wird bzw. werden kann.
 
Das hat mannigfaltige Gründe warum ältere Karten von Nvidia in der Leistung abfallen. Das hat aber nichts damit zu tun das die Treiber künstlich verlangsamt werden sondern das die Optimierungen für die neuen Karte kontraproduktiv sind für die älteren bei Nvidia.

Außerdem legen die AMD Karten meist über die Zeit ein gutes Stück zu, ebenfalls aus unterschiedlichen Gründen wie Speicher, Rohpower, verbesserte Treiber, Shaderlastige Spiele etc.
 
Das hat mannigfaltige Gründe warum ältere Karten von Nvidia in der Leistung abfallen. Das hat aber nichts damit zu tun das die Treiber künstlich verlangsamt werden sondern das die Optimierungen für die neuen Karte kontraproduktiv sind für die älteren bei Nvidia.

Außerdem legen die AMD Karten meist über die Zeit ein gutes Stück zu, ebenfalls aus unterschiedlichen Gründen wie Speicher, Rohpower, verbesserte Treiber, Shaderlastige Spiele etc.


Das wollte ich auch nicht ausgedrückt haben, sondern nur: Dass Nvidia normalerweise nach dem Launch langsamer wird und AMD zulegt. Daher war in meinen Augen, in der Mittelklasse, AMD oft der bessere Kauf, da mehr Ram und halt mehr Leistung auf lange Sicht.
 
Die -fehlenden- Optimierungen spielen da natuerlich auch mit rein.

Bei ATI damals wurde mit hoeherer Performance durch Treiberupdate haeufig eine Verschlechterung der Bildqualitaet sichtbar. Bei meiner 9800XT konnte man das an der Texturfilterung und der Aufloesung der MipMap-Levels sehen. Wurde immer matschiger. Ist aber ein alter Hut.
 
@Gurdi: ist es nicht eher so, dass die große Mehrzahl der Spiele eher auf nVidias GPUs abgestimmt werden? Das hat dann zur Folge, dass die AMDs im Laufe der Zeit durch Treiberoptimierungen auf- und zum Teil auch überholen, während die nVidias auf einem von Beginn an hohen bzw höheren (bei VÖ der jeweiligen Karte im Vergleich zur gleichklassigen AMD) Niveau stagnieren.
 
Es gibt mindestens genau so viele Beiträge/Videos welche einer Verschlechterung über Zeit belegen, sowie wiederlegen. Aus eigener Erfahrung, sowie den für mich glaubhafteren Beiträgen welche eine Verlechterung wiederlegen.

ich habe schon viele Nvidia Karten durch und installiere immer die neusten Treiber, egal ob offiziell oder Beta Leak... und ich konnte noch nie mir gleicher Karte und gleichem Spiel eine Verschlechterung beobachten. Es kam mal vor, dass ein Treiber schlechter lief, dann handelte es sich aber um einen Bug, welcher meist in der nächsten Version schon wieder weg war.

Was Nvidia macht und das ist sicher, sie pushen Features, welche NUR auf ihren akuellen und zukünftigen Karten sauber laufen. Hier wird 0 Rücksicht genommen. Durch ihre Markposition machen sie dies sogar sehr erfolgreich.

Bei Release der 980 z.B. war eine 780Ti noch locker auf Augenhöhe, als die Maxwell Features aber mehr zum einsatz kommen, brachen die guten Kepler Karten ein wie Mücken.

Und genau dies wird auch mit den Pascal Karten passieren, weshalb ich trotz weniger VRam eher eine 2080 empfehle als eine 1080Ti (vorasugesetzt der Preis ist in etwa gleich)

Man kann Nvidia so manches Vorwerfen, was mir auch nicht gefällt. Eine künstliche Verschlechterung der älteren Karten zählt aber nicht dazu.
 
Künstlich oder nicht spielt hier keine Rolle. Wenn alte Karten langsamer werden bei aktuellem Treiber, dann ist das fuer dich im Endeffekt schlecht. Und ob die das mit Absicht machen oder nicht, spielt da garkeine Rolle. Nvidia hat hier aber auch gute Seiten. Z.B. hat man die GTX480 noch voll Windows 10-Kompatibel zur neuesten WDDM bekommen. Dennoch existieren Bremsen. Und das auch gewollt. Bei Desktopkarten werden Features entfernt oder ausgebremst. Standard. Ich habe meine GTX480 7 Jahre lang genutzt. Und da konnte ich den Leistungsabfall wunderbar miterleben.
 
@Gurdi: ist es nicht eher so, dass die große Mehrzahl der Spiele eher auf nVidias GPUs abgestimmt werden? Das hat dann zur Folge, dass die AMDs im Laufe der Zeit durch Treiberoptimierungen auf- und zum Teil auch überholen, während die nVidias auf einem von Beginn an hohen bzw höheren (bei VÖ der jeweiligen Karte im Vergleich zur gleichklassigen AMD) Niveau stagnieren.

Das mag vielleicht mal zutreffend gewesen sein, aber ich sehe das aktuell nicht so. Ich halte es auch für sehr unwahrscheinlich das Spiele konkret auf Nvidia optimiert werden, es ist eher so das der hohe Takt in vielen Spielen mehr bringt als die Shaderleistung. Es ist schwerer Shader auszulasten als mit Takt durch die Pipeline zu schieben. Das ist ähnlich wie im CPU Markt, mehr Takt lässt sich besser und mit weniger Optimierungen unterbringen.

Das hat alles sicher im Detail noch weitere Gründe, aber das sprengt sicher den Rahmen.
 
Ich muss hier @Gurdi zustimmen, betrachtet man z.B. die 2080Ti mit der normalen 2080, so müsste die Ti schon rein von der Shaderzahl fast 50% schneller sein, dann sind die höher Anzahl der ROPs, der Textureinheiten, sowie das grössere SI noch nicht mit einberechnet. Real sind es aber eher 35%.

Zum anderen Skalieren beide Karten relativ linear mit dem Takt.
 
Gutes Beispiel.
 
Oben Unten