AMD Der Tag danach: Vega VII ist angekommen, Jensen lästert, Lisa kontert und wir kommentieren | Editorial

nur das DLSS leider total kacke aussieht ggü. nativ 4k... und kaufe mir doch keine karte für DEN preis und in der leistungsklasse, damit ich hochgesampletes 1440p spielen kann... o_O

Deine Meinung. Das einzige Spiel was wir bis jetzt haben ist FF15 und dieses ist so oder so "bescheiden". Hier sieht DLSS deutlich besser aus, als 4K ohne AA, verglichen mit 4K TAA hat es vor und nachteile, dennoch ist die Performance besser.

Wie es bei anderen Spielen ausschaut wird sich noch zeigen.

Aber so eine Pauschalaussage, zudem mit dem von dir benutzten Ausdruck ist Kindergarten.
 
Deine Meinung. Das einzige Spiel was wir bis jetzt haben ist FF15 und dieses ist so oder so "bescheiden". Hier sieht DLSS deutlich besser aus, als 4K ohne AA, verglichen mit 4K TAA hat es vor und nachteile, dennoch ist die Performance besser.

Wie es bei anderen Spielen ausschaut wird sich noch zeigen.

Aber so eine Pauschalaussage, zudem mit dem von dir benutzten Ausdruck ist Kindergarten.


einfach 8xMSAA im treiber reinballern mit 8xTSSAA und fertig... wo ist das problem?* verstehe eh nicht warum manche die zum teils grottigen AA modi der spiele nutzen, da gibts nur wenige die wirklich gutes AA liefern(SotTR zb.)

*problem bei FFXV ist das die 11GB der 2080Ti dann nicht mehr langen :ROFLMAO: 16GB HMB2 ahoi!!
 
Was bitte ist das?
 
nur das DLSS leider total kacke aussieht ggü. nativ 4k... und kaufe mir doch keine karte für DEN preis und in der leistungsklasse, damit ich hochgesampletes 1440p spielen kann... o_O

Ist auch meine Ansicht, dazu kam, das mir die 30-40% Mehrleistung zu meiner 1080ti Costum, definitiv zu wenig sind. Da war der Abstand zur 980ti Costum größer.
Wenn wieder gekauft wird, dann zur 3080ti (je nach Preis) oder was von AMD (wenn sie überhaupt was bringen sollten).
 
Und das hast du live in welchen Spielen und wo gesehen? Deine GPU kann es ja nicht.

man stelle sich vor, nen kollege hat den fehler gemacht und sich ne 2080Ti gekauft... und ja, er sagt selber das es nen fehler war :LOL:
da haben wir natürlich alles schon ausprobiert was man ausprobieren kann derzeit.
 
da haben wir natürlich alles schon ausprobiert was man ausprobieren kann derzeit.
Also nur FF XV und daraus verallgemeinerst du, dass DLSS grundsätzlich "kacke" ggü. 4k nativ aussieht. DLSS ist übrigens nicht dazu gedacht, besser als 4k nativ auszusehen, sondern mehr fps bei halbwegs vernünftiger Bildqualität zu erzeugen.
 
*problem bei FFXV ist das die 11GB der 2080Ti dann nicht mehr langen :ROFLMAO: 16GB HMB2 ahoi!!
Warte hier erstmal Igor seinen Test zu den Karten ab. Du sieht's die 16Gb HBM2 Speicher und denkst, dass sie besser als ne 2080 oder 2080Ti laufen. Ich würde dir raten einfach mal abwarten und nach dem Test dieser Karten können wir gerne darüber diskutieren. Alles andere sind nur Vermutungen und Behauptungen, die aktuell keine Aussage haben. Mann muss sich einfach in Geduld üben, dann sehen wir, was die 16Gb HBM2 Speicher GPU's wirklich drauf haben.
Wünschen würde ich es AMD, dass sie wieder Anschluss finden, schon alleine wegen der Preisgestaltung für uns ;)
 
Und du hast dich über den Kollegen sicher auch ähnlich unsensibel lustig gemacht und Tränen gelacht wie du es hier gegenüber den RTX-Käufern in fast jedem Beitrag machst.
 
Derzeit kann man nicht viel probieren. Nur das alberne Elfengeschwurbel, das auch nativ auf 4K schrottig aussieht und BF V, das je nach Patch mal schlechter und mal besser aussieht. Ich habe FF auf 4K durch und fand es nicht wirklich prall. Spielerisch und optisch.
 
Ich glaube, dass vielen RTX-Käufern klar war, was sie da kaufen: Eine schnelle Grafikkarte mit der Option für Raytraicing etc. für einige der kommenden Spiele und für das ein oder andere aktuelle Spiel
 
@Deridex Genau das glaube ich auch, vor allem die Menschen die sich die RTX-Karten nach den unabhängigen Tests gekauft haben.
Nur die Menschen die sich die Karte aufgrund eines ominösen "Just buy it"-Artikels vorbestellt haben, hatten vielleicht andere Vorstellungen was die Leistungsfähigkeit/Nutzen der Karte betrifft ;)
 
Wie ich es auch immer wieder geschrieben habe: im Endeffekt ist die 2080 Ti die erste Karte, die mich in UHD ordentlich spielen lässt. Die 2080, 2070 und 2060 müssen den Mehrwert über RT und Tensor erst noch beweisen, die 2080 Ti hat zumindest ein wichtiges Argument mehr :)
 
Dies sicherlich, aber rechen dir Radeon VII wird dem gering nachstehen vor Allem durch die Speicherbandbreite wird jene bei 4K hochtrumpfen können,- und die Treiberfixes sollten doch etwas bringen dürfen.
 
In Konjunktiv und Futur 2 waren in letzter Zeit ne Menge AMD-Karten gut, aus meiner Sicht wird es höchste Zeit für eine, die sofort gut ist. Für mich liest sich das, was die neue Karte betrifft, als hätten die ihren Konjunktiefpunkt noch nicht erreicht.
 
Moin Männers ...

Was ich immer wieder höre, ist das NVIDIA zu wenig Speicher dazu gibt.
So sind z.B. bei einer RTX 2080 die 8gb VRAM zu wenig und nicht zukunftssicher.

Das ist komplett Banane.

Wer sich eine Grafikkarte für 650+ € kauft, der ist kein User von Traurigkeit und hat natürlich kein Problem damit in 2 Jahren auf die nächste Generation zu wechseln (RTX 3080 mit 16gb Vram). Denn das sind High-End Karten für Enthusiasten und nicht für Spieler die eine Karte für die nächsten 4 Jahre um zu "überleben" kaufen.

Für jene die sich preislich für eine RTX 2060 entscheiden, die spielen auch in 1080p und dafür reicht die Leistung der Karte sowie der verbaute VRam über Jahre hinweg. Mit einer RTX 2060, oder einer GTX 1070, ja sogar mit einer GTX 1060 oder auch GTX 970 lässt sich jeder AAA+ Titel in very high details mit ausreichenden FPS spielen und auch genießen.

Selbst wenn eine 1060/970 bei einigen speziellen Spielen nicht mehr ausreicht für very high details, so haben die Besitzer so einer Karte auch kein Problem damit, die Schatten von very high mal auf mittel zu stellen, sowie andere Abstriche in den Grafik-Optionen hinzunehmen. Das wusste man mit dem Kauf dieser (~300€) Grafikkarte damals schon, das man nicht ultra details für die nächsten 4 Jahre gekauft hat.

Weiterhin, währen Entwickler von AAA+ Titeln schön blööd, ihre Spiele auf 8+ GB Vram bei very high details in 1080p aufzubauen, weil dann lediglich 2% ihrer Spielerschaft in den Genuß dieser Grafikpracht käme. Und somit kann ich mit meinem i7 4770k @ 4,5GHz, 16GB 2400MHz Ram und einer GTX 970 mit 4GB VRam auf 21:9 @ 2560x1080p auch noch heute ein Shadow of the Tombraider in very high details spielen, inklusive Nvidia hair Geschichten auf on und habe durchweg über 40 FPS. Und diese meine Grafikkarte ist von Ende 2014 - also immerhin 4 Jahre alt.

Jetzt mal zu der AMD Karte:
Sie hat 16gb Vram, was "zukunftssicherer" ist. Aber glaubt mal dran das Spieler die diese Grafikkarte kaufen (~650€), sich mit Navi 7nm schon wieder die nächste Karte zulegen oder spätestens dann eben ende 2020 mit RTX 30XX. Denn das sind Spieler die 4k Monitore zum Gamen verwenden, eventuell sogar mit Gsync/Freesync und eben auf 90+ FPS geil sind. Diese 90+ FPS leisten die aktuellen Karten ja kaum, und somit wird man sicherlich bei Navi oder RTX 30XX wieder zugreifen.

Fazit: Der größte Fehler ist, davon auszugehen, das Spieler welche sich High-End bzw. Referenzkarten kaufen, diese Dinge aufgrund von "Zukunftssicherheit" kaufen. Der größte Wertverfall liegt bekanntlich immer bei den Top-Modellen in der GPU & CPU Sparte bzw. das P/L ist in dieser Sparte IMMER sehr schlecht. Das ist ein bissle so, als würde man wirklich davon ausgehen, das Menschen die sich ein Apple Iphone für 800+ € kaufen, das Smartphone wirklich für die nächsten 5 Jahre verwenden würden?! Ähm nein?! Mit wenigen Ausnahmen, wird natürlich immer das aktuelle Smartphone gekauft, oder wenn überhaupt mal eine Generation übersprungen. Ebenso wer sich einen Mercedes Benz C230 V6 2,5 Liter mit 204 PS und 245km/h Vmax als Neuwagen zulegt, der wird sich auch 3-4 Jahre später bei 100 000km wiederum ein neueres Modell zu legen. Währenddessen ein Golf Fahrer die Kiste gebraucht kauft und 10+ Jahre fährt bis sie auseinander fliegt.

Somit ist es imho völlig egal ob man für 650€ sich 16GB Vram kauft, oder wahlweise eben für DLSS & RT entscheidet.
Das ist gehupft wie gerupft: Die 16GB Vram wird man genauso wenig total elitär ausreizen/verwenden können wie eben "dauerhaft" DLSS & RT in den nächsten 2-3 Jahren.

Edit: Auch das allseits beliebte Stromkosten Rechen-Beispiel finde ich doch etwas zu sehr an den Haaren herbeigezogen. Als ob jemand der 650+ € in eine Grafikkarte investiert, wirklich interessiert an seinem Stromverbrauch ist. Ob das nun 40€ pro Jahr mehr oder weniger sind, ist dann doch komplett egal.

lg
 
Zuletzt bearbeitet :
Oben Unten