Reviews Nvidia GeForce RTX 2080 und RTX 2080 Ti im Test - Gaming, Turing-Benchmarks und neue Erkenntnisse

Dafür wäre vermutlich schon eine GTX 1050/1060 hoffnungslos überdimensioniert... :D
 
Nein, zumindest die 1050 wird wohl eng. Denn PhysX benutzt, auch wenn es auf einer separaten Karte läuft, nie mehr als 30% der Cores. Ist leider so :(
 
Na gut, dann die 1060. ;)

Verdammt, so viele Dinge, die man mal ausprobieren könnte, wann man die Zeit hätte. Wäre ja mal interessant, ob sich bei den FPS signifikant was tut, wenn man so eine 1060 wirklich nur für physX dazusteckt. Aber ich würde mal vermuten, das liegt dann eher in der Messtoleranz? :)

Edit: grade mal geschaut, so wie es aussieht ist GPU-accelerated PhysX heute eher ausgestorben.
 
Zuletzt bearbeitet :
PhysX konnte meiner Meinung nach nur eine Totgeburt werden, auch wenn es in manchen Spielen recht nett war. Aber da es NVidia only war..... das ging in der Vergangenheit bei Spielen noch nie lange gut.
 
Naja G-Sync hält sich ja bis jetzt. Und auch Gameworks funktioniert. Ist halt bei nVidia nur jedes 2-3 "Exklusive" Feature was überlebt. ;)
 
Ja, noch kann sich die Geforce gegen neue HDMI und DisplayPort Standards wehren. :LOL:
Was ist Gameworks? :p
 
Warum sollte Nvidia sich gegen DisplayPort wehren, wenn Nvidia AKTIV an der Entwicklung vom DisplayPort beteiligt ist?

Und kann es eventuell sein, dass HDMI 2.1 zu spät auf den Markt kam um implementiert zu werden? Und könnte es evtl. sein, dass HDMI für den PC ein nicht wirklich geeigneter Standard ist? Wieso weigert sich eigentlich AMD in seine professionelle Karten HDMI Anschlüsse einzufügen? Wehrt sich AMD etwa gegen HDMI?
 
Zuletzt bearbeitet von einem Moderator :
Das allertollste Feature überhaupt. ;)
 
Die Monitor-Hersteller haben bei Sync-Technologie erstmal die Füße still gehalten und den GraKa Herstellern den Vortritt gelassen. Wird Gründe haben.
 
Du meinst, wird genügend $ Gründe haben. ;)
 
Yep.
 
Naja G-Sync hält sich ja bis jetzt. Und auch Gameworks funktioniert. Ist halt bei nVidia nur jedes 2-3 "Exklusive" Feature was überlebt.

G-Sync ist noch nicht so alt. Wirklich durchgesetzt hat es sich dennoch nicht, denn es ist kein Standard der allgemein verwendet wird sondern nur ein Feature für Gamer für eine Randgruppe. Macht sich aber gut im Marketing irgend etwas spezielles vorzeigen zu können. Gameworks.... ja, viel Geld reingebuttert, und toll für Werbezwecke. Man kann auch etwas hoch in den Wind halten und beeindrucken ohne das es eine echte Verbreitung findet. Aber jeder liest darüber. Diese Art von Marketing nennt man einfach Branding. Das sieht man bei vielen Herstellern immer wieder.
 
Man kann auch einfach alles als kacke bezeichnen, nur weil es von Nvidia kommt ;) Warum so umständlich?
 
Wer hat das denn gesagt?
 
Och ich weiß nicht. Klingt schon leicht angesäuert, wenn jemand einem Hersteller für GAMING-Grafikkarten negativ vorwirft GAMING-Features einzubauen ... ist doch bloß eine Randgruppe! Pfff, sche*ss auf die Gamer! Dummes Marketinggeschwurbel, braucht kein Mensch!
 
schön locker bleiben, alle beide ;)

b2T: wobei ich den Standpunkt von Stechpalme insofern teile, das ich G-Sync und selbst Freesync für Randerscheinungen halte - habe leider keine validen Zahlen - aber ich kenne einfach keinen einzigen Menschen persönlich der das nutzt... und da sind viele Zocker dabei, zugegeben, entweder keine Shooter heinis oder zu arm sich G-Sync leisten zu können :p

Ich kenne aber auch niemanden der mehr als 300 € für ne GPu ausgeben würde...
 
... oder 800 Euro für einen Monitor ;)
 
tjo... >30" (und dann bitte nicht so eine Mogelpackung wie 21:9 oder noch schmaler) + 4K + >=120Hz + IPS + G-Sync - da wird's eng bzw. teuer.

Hab hier so einen Dell S2716DG, WQHD, 144Hz, G-Sync aber des TN-Panel geht einfach mal gar nicht. Sowas farb- und kontrastloses will man ja echt nicht mehr. Hängt momentan nur an Servern und Bastelkisten im "Lab".
 
Oben Unten