AMD Leserumfrage: AMD will Dank RDNA 2 mit NVIDIA konkurrieren können – eure Meinung ist gefragt!

Seitdem ich ein Mittwochsmodell (y) eines spielfähigen Eizos erwischt habe, hat mich der Markt bisher nicht mehr so interessiert, aber ist 16:10 bereits ausgestorben oder sowas? Diese 1920x1200 in 32" (?) u.a.
Und wie nannte sich diese Auflösung eigentlich? EFHD, extended full HD :p

Insgesamt scheint mir meine Einstellung dazu, eher ein Segen :) 2xAA, top, reicht doch allemal. 4xAF oder modernere Lösungen, die in der einstellbaren Stufe GLEICHwertig zu schalten sind? Bestens. Reicht dicke aus.
AMDs RIS? Geil. Verschiebt die Begehrlichkeiten nach bisschen mehr Detailempfinden, ergo 2560×1600, in die Ferne. 2560×1600 als nächster Schritt? Jaa... nicht auszuschliessen, aber entspannt dabei.
Vsync und stabile 60fps? Ja was will man denn mehr? :)

Alle anderen Licht&Schatten Goodies der GPUs und Engines? Ja, klar. Das natürlich gerne.

So lässt es sich leben ;)

Edit zu Geldgeseier.
Wer das Geld in der Tasche für XY hat, und es ausgibt, soll es tun. Es gibt auch direkt in unserer Gesellschaft Menschen, die dann davon leben, weil andere sowas tun.
Das mit dem andere verdienen im Jahr 10.000€, ist daher mit Verlaub, Bullshit.
 
Zuletzt bearbeitet :
Wenn ich mir überlege, dass damals schon die 1080Ti als "4K Graka" beworben wurde, muss ich einfach immer wieder müde lächeln. War (und ist) eine top WQHD-Karte, nicht mehr und nicht weniger.

Und bevor wir von 4k@144Hz = 144FPS träumen, wäre ich mit sicheren 80 minFPS auf 4K schon sowas von happy. Ich glaube nicht, dass die nächste Graka-Generation - egal aus welchem Lager - das verlässlich hinbekommt. Wenn ich mir anschaue, dass meine leicht übertaktete 2080Ti bei aktuellen Games auf 4K eher von unten als von oben an den 60 FPS kratzt und 40 FPS durchaus häufiger vorkommen, wäre da eine Steigerung gegenüber der 2080Ti von mal mindestens 30-35% nötig, eher so 45-55%! Wann hat's sowas das letzte Mal von Gen zu Gen gegeben...? Genau: noch nie.

Insofern sind die Monitore den GPUs mal wieder 3-5 Jahre voraus. Eigentlich wollte ich mir aus diesem Grund auch noch die nächsten 1-2 Jahre keine 4K Monitor kaufen, aber dann kam der dummerweise raus und hatte wirklich einfach alles was ich mir erträumte (naja, FAST alles: FreeSync statt G-Sync) ... dafür hab ich da jetzt quasi Investitionssicherheit und kann den bestimmt locker 5+ Jahre betreiben und muss mir da lange über kein Upgrade den Kopf zerbrechen...

AMD hat auch noch eine weitere Herausforderung bei der Preisgestaltung: bei >1.000 Euro für eine Graka, darf man sich nicht so ein Treiber- oder BIOS-Desaster erlauben.

Nvidia hat sich da auch nicht mit Ruhm bekleckert mit den RAM-Problemen bei der 2080Ti, aber anscheinend haben sie's am Ende doch relativ geräuschlos bei den Betroffenen erledigt (und ich war zum Glück auch nicht betroffen). Jedenfalls ist's nach der ersten Panik dann sehr schnell auch wieder ruhig geworden. Wie dem auch sie: ich habe mir fest vorgenommen, bei der nächsten Generation NICHT vorzubestellen... :p
 
Same procedure as every year, das sollte aber langsam mal angekommen sein @Besterino
Frag Miss Sophie, weißte Bescheid :D
Und noch ne Frage: bis zu welchem Betrag darf man sich denn den angesprochenen Treibersalat mit BIOsoße erlauben?
 
Meine Meinung: Gar nicht. :p
 
Jadannisjagut, ich dachte, ich hätte da was gelesen...^^
 
@Bestrino hab sogar mit der GTX 980TI in 4k gespielt. Es gab auch spiele die damit 60fps stemmen konnten - meisten gezockt hatte ich damals Skyrim mit Mods. Ansonsten musste man bei anderen Titeln die Ansprüche runterschrauben - i.d.r. 30fps oder deutliche Detailsreduzierung. Strategietitel liefen aber z.B. auch gut in 4k.
 
Ich hatte bis vor kurzem noch eine RX 580, da ich aber Gsync habe werde ich so lange kein AMD mehr kaufen bis Gsync mit amd geht (was bei meinem Monitor leider nie passieren wird. :D)

Kann mir höchstens vorstellen das ich mir eine RX 550 zu kaufen falls bei meinem neuen 4K Monitor (zweitmonitor) das Freesync mit meiner Nvidia nicht gescheit läuft. Dann kommt nee AMD rein die das Bild am Display ausgibt und in spielen berechnen lasse ichs dann von meiner Nvidia.
 
Ich hatte schon mal mit 4k geliebäugelt, aber leider gibts derzeit nichts wirklich brauchbares für mich. Ca. 50" müssten es schon sein, da ich auftragsbedingt manchmal mit uralt Win32 GUIs zu tun habe. Mit dem derzeitigen 32" WQHD wird das nicht zur Quälerei und das soll auch so bleiben. Aber bei 50" 4k Geräten im bis 1000 Euro Bereich finde ich überall mindestens ein entscheidendes Haar in der Suppe, Farbtreue und Latenzen zb. dürfen auch nicht aus dem Rahmen fallen. Egal, ob Monitor oder TV Panel. Und der weitverbreitete Mangel mit den dunklen Kanten macht das Gesuche auch nicht besser, absolutes NoGo. Also werden die 4k Träumereien bis zur nächsten Generation vertagt.
 
Was ist das für ein Mangel mit dunklen Kanten?
 
Was ist das für ein Mangel mit dunklen Kanten?
Bauartbedingt sitzt die leuchtende Ebene vom Backlight bei heutigen egde backlights etwas weiter hinten. Da diese Fläche aber meist exakt so groß ist, wie das Panel selbst, wird es am Rand wegen Parallaxenverschiebung problematisch. Heißt, wenn man schräg auf den Rand schaut (was ja iwie immer der Fall ist, wenn man mittig vorm Monitor sitzt), dann schaut man da auf unbeleuchtete Pixel. Hoffe, ich hab mich da jetzt nicht zu verschwurbelt ausgedrückt. ;-)
 
Ah ok. Hab OLED - die leuchten selbst ganz ohne Backlight. :p
 
Wenn AMD schlau ist bringen sie anstatt des dämlichen Raytracinggeraffels GraKas die 4K mit höheren FPS-Raten befeuern können als NVIDIA - das würden dann die Leute kaufen und NVIDIA kann dann gerne herumraytracen soviel sie wollen... Mir ist Raytraycing sowas von WAYNE!
 
Definitiv: 4K@80FPSnoRT > 4K@60FPSmitRT
 
2560x1440 is where gaming is at even tho 1080p gaming is the more widely used. I am currently on a x570 with 3950x paired with 5700 XT AE OC to 2180MHz and plays CODMW at an average of 157FPS. AMD doesn't need to beat NVIDIA. Compared to a 2080ti, the 5700XT is only an avergae 12 to 15 FPS slower. Make a RDNA2 card that can play at 2080ti level or slightly below for $200 cheaper, this will disrupt the market for sure. 3080ti will undoubtedly be faster at the end with more FPS but insignificant to warrant what NVIDIA will ask for them.
 
Wenn AMD schlau ist bringen sie anstatt des dämlichen Raytracinggeraffels GraKas die 4K mit höheren FPS-Raten befeuern können als NVIDIA - das würden dann die Leute kaufen und NVIDIA kann dann gerne herumraytracen soviel sie wollen... Mir ist Raytraycing sowas von WAYNE!

Leider ist diese Einstellung dermaßen Inovationsschädlich :(
Ich schätze die Einstellung war früher:
Wofür brauchen wir bitte langsame 3D Grafik wenn wir 2D Wunderbar schnell haben können?

Imo ist Raytracing einer der wichtigsten Schritte um möglichst realistische Grafik in Zukunft erzeugen zu können.
 
Imo ist Raytracing einer der wichtigsten Schritte um möglichst realistische Grafik in Zukunft erzeugen zu können.
Das gleiche dachten sich manche Leute damals bei PhysX und Hairworks auch. Und um 2010 war Crossfire/SLI DIE Möglichkeit für mehr Performance und heute spielt es zumindest bei Spielen fast keine Rolle mehr. 3D mit Shutterbrille war bei Nvidia mal das große Thema, danach gab es 3D-Fernseher und vor ~3 Jahren war es schwierig im Kino Filme ohne 3D zu finden (was mich als Brillenträger ziemlich genervt hat, weil man immer die doppelten Reflexionen zwischen den Brillen hatte. Heute sind die Fernseher 4K mit 2D-Material und im Kino ist der heiße Scheiß jetzt Ton aus >>10 Lautsprechern. Vieles wird versucht, manches setzt sich durch, anderes nicht.

Ich finde es nicht innovationsschädlich, wenn man sagt, dass man lieber 4K als RT haben möchte. Mir geht es übrigens genauso.
 
Imo ist Raytracing einer der wichtigsten Schritte um möglichst realistische Grafik in Zukunft erzeugen zu können.

Ein guter Schritt wäre es wenn die Spielehersteller mal wieder liefern würden.


Die geilsten Features bringen nix wenn die die damit arbeiten sollen nur Schrott produzieren. Und Far cry 2 ist von 2008, wir waren vor ca. 10 Jahren teilweise weiter bei 3D Games wie heute.
 
Man kann es den Verbrauchern aber nicht verübeln, dass sie sich über Innovationen beschweren, besonders wenn es so deutlich auf den Geldbeutel schlägt, der Mehrwert jedoch überschaubar ausfällt. Hingegen ist es absolut unstrittig, das RT zu besserer Darstellungsqualität beiträgt, aber ganz sicher nicht zu FPS Feuerwerken. Inwiefern sich das beim Echtzeit-Rendering durchsetzen wird kann man schwer in der ersten Generation sagen. Bin echt gespannt, wie Ampere im Detail ausfällt, angeblich sollen mehr (welche Größenordung das auch sein mag) RT-Kerne kommen.
Ich finds gut, dass Nvidia diesen Schritt gegangen ist, der Preis für eine RTX-Karte war mir allerdings zu hoch.
 
Oben Unten