AMD Leserumfrage: AMD will Dank RDNA 2 mit NVIDIA konkurrieren können – eure Meinung ist gefragt!

Raytracing ist eine wichtige Innovation, insbesondere da viel realistischere Effekte möglich sind. Ich selbst gehöre aber leider auch zu den Kandidaten die mind 4k/60fps haben möchten - daher auch meine Prio mehr fps statt 4k mit weniger wie 60fps. Doch sobald beides geht, wie z.B. in Battlefield 5, freue ich mich darüber - die nächste Gen von Nvidia dürfte das ganze eine Ecke vorran bringen - 30% mehr Leistung sind oft entscheidend. ( 50 oder % wäre mir natürlich lieber, aber dafür dürfte AMD mit Big Navi nicht bedrohlich genug für Nvidia sein)
 
Zuletzt bearbeitet :
Problem ist aber, wenn ich will, das mein technischer Ansatz (und nichts weiter ist das RTX by nVidia nur ein Ansatz um RT in den Markt zu bekommen) möglichst als Standard sehen will, dann kann dieser eben nicht überteuert an dem Konsumenten heraus gegeben werden. Da nützt es auch nichts, wenn man der erste ist, der es auf den Markt bringt. Und schon gar nicht, wenn eben jenes Killerfeature dann auch noch die Performance ins Bodenlose zieht. Somit hat nVidia viel zu viele Fehler gemacht.

Somit wird es wohl eher AMD mit ihrem Raytracing Ansatz sein, der dafür sorge Trägt, das die Technik breit in den Markt integriert wird (Aufgrund der neuen Konsolen halt). Und in wie fern Big Navi dann mit der nächsten nVidia GPU Generation mithalten wird oder nicht, wird sich erst noch zeigen müssen. Aber zumindest das RT Rennen, wer seinen Ansatz mehr im Markt verteilt, das hat AMD schon sicher gewonnen. Und für alle Käufer von RTX Karten, kann man dann nur hoffen, das sich nVidia schneller öffnet für den freien Standard und nicht wie bei ihren G-Sync Modulen in den Monitoren krampfhaft versucht damit die Käufer ein zuschränken.
 
Wenn AMD schlau ist bringen sie anstatt des dämlichen Raytracinggeraffels GraKas die 4K mit höheren FPS-Raten befeuern können als NVIDIA - das würden dann die Leute kaufen und NVIDIA kann dann gerne herumraytracen soviel sie wollen... Mir ist Raytraycing sowas von WAYNE!


Erstmal muss AMD RT überhaupt umsetzten und mal anbieten um überhaupt solche Diskusionen führen zu können. Navi kanns bisher nicht auch nicht lahm auf Softwareebene im DXR Umfeld wie die ollen Pascal Karten ,RDNA 2.0 soll irgendwas können nur was weiß keiner.

Ob die Leute relativ teure High End GPUs welche BIG NAVI 2.0 nach AMDs eigenem empfinden sein soll nach dem 4K Marketinggeplapper welches es schon zu Fiji Zeiten gab , ohne ein next gen Feature wie HW RT kaufen steht nochmal auf einem anderem Blatt.
Wenn ich sehe das eine 2080Ti in ACO, GRBP und so weiter keine 1440P @ 60Hz packt dann muss ich mir das lachen bei solchen 4K Aussagen immer verkneifen.
Der Leistungsprung um den Konkurenten richtig zu bügeln und die 4K Aussage zu Bewahrheiten müsste fast ausschließlich aus der Arch kommen da Dieser wohl in der Fertigung gleich zieht und somit zumindest gleich sein sollte im Bereich BUMS pro Fläche pro Watt. Ist zwar nicht unmöglich liegt jetzt aber nicht so in der Tradition von AMDs GPU Generationen .
 
RayTracing auf Konsolen in 2020 wird voraussichtlich so ein Brecher wie HDR Ready ohne Zonen bei TVs/Monis 🤡
 
...die 2080Ti macht in GRBP locker 60FPS auf 1440P (=WQHD). 4K entspricht 2160p.
 
Der PCGH Test behauptet für eine Zotac TI AMP die sicher zu den schnelleren Modellen gehört 56 min in Ultimate , CB sieht die FE bei 55 min in Very high, hab selber keine ums gegenzutesten ^^
 
Das ist ja die gleich Diskussion wie vor einem dreiviertel Jahr... Blöd ist halt, dass Nvidia keine echte Konkurrenz in dem Segment hat(te?).
Ich nehme Innovationen gerne mit, aber der Aufpreis im Vergleich zur gebotenen Leistung ging bei RT nicht in Ordnung. Mir wäre eine Karte die auf RT verzichtet und ordentliche Framerates bei 4K liefert hundertmal lieber als "Innovation". Erst wenn mir das grafisch nicht mehr ausreicht, können die mir mit Innovation kommen. Hohe Auflösung auf mittelgroßen Displays ist durch kein Grafik-Feature zu ersetzen - sofern es flüssig läuft.
Und wegen 4K und AMD: Bandbreite war nie deren Problem. Siehe VII. Siehe 5700XT. Wenn die Big Navi Architektur ansatzweise weiterführt, was eine 5700XT macht, kann ich mir bei 16GB VRam gut vorstellen, dass eine 5900XT in 4K liefert.

Und noch eine Geschmackssache: als Kind der 80er hab ich gar keinen Anspruch, dass die Grafik realistisch ist. Ich mag, wenn man sieht, dass es ein Game ist. Das hat auch weniger mit Grafikqualität als mit Stilistik zu tun.
 
Och, so ein Ghostrecon Breakpoint mit hohen Settings hat schon was. Ist schon ziemlich beeindruckend, was sich heute auf den Bildschirm zaubern lässt.

Man sieht aber immer noch, dass es kein Foto / Film ist.
 
Das Uncanny-Valley sollte vermieden werden. Und dafür braucht's dann gleich mal ein paar Schippen Grafikleistung mehr, als heute geboten wird.
 
Was kam zuerst: Reality-TV oder filmreif aussehende Grafik in Spielen^^?
Ich rate mal, dass das alles so enden wird wie Pi x Daumen jetzt: AMD wird es schaffen, die 2080 Ti mindestens einzuholen (also, ohne RT) und dann sind auch schon die 3xxxer von Nvidia da und Miss Sophie verlangt nach ihrem Butler.
Und wenn es doch ganz anders kommt: von mir aus.
Möge das nächste Schneckenrennen um den 4 K(arat)-Pokal beginnen, mich ödet das nur noch an.
 
@Derfnam: Ach, komm schon! Innovation war das erste 4K Display. Ist schon ein Weilchen her. Und noch immer kein Beschleuniger, der es kann. Konnt ja auch keiner ahnen, dass >60 FPS mal trendet...
 
Eben. Was Besterino in #42 schon schrieb: Monis sind den GPUs voraus, in seinem Beitrag 3-5 Jahre.
Am Ende so wie damals bei der S-Klasse: vollgestopft mit Innovationen, die Jahre später dann in massig Karren zu finden waren.
 
Monitore sind nicht den GPUs voraus. Schon früher gab es mega TFTs, nur eben nicht fürs Zocken. Weil die Grakas da eh nicht hinbekamen. Heute bekommen sie es fast hin ;)

AMD/NV leiden da unter nichts dabei. Die hohen Auflösungen und >60 FPS Syncs sind für und wahrscheinlich auch bisschen von den beiden gemacht. Damit die Leute wieder Anreize sehen sich erstmal so einen Moloch vor die Nase zu stellen und dann eben wieder nach immer schnelleren GPUs jodeln.

Die Monitore sind die GPUs nicht in irgendeinem "Voraus". Das ist der willkommene Entwicklungspuffer für AMD/NV. Die kriegen keine Schweißperlen auf der Stirn, wenn die nächsten Trends bei den Monitoren lanciert werden. Dei gönnen sich anschliessend erstmal eine kleine Runde Prosecco.

Alles bestens also :)
 
Monitore sind nicht den GPUs voraus

Ist halt immer eine Sache des Anspruchs. Jemand der auf Ultra in Full HD jedes Game flüssig mit min 60 FPS durchgehend spielen will schaut auch heute noch mit einer RTX 2080TI in die Röhre (in manchen Games liegt es auch an einem CPU Limit). Ich kann dagegen fast alles in 4K (DSR) mit 60 bis 100 FPS spielen, brauch halt keine Ultra Settings. :D
 
Jein. Das ist schon alles ok mit dem Anspruch usw. :) Ich meinte nur braucht sich nicht anstrengend das so darzustellen, als ob die einen technologisch Megaschritte machen würden wären und die anderen hecheln jetzt erstmal hinterher ;)
Das läuft schon alles so, wie geplant...

Mal davon ab, daß man eher was an der Bildquali der Monitore machen sollte als stumpfsinnig an der Auflösung. An beiden Seiten paar Pixelreihen mehr dranzukleben ist eh das einfachste an der Übung.
 
Mal davon ab, daß man eher was an der Bildquali der Monitore machen sollte als stumpfsinnig an der Auflösung.

Joa das stimmt, bin mal auf den Philips 326M6VJRMB gespannt, der kommt irgendwann diese Woche. Hab mir den wegen dem Kontrast, 4K Auflösung und Glossy Panel gekauft. HDR ist bei dem wohl nur Marketing weil nur 8 Dimming Zonen.

Aber ansonsten hatte ich einige Bildschirme die letzten Jahre getestet und die hatten alle irgendwelche Fehler. Am schlimmsten empfand ich das Ghosting bei allen IPS Panels die ich gekauft habe. Einer von Acer (IPS, 165 HZ, WQHD) hatte zusätzlich noch gräulichen IPS Glow unten rechts, sah ziemlich gruselig aus. Ansonsten noch einen XL2730 gehabt, top Panel, gute Farben, relative schnell aber ein AG Coating was ich mal als nicht besonders toll bezeichnen würde. :D
 
Also OLED ist für mich schon buchstäblich ein Augenöffner... heidewitzka ist das‘n Bild... All der Mist den wir seit Beginn der TFTs ertragen mussten - quasi einfach weg.
 
Also OLED ist für mich schon buchstäblich ein Augenöffner

Leider extrem Teuer und zu groß. Ich brauch was was auf meinen Schreibtisch passt. Ich kann natürlich auch den Alienware 55 Zoll 120 HZ 4K mit Finanzierung kaufen. Aber passt halt alles net wirklich in meine Wohnung. Letztlich muss das Teil dann auf einen Ständer wo ich den extrem weit nach unten ballern muss damit ich den Kopf nicht durchgehend in den Nacken legen muss um den oberen Rand vom Panel zu sehen. Sprich der liegt dann fast auf dem Boden weil ich nur ca. 1,50 Meter Sitzabstand hinbekomme.

So ein Oled mit 32 Zoll wäre was, wirds aber so schnell nicht geben. Und dann hast natürlich noch die Einbrenn Problematik wenn du z. B. immer das selbe Game mit dem selben HUD suchtest. :D
 
OLED kommt bei mir nicht in Frage. Man kann wohl davon ausgehen, dass bei mir nach ein paar Jahren das ein oder andere ProgrammUI "eingebrannt" ist.
 
Also OLED ist für mich schon buchstäblich ein Augenöffner... heidewitzka ist das‘n Bild... All der Mist den wir seit Beginn der TFTs ertragen mussten - quasi einfach weg.

Wie sieht es aus mit Burn-In?

Generell stelle ich mir das am PC problematisch vor, zumindest dann, wenn bspw. der Desktop (bzw. Teile davon) regelmäßig lange Darstellungszeiträume genießen.
 
Oben Unten