Reviews „RTX on“ aus der Sicht eines AMD-Users und „ist Turing jetzt wirklich tot?“ (Alexander Brose)

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.107
Bewertungspunkte
18.597
Punkte
114
Alter
59
Standort
Labor
Als Eigentümer einer AMD RX Vega Grafikkarte hat man es nicht immer leicht. Häufig wurde die Grafikkarte als „Flop“ bezeichnet, ihre Effizienz bemängelt und überhaupt sei es einfach keine richtige „Gaming-Grafikkarte“. Wer so etwas verteidigt, der kann doch nur ein Fanboy sein! Oder? Dass man als interessierter Bastler in puncto Effizienz einiges korrigieren kann, hatte ich ja in einem anderen Artikel schon gezeigt. Auch die Benchmarks lügen (meistens) nicht und wie man diversen Nachtests und aktuelleren Spiele-Reviews entnehmen kann, hat sich die Performance durchgehend in Waage mit den entsprechenden Pascal Pendants von Nvidia gehalten, die schließlich auch kein objektiver Tester als „Gaming-Krüppel“ bezeichnen würde. ..



>>> Hier den gesamten Test lesen <<<
 
Zuletzt bearbeitet :
Vielen Dank hierfür!
Finde ich toll, dass auch der Bereich der Mittelklasse nochmal ausführlich beleuchtet wird. Habe lange selbst mit einer 2060 geliebäugelt, aber wegen Preis/Leistung die Finger weggelassen. Hätte gedacht, dass sich im RTX - Bereich mehr tut, aber es ist wirklich ziemlich zögerlich und für mich noch lange kein Kaufgrund.
 
Interessanter Vergleich, Gerade die Mittelklasse fällt ja aktuell etwas hinten runter. Kommt aber sicher nochmal deutlicher wieder in den Fokus mit den kommenden Karten.
 
Wie ist das denn mit der besseren Bildqualität bei DLSS zu verstehen? Wie kann eine Interpretation (oder wie auch immer man DLSS umschreiben will) eines niedrig aufgelösten Bildes besser sein, als ein höher aufgelöstes Original? Könntest du das bitte etwas erklären, denn aktuell ist mir das nicht klar (und für mich aus den Bildern auch nicht ersichtlich)? Auf dem Screenshot auf Seite 1, über dem diese Zeile steht, sieht man nicht wirklich, was du meinst. Da fällt mir nur das Moiree in DLSS auf (Brustbereich des Raumanzuges).
 
Wie ist das denn mit der besseren Bildqualität bei DLSS zu verstehen? Wie kann eine Interpretation (oder wie auch immer man DLSS umschreiben will) eines niedrig aufgelösten Bildes besser sein, als ein höher aufgelöstes Original? Könntest du das bitte etwas erklären, denn aktuell ist mir das nicht klar (und für mich aus den Bildern auch nicht ersichtlich)? Auf dem Screenshot auf Seite 1, über dem diese Zeile steht, sieht man nicht wirklich, was du meinst. Da fällt mir nur das Moiree in DLSS auf (Brustbereich des Raumanzuges).

DLSS ist in der Lage Details richtig zu rekonstruieren, die auch in der höheren Auflösung nicht korrekt gerendert werden, insbesondere feine Details, die zu fein sind für die Renderauflösung. Also die berühmte Stromleitung oder der Maschendrahtzaun.

Die Videos von DF zeigen das sehr plastisch.

 
Zuletzt bearbeitet von einem Moderator :
Interessanter Artikel.

Natürlich bringt es mehr, wenn die "kleineren Karten" (wie die 60er) langsam auch tatsächlich features wie RT/DLSS nutzbar machen, in dem Sinne, dass die Menge an Leuten eher profitiert, als wenn nur ein paar frühe Tester in der Luxusklasse da herumprobieren können.

Ähnlich sehe ich das auch mit Turning/Ampere.

Turing war da so ein Testballon, aber noch nicht wirklich das gelbe vom Ei(Erste Testspiele mit RT/DLSS 1.0 usw.).

Ich schätze mit den kommenden Titeln die ab Ende des Jahres rauskommen, wird die Sache zum ersten Mal richtig "ernst" und zukünftig werden wir mehr und mehr davon sehen, was auch zur Folge hat, dass die Implementierungen besser werden.

Schließlich mischen die Konsolen und AMD nun auch bald mit, bei RT.
Dazu kommt, dass mit der 3060 zum ersten Mal eine Karte kommt, die relativ ordentlich Power kriegt, für auch kleineres Geld und somit das Ganze noch besser umsetzen kann.
Einfach durch komfortabel mehr Power.

So gesehen können auch immer mehr Leute, mit nicht ganz so großem Geldbeutel in das Thema (vernünftig nutzbar) reinschnuppern.

Sicherlich wird das Thema weiter erst mal experimentell sein, da sich viele Spieleentwickler erst mal reinfuchsen müssen, in das Thema RT, aber spätestens mit der nächsten Generation wird's dann richtig interessant.

Man kann aber jetzt schon langsam dabei sein, auch mit 3060/3070.

Was ich z.B. an RT Bildern von der neuen Playstation gesehen habe, von GT, sah richtig gut aus.
Dementsprechend wrid's auch auf AMD Karten gut aussehen, was der Sache den Durchbruch geben wird, da nun alle großen Player dabei sind und es auch für weniger Geld bereits gut nutzbar wird.

DLSS 2.0 wird natürlich auch interessant, von Nvidia Seite aus. Da bin ich gespannt, ob sich das breiter durchsetzen wird, oder weiterhin nur eine hand voll Spiele es pro Jahr unterstützen.
Gut dass RT dann bald nicht mehr nur von Nvidia nutzbar ist. Das sollte sich auf jeden Fall breit durchsetzen, also die allgemeine Version für alle, nix RTX.

Die kleinen Nvidia-Boni hier und da, mit RTX/DLSS werd' ich mit Ampere zum ersten Mal testen können(komme ja von der 1080Ti), so fern die lieben Firmen mir denn irgendwann mal die Möglichkeit geben, so eine Ampere Karte zu kaufen, was ja aktuell kurz nach "Release" noch leicht schwierig ist. :D

Freue mich aber in erster Linie erst einmal auf Raytracing für alle, inkl. Konsolen. :)

Is schon ne tolle Zeit, für Zocker.
 
Zuletzt bearbeitet :
Ich denke auch das eben durch AMD und den Konsolen sowie neuen Grakas RTX bald wirklich interessant wird. Natürlich wird nicht von heute auf morgen jedes Spiel nun RTX verwenden aber dennoch werden (alle) Entwickler nun mehr und mehr Erfahrung auch im Umgang mit RTX bekommen und entsprechende Anpassungen machen. Früher mussten Entwickler Level oder ganze Spiele den HDDs anpassen da man nur begrenzt schnell Daten von dort verarbeiten konnte. Das wird natürlich immer noch ne Weile so bleiben aber ich will damit nur sagen das Entwickler da durchaus schon sehr sehr viele Tricks gefunden haben um die HDD Mankos zu umgehen. So was in der Art seh ich nun auch bei den RTX Effekten kommen. Man wird Level und Spiele entsprechend anpassen lernen so das nicht immer 100% RTX genutzt wird und dabei dann die FPS total in den Keller fallen. Und dann kommen natürlich noch Nvidia und AMD ins Spiel die auch nochmal selber einige Anpassungen machen werden. Sei es mit den neuen 30er Karten und Hardware als auch mit verschiedenen Softwarelösungen. Wobei ich denke das da weniger geht. Aber so grundsätzlich denke ich auch das RT eine Generation zu früh kam. Das „fiese“ ist halt auch das man 4K pushen wollte oder will und sich dies auch verbreiten soll. Aber mit 4K und Ray Tracing gab es einfach keine Karte die dies wirklich zuverlässig hätte schaffen können. Da und dort vielleicht aber grundsätzlich hatte ich bei jeden Spiel wenn ich von 4K gehört hatte das Gefühl das die Karten zu schwach sind und die Entwickler eigentlich schon an die stärkste Karte massive Anpassungen machen mussten damit diese überhaupt noch gute Performance liefern konnte.
 
Toller Artikel, vielen Dank!

Habe mir auch aus Begeisterung für Raytracing eine Turingkarte gekauft. Ich dachte mir, dass das unterste Modell wohl kaum weit reichen wird und habe zur 2070 gegriffen. In Spielen habe ich's dann auch tatsächlich nur kurz ausprobiert und nie dauerhaft genutzt wegen der niedrigen fps, Minecraft RTX fand ich tatsächlich am vielversprechendsten – aber was soll ich mit Minecraft, wenn ich nix bauen kann?!
Aber die Beschleunigung beim 3D-Rendering ist der Hammer. GPU-Renderer gibt es ja noch gar nicht soo lange, ich war also noch relativ mit den Möglichkeiten von CPUs vertraut. Die Geschwindigkeit die mit Unterstützung der RT-Kerne für die Strahlverfolgung und dem Deep Learning Denoising beschleunigt durch die Tensor-Kerne möglich wurde ist toll.

Allgemein halte ich Raytracing für die einzig mögliche Zukunft: Wer photorealistische Grafik möchte baut es eben physikalisch korrekt nach (plus einen Haufen Annäherungen, aber nicht mehr Raster basiert). Programme wie Minecraft RTX oder Quake RTX und nicht zuletzt die Murmelbahn-Demo zeigen, dass sogar reines Raytracing schon in Echtzeit möglich ist!
 
Wie ist das denn mit der besseren Bildqualität bei DLSS zu verstehen? Wie kann eine Interpretation (oder wie auch immer man DLSS umschreiben will) eines niedrig aufgelösten Bildes besser sein, als ein höher aufgelöstes Original? Könntest du das bitte etwas erklären, denn aktuell ist mir das nicht klar (und für mich aus den Bildern auch nicht ersichtlich)? Auf dem Screenshot auf Seite 1, über dem diese Zeile steht, sieht man nicht wirklich, was du meinst. Da fällt mir nur das Moiree in DLSS auf (Brustbereich des Raumanzuges).

Ich habe mich auf der Seite von Nvidia ein wenig informiert, wie die Technik von DLSS funktioniert. Ich versuche das hier mal etwas zusammen zu fassen, soweit ich die Werbeinformationen verstanden habe. Herkömmlicherweise wird ja jedes Pixel auf dem Bildschirm einzeln berechnet. Es wird geschaut, welche Fläche eines Objektes dort sichtbar ist. Dann wird in der Textur geschaut, welche Farbe dort vorhanden ist. Um Kannten zu glätten und Beleuchtung dazu zu nehmen wird das dann noch verfeinert. Diese relativ komplexen Berechnungen werden für jedes einzelne Bild für jedes Pixel durchgeführt, was einen immensen Berechnungsaufwand erzeugt.

In der frühen zeit der Computerspiele wurde die Grafik komplett anders aufgebaut. Man nahm ein Hintergrundbild und zeichnete dann von hinten nach vorne alle sichtbaren Flächen darüber. Wenn dann die ganze Collage fertig war, hatte man das Bild wie es der Betrachter sieht. Das war bedeutend einfacher und weniger Zeitaufwändig, aber bot auch weniger Effektmöglichkeiten.

Mit DLSS ändert sich die ganze herangehensweise wieder. Die Bilder werden nur noch mit der halben oder einem Drittel der Auflösung erstellt. Die fehlenden Pixelwerden dann nach eine von Nvidia vortrainierten Algoritmus ergänzt.
(ich musste meinen Text nochmals ändern, da ich es nicht richtig dargestellt hatte)

So kann man mit insgesammt deutlich geringerem Berechnungsaufwand Bilder in ähnlicher Qualität erzeugen, wie wenn man jedes Bild von Grund auf neu berechnet. Die Technik, wie die Bilder erzeugt werden ist aber bedeutend komplexer als die geradlinige, immer gleiche Berechnung jedes einzelnen Bildpunktes. Man mischt so zu sagen ein altes, hochauflösendes Bild mit Vektordaten und einem schwach aufgelösten, neuen Bild zusammen.

 
Zuletzt bearbeitet :
Wenn DLSS 2.0 automatisch für jedes Spiel verfügbar wäre, dann wäre das ein gigantischer "Game changer", aber so ist es ja nicht. Daher müssen wir mal abwarten, wie viele neue Spiele das in Zukunft können. Wie ist es denn mit dem lang erwartetende Cyberpunk? Soll das Raytracing und DLSS 2.0 unterstützen?

Edit: google hilft 😁 Ja, wird es: https://www.nvidia.com/de-de/geforc...tracing-dlss-geforce-now-screenshots-trailer/

Wer da heiß drauf ist, der kauft wohl besser eine Ampere GPU.
 
Ich finde die übliche Darstellung/Bewertung von DLSS in Grafikkarten-Tests reine Augenwischerei. DLSS ist eine Methode zur Hochskalierung von Bildern, die gleichzeitig die Kantenglättung übernimmt und teilweise Details (re-)konstruiert. Sieht man schön an den Bildern im Artikel, bei denen DLSS auch unsinnige Artefakte erfindet (z.B. das Muster auf der Brusttasche, das nicht da sein sollte). Das ändert nichts daran, dass man Äpfel mit Birnen vergleicht. Die Turing-Karten sind zu schwach, um zeitgemäße Auflösungen bei anständigen Bildraten liefern zu können, sobald RTX verwendet wird. Punkt.
Davon unabhängig gibt es DLSS, das ich ja auch ohne RTX nutzen kann, womit der massive Performance-Nachteil von RTX einfach bestehen bleibt. Im Übrigen könnte man DLSS ja auch für die native Auflösung verwenden - wenn es die Kantenglättung gut macht und gleichzeitig Bild-Details ergänzt, dann sieht das Bild in nativ gerendert und danach mit DLSS nachbearbeitet ja nochmals besser aus. Womit auch das Pseudo-Argument, reduzierte Auflösung+DLSS sei besser als native Auflösung ad absurdum geführt wird. DLSS kann die Bildqualität verbessern, ja. Aber nicht nur wenn ich das Bild mit steinzeitlichen 720p rendere. Je mehr Daten bereitgestellt werden, desto besser sieht das Resultat aus.
Es kommt ja auch keiner auf die Idee zu behaupten, dass ein OLED Geld spart, weil man keine so dicke Grafikkarte braucht. Ein Spiel in 1080p auf nem OLED sieht ja besser aus, als ein Spiel in 4K auf einem TN-Panel. Das sind einfach zwei vollkommen unterschiedliche Dinge.
 
In Quake 2 RTX limitiert offensichtlich die Engine bei rund 1000 FPS – in 1440p max, wohlbemerkt. Mit RTX on auf niedrig (!) bleiben noch knapp über 30 FPS übrig. Grafisch trennen RTX off und on natürlich Dimensionen, aber der Performance-Einbruch ist brutal.
Wow.
Das war aber auch eines der wenigen Spiele, in denen RTX mMn einen echten, sichtbaren Mehrwert bietet. So schön hell, wie das auf einmal alles ist, grenzt das ja an 1337 haxx0rei.

Meist äußert sich das ja eher im Detail und um darauf zu Achten muss das Spiel entweder entschleunigt (z.B. RPGs), oder wohl irgendwie langweilig sein. Wer in Battlefield Pfützen ansehen kann, sollte die Schwierigkeit hochschrauben.
Wirklich begeistert - ich kenn RTX allerdings auch nur von Tests - war ich bislang ausschließlich von Minecraft RTX.

Das erste wirkliche RTX AAA Game ist aber wohl Cyberpunk, oder?

Funktionierendes DLSS allerdings, ist mMn ein Gamechanger.
War man bisher dazu verdammt eine Karte mit genügend Rohleistung zu kaufen, kann man, DLSS sei dank, theoretisch auch mit ner kleinen 2060 auf der 4K Glotze zocken. Das spart gut Geld und könnte auch iGPUs endlich den Leistungsschub bringen um tatsächlich endlich auch auf einem kleinen 500€ Consumer Notebook ein wenig daddeln zu können.
Wird aber wohl ein Wunschtraum bleiben, da ich nicht wüsste warum nV diese Technologie der direkten Konkurrenz zur Verfügung stellen sollte.
 
Was ich mich immer frage ,warum macht sich bei solcher Art quer Betrachtungen Stock vs. Handgeklöppelt immer nur bei einem Modell die Mühe es fein zu tunen ?
Das lässt mehr Fragezeichen über den Köpfen zurück als vor dem lesen des Artikels .
 
Wow.
Das war aber auch eines der wenigen Spiele, in denen RTX mMn einen echten, sichtbaren Mehrwert bietet. So schön hell, wie das auf einmal alles ist, grenzt das ja an 1337 haxx0rei.

Meist äußert sich das ja eher im Detail und um darauf zu Achten muss das Spiel entweder entschleunigt (z.B. RPGs), oder wohl irgendwie langweilig sein. Wer in Battlefield Pfützen ansehen kann, sollte die Schwierigkeit hochschrauben.
Wirklich begeistert - ich kenn RTX allerdings auch nur von Tests - war ich bislang ausschließlich von Minecraft RTX.

Das erste wirkliche RTX AAA Game ist aber wohl Cyberpunk, oder?

Funktionierendes DLSS allerdings, ist mMn ein Gamechanger.
War man bisher dazu verdammt eine Karte mit genügend Rohleistung zu kaufen, kann man, DLSS sei dank, theoretisch auch mit ner kleinen 2060 auf der 4K Glotze zocken. Das spart gut Geld und könnte auch iGPUs endlich den Leistungsschub bringen um tatsächlich endlich auch auf einem kleinen 500€ Consumer Notebook ein wenig daddeln zu können.
Wird aber wohl ein Wunschtraum bleiben, da ich nicht wüsste warum nV diese Technologie der direkten Konkurrenz zur Verfügung stellen sollte.
Naja, du kannst in die RTX Pfützen schauen in BF V, wenn du einen Gegner um die Ecke sehen willst oder gar gerade ohnmächtig auf dem Boden liegst und auf den Sani wartest :p
Control war meiner Meinung nach "bis jetzt" der beste Titel den ich damals in vollem RTX Genuss spielen durfte.
Viele Munkeln aber jetzt schon ganz deutlich, dass Cyberpunk wohl alles verdrängen wird und dann der RTX Nr 1 Titel wird.
Ich finde jetzt zum Beispiel nicht, dass wir dieses alte aufgewertete Quake RTX groß erwähnen sollten ^^
 
Aus meiner Sicht gibt es noch den einen oder anderen unangesprochenen Punkt, der gut in den Artikel gepasst hätte:
Ein AMD-User (da prominent so benannt) hat in den letzten 5 Jahren selten über 500-600€ für einen Grafikkarte ausgegeben, in den allermeisten Fällen sogar deutlich weniger, weil die Topmodelle wenig attraktiv waren im Vergleich zu NVidias Angeboten. Einzelne preisliche Ausnahmen wie die Radeon VII zählten nicht gerade zur Kategorie Gamer's Choice. RTX on fängt mit einer 2060 Super aber erst bei ~380€ an. Mein Eindruck ist: Für AMD-User ist RTX nach wie vor nicht on und war es auch nie, ganz abgesehen davon, dass AMD-Karten das bisher gar nicht unterstützen.
Für mich als AMD-User sieht die Welt so aus: Ich spiele eher selten, deswegen wäre auch ein hoher Stromverbrauch zu tolerieren. Meine Grafikkarte soll lange halten und ich will nicht viel dafür ausgeben. Wer die neuesten Spiele zockt, hohe Auflösungen hat und/oder die neuesten Effekte und Features will, für den führt oft kein Weg an NVidia vorbei.
Es gibt eben andere Gründe zu einer AMD-Karte zu greifen, und ob die für einen relevant sind, darf jeder selber entscheiden: Die Bandbreite reicht von brauchbaren offenen Linux-Treibern, über Konkurrenz zu beleben statt Milliardengewinne hin zur Unterstützung von offenen Standards und vieles mehr. Alles das keine speziell Hardware-produktbezogenen Gründe, für viele irrelevant, für manche ein Argument. Es spricht für sich selbst, dass bei AMD nicht alles Gold ist, was glänzt. Auch Igor berichtet ja gerne mal über das eine oder andere Fettnäpfchen. Suum cuique eben. Das, meine ich, sind aber oft die stärkeren Gründe, denn auf Produkt-Seite kam AMDs GPU-Abteilung in den letzten Jahren leider einfach nicht nach. Hoffen wir, dass sich das bald weiter verbessert :)
Was ich also sagen möchte: Ich finde, die Frage RTX on oder RTX off ist spiegelt bisher oft nicht die Realität des AMD-Users wieder, stattdessen, oder besser: ergänzend, wäre eine Betrachtung aus anderen Blickwinkeln wünschenswert. Nur meine Meinung 🤷‍♂️
 
Kann der eigentliche Autor sich hier mal outen, damit man ihn/sie z.B. anschreiben oder danken kann?

;)
 
Zuletzt bearbeitet :
Yeah, Vega ist noch nicht tot. 2060S ist ja quasi eine 2070. Zumindest wenn man auf die Software Features von Nvidia verzichten kann.
 
Kann der eigentliche Autor sich hier mal outen, damit man ihn/sie z.B. anschreiben oder danken kann?


Aus meiner Sicht gibt es noch den einen oder anderen unangesprochenen Punkt, der gut in den Artikel gepasst hätte ...
Vielen Dank für deine Anregungen. Leider kann man nicht immer alle Bereiche auf einmal abdecken und mit Linux habe ich z.B. auch schon seit vielen Jahren nichts mehr gemacht. Generell habe ich keine professionellen Anwendungen betrachten können, weil ich mich dahingehend schlicht nicht auskenne. Geht aus meinem Text wirklich so schlecht hervor, wie dieser ganze Test zustande kam bzw. was die Motivation dafür war? Ich besitze seit 2 Jahren eine Vega (und für diese habe ich mich ja auch nicht grundlos entschieden), wollte mal meinen Horizont erweitern und mir von den hochgelobten Features der Nvidia Karten selbst ein Bild machen. Beide Karten haben zum Zeitpunkt des Erwerbs etwas über 400€ gekostet - die 2060S halt knapp 1,5 Jahre später. Weder wollte ich irgendwem auf den Schlips treten, noch wollte ich irgendwelche Diskussionen "AMD vs. Nvidia" anfachen, die meistens in sinnlosen Fanboy-Kriegen enden. Ich wollte mir lediglich komplett unvoreingenommen die entsprechenden Features anschauen und habe die gemachten Erfahrungen im Rahmen meiner Möglichkeiten zusammengefasst.

Grüße!
 
Vielen Dank für deine Anregungen. Leider kann man nicht immer alle Bereiche auf einmal abdecken und mit Linux habe ich z.B. auch schon seit vielen Jahren nichts mehr gemacht. Generell habe ich keine professionellen Anwendungen betrachten können, weil ich mich dahingehend schlicht nicht auskenne. Geht aus meinem Text wirklich so schlecht hervor, wie dieser ganze Test zustande kam bzw. was die Motivation dafür war? Ich besitze seit 2 Jahren eine Vega (und für diese habe ich mich ja auch nicht grundlos entschieden), wollte mal meinen Horizont erweitern und mir von den hochgelobten Features der Nvidia Karten selbst ein Bild machen. Beide Karten haben zum Zeitpunkt des Erwerbs etwas über 400€ gekostet - die 2060S halt knapp 1,5 Jahre später. Weder wollte ich irgendwem auf den Schlips treten, noch wollte ich irgendwelche Diskussionen "AMD vs. Nvidia" anfachen, die meistens in sinnlosen Fanboy-Kriegen enden. Ich wollte mir lediglich komplett unvoreingenommen die entsprechenden Features anschauen und habe die gemachten Erfahrungen im Rahmen meiner Möglichkeiten zusammengefasst.

Grüße!
Keine Sorge, ich fühle mich nicht auf den Schlips getreten ☺
Ich habe nichts gegen den Artikel einzuwenden, finde ihn gelungen. Nur gerade das, was du ja geschrieben hast, dass hinter jeder Formulierung ein Fanboy-Wars lauert und von vornherein überspezifisch klar gestellt werden muss, weshalb man kein Fanboy ist, zeigt, wie missverstanden beide Seiten sind, weil (das ist mein persönlicher Eindruck) eben manche Aspekte in der Diskussion ausgeklammert werden, die für ein vollständiges Bild nicht unerheblich sind. Auch klar ist, dass natürlich nicht immer die Gesamtheit beleuchtet werden kann. Ich versuche halt gerne ein bisschen zu vermitteln. Wer weiß, vielleicht schreib ich ja irgendwann mal einen Artikel 😅
 
@wuchzael

Hast du schon mal ausprobiert ob sich RTX im Spiel auch dann einschalten lässt wenn neben der Hauptgrafikkarte ( AMD ) eine Nvidia RTX im PC steckt ( HDMI-Dummy nötig um Nvidia-Systemsteuerung zu öffnen ) ?

Seit Jahren benutze ich in Spielen neben der Hauptkarte ( Nvidia bzw. AMD ) zusätzlich eine kleine GT 640 als dedizierte PhysX-Karte.
Unter Windows 10 sind auch keine Patches mehr notwendig.

So aus Interesse wäre schön zu klären ob und welche RTX Funktionen nutzbar sind. PhysX geht bestimmt. :sneaky:
 
Oben Unten