Reviews RTX Voice im Selbstversuch - Sogar das Zähneklappern wird plötzlich unhörbar

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.195
Bewertungspunkte
18.807
Punkte
114
Alter
59
Standort
Labor
NVIDIA hat kürzlich ein KI-Tool für RTX-Besitzer vorgestellt, das nicht nur Mikrofonaufzeichnungen, sondern sekundär und unabhängig auch die Wiedergabe beliebiger Audio-Streams von Störgeräuschen befreit. RTX Voice kann als KI-Rauschunterdrückungstool nämlich für so ziemlich alles herhalten, was den Mikrofoneingang nutzt, einschließlich Teams, Zoom, Skype, Teamspeak und natürlich auch Discord. Während sich das Tool noch in der Beta-Phase befindet, kann schon jetzt jeder Besitzer einer RTX-basierten Grafikkarte RTX Voice aktivieren und nutzen.



>>> Hier den kompletten Test lesen <<<
 
Das hat Jensen sehr genau beobachtet und zu verhindert gewusst. Ampere wird bestimmt noch einen Zacken fieser ;)
 
Sehr schöner Test, Igor. Allerdings muss ich eines berichtigen: Die Frame-Rate Einbrüche bei Wolfenstein auf der RTX 2060 haben nichts mit RTX Voice zu tun, zumindest nur indirekt.

ID-Tech Titel sind mit ihrer VRAM Allocation sehr wählerisch, auf bestimmten Settings nimmt sich die Engine eine fixe VRAM-Menge zum Adressieren vor. Jetzt kannst du dir vorstellen was passiert: bei RTX und DLSS on mit 6 GB ist diese Menge gaaaaanz knapp gegeben (deswegen auch nur 51 FPS, setze Image-Streaming auf Hoch und die Performance wird sich deutlich erhöhen und das nicht zu Ungunsten der Grafik), funkt jetzt aber RTX Voice mit dem 600 MB Speicherbedarf dazwischen, du ahnst es, geht die Framerate komplett in den Keller. Die Engine zickt rum, weil nicht genügend VRAM zum Adressieren vorhanden ist.

Mein Vorschlag: Teste die RTX 2060 nochmal, diesmal mit Image Streaming auf Mittel. Image-Streaming ist für die VRAM-Allocation verantwortlich, damit kannst du diese senken. Jetzt sollte es nicht mehr zu diesem FPS Einbruch kommen, auch mit RTX Voice.
 
Zuletzt bearbeitet :
Der RAM war nicht voll, da habe ich schon aufgepasst. Denn ohne DLSS habe ich diese Einbrüche nicht und es war sogar mehr RAM allociert. ich befürchte wirklich, dass die 240 Tensor Cores nicht mehr mit DLSS und RTX Voice zurecht gekommen sind.
 
Der RAM war nicht voll, da habe ich schon aufgepasst. Denn ohne DLSS habe ich diese Einbrüche nicht und es war sogar mehr RAM allociert. ich befürchte wirklich, dass die 240 Tensor Cores nicht mehr mit DLSS und RTX Voice zurecht gekommen sind.
Welches Preset hast du verwendet und mit welcher Auflösung? Wenn du Mein Leben! genutzt hast, dann ist der VRAM (nicht RAM, aber das weißt du ja bestimmt) nicht ausreichend mit RTX und DLSS (siehe PCGamesHardware-Review, die wegen dem VRAM ähnliche FPS Drops wie du gesehen haben). Mein Leben! setzt Image Streaming auf Ultra. Auf Image Streaming Hoch ist das nicht mehr der Fall und das Spiel läuft sehr gut. Für den RTX Voice Test würde ich aber auf Mittel gehen, nur um den VRAM auszuschließen.

DLSS in Wolfenstein braucht übrigens auch etwas VRAM, auch wenn das wegen der seltsamen VRAM-Allocation von ID-Tech nicht sichtbar ist. Ich habe dazu auch schon ein paar Experimente mit DLSS und RTX Voice gemacht.

In Wolfenstein konnte ich ähnliche FPS-Drops mit RTX Voice wie du sehen, eben aufgrund des VRAMs. Image-Streaming auf Mittel löste das Problem komplett.

In Control und Minecraft RTX hingegen nicht, diese sind aber auch nicht mit VRAM-Problemen belastet. Dort läuft das DLSS 2.0 ohne Probleme in Tandem mit RTX Voice (abzüglich des normalen Performance-Verlustes). Wenn du mit deiner Vermutung richtig liegen würdest, dann würde DLSS und RTX Voice zusammen ja auch in diesen Spielen für eine dramatisch reduzierte Bildrate sorgen, tun sie aber nicht.

Hier hab ich einen Vergleich in Wolfenstein, um meine Behauptung zu untermauern!

Wolfenstein Youngblood, Mein Leben! Riverside Benchmark, 2560x1440 DLSS ON (Balanced), RTX ON

Image Streaming High, RTX Voice off

hbqOYs5.jpg


Image Streaming High RTX Voice ON

2OP6N2W.jpg


Image Streaming Medium, RTX Voice ON

hQehwFj.jpg


Was lustig ist: startet man das Spiel auf Image Streaming High mit RTX voice on, dann fällt die Performance nicht so extrem ab, weil die Engine anscheinend den verbrauchten VRAM durch RTX Voice mit einkalkuliert. Aber wenn man im Spiel selbst RTX Voice aktiviert, kann die Engine das nicht und es kommt zu diesem enormen FPS-Einbruch, den auch du gesehen hast.
 
Sehe ich nicht so. Der Fallback auf CUDA ist sicher möglich und in der Beta den Entwicklern geschuldet, die vor der Portierung daran arbeiten müssen - ist ja noch Beta. Aber es ist wie Battlefield mit GTX - lahmend bis unspielbar bei gleichzeitigem Gaming. Eine Pascal GTX taktet sofort hoch und ich hatte stellenweise mal bis zu 10% Last auf der 1080 Ti, nur durch RTX Voice. Mit der RTX ist das alles Idle. Viel Spaß damit beim Spielen. Wenn dann noch TS über die Wiedergabe gefiltert wird, büßt man immens Performance ein. Ich habe echt keine Ahnung, warum immer so unreflektiert gehatet wird. Wenn AMD mit den AI-Rechenwerken und RT kommt, ist dann plötzlich wieder alles super... :(

ne du, zumindest nicht bei mir... aber NV verarscht leider kunden in letzter zeit ein wenig zu sehr... mit den preisen will ich nichtmal anfangen, denn für die chipgrösse ist das sogar nichtmal soooo überzogen, aber am anfang "RT geht nur auf turing" paar monate später --> pascal kanns doch, und die 1080Ti ist sogar +/- so schnell wie ne 2060(je nach game), dann die verarsche mit kepler mobile --> support eingestellt, aber für desktop läuft das alles munter weiter, nun RTX voice das ohne probleme auf jeder pascal läuft und evtl. sogar auf maxwell und kepler ohne probleme(mal jemand getestet?)...

das ist reinste verarsche und alles versuche leute zum kauf von turing zu bewegen, weil gibt genug notebooks mit GTX 880M(SLI) die mehr als genug dampf haben um selbst aktuelle titel problemlos darzustellen, und dank 8GB speicher sogar mit max texturen... ist immerhin so schnell wie ne GTX 680 bzw. minimalst langsamer(lässt sich aber besser takten --> 1250/6000 easy).

wenn NV mal die praktiken wieder zu normal ändert, weg von arschig und kundenfeindlich, dann gibts von mir auch nicht mehr zu jedem mist den sie verzapfen ne breitseite.
 
Das ist ein Igor-Original. Der Technik mit messerscharfem Verstand auf den Zahn gefühlt, dafür kann man deine Arbeit nur lieben.
 
Ich habe RTX On und off Generell VORHER gesetzt, das macht man ingame einfach nicht. Bei RTX Off habe ich die ca. 600 MB VRAM übrigens vorher fest allociert, wie man das macht, hatte ich ja schon mal erklärt. Der Start von YB fand also immer unter identischen Voraussetzungen statt. Image Streaming entscheidet aber nicht nur über die Qualität (und den Speicherbedarf) der Texturen, sondern knallt den Bus ordentlich zu. die ca. 200 bis 300 MB VRAM, die das braucht kann man eigentlich fast schon ignorieren. Es sieht fast so aus, als liefe die 2060 in ein Bandbreiten-Limit.
 
Danke für die Analyse und Klarstellung.
Damit ist hoffentlich endlich Ruhe von Seite der Aluhutträger und Rotfront Kasper.
 
3D Was? :D

Nach dieser Heise-gesteuerten NDA-Hysterie im 3DC und anderswo habe ich mich dort löschen lassen. Das Altherrenvideo war ja echt eine Frechheit. Und? Ich sitze noch nicht im Knast. :D

Der Heise-Autor hatte abends bei mir angerufen und wollte eine Entschuldigung, weil ich mich über sein Auftragswerk so aufgeregt hatte. Im Gegensatz zu mir wusste ja dort nicht mal einer, warum es das NDA überhaupt gab. Ich habe es als erster Presservertreter bekommen, der Rest 2 Tage später.
 
Danke für den Test, ich bin auf deiner Website gelandet, weil die Artikel sachlich bleiben, bestehende Probleme ansprechen und auf unnötige Wertungen verzichten, Fairness walten lassen. In englischsprachigen Blogs/Foren zum Thema Raytracing war ich das bei Diskussionen über die notwendige Hardware und ihre Fähigkeiten so gewohnt. Neuerdings dann mal bei deutschen Game-Magazinen rein gesehen und mich schwer gewundert, wie polarisiert und parteiisch selbst einige Redakteure an die Hardware herangehen, wenn das falsche Logo auf der Verpackung klebt.
 
Erstmal willkommen!

Sagen wir es mal fairerweise so: auch die Redaktionen der großen Publikationen unterliegen wirtschaftlichen Zwängen. Das geht sicher nicht soweit, gegen Geld den Glauben abzugeben, aber man wird zumindest etwas Rücksicht auf die Werbepartner nehmen müssen. Da fällt dann manche Euphorie etwas geringer aus, was dann zum sichtbaren, vermeintlichen Bias führt. Die Redakteure in den Großraumbüros werden vom Chefredakteur gelenkt, da bleibt kaum Platz für eigene Befindlichkeiten. Zumindest die Marschrichtungszahl ist intern mit Sicherheit vorgegeben.

Das ist bei mir im Kleinen übrigens ähnlich, nur wissen die Gegenüber seit Jahren, dass ich mich da bei gewissen Diskussionen fein raushalte. Klar, man wird den einen oder anderen Deal nicht machen können und ich muss auch einen Großteil der CPUs selbst kaufen, aber man hat mit der Zeit auch den Dreh raus, kritisch und objektiv bleiben zu können, ohne gleich zu verhungern. Ich kann mich übrigens auch reinsteigern (siehe Heise), aber dann auch nur, wenn ich mein Gerechtigkeitsgefühl verletzt sehe :D

Ist Euch eigentlich mal aufgefallen, dass ich als einzige deutsche Seite Nvdia-Werbe-Banner drauf habe? Diesen Deal habe ich nicht mit Nvidia gemacht, sondern mit einer US-Werbeagentur, die mein Konzept passend zum Portfolio fand.

Naja, und dann kann man mit gewissen Inhalten ja auch Click-Bait realiseren, Gut für die Statistiken und die Reichweite. Ich kontrolliere mich und den Output mehrmals täglich mit Cloudflare, weil es der einzige verlässliche Indikator ist. Wenn Seiten gecacht sind, hilft auch Google-Analytics nicht weiter. Click-Bait bring hier auf der Seite herzlich wenig, dafür seid Ihr (Gott sei dank) das falsche Publikum. Alles schon mal getestet ;)
 
Danke! Betriebswirtschaftliche Notwendigkeiten sind normal, die sollte man als kritischer Leser im Stillen berücksichtigen. Wenn man sich über Hardware informiert, erfolgt das unter unterschiedlichen Prämissen, bei mir primär Effizienz um die Abwärme niedrig zu halten (habe zwei Grakas verbaut, um die Cudacores parallel zu nutzen) und Systemstabilität. Die meisten Programme haben zwar Autosave Funktionen, aber nicht alle und ein Bild zu rendern dauert ca. 1-2h bei 100% cudacore Last und 25-50% CPU last, während parallel diverse 2D und 3D Progs laufen, an denen man weiterarbeitet. Dann ein Bluescreen - nicht gut. Daher ist es wichtig, mögliche Probleme aufgezeigt zu bekommen jenseits der reinen FPS/Watt oder FPS/€. Bei der Veröffentlichung der 5600 XT war der Blog hier der einzige (unter den von mir verfolgten) welcher alle Aspekte des hektischen Bios-Updates aufzeigte, dennoch mit einem fairen Fazit abschloss. Das macht guten Journalismus aus. Das war jetzt aber genug Lob :)

Ich werde hier weiter mitlesen, intensiver, sobald die nächsten GPU Generationen auf den Markt kommen.

Dann noch einen schönen Tag!
 
Ich vermute mal der extreme Einbruch in Wolfenstein liegt weniger an der unzureichenden Tensorcoreleistung sondern viel mehr am geringen VRAM der 2060.

Die idtech Engine ist ja bekannt dafür bei falschen Einstellungen, also zu großem Streamingbudget für die vorhandene Menge an VRAM extrem einzubrechen und wie man sieht ist der Einfluss von RTX Voice auf die VRAM Auslastung mit ca. 600MiB nicht zu vernachlässigen und annähernd 10% des gesamten VRAMs der 2060.

Und auch wenn DLSS mit verringerter Auflösung rendert, verringert sich dadurch der VRAM Verbrauch nicht großartig. Es sind zwar einige Puffer die dann nur in der niedrigeren Auflösung vorliegen und ein wenig VRAM sparen, am Ende der Renderpipeline ist hat man wieder die volle Auflösung, spart also nichts. Dafür braucht man aber das Neuronale Netzwerk im VRAM, und die restliche DLSS Blackbox braucht mit Sicherheit auch noch etwas VRAM, so dass man am Ende eventuell sogar mit mehr Verbrauch als ohne DLSS herauskommen könnte.


Ich finde auch, dass der Vorteil durch die Tensorcores etwas unterschlagen wird.
Denn man darf dazu nicht wirklich die Berechnung des Frames betrachten, wenn 90% des ausgeführten Codes weiterhin FP32/INT32 ist, können die Tensorcores nichts dazu beitragen diesen Part zu beschleunigen.

Man darf nur den Part betrachten, der tatsächlich auf den Tensorcores laufen kann, also jener Part von RTX Voice.
Nachdem dieser von der Gesamtlast nur einen sehr kleinen Teil ausmacht ist dementsprechend das maximale Beschleunigungspotential der Tensorcores für die Framerate auch eher gering.

Wenn wir jetzt sehen, dass wir mit Tensor Cores und RTX-Voice auf dem Mikrofon on 98,5% der Performance und ohne Tensorcores 98% der Performance bekommen, haben wir nicht einen vernachlässigbaren Gewinn durch die Tensorcores von 0,5%, sondern von immerhin durchaus respektablen 25%.
 
240 Tensor Cores sind einfach nur wenig. Man kann das leider schlecht messen, aber selbst DLSS läuft eigentlich schon nicht mehr optimal. Kommt dann noch RTX Voice datzu, wirds eng. Zumal die Qualität von RTX Voice auf der 2060 m.E. deutlich schlechter ist. Objektiv beurteilt. DLSS aus und die Qualität steigt wieder. Ich habe den effekt genauso auf WQHD
 
Zumal die Qualität von RTX Voice auf der 2060 m.E. deutlich schlechter ist. Objektiv beurteilt.

Wenn RTX Voice die Qualität tatsächlich an die verfügbare Leistung automatisch anpasst sind natürlich alle Performancebetrachtungen zum vergessen, dann könnte es ja genauso sein, dass diese ohne Tensor Cores einfach runtergeregelt wird.

DLSS aus und die Qualität steigt wieder. Ich habe den effekt genauso auf WQHD

Und mit reduziertem Textur Streaming budget?


Ich hab das jetzt auch mal auf meiner 2080Ti ausprobiert, und diese verhält sich verdammt seltsam.

Sobald RTX Audio aktiviert ist, taktet diese auf die offiziellen Standardtaktraten, ohne irgendwelchen Turbo mit Performance Limit Utilization, was ja auch logisch ist.

Läuft dazu aber parallel ein Spiel mit Framelimiter und ohne nennenswerte Auslastung, beispielsweise im Menü, taktet die Karte viel weiter runter, teilweise nur knapp über die Idle Taktraten.

Spiel beendet --> Takt geht wieder hoch, bis man RTX Audio deaktiviert.

Noch viel seltsamer allerdings, wenn RTX Audio an ist taktet der VRAM nur mehr auf 6800MHz anstatt der defaultmäßigen 7000MHz und zwar auch unter Last.

Dass diese paar MHz einen nennenswerten Einfluss auf die Performance haben ist zwar unwahrscheinlich, aber wenn wir schon bei Unterschieden im einstelligen Prozentbereich sind könnte auch das was ausmachen.
 
Das wiederum konnte ich hier nicht nachvollziehen. Hast Du wirklich die RTX-Version installiert oder mit "Hack"?
 
Oben Unten