Reviews RTX Voice im Selbstversuch - Sogar das Zähneklappern wird plötzlich unhörbar

Igor Wallossek

Format©
Mitarbeiter
Mitglied seit
Jun 1, 2018
Beiträge
10.192
Bewertungspunkte
18.799
Punkte
114
Alter
59
Standort
Labor
NVIDIA hat kürzlich ein KI-Tool für RTX-Besitzer vorgestellt, das nicht nur Mikrofonaufzeichnungen, sondern sekundär und unabhängig auch die Wiedergabe beliebiger Audio-Streams von Störgeräuschen befreit. RTX Voice kann als KI-Rauschunterdrückungstool nämlich für so ziemlich alles herhalten, was den Mikrofoneingang nutzt, einschließlich Teams, Zoom, Skype, Teamspeak und natürlich auch Discord. Während sich das Tool noch in der Beta-Phase befindet, kann schon jetzt jeder Besitzer einer RTX-basierten Grafikkarte RTX Voice aktivieren und nutzen.



>>> Hier den kompletten Test lesen <<<
 
NVIDIA hat kürzlich ein KI-Tool für RTX-Besitzer vorgestellt, das nicht nur Mikrofonaufzeichnungen, sondern sekundär und unabhängig auch die Wiedergabe beliebiger Audio-Streams von Störgeräuschen befreit. RTX Voice kann als KI-Rauschunterdrückungstool nämlich für so ziemlich alles herhalten, was den Mikrofoneingang nutzt, einschließlich Teams, Zoom, Skype, Teamspeak und natürlich auch Discord. Während sich das Tool noch in der Beta-Phase befindet, kann schon jetzt jeder Besitzer einer RTX-basierten Grafikkarte RTX Voice aktivieren und nutzen.



>>> Hier den kompletten Test lesen <<<

geht ja auch mit pascal wunderbar... wird über cuda cores gemacht und nicht wie NV behauptet über die tensor cores... wieder mal nur blabla bei NV :D
 
Vielleicht sollte einfach die finale Version abgewartet werden. Ich vermute, die Beta läuft nicht exklusiv auf RTX-Karten, um so all denen, die ne GTX besitzen, zu zeigen, was das Programm als Beta schon taugt. Das Endprodukt hingegen wird nur auf RTX-Karten nutzbar sein, überraschenderweise ausschließlich mittels der Tensorkerne.
 
Wie oft denn noch, da ist ein Fallback für CUDA drin. Noch.

GTX nehmen, RTX Voice installieren, im Idle mal die GPU-Auslastung und den Takt kontrollieren und dann mit der RTX vergleichen. Kein Hexenwerk.
 
Wie oft denn noch, da ist ein Fallback für CUDA drin. Noch.

GTX nehmen, RTX Voice installieren, im Idle mal die GPU-Auslastung und den Takt kontrollieren und dann mit der RTX vergleichen. Kein Hexenwerk.


wurd alles schon gemacht, der unterschied ist bei 1-3% ;)
 
Und spielt im Endeffekt auch keine Rolle, wenn das Tool dann nur noch die TCs nutzt. Raytracing ist auch per Cuda machbar, gab schon mit der GTX480 entsprechende Demos. Ist aber eben nicht das Gleiche.
 
@FfFCMAD

[...]

...das der Wechsel von 1080p 60Hz auf 4K 120 Hz grob überschlagen bei gleichbleibender Komplexität des Spiels die 8 fache Rechenleistung benötigt. Will man auf 4K auch mehr Details sehen, steigt auch noch die Polygon Zahl und die Texturgrößen, dann wäre man so beim Faktor 16 Rechenleistung und 16-24 GB VRam und das noch ohne RT.

[...]

Du meinst 4K und 120 fps ;-)

Die Polygone werden größer, da detaillierter bei 4K und nehmen mehr Speicherplatz ein, aber die Ausgabe bleibt noch immer 4K. Klar kann man mehr Texturen unterbringen, aber dafür gibts ja die Detailstufen und die wird man nicht, wie damals bei Crysis unendlich hochschrauben können. So was macht Arbeit ;-)
 
OK, auch aus dem Vergleichstest landet man hier? Auch gut...


@Igor : Also kann man am Schluss sagen: Wenn genug Spielraum an der Steckdose vorhanden ist, dann isses eh wurscht wer rechnet; oder?
 
hätte Nvidia die Versorgung entkoppeln und mit eigenen Spannungswandlern realisieren müssen, die man noch vor das Monitoring gepackt hätte. Oder man hätte zumindest per Firmware das Power Limit um den benötigten Wert angehoben.
Wollen wir hoffen dass Nvidia es bei der nächsten Serie berücksichtigt bzw. für die aktuelle RTX 2x00 evtl. doch noch ein Firmware Update kommt.
@Igor Wallossek
Wie stark würden die FPS noch ansteigen wenn du zwei RTX Grafikkarten im PC betreibst und die Last z.B. so verteilst dass sich die Titan RTX im Spiel um RT + DLSS kümmert während eine andere RTX 2x00 durch Zuweisung nur das RTX Voice Tool bedient ?
 
Das kann man leider nicht wie bei PhysX zuweisen. Die Titan hat genügend Tensor Cores. Das muss im Chip besser ausbalanciert werden
 
Erst einmal vielen Dank für das Update. Eine Frage: bei AMD Karten wird ja immer viel über undervolting diskutiert und auch hier schon präsentiert. Ich betreibe auch meine RTX stark undervoltet und erzeuge damit Spielraum bei der Leistungsaufnahme. Ich sehe eigentlich nie mehr als 95%, selbst bei Anwendung die RTX und DLSS nutzen. Die wären ja jetzt für Voice da. Könnte man das noch einmal anschauen? Ich kann auch gern selbst Erkenntnisse beisteuern, wenn das gewünscht ist.
 
@Igor Wallossek Wäre aber eine sinnvolle Option.

Man kann, unter Berücksichtigung der aktuellen Entwicklungen, von beiden nicht genug haben und bisher konnten die CUDA Core alle Tensor Funktionen ebenfalls umsetzen, nur nicht so effizient. Ich denke das in Zukunft die CUDA und Tensor Cores miteinander verschmelzen werden, vielleicht war das sogar der initiale Plan der aus unbekannten Gründen (z.B. zu niedrige Gesamtperformance; hohe Leistungsaufnahme; Größe der CUDA Cores) nicht funktioniert hat.
Durch die Auslagerung der Tensor Cores ist die Technologie nutzbar, Nvidia kann seine Investitionen wieder reinholen und es liegt keine entwickelte Software auf Eis.

Bzgl. des Ausbalancierens. Genau deswegen wäre es doch sinnvoll den Fallback beizubehalten um z.B. RTX Audio auf die CUDA Cores auszulagern wenn die Tensor Cores gerade durch eine andere Aufgabe ausgelastet werden und die CUDA Cores noch Luft haben.
 
Oben Unten