News Software

Raytracing für die Ohren: Wenn der Schall durch den Voxelwald stolpert

Raytracing. Für die meisten bedeutet das bislang: hübsche Reflexionen in Pfützen, weiche Schatten, blendende Sonnenstrahlen – und ein GPU-Lüfter, der spontan auf Startbahnmodus umschaltet. Doch jetzt kommt’s dicke – diesmal für die Ohren. Der Entwickler Vercidium, bislang eher in der Nische heimisch, setzt auf ein Konzept, das klanglich dort ansetzt, wo viele Engines traditionell weghören: bei der realitätsnahen Simulation von Umgebungsgeräuschen. Der Arbeitstitel des Ganzen? Audio-Raytracing. Klingt spektakulär, ist es aber gar nicht. Zumindest nicht im Show-and-Shine-Sinne. Was hier angedacht ist, folgt schlicht der Logik, die auch optisches Raytracing so effektiv macht: Strahlen (in diesem Fall virtuelle Schallwellen) werden ausgesendet, interagieren mit der Umgebung, werden reflektiert, absorbiert, gedämpft oder durchdringen Materialien. Klingt erstmal nach Physikunterricht, ist aber tatsächlich ein brauchbarer Versuch, dem akustischen Wildwuchs in aktuellen Spielen eine gewisse Ordnung beizubringen.

Simulation statt Placebo: Akustik nach Geometrie

Im Gegensatz zu den üblichen, eher faulen Hall-Algorithmen – frei nach dem Motto „Ein Raum, ein Echo“ – berechnet Vercidiums System die Ausbreitung von Schall basierend auf der tatsächlichen Levelstruktur. Also: Geometrie, Materialeigenschaften, Hindernisse und Distanzen werden berücksichtigt. Wer in einer leeren Halle steht, bekommt ein entsprechend kaltes Echo serviert. Wer dieselbe Halle mit Kisten vollstellt, hört die Dämpfung. Das ist zwar keine Revolution, aber immerhin der Unterschied zwischen Nachhall und akustischer Täuschung. Für die Technikfreunde: Das Ganze basiert nicht auf polygonaler Geometrie, sondern auf einem voxelbasierten Raumgitter. Das ist weniger rechenintensiv und reicht für Schallausbreitung locker aus. Der Vorteil: Selbst ältere Systeme können damit arbeiten, weil der Prozess vollständig auf der CPU läuft – GPU-freundlich und ohne RTX-Zwang. Vercidium selbst spricht vom „Läuft-auch-auf-der-Raumstation“-Prinzip. Ironie inbegriffen.

Mehr als nur Lärm: Der Sound wird verständlich

  1. Interessant wird’s bei der Umsetzung. Vercidium definiert vier Schritte:
  2. Schallstrahlen werden kugelförmig vom Spielerstandpunkt ausgesendet.
  3. Diese prallen an Wänden, Böden, Decken und anderen Objekten ab – ähnlich wie in einer Echokammer mit System.
  4. Bei jeder Interaktion werden Parameter wie Distanz, Material und Reflexionswinkel gespeichert.

Die finale Klangkulisse entsteht aus der Summe dieser Informationen – inklusive Nachhall, Filtereffekte und Richtungsangaben.

Das Resultat: Ein Klangbild, das sich der Umgebung anpasst. Nicht bahnbrechend, aber immerhin konsequent. Besonders bei dynamischen Szenen – etwa bei Wettereffekten oder sich ändernder Raumbelegung – lässt sich der Unterschied hören. Wenn Regen durch ein offenes Fenster dringt, kommt er eben nicht mehr dumpf aus der Mitte, sondern exakt von dort, wo das Fenster offensteht. Wer’s über Kopfhörer spielt, merkt’s. Vielleicht.

Fürs Auge: Barrierefreiheit trifft Visualisierung

Source: Youtube

Einen durchaus nützlichen Nebeneffekt gibt’s für gehörlose Spieler: Das System erlaubt die Visualisierung von Schallquellen. Dabei werden akustische Ereignisse durch kleine, farbige Punkte dargestellt. Schüsse? Rot. Schritte? Grün. Lautstärke? Größe des Punktes. Alles live, direkt in der Spielumgebung. Was auf den ersten Blick nach Tech-Demo aussieht, könnte für viele Spieler tatsächlich ein Gewinn sein. Vorausgesetzt, die Implementierung erfolgt sinnvoll und nicht als grell blinkender Ballon-Zirkus.

Effizienz statt Eskalation: CPU statt Shader-Overkill

Leistungstechnisch bleibt das System bodenständig. Vercidium setzt auf Hintergrund-Threads, um die Hauptspiel-Performance möglichst nicht zu belasten. Die initiale Berechnung ist zwar aufwändig, aber danach reicht es, wenn pro Frame 32 Strahlen aktualisiert werden – genug für Änderungen in der Umgebung, ohne den Rechner zum Kochen zu bringen. Eine dedizierte Raytracing-GPU braucht es nicht. Kein DLSS, kein Frame Generation, kein Pathtracing – einfach nur ein ordentlich strukturierter CPU-Job, der nebenher läuft. Und genau da liegt vielleicht der größte Charme des Konzepts: Kein überbordender Technikwahn, sondern pragmatische Ergänzung.

Noch Alpha, aber mit Potenzial

Aktuell befindet sich das Plugin in einem sehr frühen Stadium. Getestet wird es auf Basis eigener Engine-Strukturen, eine Integration in Unreal Engine 5 und Godot ist geplant. Ob und wann es veröffentlich wird, steht in den Sternen – Vercidium hält sich diesbezüglich bedeckt. Ob sich Audio-Raytracing langfristig durchsetzen kann, hängt wohl weniger von der Technik als vom Willen der Entwicklerstudios ab. Denn realistischer Sound verkauft sich nicht auf Screenshots. Und was nicht glänzt, bekommt selten Budget. Dennoch: Wer’s ernst meint mit akustischer Immersion, findet hier einen möglichen Baustein. Kein Allheilmittel, aber ein Anfang.

Source: Youtube

Kommentar

Lade neue Kommentare

Baby-Death

Mitglied

20 Kommentare 11 Likes

Hoffentlich kommt das und wird von vielen Spielen unterstützt. Vielleicht sogar bei einigen älteren/alten Spielen durch Mods...

Antwort Gefällt mir

FfFCMAD

Urgestein

921 Kommentare 336 Likes

Auf diese Technik müsste eigentlich Creative die Hand drauf haben. Aureal Vortex bzw A3D hatte bereits Ende der 90er diesen Ansatz, wenn auch nicht Voxel-basierend. Das Konzept braucht nicht viel Rechenleistung an sich. Es muss aber vernünftig im Spiel implementiert werden. Und daran haperts. Für Sound Engines die was taugen interessiert sich seit Windows Vista kein Schwein mehr.

Antwort 3 Likes

R
Ralf

Neuling

4 Kommentare 0 Likes

Absolut... loved my Diamond MX300... Halflife war damit der Hammer. Aber nach Vista... Einheitsmatsch... den Dolby-Atmos jetzt versucht wieder aufzuhübschen <sigh...*>

Und "Das Böse..."? Chubbchubbs...?

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

2,481 Kommentare 1,627 Likes

Wie sehr ist die Software von der Anwesenheit mehrerer Mikrofone abhängig, oder geht alles (nur) virtuell und durch Echo Analyse?
Und, kann man die Software noch effektiver machen, indem man ihr die Bilder des Raumes füttert? Denn damit könnte man auch noch berücksichtigen, wie viele Personen sich dort aufhalten, welche Art Möbel wo stehen usw.

Antwort Gefällt mir

Corro Dedd

Urgestein

2,015 Kommentare 816 Likes

@eastcoast_pete Ich glaube, mit echten Räumen hat das Ganze nichts zu tun. Wie die anderen bereits schrieben, geht's hier um eine Audio Engine, die wie Creative damals Verzerrungen, Wiederhall und Co. von Objekten/Räumen/Wänden im Spiel in Echtzeit berechnen soll, damit man sich besser in die Spielwelt integriert fühlt.

Ich bin durchaus etwas gespannt, vor allem wie akkurat die Simulation werden soll. Wer schon mal in der halbkugelförmigen Kuppel einer Sternwarte war, weiß wie schräg Akustik werden kann :D Wenn das vernünftig simuliert wird, ist der Algorithmus gut.

Antwort 1 Like

Ghoster52

Urgestein

1,674 Kommentare 1,349 Likes

Ja, war zur damaligen Zeit nicht verkehrt. Ich mochte diese Creative-Soundeffekte (EAX).
Die Soundkarten mit EMU10K Chip (HW Beschleuniger) & später DK Treiber waren echt ein Fortschritt.

Antwort 1 Like

FfFCMAD

Urgestein

921 Kommentare 336 Likes

EAX ist nicht das Gleiche wie A3D.

Auch wenn EAX3/ 4 und 5, wenn richtig eingesetzt, dem Nahe kommen, war A3D in seiner zweiten Version überlegen. Bei EAX werden Räume mit Effekten versehen und es gibt ein paar Kompromisse in späteren Versionen in Richtung A3D, aber der hier im Artikel beschriebene Ansatz ist, wie A3D selbst, ein anderer.

Ich bin auch eher ein Fan von EAX, weil die Ortung dort besser/ direkter ist. A3D ist aber näher an der Realität

Antwort Gefällt mir

R
Rai

Veteran

106 Kommentare 39 Likes

Klingt interessant, EAX war jedenfalls eine sehr gute Sache. Fortschritt entsteht dort, wo man nicht hinschaut. auch hinhören sollte man.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung