Latest news Software

Ray tracing for the ears: When sound stumbles through the voxel forest

Ray tracing. For most people, this has so far meant pretty reflections in puddles, soft shadows, blinding rays of sunlight – and a GPU fan that spontaneously switches to runway mode. But now it’s getting thick – this time for the ears. The developer Vercidium, previously more at home in the niche market, is focusing on a concept that starts where many engines traditionally leave off: with the realistic simulation of ambient noise. The working title of the whole thing? Audio ray tracing. Sounds spectacular, but it’s not. At least not in the show-and-shine sense. What is being considered here simply follows the logic that makes optical ray tracing so effective: rays (in this case virtual sound waves) are emitted, interact with the environment, are reflected, absorbed, damped or penetrate materials. Sounds like a physics lesson at first, but is actually a useful attempt to bring some order to the acoustic proliferation in current games.

Simulation instead of placebo: acoustics by geometry

In contrast to the usual, rather lazy reverberation algorithms – based on the motto “one room, one echo” – Vercidium’s system calculates the propagation of sound based on the actual level structure. This means that geometry, material properties, obstacles and distances are all taken into account. If you stand in an empty hall, you get a correspondingly cold echo. If you fill the same hall with boxes, you will hear the attenuation. This may not be a revolution, but it is the difference between reverberation and acoustic illusion. For technology fans: the whole thing is not based on polygonal geometry, but on a voxel-based spatial grid. This is less computationally intensive and is easily sufficient for sound propagation. The advantage: even older systems can work with it because the process runs entirely on the CPU – GPU-friendly and without RTX constraints. Vercidium itself speaks of the “also runs on the space station” principle. Irony included.

More than just noise: the sound becomes intelligible

  1. The implementation is where it gets interesting. Vercidium defines four steps:
  2. Sound beams are emitted spherically from the player’s position.
  3. These bounce off walls, floors, ceilings and other objects – similar to an echo chamber with a system.
  4. Parameters such as distance, material and reflection angle are saved for each interaction.

The final soundscape is created from the sum of this information – including reverberation, filter effects and directional information.

The result: a sound that adapts to its surroundings. Not groundbreaking, but at least consistent. The difference can be heard particularly in dynamic scenes – such as weather effects or changing room occupancy. When rain pours through an open window, it no longer comes from the middle, but from exactly where the window is open. If you play it through headphones, you’ll notice it. Maybe.

For the eye: accessibility meets visualization

Source: Youtube

There is a very useful side effect for deaf players: the system allows the visualization of sound sources. Acoustic events are represented by small, colored dots. Gunshots? Red. Footsteps? Green. Volume? Size of the dot. Everything live, directly in the game environment. What looks like a tech demo at first glance could actually be a benefit for many players. Provided that it is implemented sensibly and not as a garishly flashing balloon circus.

Efficiency instead of escalation: CPU instead of shader overkill

In terms of performance, the system remains down-to-earth. Vercidium relies on background threads to minimize the load on the main game performance. Although the initial calculation is time-consuming, it is sufficient for 32 rays to be updated per frame – enough for changes in the environment without bringing the computer to the boil. A dedicated ray tracing GPU is not required. No DLSS, no frame generation, no patch tracing – just a properly structured CPU job that runs on the side. And this is perhaps the greatest charm of the concept: no excessive technical madness, but a pragmatic addition.

Still alpha, but with potential

The plugin is currently at a very early stage. It is being tested on the basis of our own engine structures, and integration into Unreal Engine 5 and Godot is planned. Whether and when it will be released is still up in the air – Vercidium is keeping a low profile in this regard. Whether audio ray tracing can establish itself in the long term probably depends less on the technology than on the will of the development studios. Because realistic sound doesn’t sell on screenshots. And what doesn’t shine rarely gets a budget. Nevertheless, anyone who is serious about acoustic immersion will find a possible building block here. Not a panacea, but a start.

Source: Youtube

Kommentar

Lade neue Kommentare

Baby-Death

Mitglied

20 Kommentare 11 Likes

Hoffentlich kommt das und wird von vielen Spielen unterstützt. Vielleicht sogar bei einigen älteren/alten Spielen durch Mods...

Antwort Gefällt mir

FfFCMAD

Urgestein

921 Kommentare 334 Likes

Auf diese Technik müsste eigentlich Creative die Hand drauf haben. Aureal Vortex bzw A3D hatte bereits Ende der 90er diesen Ansatz, wenn auch nicht Voxel-basierend. Das Konzept braucht nicht viel Rechenleistung an sich. Es muss aber vernünftig im Spiel implementiert werden. Und daran haperts. Für Sound Engines die was taugen interessiert sich seit Windows Vista kein Schwein mehr.

Antwort 3 Likes

R
Ralf

Neuling

4 Kommentare 0 Likes

Absolut... loved my Diamond MX300... Halflife war damit der Hammer. Aber nach Vista... Einheitsmatsch... den Dolby-Atmos jetzt versucht wieder aufzuhübschen <sigh...*>

Und "Das Böse..."? Chubbchubbs...?

Antwort Gefällt mir

e
eastcoast_pete

Urgestein

2,470 Kommentare 1,614 Likes

Wie sehr ist die Software von der Anwesenheit mehrerer Mikrofone abhängig, oder geht alles (nur) virtuell und durch Echo Analyse?
Und, kann man die Software noch effektiver machen, indem man ihr die Bilder des Raumes füttert? Denn damit könnte man auch noch berücksichtigen, wie viele Personen sich dort aufhalten, welche Art Möbel wo stehen usw.

Antwort Gefällt mir

Corro Dedd

Urgestein

2,015 Kommentare 816 Likes

@eastcoast_pete Ich glaube, mit echten Räumen hat das Ganze nichts zu tun. Wie die anderen bereits schrieben, geht's hier um eine Audio Engine, die wie Creative damals Verzerrungen, Wiederhall und Co. von Objekten/Räumen/Wänden im Spiel in Echtzeit berechnen soll, damit man sich besser in die Spielwelt integriert fühlt.

Ich bin durchaus etwas gespannt, vor allem wie akkurat die Simulation werden soll. Wer schon mal in der halbkugelförmigen Kuppel einer Sternwarte war, weiß wie schräg Akustik werden kann :D Wenn das vernünftig simuliert wird, ist der Algorithmus gut.

Antwort 1 Like

Ghoster52

Urgestein

1,672 Kommentare 1,348 Likes

Ja, war zur damaligen Zeit nicht verkehrt. Ich mochte diese Creative-Soundeffekte (EAX).
Die Soundkarten mit EMU10K Chip (HW Beschleuniger) & später DK Treiber waren echt ein Fortschritt.

Antwort 1 Like

FfFCMAD

Urgestein

921 Kommentare 334 Likes

EAX ist nicht das Gleiche wie A3D.

Auch wenn EAX3/ 4 und 5, wenn richtig eingesetzt, dem Nahe kommen, war A3D in seiner zweiten Version überlegen. Bei EAX werden Räume mit Effekten versehen und es gibt ein paar Kompromisse in späteren Versionen in Richtung A3D, aber der hier im Artikel beschriebene Ansatz ist, wie A3D selbst, ein anderer.

Ich bin auch eher ein Fan von EAX, weil die Ortung dort besser/ direkter ist. A3D ist aber näher an der Realität

Antwort Gefällt mir

R
Rai

Veteran

106 Kommentare 39 Likes

Klingt interessant, EAX war jedenfalls eine sehr gute Sache. Fortschritt entsteht dort, wo man nicht hinschaut. auch hinhören sollte man.

Antwort Gefällt mir

Danke für die Spende



Du fandest, der Beitrag war interessant und möchtest uns unterstützen? Klasse!

Hier erfährst Du, wie: Hier spenden.

Hier kannst Du per PayPal spenden.

About the author

Samir Bashir

Werbung

Werbung