Raytracing. Für die meisten bedeutet das bislang: hübsche Reflexionen in Pfützen, weiche Schatten, blendende Sonnenstrahlen – und ein GPU-Lüfter, der spontan auf Startbahnmodus umschaltet. Doch jetzt kommt’s dicke – diesmal für die Ohren. Der Entwickler Vercidium, bislang eher in der Nische heimisch, setzt auf ein Konzept, das klanglich dort ansetzt, wo viele Engines traditionell weghören: bei der realitätsnahen Simulation von Umgebungsgeräuschen. Der Arbeitstitel des Ganzen? Audio-Raytracing. Klingt spektakulär, ist es aber gar nicht. Zumindest nicht im Show-and-Shine-Sinne. Was hier angedacht ist, folgt schlicht der Logik, die auch optisches Raytracing so effektiv macht: Strahlen (in diesem Fall virtuelle Schallwellen) werden ausgesendet, interagieren mit der Umgebung, werden reflektiert, absorbiert, gedämpft oder durchdringen Materialien. Klingt erstmal nach Physikunterricht, ist aber tatsächlich ein brauchbarer Versuch, dem akustischen Wildwuchs in aktuellen Spielen eine gewisse Ordnung beizubringen.
Simulation statt Placebo: Akustik nach Geometrie
Im Gegensatz zu den üblichen, eher faulen Hall-Algorithmen – frei nach dem Motto „Ein Raum, ein Echo“ – berechnet Vercidiums System die Ausbreitung von Schall basierend auf der tatsächlichen Levelstruktur. Also: Geometrie, Materialeigenschaften, Hindernisse und Distanzen werden berücksichtigt. Wer in einer leeren Halle steht, bekommt ein entsprechend kaltes Echo serviert. Wer dieselbe Halle mit Kisten vollstellt, hört die Dämpfung. Das ist zwar keine Revolution, aber immerhin der Unterschied zwischen Nachhall und akustischer Täuschung. Für die Technikfreunde: Das Ganze basiert nicht auf polygonaler Geometrie, sondern auf einem voxelbasierten Raumgitter. Das ist weniger rechenintensiv und reicht für Schallausbreitung locker aus. Der Vorteil: Selbst ältere Systeme können damit arbeiten, weil der Prozess vollständig auf der CPU läuft – GPU-freundlich und ohne RTX-Zwang. Vercidium selbst spricht vom „Läuft-auch-auf-der-Raumstation“-Prinzip. Ironie inbegriffen.
Mehr als nur Lärm: Der Sound wird verständlich
- Interessant wird’s bei der Umsetzung. Vercidium definiert vier Schritte:
- Schallstrahlen werden kugelförmig vom Spielerstandpunkt ausgesendet.
- Diese prallen an Wänden, Böden, Decken und anderen Objekten ab – ähnlich wie in einer Echokammer mit System.
- Bei jeder Interaktion werden Parameter wie Distanz, Material und Reflexionswinkel gespeichert.
Die finale Klangkulisse entsteht aus der Summe dieser Informationen – inklusive Nachhall, Filtereffekte und Richtungsangaben.
Das Resultat: Ein Klangbild, das sich der Umgebung anpasst. Nicht bahnbrechend, aber immerhin konsequent. Besonders bei dynamischen Szenen – etwa bei Wettereffekten oder sich ändernder Raumbelegung – lässt sich der Unterschied hören. Wenn Regen durch ein offenes Fenster dringt, kommt er eben nicht mehr dumpf aus der Mitte, sondern exakt von dort, wo das Fenster offensteht. Wer’s über Kopfhörer spielt, merkt’s. Vielleicht.
Fürs Auge: Barrierefreiheit trifft Visualisierung

Einen durchaus nützlichen Nebeneffekt gibt’s für gehörlose Spieler: Das System erlaubt die Visualisierung von Schallquellen. Dabei werden akustische Ereignisse durch kleine, farbige Punkte dargestellt. Schüsse? Rot. Schritte? Grün. Lautstärke? Größe des Punktes. Alles live, direkt in der Spielumgebung. Was auf den ersten Blick nach Tech-Demo aussieht, könnte für viele Spieler tatsächlich ein Gewinn sein. Vorausgesetzt, die Implementierung erfolgt sinnvoll und nicht als grell blinkender Ballon-Zirkus.
Effizienz statt Eskalation: CPU statt Shader-Overkill
Leistungstechnisch bleibt das System bodenständig. Vercidium setzt auf Hintergrund-Threads, um die Hauptspiel-Performance möglichst nicht zu belasten. Die initiale Berechnung ist zwar aufwändig, aber danach reicht es, wenn pro Frame 32 Strahlen aktualisiert werden – genug für Änderungen in der Umgebung, ohne den Rechner zum Kochen zu bringen. Eine dedizierte Raytracing-GPU braucht es nicht. Kein DLSS, kein Frame Generation, kein Pathtracing – einfach nur ein ordentlich strukturierter CPU-Job, der nebenher läuft. Und genau da liegt vielleicht der größte Charme des Konzepts: Kein überbordender Technikwahn, sondern pragmatische Ergänzung.
Noch Alpha, aber mit Potenzial
Aktuell befindet sich das Plugin in einem sehr frühen Stadium. Getestet wird es auf Basis eigener Engine-Strukturen, eine Integration in Unreal Engine 5 und Godot ist geplant. Ob und wann es veröffentlich wird, steht in den Sternen – Vercidium hält sich diesbezüglich bedeckt. Ob sich Audio-Raytracing langfristig durchsetzen kann, hängt wohl weniger von der Technik als vom Willen der Entwicklerstudios ab. Denn realistischer Sound verkauft sich nicht auf Screenshots. Und was nicht glänzt, bekommt selten Budget. Dennoch: Wer’s ernst meint mit akustischer Immersion, findet hier einen möglichen Baustein. Kein Allheilmittel, aber ein Anfang.
Source: Youtube
8 Antworten
Kommentar
Lade neue Kommentare
Mitglied
Urgestein
Neuling
Urgestein
Urgestein
Urgestein
Urgestein
Veteran
Alle Kommentare lesen unter igor´sLAB Community →