TASCAR – Toolbox for Acoustic Scene Creation and Rendering
TASCAR (Toolbox for Acoustic Scene Creation and Rendering) ist ein Forschungs-Toolkit zum Rendern virtueller akustischer Umgebungen. TASCAR wird in Zusammenarbeit mit der Universität Oldenburg entwickelt. Es ist die zentrale Rendering-Software für das Gesture Lab und das 3D Virtual Reality Lab bei UOL. HTCH und UOL arbeiten eng in den Bereichen Virtual Reality Reproduktion und Verhaltensinteraktion zusammen.
Alle Infos finden Sie auf der weiterführenden Seite http://tascar.org/
Informationen zur Installation finden Sie hier: install.tascar.org
Schauen Sie sich auf jeden Fall auch die interaktiven Beispiele an: https://www.youtube.com/channel/UCAXZPzxbOJM9CM0IBfgvoNg
CAR steht unter der GNU GPL v2 zur Verfügung.
- Grimm, Giso; Luberadzka, Joanna; Hohmann, Volker. A Toolbox for Rendering Virtual Acoustic Environments in the Context of Audiology.Acta Acustica united with Acustica, Volume 105, Number 3, May/June 2019, pp. 566-578(13), doi:10.3813/AAA.919337
- G. Grimm, J. Luberadzka, T. Herzke, and V. Hohmann. Toolbox for acoustic scene creation and rendering (tascar): Render methods and research applications. In F. Neumann, editor, Proceedings of the Linux Audio Conference, Mainz, Germany, 2015. Johannes-Gutenberg Universitat Mainz.
- G. Grimm, B. Kollmeier, and V. Hohmann. Spatial acoustic scenarios in multi-channel loudspeaker systems for hearing aid evaluation. Journal of the American Academy of Audiology, 27(7):557–566, 2016.
- G. Grimm, J. Luberadzka, and V. Hohmann. Virtual acoustic environments for comprehensive evaluation of model based hearing devices. International Journal of Audiology, 2016.
Bewegungsschallquellen werden physikalisch korrekt simuliert; Luftabsorption und Dopplereffekt werden berücksichtigt. Ein Spiegelschallquellenmodell mit einfachen Reflexionsparametern ermöglicht statische und dynamische bewegliche Reflektoren. Die Simulation findet in Echtzeit im Zeitbereich statt und ermöglicht so eine interaktive Positionierung von Objekten, z.B. die Steuerung der Hörerposition über Body Motion Tracker. Das Ausgangssignal kann in Higher-Order Ambisonics (HOA), Vector-Base Amplitude Panning (VBAP) oder binaural über Kopfhörer wiedergegeben werden. Für die binaurale Ausgabe können generische oder individuelle HRTFs verwendet werden.
Eine Schnittstelle zur Synchronisation mit Videoquellen oder interaktiven Computergrafiken ist über Open Sound Control (OSC) verfügbar. Im Prinzip gibt es Möglichkeiten, sich mit der Blender Game Engine oder der Unreal Game Engine zu verbinden.