Der Eintrag "offcanvas-col1" existiert leider nicht.

Der Eintrag "offcanvas-col2" existiert leider nicht.

Der Eintrag "offcanvas-col3" existiert leider nicht.

Der Eintrag "offcanvas-col4" existiert leider nicht.

de
Have any Questions? +01 123 444 555

TASCAR – Toolbox for Acoustic Scene Creation and Rendering

TASCAR (Toolbox for Acoustic Scene Creation and Rendering) ist ein Forschungs-Toolkit zum Rendern virtueller akustischer Umgebungen. TASCAR wird in Zusammenarbeit mit der Universität Oldenburg entwickelt. Es ist die zentrale Rendering-Software für das Gesture Lab und das 3D Virtual Reality Lab bei UOL. HTCH und UOL arbeiten eng in den Bereichen Virtual Reality Reproduktion und Verhaltensinteraktion zusammen.

Alle Infos finden Sie auf der weiterführenden Seite http://tascar.org/

Informationen zur Installation finden Sie hier: install.tascar.org

Schauen Sie sich auf jeden Fall auch die interaktiven Beispiele an: https://www.youtube.com/channel/UCAXZPzxbOJM9CM0IBfgvoNg

CAR steht unter der GNU GPL v2 zur Verfügung.

Literatur
  • Grimm, Giso; Luberadzka, Joanna; Hohmann, Volker. A Toolbox for Rendering Virtual Acoustic Environments in the Context of Audiology.Acta Acustica united with Acustica, Volume 105, Number 3, May/June 2019, pp. 566-578(13), doi:10.3813/AAA.919337
  • G. Grimm, J. Luberadzka, T. Herzke, and V. Hohmann. Toolbox for acoustic scene creation and rendering (tascar): Render methods and research applications. In F. Neumann, editor, Proceedings of the Linux Audio Conference, Mainz, Germany, 2015. Johannes-Gutenberg Universitat Mainz.
  • G. Grimm, B. Kollmeier, and V. Hohmann. Spatial acoustic scenarios in multi-channel loudspeaker systems for hearing aid evaluation. Journal of the American Academy of Audiology, 27(7):557–566, 2016.
  • G. Grimm, J. Luberadzka, and V. Hohmann. Virtual acoustic environments for comprehensive evaluation of model based hearing devices. International Journal of Audiology, 2016.
Technologie

Bewegungsschallquellen werden physikalisch korrekt simuliert; Luftabsorption und Dopplereffekt werden berücksichtigt. Ein Spiegelschallquellenmodell mit einfachen Reflexionsparametern ermöglicht statische und dynamische bewegliche Reflektoren. Die Simulation findet in Echtzeit im Zeitbereich statt und ermöglicht so eine interaktive Positionierung von Objekten, z.B. die Steuerung der Hörerposition über Body Motion Tracker. Das Ausgangssignal kann in Higher-Order Ambisonics (HOA), Vector-Base Amplitude Panning (VBAP) oder binaural über Kopfhörer wiedergegeben werden. Für die binaurale Ausgabe können generische oder individuelle HRTFs verwendet werden.
Eine Schnittstelle zur Synchronisation mit Videoquellen oder interaktiven Computergrafiken ist über Open Sound Control (OSC) verfügbar. Im Prinzip gibt es Möglichkeiten, sich mit der Blender Game Engine oder der Unreal Game Engine zu verbinden.

Nicht das Richtige gefunden?

Unser komplettes Angebot

Gerne helfen wir auch persönlich!

© Hörzentrum Oldenburg gGmbH – 2021

Einstellungen gespeichert

Datenschutzeinstellungen

Wir (Hörzentrum Oldenburg gGmbH) und unsere Partner nutzen Cookies, um unsere Webseite für Sie optimal zu gestalten und fortlaufend zu verbessern. Bitte willigen Sie in die Verwendung von Cookies ein, wie in unserem Cookie Hinweis beschrieben, indem Sie auf „Alle akzeptieren“ klicken, um die bestmögliche Nutzererfahrung auf unseren Webseiten zu haben.