仮想聴空間における音像定位の学習効果と その定量的評価の試み∗ ◎大谷 真 1. まえがき 伊勢 史郎 (京大・工) バイノーラル再生による音場再 利用して提示される仮想聴空間内において,鳴き声 現において,ダミーヘッド等を用いたバイノーラル録 を手がかりに移動する犬を捕まえるというものであ 音や頭部伝達関数 (Head-Related Transfer Function り,操作はキーボードを用いて行われる.ユーザー : HRTF) と音源信号の合成によって得られる両耳信号 は一定の区画内を能動的に移動する事ができる.図 が利用される.いずれの場合でも,両耳信号には個人 1 にゲーム画面を示す.使用する HRTF は変更可能 差が含まれており,理想的には受聴者本人によるバイ であり,様々な HRTF を用いてゲームを行う事がで ノーラル録音や受聴者自身の HRTF(individualized きる.開発環境は Visual C# 及び Direct X である. HRTF) を用いる必要がある.しかし,現状では受聴 者各々に対してバイノーラル録音や HRTF の測定/ 算出を行うことは困難であり,HRTF の応用におい てはダミーヘッドも含めた受聴者以外の HRTF(non- individualized HRTF) が多く利用される.しかし, ヒトは物理的に有り得ない (supernormal な)HRTF に対しても訓練によって適応可能である事が報告さ れており [1],自分自身の HRTF ではないが,物理的 に破綻のない non-individualized HRTF に対しては, より適応が容易であると考えられる.また,HRTF の学習のし易さは使用される HRTF に依存すること が予想される.したがって,アプリケーションで使 図 1: Dog Chasing Game 画面 3. 異なる HRTF による達成時間の差 用される non-individualized HRTF を選定する際に 本研究はゲーム内におけるタスク達成時間を評価尺 は,その HRTF が複数の受聴者に対し当初から良好 度とした音像定位の学習効果の定量化を目的として な定位精度を与えるか否かだけではなく,それが複 いるが,本稿ではその検討を行う前にまず,異なる 数の受聴者が容易に学習できるものであるかどうか HRTF の使用によってタスク達成時間に差が生じる も重要な基準と成り得る.Ise は HRTF を仮想聴空 かどうかを確認するために予備的検討を行う.今回 間において用いられる学習可能な” 道具” として捉 の検討では,2 種類の non-individualized HRTF を え,仮想聴空間内における鬼ごっこの勝敗に着目し 使用し,両者の使用によるタスク達成時間の差異を て,HRTF が学習可能であることを示したが [2],本 調べるための実験を行った. 研究では,HRTF を用いた仮想聴空間内におけるタ スク達成までの時間を評価尺度とした,HRTF に対 3.1. 実験手順 実験では,境界要素法に基づ いて我々が開発した HRTF 計算システム [3] により する受聴者の学習のし易さの定量的な評価方法の確 算出された B&K4128C の HRTF と Direct X に含ま 立を試みる.本稿では,仮想聴覚空間を提示するゲー れる HRTF の 2 種類の HRTF を使用した.数値計算 ムの内容,そして,タスク達成時間を評価尺度とす による HRTF は距離 0.25m∼7.0m(0.25m 毎) 水平面 ることの妥当性を確認するための予備的検討の結果 内 72 方向 (5 度毎) の合計 2016 点に対して予め計算 について報告する. されたデータベースが使用された.犬の移動速度に 2. ゲーム仕様 我々が開発した Dog Chas- よる 3 段階の難易度を設定し,10 人の被験者に各パ ing Game について述べる.このゲームは,HRTF を ターンを 3 回ずつ合計 18 回ゲームを実行させ,犬を 捕まえるまでの経過時間の計測を行った.難易度は ∗ Learning effect of a sound localization in a virtual auditory space and approach to its quantitative evaluation , by M.Otani and S.Ise (Kyoto University) 犬の移動速度が遅い方,つまり難易度の低い方から 順に”Level 1”,” Level 2”,”Level 3” である.被験 図 2: 達成時間分布図 : 計算による HRTF 使用時 図 3: 達成時間分布図 : Direct X の HRTF 使用時 者が行うパターン順は,数値計算による HRTF Level れは,数値計算による HRTF の Level 1 のパターン 1 (3 回) → Level 2(3 回) → Level 3(3 回) → Direct が最初に行われ,被験者がゲームの操作自体に慣れ X HRTF Level 1(3 回) → Level 2(3 回) → Level 3(3 ていない状態であったために,タスク達成時間が長 回) である. 3.2. 結果 くなったものと考えられる.Direct X の HRTF のパ 図 2,3 にそれぞれ数値計算による ターンも含めて,その後のパターンに対しては,予 HRTF と Direct X に含まれる HRTF による全被験 想通り難易度が高くなるにつれてタスク達成時間の 者のタスク達成時間の分布図を示す.横軸はタスク 平均値と中央値の値も増加している.今後の実験で 達成時間,縦軸は頻度である.なお,タスク達成時間 は,ゲームの操作自体に慣れる過程を含める必要が が 200 秒以上の場合と 200 秒経過後に被験者自身の あると考えられる.また,HRTF の学習のし易さを 判断で捕まえるのをあきらめた場合は”Give up” と 定量化するためには,学習のための訓練過程につい して扱った.数値計算による HRTF を用いた場合に ても検討を行う必要がある. は,“Give up” としてカウントされる場合はなかった 4. 結び が,Direct X に含まれる HRTF を用いた場合は,い 見た HRTF の使い易さの定量的評価手法のツールと ずれの難易度においても,“Give up” としてカウン して,仮想聴空間内で被験者が能動的に動き回り犬 トされている場合があった.また,各図の右上には を捕まえるゲームを紹介した.実験の結果,異なる 各パターンにおける被験者全員のタスク達成時間の HRTF の使用により仮想空間内で犬を捕まえるまで 本稿では,学習可能な道具として 平均値と中央値を示している.これらの値から,数 の時間に差が生じる事が分かり,このゲームのタス 値計算による HRTF の方がタスク達成時間が短く, ク達成時間を用いて HRTF の使い易さを定量化でき 異なる HRTF の使用によって仮想聴空間内で犬を捕 る事を確認した.また,今回の条件においては,数 まえるというタスク達成時間に差が生じたことが分 値計算による HRTF [3] の方が Direct X に含まれる かる. HRTF よりも良好な成績を残した.今後は使い易さ 3.3. 考察 今回の検討では,被験者 10 人に対 の差だけでなく HRTF の学習のし易さも含めた定量 して 2 種類の HRTF が使用され,ほとんどの被験者 的評価手法を確立するために,実験方法,使用する に対して数値計算による HRTF の方が良い成績を残 HRTF,ゲーム仕様の検討を行っていく予定である. した.しかし,被験者を増やし,多くの HRTF を使 参考文献 [1] B.G. Shinn-Cunningham et al. “Adapting to supernomal auditory localization cues. I. Bias and 良い HRTF,別の被験者グループに対して成績の良 resolution”, J. Acoust. Soc. Am., 103(6), 3656い HRTF といったように,被験者及び HRTF の類型 3666, (1998) [2] S.Ise, “Study on an effect of the tacit knowing in 化を行える可能性がある. the sound image localization -Experimental study 今回の実験では,3 段階の難易度を設定しており, using acoustical VR system”, Proc. of Interna難易度が高くなるほどタスク達成時間は長くなると tional Symposium on Room Acoustics : Design and Science 2004, p. V03. (2004) 予想されたが,数値計算による HRTF を用いた場合 用することで,ある被験者グループに対して成績の に Level 2 の方が Level 1 よりもタスク達成時間の平 均値と中央値が小さな値になっており,タスク達成 時間は Leve 1 の方が長かった事が示されている.こ [3] M.Otani et al. “A fast calculation method of the head-related transfer functions for multiple source points based on the boundary element method”, Acoust. Sci. & Tech., 24(5), 259-266, (2003)
© Copyright 2024 Paperzz