第108回「VRと立体音響」

2020年10月23日 投稿者:杉本 雅彦

 近年、「VR」に関する記事やニュースを目にする機会が増えています。VRとは「Virtual Reality」の略で、「人工現実感」や「仮想現実」と訳されていますが、VRの特徴は名前の通り、「目の前にある現実とは違う現実を体験できる」ことです。VRの具体的な例として、視覚情報による「立体眼鏡」が挙げられます。この立体眼鏡をかけると、今まで見ていた景色とはまったく異なる光景が目の前に広がります。

 一方、VRにおいて聴覚情報は視覚、触覚や嗅覚などと並んで重要な感覚モダリティです。聴覚に関するVR には、3次元音響または3Dオーディオとも呼ばれる立体音響が使用され、音の方向や距離感まで感じられるように再生する音響システムがあります。立体音響の例としては、VR空間にさまざまなオブジェクトが出現して、オブジェクトに触れたり、掴んだり、自由に動かすことができる「さわれる音」のイメージがあります。

 また、古くから立体音響を福祉に活用するものとして、視覚障がい者に仮名文字や簡単な図形を認知させるため聴覚の音像定位機能を利用した試みがあります。従来、文字や図形を音響刺激に変換する方法は種々考案されていますが、信州大学の伊東一典・米沢義道の研究では、両耳ヘッドホンを介して左右音像の位置と音の高低で認知させるものです。この方式は音像定位を応用し、聴覚空間に画像を表示するための点音像の合成要素とその定位精度について検討されています。聴覚空間を左右感(X成分)、上下感(Y成分)、遠近感(Z成分)の3感覚に分けて、それぞれの成分について感覚量と定位精度の関係を調べています。

 伊東らの研究では、聴覚に画像表示を行うために考えられる種々の表示面について、点および線などの表示を試みながら2次元的な認識特性の検討が行われた結果、9×9画素の表示面を左右感(X成分)および上下感(Y成分)で構成するのが好ましいことが示されています。なお、X成分の表示要素はレベル差および時間差の両者を適用できることが見出されています。さらに、この表示面を用いて、線分、図形、文字などの種々の画像の伝達特性が検討され、晴眼者および視覚障がい者についての諸実験から、画像の画素数が30個程度であれば約1秒で良好な画像表示が行われることを示されています。

  今後、このような音をインタフェースとした聴覚ディスプレイなどが開発されることに期待したいです。

 

杉本 雅彦(SUGIMOTO Masahiko)

プロフィール

専門: ヒューマンインタフェース

略歴: 信州大学大学院工学研究科博士後期課程単位取得退学。博士(工学)。NICT委託研究/ 革新的な三次元映像による超臨場感コミュニケーション技術の研究開発に従事。