HTC「VIVE Pro Eye」現地レビュー 視線追跡がビジネス分野にもたらす可能性を実感!【CES 2019】

LINEで送る
Pocket

HTCは米国時間の1月7日、8日から米国ラスベガスにて開催している家電見本市「CES 2019」に合わせて、視線追跡(アイトラッキング)に対応した「VIVE Pro Eye」とプレミアムPC VRをうたう「VIVE Cosmos」という2つの新しいVRゴーグルを発表した(関連ニュース)。注目度が高いのは新ジャンルであるVIVE Cosmosのほうだが、記者発表会の会場ではVIVE Pro Eyeのみをデモしていた。この視線追跡について体験レポートしていこう。

 

IPDをリアルタイム調節できるのが便利

VIVE Proは、VIVEの上位版としてエンタープライズやビジネス、プロシューマーのユーザーに向けて2018年のCESで発表した製品だ(関連記事)。その発表から1年経ち、視線追従という新たな要素を加えたのがVIVE Pro Eyeというバリエーションになる。

 

視線追跡は、ユーザーの目の動きを取得して、画面のどこを見ているかを調べたり、目でコンピューターを操作したりといった用途に使える技術になる。詳しい仕組みは、本技術で有名なTobii富士通研究所のページにまとまっているのでそちらを見て欲しい。

ここ数年のVRムーブメントにおいても、視線追跡は度々話題に上がっていた。2014年起業の当初から視線追跡を売りにしているVRゴーグル「FOVE」では、視線で照準を合わせるゲームソードアート・オンラインのアスナと視線で自然にコミュニケーションできるホーム空間などがリリースされてきた。ほかにもOculusGoogleが特許を米国で申請したり、Acer傘下のStarVR OneがTobiiの技術を採用したりと、度々話題に上がっており、HTC VIVEにおいてもTobiiが視線追求を追加する「Tobii Pro VR Integration」を提供していた。
 

 
という前知識を踏まえて、今回会場で体験したVIVE Pro Eyeのデモは以下の4種だ。

・フライトシミュレーター「Prepar3D: Lockheed Martin
・車をバーチャル試乗できる「BMW’s M Virtual Experience
・ホームランダービーゲームの「MLB Home Run Derby VR
・バーチャル空間でのミーティングアプリ「VIVE Sync

 
まず印象的だったのが、かぶった直後の瞳孔間距離(IPD)調整とキャリブレーションだった。

当たり前の話だが人間の顔は千差万別で、右目・左目の間隔もバラバラだ。そうした個人差を吸収するために、VRゴーグルはIPDを調整する機構を備えているものも多く、VIVEシリーズもゴーグル右下にあるつまみを回して、左右のレンズを物理的に動かせる。なおIPDを調節しないままVRコンテンツを体験すると、見え方が普段と異なって気持ち悪くなったり、空間のスケール感が変わる問題が起こってしまう。

このIPDは、VIVEにおいてリアルの物差しを眉毛に当てて調べるように案内していたが、視線追跡を利用できるVIVE Pro Eyeなら、ゴーグルを被った直後に瞳孔の位置を計測して、瞳を表す「●」がレンズを表す「○」からどれくらいずれているのかをリアルタイムで表示してくれる。ユーザーはつまみを回し、瞳の「●」をレンズの「○」の中央にくるように合わせるだけで、直感的にIPDが調整できるというわけだ。

展示会などで不特定多数にVRコンテンツを体験してもらう場合、いちいちIPDについて説明して調節してもらうのはかなり面倒で、そのままかぶってもらうケースも多いはず。VIVE Pro Eyeなら「外側の『○』の中央に内側の『●』が合うようにつまみを回してください」と言えば済んで、正しい見え方でコンテンツを体験してもらえる。これは素直に大きなメリットだろう。

このIPD調節のあとに、四隅に表示される青い点を見つめるというキャリブレーションも行ない、ユーザーが見ている正しい位置を計測できるようになる。実は筆者は目が細く、さらにまつ毛も割と長めなので、過去、モノによっては目のキャリブレーションがうまくいかないこともあったが、VIVE Pro Eyeではまったくトラブルなく実行できた。ちなみに、この一連の操作はVIVE内のみの表示で、外部モニターに出力されないため、写真が撮れなかった。

 

熟練者の目の動きを体で学習

視線追従の使い方で最も印象的だったのが、戦闘機の操作手順を慣れで覚えられるフライトシミュレーターのPrepar3Dだった。

戦闘機はゲームのように乗り込んでいきなり発進できるわけではなく、コックピットにあるスイッチや計器類を確認しながら順番にオンにしていく必要がある。とはいえ、操作しなければならない部分も非常に多いので、知識のない人にとってマニュアルを交互に見ながら動かしたり、口頭で指示されたとしてもすぐに習熟しにくい。

そこでVIVE Pro EyeとPrepar3Dを使うことで、今操作すべきところをVR内のコックピットで○や□で囲んでくれて、体験者の目線がきちんと合うと次の場所を教えてくれる……と、一連の体の動きで覚えられるのがメリットだ。

 

こんな感じで青い丸に緑の目線を合わせると……。

 

OK。

 

指示に合わせて……。

 

次々とスイッチに目を合わせていく。

似たようなソリューションとして、筆者は以前体験したマイクロソフトのARゴーグル「HoloLens」向けの訓練アプリを思い出した(関連記事)。こちらは空間を指で正しくタップすることで次の場所を表示していたが、VIVE Pro Eyeでは目線で代替することになる。

実際にVRのコックピットに座って体験してみると、まずスイッチの多さに戸惑ってしまったが、ヘッドホンから流れる声の指示に従い左右を見て、次々と目でオンにして無事に大空に飛び立つことができた。例えば工場の機械操作や医療の手術など、視線追従を活用した「慣れで習熟」系はVR/ARでやったほうが手っ取り早いので、今後、事例が増えていきそうだ。

 

どこを見つめたかを視覚化できる

車に試乗するBMW’s M Virtual Experienceでは、フォービエイテッドレンダリング(中心窩レンダリング)と視線のヒートマップを体験できた。

フォービエイテッドレンダリングとは、ユーザーが見ている視野の中心は高画質に、それ以外は画質を落として描画することで高画質と処理負荷の軽減を両立するという手法だ。

そもそもPC向けVRゴーグルの映像は、スムーズに表示されて実在感を損なわず、VR酔いも起こりにくいように、90fps(毎秒90フレーム)という一般的な30fpsのディスプレーに比べて高いフレームレートで描画している。そのため、もともとゲーミングPCのようなグラフィックの性能の高いPCが必要になるが、さらにバーチャル世界のリアルさを高めようとグラフィックに凝ると、複雑な計算のために輪をかけてGPUパワーが必要になる。

そこでVIVE Pro Eyeのように視線追跡が可能なVRゴーグルなら、フォービエイテッドレンダリングを活用して、実際に注視しているところのみをリアルタイムで検出して高画質にし、それ以外を落とすという処理を活用できる。さらにBMW’s M Virtual Experienceを開発したZeroLightのプレスリリースによれば、NVIDIAのVR向けライブラリー「VRWorks」に含まれる「Variable Rate Shading」(VRS、変動レートシェーディング)という技術を活用しているとのこと。

 

デモでは、このフォービエイテッドレンダリングの効果がわかりやすいように、画面を左右に半分に割って高画質とそうでないものを一度に見られるようになっていた。どれくらいCPU負荷が軽減されているかは確認できなかったが、例えば車や不動産などの高級品をきれいに見せてVRで体験してもらう用途ではニーズが高そうだ。

 

このBMW’s M Virtual Experienceのデモ自体がまさに体験価値マーケティング(experiential marketing)に利用するもので、実際にユーザーが車の色やホイールなどを好みのものに変えたり、トランクを開けてヘルメットを取り出して閉めたり、車に乗り込んで運転席の見え方を確認してハンドルなどを動かしたりして高級車の良さを実感してもらえる。

 

ブースにあるのは車のシートだけなのがちょっとシュール。VR体験のシナリオ中、バーチャルのドアを空けて座るときちんとシートがある。

 

もうひとつの視線のヒートマップは、ユーザーが見ていた場所の時間を視覚化してくれる要素になる。例えば、車などで操作パネルのどこをユーザーが見ていたのか確認したり、バーチャルの店頭にずらりとCGの商品を並べてどの商品に目を奪われたのかを調査して、商品デザインの良し悪しを数値で判断できるようになるわけだ。それがVIVEという、ある程度ビジネス向けの開発者が付いているVRゴーグルでできるようになったことは、将来的に多くのビジネスを生むきっかけになりそうだ。

 

体験した人々がどこを見つめていた時間が長かったか。

 

また、どんな色を選んだかなどの統計データを、操作を行うiPadで確認できる。

 

3つ目のMLB Home Run Derby VRは、ホームランダービーのゲームで、バーチャル空間に浮くスタートボタンをしばらく見つめると押せるというのが視線追跡要素になる。このゲームは先端にVIVEトラッカーがついたバットを使って遊ぶのだが、VIVEトラッカーにはコントローラーのようなボタンが用意されていないため、視線で押せるのが重要になってくる。これもロケーションVRで常駐スタッフを減らすのに貢献してくれそうだ。

 

ゲーム自体はバットを振るだけ。

 

ホムーラン! 楽しい!

 

最後のVIVE Syncは、アバターを選んでバーチャル空間に2人でログインし、資料を巨大スクリーンに表示してプレゼンしてもらったり、3Dモデルを目の前に出して空間に文字を書き込んで解説するといったミーティングを行える。

 

視線追跡を活用しているのはアバターの目線で、実際に相手がどこを見て話しているのかが見るだけでわかる。今までのソーシャルVRなどでは、アバターの頭部が向いている方向や話し相手の位置に合わせて目線を動かしたり、そもそも目を隠していたが、VIVE Pro Eyeなら話者の実際の目線を取れるわけだ。

実際、VIVE Syncで横並びでプレゼンしてもらっている最中に、隣を見たら顔の目線だけこちらを向いていたときに今までにない感覚を覚えてドキっとした。目を合わせて話したり、外したりと、視線は対話において強い意味をもつわけで、会議システムやソーシャルVRなどで表現の幅を広げてくれそうだ(一方、VR会議中に別のところを見ていたり、女性アバターの胸をじっと見るなどのVRセクハラも暴かれそうだが)。

 
 
というわけで、デモについてざっと解説してきた。VIVE Pro Eyeは、VIVE Proに視線追跡が加わっただけなので、同時に発表した新ジャンルであるVIVE Cosmosより見逃されがちだが、実際のデモを体験すると、両手のコントローラー以外にユーザーの意思をコンピューターや他のユーザーに伝えられる「3本目の手」が加わったようなインパクトを受けた。

価格は発表されていないものの、ぜひビジネス向けのVRソリューションを開発している方々は2019年第2四半期(4~6月)の発売を注目しておこう。

 
 
(TEXT by Minoru Hirota

 
 
●関連リンク
VIVE

LINEで送る
Pocket

のじゃロリLINE公式スタンプにじさんじLINE公式スタンプ猫宮ひなたLINE公式スタンプにじさんじ2期生LINE公式スタンプときのそらLINE公式スタンプ
        
バーチャルYouTuber
のじゃロリLINE公式スタンプ
にじさんじLINE公式スタンプ
猫宮ひなたLINE公式スタンプ