GET AR

世界を変えるARニュースメディア

Eyefluence、視線トラッキング技術を使用した新しいアイ・インタラクションモデルを開発中

 2821

白黒の人間の瞳と左下にスマートグラスを付けている人の顔の写真

VR/ARヘッドマウントディスプレイ対応の、視線トラッキング技術を開発する米国企業Eyefluenceは2016年某月、VRとARのアプリケーションで使うアイ・インタラクション用の新モデルのデモ製品を開発した。焦点を維持する、あるいはパチパチとウィンクして対象物を選択する通常のアイ・インタラクションプログラムを使用するよりも、Eyefluenceは個々のアクションを自然な目の動きで起動する選択システムで起動する、より快適な方法を開発。まだ生まれたばかりの視覚言語の初期バージョンで、開発と定義の設定途中である。

TechCrunch Disruptでデモ版のプロトタイプを紹介

先週行われたTechCrunch Disrupt(年2回サンフランシスコとニューヨークで行う新興企業や勢いのある技術系企業のためのイベント)でEyefluenceのCEO兼創設者のJim Marggraff(ジム・マーグラフ)と話す機会があったが、アイ・インタラクションモデルの長所と短所について、そしてデモ版のプロトタイプであったアプリケーションの一部について話し合っていた。

Eyefluenceの理念は、目が思い通りの行動を取れるようにすること。そして、ジムはこのシステムを長時間使用しても目の疲労にはつながらないと主張。ほとんどの未来のVRおよびARインタラクションは手、頭、目、そして声を使った多様な組み合わせなるだろうとは認めるものの、Eyefluenceは目だけを使って可能なことの限界を下げたいと考えている。

アイ・インタラクションの可能性は?

このデモを見た後、VRとARの3Dユーザーインターフェースでアイ・インタラクションを使用する余地があると確信するにいたった。目はそれだけですばらしいことを働きをするが、ほとんどの人が自分の目を使うだけで満足するとは思わない。モバイルVRやARアプリで使われている一部のアプリケーションでは、Eyefluenceのアイ・インタラクションは第1次の、あるいは単独のインタラクションメカニズムとしても十分機能することが理解できた。しかし、アイ・インタラクションは選択する、タスクをサポートし促進するために利用される可能性が非常に高い。その一方で、没入型アプリケーションのモーションコントローラの物理的ボタンや音声入力を使用することもある。


アメリカで6月に開催されたAugmented World Expo 2016でジムのプレゼンテーション時のデモ縮尺版の動画

まとめ

目と頭の動きだけで簡単な作業ができることは、夢のような話だ。アイ・インタラクションの技術が確立され、製品が普及すれば、それは特に四肢に障害を持つ人には朗報だろう。これからEyefluenceがどのようにこの技術を完成させていくか、楽しみである。

引用元
Developing a New Eye Interaction Model with Eyefluence

ARニュース
,