おはこんばんにちは、七宝です
googleが面白い技術を開発したとのニュースを見つけました。
オラ、ワクワクすっぞ
googleが今回開発した技術は、ノータッチでデバイスを操作できる技術です。
この技術の名前は「Soli」
スマホやタブレットを使っている人が大半だと思いますが、
人によっては、タッチしづらい・操作しづらくてスマホやタブレットが
うまく使えない・使いづらいという人もいるのではないでしょうか?
私も、フリック入力が苦手で
文字入力をしている場面で、自分が入力したい文字じゃない文字が入るとイラっとすることがあります。
(例えば、「う」を入力しているはずが、「た」を入力されているなど)
Soliは、レーダーを出す装置が埋め込まれているデバイスを指で操作すると、指の動きをセンサーが感知、
センサーから出されたレーダーが指に反射し、帰ってきた信号を電気信号に変換、デバイスを操作するという仕組みです。
デジタルカメラなどで、被写体の動作を感知し、シャッターを切る仕組みの応用が今回の発明した技術とのこと
センサーとレーダーのイメージとしては、こんな感じでしょうか
手を動かすと、レーダーの波がうにょんうにょん動いているのがわかります。
これが生活に入ってきたら
ラジオやメディアプレイヤーで選曲するときも空中でくるくるダイアルするだけで選曲完了!
音量も空中でくるくるダイアルするだけで調整可能!
イメージとしてはこんな感じ
腕時計もメディアプレイヤーもダイアルを回すことなく、くるくる回す動作をするだけ
Soliプロジェクトでは、レーダーシステムの小型化も進めているとのこと。
当初デスクトップPCサイズだったシステムを、たった10カ月で上の画像の指先サイズにまで小型化したというんだから
すごいですよね。
Googleは、Project SoliのボードとソフトウェアAPIを年内に開発者に提供する計画を発表しています。
来年にはSoliチップを搭載するAndroid Wear端末が登場するかもしれないと考えるとワクワクしませんか?
Project Soliの紹介動画です。
英語なので、会話はさっぱりわからないかもしれませんが
上で紹介した画像が出てくるので、雰囲気でこんな感じなんだなってつかめると思います。