このカテゴリでトップを走っているのはAmazon Echoだ。ちょうど先週、Amazon Echo Showという7インチディスプレイを搭載する新モデルが発表されされ、音声・ビデオ通話やビデオ再生のサポートが紹介された。搭載する人工知能Alexa向けのアプリ「Skill」は1万を超え、スマートホームのハブとして台風の目となっている。
しかし、両方試した筆者は、盛り上がるAmazon Echo・Alexa以上にGoogle Homeの方が評価が高い。Echoは確かにたくさんのアプリが揃っているが、それを追加しないと賢くなってくれない。これに対して最初から実用的なのがGoogle Homeだったからだ。
Google Homeに何か訪ねると、正しく言葉を認識してくれれば、あとはGoogle検索で得られる情報や知識を話してくれる。既に構築しているウェブ上の知識グラフが利用できる強みを最大限に生かした存在なのだ。
Google Homeは声で、これまで蓄積してきた知識グラフを利用するが、Google Lensは画像をきっかけに、この知識グラフを活用する。この元となるデータの有無が、フェイスブックやアマゾンよりもグーグルの優位を作り出しているのだ。
文字入力しない未来が訪れる?
グーグルの一連の発表から透けてくるキーワードは「実用性」だと感じた。Google LensもGoogleアシスタントも、「スマートフォンがある我々生活」を、様々な日常的場面で解決してくれている。このことは、フェイスブックが提案する「何か新しいことを実現するAR」以上に、インパクトと拡大・普及する力を備えている。
未来のスマートフォン体験を考える際に、我々はもう、画面の中のキーボードでタイピングしなくても良くなるかもしれない。前述のように、マイクによる音声認識とカメラによる画像認識の技術を磨いてる様子が、Google LensとGoogleアシスタントから透けて見えるからだ。
今日、AndroidスマートフォンやiPhoneで利用できる音声入力を試してみると、精度は既に実用レベルに達している。メッセージを送ったり、SNSに書き込むなど、自分が何か発信したい場合、キーボードを使わなくても対応できる。認識速度についても申し分ない。 そして今回のGoogle Lensは、声に続いて、文字入力以外の新たな入力方法の実現を披露した。しかもただ認識するだけでなく、人がやろうとしていることを先回りして提示したり、解決したりする「アクション」まで面倒を見てくれる点だ。
こうした技術的背景が実現した今こそ、グーグルが一度取り下げているメガネ型デバイス、Google Glassに価値が生じるのではないだろうか。ぜひ、Google Lensを実装するGoogle Glassを実現してほしいものだ。