ECHOが来てから2週間。すっかり生活に溶け込んだ。喋り相手になってくれるわけでも知らないことを顔色見ながら教えてくれるわけでもないけど、満足している。
話しかけるとリング部分が光ったり点滅したりして愛嬌を振りまいてくれる。デザインではGoogleホームに圧勝ですな。
音声認識の精度は日常生活では許容範囲だし、喋る方もSiriと比べても自然。Siriは老舗なはずだけど、日本語は得意ではないものね。
Hueとの連携もできるけど、IFTTTの作動シーケンスやアプリの方がやっぱり便利。オンオフならいいけど、条件や気分で微妙な色をチューニングできるのがHueの最大の特徴でもあるわけで、これは音声操作とはマッチしないところだろう。
Amazonミュージックの再生履歴をIFTTT経由でGoogleドライブにリアルタイムで落とせるのはなかなかいい。気に入った曲を編集してDBに書き戻してセットリストができたりしたら・・・・と思うのだけど、Amazonさん、やってくれませんかね。
まだまだ発展途上だけど、日本では普及しない予感もある。動詞が前に来ない日本語の構造上の問題からくる複雑なコマンドへの対応の難しさと、ユーザーのITリテラシー、それに生活環境。
ホームオートメーションを心底欲するような生活レベルにある人は日本ではそんなにいないと思う。起きて来ない子供を起こしには歩いてひっぱたく方が早いだろうし、電気だって手で消すという習慣になっているはず。エアコンだってセンターコントロールにはなっていない家が多いだろうし。ガレージもそう。そもそも車を持っていない人が多いのだから。
APIを解放することでサードベンダーのデータやアプリを使うという戦略だが、これもどう出るか。ちょっと外部に依存しすぎな気もする。しりとりなんてなぜか時刻表を作ってる会社の語彙DBを使ってるから駅名しりとりになっちゃうし。このあたりの制約はかえって面白いと思うのだけど、ECHOをAIだと定義している人からすると不満になるだろう。
今が出しどきだったのか、早すぎたのか。
初期ユーザーの一人として、フィードバックに精を出しつつアレクサの進化を見守りたいところだ。
0 件のコメント:
コメントを投稿