しかし、なんといってもソフトウェアで最大の新機能は、A5チップの強力な処理能力を生かしたSiri Assistantという音声認識アシスタントだ。ホームボタンを数秒長押しするだけでいつでもこの機能が呼び出せる。音声で質問するだけで天気や時間、Yelpで見つけた店への道順を答えてくれる。またカレンダーに会議の日時を登録したり、メッセージに返事したり、iTunesで曲を選んで再生したりできる。Wolfram Alpha検索エンジンを利用して高度な知識を得ることもできる。すべて音声コマンドで処理できるのだ。
残念なことに現段階では日本語には未対応だ。
いま、Googleやらで使えている音声認識もかなりの精度であるがそれを上回るクオリティなのは間違いない。とても期待できる新機能だが、一番の問題はiPhoneに向かって話しかけている自分の姿を想像した時、若干の違和感をもつユーザーが多いことだろう。
iPhoneに向かって命令したはいいが、全く違うアクションを起こされてはメンツ丸つぶれ。そんなこと想像したらポチポチ入力したほうがマシ、そう思うユーザーが多いはず。
ちょっと微妙な気もするが、日本語でどれだけ認識精度があるか?にかかっている。
0 件のコメント:
コメントを投稿