BRIDGE

タグ Google Assistant

なぜSiriは使われないのか?

SHARE:

最近、音声プロダクト開発に向けていろんな人に会わせていただきながら、ざっくりと音声アシスタント(Siri・Google Assisntant・Alexa)の利用状況を聞く機会が増えました。(※本記事は.HUMANS社が運営するメディア「 THE .HUMANS MAGAZINE」からの要約転載) 膨大なボリュームを調べていないため反論もあると思いますが、結論から言うとSiri(もしくはGoogle…

Screen Shot 2020-03-06 at 9.59.07 PM
Image Credit: Apple

最近、音声プロダクト開発に向けていろんな人に会わせていただきながら、ざっくりと音声アシスタント(Siri・Google Assisntant・Alexa)の利用状況を聞く機会が増えました。(※本記事は.HUMANS社が運営するメディア「 THE .HUMANS MAGAZINE」からの要約転載)

膨大なボリュームを調べていないため反論もあると思いますが、結論から言うとSiri(もしくはGoogle Assistant)を日常的に使う人はほとんど見当たりません、今のところ。

ここで言う「日常」とは、日々持ち歩くスマホやスマートイヤホン経由で音声アシスタントを少なくとも毎日、2〜3度以上は起動・利用するシチュエーションを指します。

肌感としては自宅でEchoシリーズを使っている方が5人に一人の割合、スマホの音声アシスタントを日常的に利用する人は数十人に一人くらい。ちなみにAlexaはスマホには進出していないため、自宅ユースケースが大半です。Google Assistantもスマートホーム文脈が比較的強いため、持ち歩き外出シーンではあまり使われていない印象でした。AppleのHome Podはほとんど普及していないため、Siriは完全にスマホ利用を想定しています。

日本と音声アシスタントの相性

pexels-photo-699122
Photo by Tyler Lastovich on Pexels.com

なぜ日常的にSiriやGoogle Assistantを使うユーザーにヒットできないのか。私が人を選んで会っていないという理由を除き(選ぶと市場の俯瞰的な定性データが集まらない)、2つほど仮説を立てました。

1つはお国柄。

まず音声アシスタントの利用シーンとして考えられるのは移動時間。しかし、日本(特に公共交通機関が発達した首都圏)では欧米のように、音声やオーディオサービスの価値が発揮されるプライベートが担保された自動車空間にいることがあまりありません。電車内で声を出すこともエチケット違反であると感じるため、使いところはないでしょう(この点、唯一タクシーや自転車移動を頻繁にされる方には刺さるかもしれませんが)。

加えて、タイピング文化が日本に追い風なのも特徴です。

フリック入力文化もあり、高速でGoogle検索できます。メッセージアプリもテキスト入力が比較的多いと思います(要検証項目ですが)。一方、中国ではタイピングフォーマットと言語がマッチしない理由から、音声メモを送り合う文化が形成されていると聞きました。欧米では先述したように、自動車空間に縛り付けられる拘束時間があるため、両手を使うテキスト入力が音声に代替されることに合点がいきます。

まとめると、「日本ではそもそも音声を発する場がない」「タイピング文化がフィットし過ぎている」が1つ目の仮説です。

逆に言えば次の3つのターゲットは1つ目の仮説を反証してくれると考えています。ただ、非常にニッチなのは否めないかもしれません。

  • 音声を発することにためらいをあまり感じない、デジタルネイティブな10代を中心とした「若者世代」
  • 比較的勝手に声を発しても許されるタクシー移動空間や、忙しなく仕事をして多量のタスクを処理する必要性に駆られている「ビジネスプロフェッショナル層」
  • プライベート空間が保たれ、常にパソコンを見つめながら作業をしてスマホを随時チェックする作業に多少の煩わしさを感じる「リモートワーカー層」

ボイスファースト時代の「コミュニケーション・キャズム」

pexels-photo-1647962
Photo by Valdemaras D. on Pexels.com

では、どうすれば音声アシスタントは使われるようになるのでしょうか。

そこで考えたいのが「コミュニケーション・キャズム」です。これは音声アシスタントの利用を多くの人が躊躇してしまう根本的なUX上の問題を指します。

従来のモバイルでは「アプリを開く→特定サービスを受ける」という導線でした。しかし、⾳声コマンドでは「要望を伝える→サービスを受ける」の導線へと変わります。つまり、サービス名やブランドに価値がなくなる世界観があるのです。これまでスマホ画面をタップしてサービスを指定していた習慣を変える必要があるので、ここでキャズムの概念が適応されるのです。

市場には、イノベーター(革新者)・アーリーアダプター(初期採用者)・アーリーマジョリティ(前期追随者)・レイトマジョリティ(後期追随者)・ラガード(遅滞者)の5タイプのユーザーがおり、順にプロダクトを利用するとされています。アーリーアダプターとアーリーマジョリティの間にある“崖”を超えれば、製品利用が爆発的に増える概念です。

スマホの音声アシスタント利用に関しては、イノベーター層は一定数存在すると踏んでいます。なんとかしてSiriやGoogle Homeの活用方法をハックして、自宅でEchoシリーズを使うように工夫する人がいるはず。もしくは音声メモをMessengerやSlack、LINEに頻繁に使ったり、私のように記事執筆の書き起こしに使う人がいるでしょう。

彼らはボイスファースト時代のサービス導線を自ら作る、学習コストの高いサービスを独自に工夫したりして自分なりの利用方法を開拓するイノベーターおよびアーリーアダプタ層「ProConsumer」です。

鶏と卵問題

pexels-photo-3781570
Photo by Andrea Piacquadio on Pexels.com

ProConsumerたちは音声の良さを最大限享受し、恩恵を受けています。しかし、私たちが使うほとんどのサービスがモバイルアプリ体験から⾳声体験へシフトができていないことから、キャズムを超えられていません、爆発的に音声の良さが伝わっていません。

ユーザーにとって⼊⼒やサービスが呼び出しが楽にも関わらず、なぜ⾏われていないのか?

もともと音声は人間が本来持つコミュニケーションであり、ストレスなく情報を入力・取得できるものであるはず。にも関わらず、なぜ体験シフトへ動かないのか?

答えは2つ挙げられます。1つは「鶏と卵の問題」。サービス開発者は市場からの強いニーズがあれば音声体験への最適化へ必然的に動きますが、未だに少数しか音声を使いこなせていません。この堂々巡りが市場を硬直させていると感じます。

ただ、一石を投じたのがAirPodsです。耳元にSiriを持ってきた高性能イヤホン「ヒアラブル」端末の急先鋒として市民権を得ています。AirPodsは硬直状態の市場を少しずつ動かすはずです。

シークレットクエスチョン

pexels-photo-132340
Photo by Burak K on Pexels.com

ここ数年で発生したハードウェアの進出・利用浸透でもなお、シフトが発生しないのはなぜか。それが2つ目の答え「シークレットクエスション」、つまり今は誰もが当たり前に受け入れている問題のことです。

PCからモバイルへと体験がシフトしただけで、インスタグラムやUberなど、潜在的な課題を解決する様々な巨大企業が誕生しました。シークレットクエスチョンにはそれほどのインパクトがあるのです。

何かしら大きな市場がキャズムの先にあるにも関わらず、私たちは未だに制限された音声体験を当たり前に受け止めています。長年使い続けた、生産性の低いタイピングでカバーしようと自然と考えてしまっています。これが私が考え、気付いたシークレットクエスションです。

将来的にFacebookやAppleが開発に注力するARグラス端末が増えれば、音声アシスタントを通じたコミュニケーション手法は主要UIとして採用される可能性が高いです。まさにSF映画のように、音声コマンドだけであらゆるサービスを利用できる環境が2020年代に整うかもしれません。

その下地をモバイルファースト時代に作っておくことで、戦略的に次世代ハードウェアが活躍する「Spatial Computing時代/ミラーワールドが実現された世界」へと打って出ていけると考えています。

本稿は次世代コンピューティング時代のコミュニケーションデザイン・カンパニー「.HUMANS」代表取締役、福家隆氏が手掛ける「 THE .HUMANS MAGAZINE」からの要約転載。Twitterアカウントは@takashifuke。同氏はBRIDGEにて長年コラムニストとして活動し、2020年に.HUMANS社を創業した

Google Assistantユーザーが5億人を突破、「文章を読んでくれる日」も近くに

SHARE:

※本記事は提携するVentureBeat「Google Assistant passes 500 million users, will get longform reading and deeper smart home integration in 2020」の抄訳になります。 Googleの発表によると、Google Assistantは毎月5億人のアクティブユーザーが使っているそうだ。また…

google-assistant-ces.jpg

※本記事は提携するVentureBeat「Google Assistant passes 500 million users, will get longform reading and deeper smart home integration in 2020」の抄訳になります。

Googleの発表によると、Google Assistantは毎月5億人のアクティブユーザーが使っているそうだ。また、2020年に発表する新機能として、より自然で人間らしい声で記事やウェブページを読み上げる新しい音声機能を試験中であることも発表した。

2020年下半期になれば「ねぇGoogle、この文章を読み上げて」だったり「ねぇGoogle、このページを読んで」と言うと、Google Assistantが記事またはウェブページのテキストを読んだり、42言語に翻訳する機能が披露されることになるようだ。

Googleの広報担当者によれば、長い記事やウェブサイトだけでなく、メールを読み上げるまでの多岐にわたる読み上げサービスとして拡大をするかもしれないともコメントしていた。

また、CES(コンシューマー・エレクトロニクス・ショー)では、読み上げ機能だけでなく、Google Assistantは様々なデバイスに搭載される予定であることも発表されている。テレビの電源を操作したり、電話も、スマートディスプレイに音声ポストイットを表示したり、プライバシー重視の新しい音声コマンドを普及させるなど、多くの新機能を披露した。

また、新機能導入の一環として、現在普及しているスマートスピーカーと同じように、テレビのスピーカーを音声コマンドによって機能させたり、音楽を再生したり、天気を確認したり、質問したりするため、より多くのテレビメーカーに遠距離音声認識用のマイクを設置することを望んでいるそうだ。

【via VentureBeat】 @VentureBeat

【原文】

 

Siri、Alexa、Googleアシスタント——人には聴こえないコマンドで作動できることが研究で明らかに

SHARE:

アップルのSiri、アマゾンのAlexa、グーグルのAssistantは、人の声によって制御できるようになっている。だが、この3つのAIアシスタントはどれも人間の耳が検知できない類の隠れたコマンドに敏感であることが、中国と米国の研究者によって明らかになった。 10日付のニューヨークタイムズの記事は、ラジオの音楽やYouTubeの動画、さらにスピーカー越しのホワイトノイズなどにも含まれる超低周波のコ…

上:Alexa とGoogle Assistant
Image Credit: David McCabe

アップルのSiri、アマゾンのAlexa、グーグルのAssistantは、人の声によって制御できるようになっている。だが、この3つのAIアシスタントはどれも人間の耳が検知できない類の隠れたコマンドに敏感であることが、中国と米国の研究者によって明らかになった。

10日付のニューヨークタイムズの記事は、ラジオの音楽やYouTubeの動画、さらにスピーカー越しのホワイトノイズなどにも含まれる超低周波のコマンドによって、AIアシスタントが制御される可能性があり、ユーザーにとって大きなセキュリティリスクになる可能性があることを報道した。

この記事によると、人間がテキストの読み上げや音楽の録音といったまったく異なる内容を知覚している際に、AIアシスタントに電話をかける、ウェブサイトを立ち上げる、購入をする、ドアロックなどのスマートホームアクセサリーにアクセスできるといった動作をさせることができるという。7.6メートル離れたビルの開いた窓からコマンドを送って、AIアシスタントに写真の撮影やテキストメッセージの送信を指示することもできたという。

バークリーの研究者は、オーディオファイルを少し変えて、「会話認識システムが聴きとるはずのサウンドを遮断して、人間の耳がほとんど知覚できない形でマシーンによって書き換えられたサウンドに置き換える」ことが可能だった述べた。プリンストン大学と中国の浙江大学の研究者たちはさらに、AIデバイスを最初にミュートにして、それ自身の反応もユーザーに聴こえないようにして同様の試みをした。

新しいのは、秘密のコマンドが聴き取れないという特性を有する点だ。テレビ番組やコマーシャルは言語化されたフレーズによって特定のデジタルアシスタントをオープンかつ故意に作動させていたが、そのフレーズを隠すことは音声版サブリミナル広告のようなものだ。

現時点ではAIデバイスを隠れたフレーズで作動させることを規制する法律は存在しないが、法律上の直接的な対応がなければ、そうした行為が悪用される可能性もある。

このセキュリティの問題がまだ十分に解決しなければーー今後解決することはほぼ間違いないもののーー不正利用の件数が大きな数になる可能性もある。

この3つのデジタルアシスタントについては、どのメーカーもこの点の脆弱性については既に気づいているものの、既存の緩い状態についてはっきり説明していない。

アマゾンは、Echoの安全性を確実なものにするべく対策を取ったといっており、グーグルは検知不可能なコマンドの力を弱める機能がAssistantにあるといった。アップルは、特定のコマンドを不可にする制限と予防措置があるといっている。

超低周波音のフィルタリングだけでこの問題が解決できるかどうかは明らかではないが、シンプルなソフトウェア修正プログラムでこのリスクを除去できる可能性は多いにある。

【via VentureBeat】 @VentureBeat
【原文】

Googleアシスタント、今年中に30カ国語と複数言語操作に対応予定、コマンド一つでマルチタスク対応も

SHARE:

Googleアシスタントは近い将来、一つのコマンドで複雑なタスクをこなせるようになり、30言語以上を話すようになり、ユーザーは二つ以上の言語でも操作できるようになる予定だ。このニュースは、スペインのバルセロナで本日スタートする予定のMobile World Congressが開始する数日前に伝えられた。 Google のプロダクト担当VPのニック・フォックス氏は、ブログ記事で次のように述べた。 「…

上: Google Home
Image Credit: Google

Googleアシスタントは近い将来、一つのコマンドで複雑なタスクをこなせるようになり、30言語以上を話すようになり、ユーザーは二つ以上の言語でも操作できるようになる予定だ。このニュースは、スペインのバルセロナで本日スタートする予定のMobile World Congressが開始する数日前に伝えられた。

Google のプロダクト担当VPのニック・フォックス氏は、ブログ記事で次のように述べた。

「アシスタントは今のところ8言語で利用可能ですが、年末までには30カ国以上で利用可能になる予定で、世界中の対応Androidスマホ端末の95パーセントで利用可能になるでしょう」

最近追加された言語にはヒンディー語がある。ロシア語のサポートも準備中だ

ユーザーが二カ国語以上でも操作できる多言語サポートも今年の後半には導入される予定で、まずは英語、フランス語、ドイツ語で開始するとのこと。

多言語サポートは、たとえば自宅で複数の言語を使っていたり、快適なコマンドを発する際に複数の言語を使いたいユーザーなどにとって重宝されることは間違いないだろう。同時に、ユーザーに多言語操作機能を提供することは、世界中の様々な地域ごとの人々の自然な話し方を理解して、それに最適なボイスコンピューティングサービスをつくる方法をGoogleが理解する上でも役立つものだ。

また、数週間以内に利用可能になる機能に、一つのコマンドで複数のタスクを完了させることができる Routines がある。これは、昨年秋に初めて発表された機能で、Routines を使えばユーザーは、たとえば明かりをつける、リマインダーを読み上げる、音楽を再生するといった複数のことをできるようになる。「Hey Google, I’m home」といったコマンドで始めれば、通勤中、帰宅中、自宅に到着といったシーンごとに合わせたRoutinesにGoogle アシスタントが反応できるようになる。

Googleアシスタント Routines が出る前には、My Day というカレンダーの読み上げ、交通情報レポート、最新のニュースを伝えるものがGoogleアシスタントの唯一のマルチアクション機能だった。

Amazonは、マルチタスクの機能を昨年秋に導入している

(本記事は抄訳になります。)

【via VentureBeat】 @VentureBeat
【原文】