Google は、同社の Cloud Machine Learning プラットフォームの一部として昨年公表された Cloud Speech API への重要なアップデートを多数発表した。 Cloud Speech API を使えば、簡単に言えばサードパーティの開発者や企業が Google の高度な音声認識機能を自身の製品に組み込むことができる。例えばコールセンターでは、このAPIを用いて発信者の…
Cloud Speech API を使えば、簡単に言えばサードパーティの開発者や企業が Google の高度な音声認識機能を自身の製品に組み込むことができる。例えばコールセンターでは、このAPIを用いて発信者の要求を「聞く」ことで、自動的に特定の部門に電話をつなぐのに使えるかもしれない。Twilioは今年の初めにこの API を音声プラットフォームに組み込み、開発者が製品内で話したことを文字起こしできるようにした。
今回 Google は Cloud Speech API に3つのアップデートを行ったと発表した。その中でも目玉となるのはほぼ間違いなく単語レベルの時間オフセット、つまりタイムスタンプである。これは、長めの音声ファイルの中からユーザが特定の単語を検索する必要がある時に特に便利である。基本的には音声が直接テキストにマッピングされるため、インタビューなどである単語やフレーズがどこで使われたのか、研究者からレポーターまで誰でも検索することができる。音声に合わせてリアルタイムでテキストを表示することもできる。
Google のプロダクトマネージャーである Dan Aharon 氏はブログで次のように説明した。
Google は元の89言語に新たに30言語を追加した、というのが今日(8月14日)の Cloud Speech API アップデートの3つ目のニュースだ。追加された言語には、アフリカでは数百万人の話者がいるスワヒリ語とアムハラ語、2億人以上のネイティブスピーカーがいると言われているベンガル語(バングラデシュおよびインド)、ウルドゥー語(パキスタンとインド)、グジャラート語(インド)、ジャワ語(インドネシア)などがある。今回サポートした言語によって、Google の音声認識技術は世界の10億人が使えるようになったのだ。
ホームセキュリティ・デバイスや関連するクラウドサービスを開発する Secual(セキュアル)は31日、NHN JAPAN の CVC として今年7月に設立された NHN CAPITAL から資金調達したことを発表した。調達金額は明らかにされていない。Secual は NHN CAPITAL にとって、初の投資先となる。 今回の調達を受けて、Secual はデータソリューション分野やアジア地域に強固…
ホームセキュリティ・デバイスや関連するクラウドサービスを開発する Secual(セキュアル)は31日、NHN JAPAN の CVC として今年7月に設立された NHN CAPITAL から資金調達したことを発表した。調達金額は明らかにされていない。Secual は NHN CAPITAL にとって、初の投資先となる。
「オートーク」では、ユーザの Google カレンダや Outlook カレンダなどと連携し、アポを取る相手とユニークな URL リンクを共有するだけで、候補日のやりとりか代行し自動化することができる。「オートークビズ」には、加えて、氏名や勤務希望地・時間などの基本情報をヒアリングする機能が備わっており、アルバイトを多く採用する企業などで面談調整を担当するコールセンターの業務省力化を実現しており、すでに複数の上場企業に採用されている(ネオキャリアが採用していることを明らかにしている)。