THE BRIDGE

B05_人工知能

合鍵をスマホで管理、コンビニで作成のキオスク「KeyMe」が3,500万ドルの資金調達

SHARE:

これまで鍵の複製には非常に高いコストがかかっていたが、ニューヨークに本拠を置く「KeyMe」(2012年に自動車技術会社「Aperia Technologies」の元財務ディレクターであるGreg Marsh氏によって設立)は、鍵スキャンを行うキオスクの開発を通じて、こうした従来の業界構造を大きく変えようとする企業である。 同社は1月14日、Brentwood Associatesからの3,500…

keyme-e1578863685865
KeyMe’s kiosk for copying keys.
Image Credit: KeyMe

これまで鍵の複製には非常に高いコストがかかっていたが、ニューヨークに本拠を置く「KeyMe」(2012年に自動車技術会社「Aperia Technologies」の元財務ディレクターであるGreg Marsh氏によって設立)は、鍵スキャンを行うキオスクの開発を通じて、こうした従来の業界構造を大きく変えようとする企業である。

同社は1月14日、Brentwood Associatesからの3,500万ドルの資金調達を発表し、昨年のBlackRockがリードした5,000万ドルのデッド調達ラウンドに続いて総額約2億ドルの調達に成功した。

Marsh氏は、顧客ベースが1,000万人以上に成長するにつれて、1万拠点のキオスク設置という拡大目標を達成するために新しい資金が今後数か月以内に必要と述べた。

「私たちは年間120億ドルの錠業界での新しい顧客体験創出のため、新しいタイプのロボット工学およびAI企業を作っています。Brentwood Associatesと協力してサービスを拡大し、錠業界で最も信頼できるブランドを構築できることを嬉しく思います」

KeyMeは、Albertsons、Autozone、Bed Bath&Beyond、Giant Eagle、Ikea、Kmart、Kroger、Menard’s Rite Aid、Sears and Kmartおよび7Elevenなど、49州(2019年4月時点では2,300の拠点と46州展開)の小売業者および3,000を超える拠点で鍵複製サービスを提供している。同社技術はオフィス、住宅、車両のトランスポンダーとRFIDキーを30秒以内にコピーでき(自動車キーに関しては85%以上をサポート)、モバイルアプリを使った鍵のスキャンとデータストレージサービスを提供する。

クラウドベースのアプローチを採用しており、iOSおよびAndroid用のKeyMeアプリを使用すると、ユーザーは電子メールまたはテキストで鍵を保存、コピー、および共有でき、100を超えるデザインから選択できる。

キオスクの仕組みは次の通りである。顧客は鍵を挿入し、指紋をスワイプ、独自のコンピュータービジョンと機械学習アルゴリズムを機能させる。鍵の歯をスキャンした3D画像を使用して新しい鍵を作成する。作成された鍵はキオスクで直接渡されるか、3〜5日以内に郵便で発送される。

費用に関しては、ディーラーまたはプロの錠前屋が請求する金額と比較して安価である。平均で約70%安く、20ドルから60ドルほどとのこと。そしてKeyMeは、業界標準のエラー率15%-20%と比較して、1桁パーセントのエラー率であるという。

keyme-2
Above: KeyMe kiosk viewed from the front.
Image Credit: KeyMe

一部の専門家は、KeyMeや競合企業であるMinuteKeyとMy Key Machineのような技術により、電子アクセスカードのコピーが非常に簡単になり、犯罪者が高いセキュリティを誇る物件へ侵入できるようになると警告する。ただ、Marsh氏とBrentwood AssociatesのパートナーであるEric Reiter氏によると、KeyMeにはタイムスタンプ、キオスクからのセキュリティ映像、支払いログなど、鍵の所有者を探し出す独自のメカニズムがあると断言している。

さらにKeyMeが顧客に関する最小限の識別可能なデータ(通常は電子メールアドレス、キーデータ、指紋データ)のみを保持し、鍵が出荷された後に正式な名前と住所が定期的に削除されるそうだ。保持されているデータは3つの物理拠点に分割保存されているため、悪意あるハッカーは3つのシステムすべてに侵入して取得する必要があるとも主張する。

「信じられないほど洗練された技術を活用し、高度に差別化された、便利で満足のいく顧客体験を提供するKeyMeは、錠業界で比較できない価値を提供します。米国全体で急速に拡大するフットプリント、国際市場における成長および今後の大幅なサービス拡大の可能性を基に、優れたチームと提携できることに興奮しています」とReiter氏は語る。

KeyMeの既存の投資家には、Battery Ventures、Comcast Ventures、Questmark Partners、River Park Ventures、White Star Capitalが含まれる。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

Appleがエッジコンピューティング企業「Xnor.ai」を買収

SHARE:

Appleは1月15日、AIスタートアップ「Xnor.ai」を買収したとVentureBeat関連筋に語った。 Xnor.aiはスマートフォン・カメラ・ドローンなどのエッジデバイス向けのAIサービスを開発する。Geekwireによると、Appleは同社に約2億ドルを支払ったと伝えられている。 Xnor.aiのテクノロジーは、Appleのデバイスにローカル保存されたAIに活用したり、アプリ開発者向け…

xnor.ai-2
Image Credit : Xnor.ai

Appleは1月15日、AIスタートアップ「Xnor.ai」を買収したとVentureBeat関連筋に語った。 Xnor.aiはスマートフォン・カメラ・ドローンなどのエッジデバイス向けのAIサービスを開発する。Geekwireによると、Appleは同社に約2億ドルを支払ったと伝えられている。

Xnor.aiのテクノロジーは、Appleのデバイスにローカル保存されたAIに活用したり、アプリ開発者向けのCore ML 3ツールキットのエッジコンピューティングを強化したりできる。Appleはイノベージョン促進、コスト削減、利用エネルギー最適化のできるAIモデルへの関心が最近高まっている。

昨年Xnor.aiは、FPGAチップ背面にあるソーラーパネルを活用して電力供給することで、バッテリーを必要としないコンピュータービジョンモデルおよびエッジコンピューティング機能を実証。そして2019年5月、Xnorはアートエッジコンピューティング向けの最先端プラットフォーム「AI2Go」を発売した。

2017年に設立されたXnor.aiはシアトルに拠点を置き、有望なアーリーステージスタートアップを支援する非営利AIインキュベーター「Allen Institute」に参加。買収に先立ち、同社はシアトルのMadrona Venture Groupなどを含む投資家から約1,460万ドルを調達した。

昨年夏に開催されたVentureBeat主催のAIイノベーションアワードイベントでは、有望なAIスタートアップとしてXnor.aiを選出していた

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

出張支援クラウド「BORDER」、三井住友海上キャピタルやPKSHAのファンドから1.5億円を調達——データ活用でレコメンド精度やUX向上を加速

SHARE:

出張支援クラウド「BORDER」を提供するボーダーは22日、直近のラウンドで1.5億円を調達したことを明らかにした。このラウンドでは、三井住友海上キャピタルがリードインベスターを務め、PKSHA Technology Capital とスパークス・AI&テクノロジーズ・インベストメントが運営するファンドが参加した。 今回の調達のラウンドステージは明らかではないが、同社が公表する調達ラウンド…

BORDER のメンバー
Image credit: Border

出張支援クラウド「BORDER」を提供するボーダーは22日、直近のラウンドで1.5億円を調達したことを明らかにした。このラウンドでは、三井住友海上キャピタルがリードインベスターを務め、PKSHA Technology Capital とスパークス・AI&テクノロジーズ・インベストメントが運営するファンドが参加した。

今回の調達のラウンドステージは明らかではないが、同社が公表する調達ラウンドとしては初めてのもの。これまでにフレンドラウンド、エンジェルラウンドなどを経て3度目の資金調達となる。2014年に実施したインタビューでは、大手旅行代理店の OB などがエンジェルとして出資参加していることを明らかにしていた。

BORDER は2014年、日本人ビジネスパーソンの海外出張需要を現地のランドオペレータに直接繋ぎこむ「手配サービス」としてローンチ。その後、BORDER のオペレータ(リモートワーカー)がチャット経由で出張旅程をアレンジする「手配・管理サービス」へとピボットした。出張する人がチャットで連絡すると BORDER のオペレータが予約を手配、出張する人の会社のアドミンはダッシュボードで管理できる。

BORDER の創業者で代表取締役の細谷智規氏によれば、企業からは出張旅費のコストダウンや利便性向上のみならず、出張する社員の安全確保やコンプライアンス遵守など管理面でのニーズが大きく、この点で BORDER は、BTM(ビジネストラベルマネジメント)業界の既存プレーヤーとの差別化に成功しているという。これまでの累積利用企業数は378社(1月20日現在)に達している。

中堅企業をターゲットにしていたが、大手や準大手など名だたる企業が使ってくれるようになった。毎年、1.5倍〜2倍ずつくらいの割合でユーザ企業が増えている状態。(細谷氏)

BORDER のダッシュボード。企業のアドミン担当者は、どの社員がどこに出張しているかも一目瞭然。
Image credit: Border

BORDER には、ユーザの所属企業の出張規定(職位に応じた宿泊予算、ホテルや航空券のクラスなど)が設定されており、さらに、過去の出張履歴に基づいて、出張する人の好みに応じた提案をオペレータが行う。ユーザがチャットで連絡を始めてから BORDER のオペレータが最初の応答を返すまでのリードタイムは平均200秒。概ね8回のメッセージ往来で手配が完了していることから、1回の出張手配に要する時間は30分程度ということだ。

国内の出張は OTA などを使ったセルフ予約型が多くなる一方、海外出張はセルフ予約+コンシェルジュの混合型が増えていくだろう。これまでに非常に多くのデータを蓄積できていることから、ユーザの好みや条件に応じた提案の的確さで差別化を図っていく。(細谷氏)

今月3億円を調達したビッグデータと AI を使った旅行サービス「atta」、昨年8月に2億円を調達した AI Travel、9月にローンチした「Oooh(オー)」、先ごろ個人ユーザにもサービスを開放した「Dr. Travel」など、トラベルテックバーティカルもまたレッドオーシャン化しつつある。海外でもアメリカの「TripActions」が Andreessen Horowitz などから2億5,000万ドル調達、スペインの「TravelPerk」が6,000万ドルを調達するなど BTM はホットな領域だ。

BORDER は事業としては十分に回っていることから、今回の調達は資金需要よりも協業体制の確立の意図が大きいと推察される。今回リードインベスターを務めた三井住友海上キャピタルの親会社である三井住友海上は海外旅行保険を取り扱っており、BORDER とは既にユーザの相互送客を始めている。PKSHA Technology とは、BORDER が蓄積している旅行者データの活用での新たなビジネス開発が期待できるだろう。

BORDER では今後、サービスのさらなる開発やユーザエクスペリエンス向上に向け、カスタマーサクセスやエンジニアを増員する計画だ。

----------[AD]----------

GoogleのAI、局地的な降水パターンを「瞬時に」予測

SHARE:

GoogleはAI(機械学習)を活用して迅速に局地気象予測をしたいと考えている。同社は論文と一連のブログ記事で、人工衛星の画像を使って「ほぼ瞬時に」高解像度の予測を行うAIシステム(平均して、およそ1kmの解像度でレイテンシーはわずか5~10分)について詳しく説明している。研究チームによると開発の初期段階にも関わらず、従来モデルより優れた性能を持っているという。 このシステムはデータ駆動型で物理学…

google
Image Credit: Khari Johnson / VentureBeat

GoogleはAI(機械学習)を活用して迅速に局地気象予測をしたいと考えている。同社は論文と一連のブログ記事で、人工衛星の画像を使って「ほぼ瞬時に」高解像度の予測を行うAIシステム(平均して、およそ1kmの解像度でレイテンシーはわずか5~10分)について詳しく説明している。研究チームによると開発の初期段階にも関わらず、従来モデルより優れた性能を持っているという。

このシステムはデータ駆動型で物理学に依存しない気象モデリングを採用しており、事前情報を取り入れるのではなく、気象例のみによって近似する大気物理学を学習する。これを支えるのが畳み込みニューラルネットワークで、天候パターンの入力画像を取り込み、それを新しい出力画像に変換する。

Googleの研究者らが説明しているように、畳み込みネットワークは、各層が数学演算の集合である一連の層から構成される。この場合はU-Netと呼ばれ、各レイヤーは通過する画像の解像度を下げる符号化フェーズで配置される。別個の復号化フェーズは、符号化フェーズ中に生成された低次元表現を拡大する。

U-Netへの入力には、所定の時間における一連の観測のマルチスペクトル衛星画像毎に1チャンネルが含まれる。たとえば、1時間に10個の衛星画像が収集され、各画像が10個の波長で撮影された場合、画像入力は100個のチャンネルを有する。

初期作業として、エンジニアリングチームは2017年から2019年の期間を4週間毎に分割した米国の歴史的観測データを用いてモデルをトレーニングし、その一部を評価用に確保した。チームはモデル性能を次の3つのベースラインと比較した。米国海洋大気庁(NOAA)の数値予測モデル「High Resolution Rapid Refresh(HRRR)」(1時間の全累積表面予測)、連続する画像から動く物体を分析するオプティカルフロー・アルゴリズム、そして、将来の各地の降水量が現在と同じであると仮定したパーシスタンス・モデルである。

研究者らの報告によると、自社システムの精度は総じて3つのモデル全てに勝っていたものの、予測範囲が約5~6時間に達した時点でHRRRが性能を上回り始めたという。しかし、HRRRのレイテンシーは自社システムのレイテンシーよりも1~3時間、あるいはそれ以上に長く時間がかかることを指摘している。

HRRRで使用されている数値モデルは、フル3D物理モデルを使用しているため、長期的な予測をより正確に行うことができます。雲の形成は2D画像からは観測が難しく、「機械学習」方法で対流動向を学習するのは困難です。

研究者らは続けて語った。

短期予測に適した弊社機械学習モデルと長期予測に適したHRRR、これら2つのシステムを組み合わせることで、全体的に見て、より優れた成果を上げることができる可能性があります。

研究者らは、機械学習が3D観測に直接適応できるよう、今後の研究に委ねている。

もちろん、AIを使って天気や自然現象、災害を予測しているのはGoogleだけではない。昨年初めにはIBMは2016年に買収した、気象予報およびIT企業のThe Weather Companyが開発した新しい天気予報システムをローンチした。このシステムは高精度な世界各地の天気予報を提供する。Facebookの研究者らは、衛星画像を分析して火災や洪水によって被災した地域の被害状況の程度を把握する方法を開発した。また、スタンフォード大学の地球物理学科の科学者らは、歴史的・連続的なデータから一連の地震信号を分離し特定することができる、Cnn-Rnn地震探知機(CRED)と呼ばれるシステムを使って実験を行った

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

サムスン子会社のSTAR Labs、人そっくりの動きを再現するAIアバター「Neon」を公開

SHARE:

サムスンは AI アシスタントで満たされた世界を標榜しているが、我々が慣れ親しんでいるようなチャットボットを使ったアシスタントのようなものではない。ソウルに本社を置く同社は、6日夜のプレスリリースで、子会社の STAR Labs が開発したプロジェクト「Neon」を発表した。このプロジェクトは、「サイエンスフィクションを実現する没入型サービス」の提供を意欲的に目指している。 サムスン電子のヒューマ…

Image credit: STAR Labs

サムスンは AI アシスタントで満たされた世界を標榜しているが、我々が慣れ親しんでいるようなチャットボットを使ったアシスタントのようなものではない。ソウルに本社を置く同社は、6日夜のプレスリリースで、子会社の STAR Labs が開発したプロジェクト「Neon」を発表した。このプロジェクトは、「サイエンスフィクションを実現する没入型サービス」の提供を意欲的に目指している。

サムスン電子のヒューマンコンピューターインタラクション研究者で、元シニアバイスプレジデントである Pranav Mistry 氏は、Neon の基盤となるソフトウェアエンジン「Core R3」が、映画、拡張現実(AR)体験、Web、モバイルアプリで使われるリアルなアバターをアニメーション化すると説明した。

(彼らは)自律的に新しい表現、新しい動き、新しいダイアログを作り出す。キャプチャされた元のデータとはまったく異なる見え方を再現する。キャプチャされたデータから、新たな動きが作り出されるまでの遅延は数ミリ秒未満だ。(Mistry 氏のツイッターから)

Neon のアバターは、コンピュータ生成されたキャラクタというより動画のようだ。設計上、これらのアバターはメディアを超えて「仲間や友人」になり、ホテル、店舗、レストランなどのコンシェルジュや受付に立つことを目的としている。とはいえ、彼らは個人情報が許可なく共有しないよう、厳格にプライバシーを保証をするよう設計されている。

彼らには、ユーザが使う平均的な AI アシスタントほどの能力は無い。記者に共有された FAQ の中で、STAR Labs は、Neon のアバターは「何も知らない」と明示しており、「天気予報を尋ねる」「お気に入りの音楽を再生する」といったことに対応できるインターネットにつながったインターフェースでもない。その代わり、会話をして目標のあるタスクを支援したり、人間的な質感を必要とする少し複雑な事柄を支援したりするのだ。

Mistry 氏によれば、β版が今年後半にリリースされ、企業は「Neon-as-a-service」のライセンスを取得または購読できるようになる。Neon アバターの知能、学習、感情、記憶を担当する2番目のコンポーネント「Spectra」はまだ開発中で、今年後半のカンファレンスでデビューする可能性がある。

我々は SF 小説や映画の中で、そのようなバーチャルな生き物を常に夢見てきた。 Neon のアバターは我々の世界と連携し、「人間は人間」であり「機械は人間」である、より良い未来への新しいリンクとして機能する。(Mistry 氏の声明)

Image credit: STAR Labs

AI を使って忠実に再現されたアバターは、地球上で最も斬新なものではない。 2018年11月、中国で毎年開催される「World Internet Conference(世界互連網大会)」で、国営の新華社通信は24時間にわたってニュースヘッドラインを読み上げることができる AI ニュースキャスター「Qiu Hao(邱浩)」をデビューさせた。スタートアップの Vue.ai は、服による違いを排除し、リアルなポーズや肌の色などを学習させることで、AI によるモデルが洋服を着用したファッション画像の生成を実現した。また、Boris Johnson 氏があたかもやっていないスピーチをしたかのように、政治家候補のフェイク動画を作るのにも AI や機械学習は使われてきた。

Neon は、2009年に Lionhead Studios が開発したプロトタイプのエモーショナル AI 体験「Project Milo」を想起させる。Milo は、話し言葉、ジェスチャー、事前定義されたアクションに応答する AI 構造を特徴としており、音声生成クリップと会話中の単語を一致させることができる、組み込み辞書を常に更新する手続き生成システムを備えている。

Milo は日の目を見ることがなかったが、サムスンは今後も Neon に使われている技術を商業化することに熱心なようだ。時が経てば、それがわかるだろう。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

〝売れるトーク〟をパターン解析するAIスタートアップのコグニティ、シリーズBラウンドで1.9億円を資金調達——XTech Venturesやディップから

SHARE:

認知バイアスを取り除き、従業員のトレーニングやモニタリングに役立てることができる企業向けサービス「UpSighter(アップサイター)」を開発・提供するコグニティは15日、シリーズ B ラウンドで1.9億円を調達したと発表した。このラウンドに参加したのは、XTech Ventures と求人サイトや AI.Accelerator 運営のディップ(東証:2379)。コグニティにとって、今回の調達は2…

左から:藤原直哉氏(XTech Ventures アソシエイト)、西條晋一氏(XTech Ventures ジェネラルパートナー)、河野理愛氏(コグニティ 代表取締役)、進藤圭氏(ディップ 次世代事業準備室 室長)
Image credit: Cognitee

認知バイアスを取り除き、従業員のトレーニングやモニタリングに役立てることができる企業向けサービス「UpSighter(アップサイター)」を開発・提供するコグニティは15日、シリーズ B ラウンドで1.9億円を調達したと発表した。このラウンドに参加したのは、XTech Ventures と求人サイトや AI.Accelerator 運営のディップ(東証:2379)。コグニティにとって、今回の調達は2017年12月に実施したプレシリーズ B ラウンドに続くもので、これまでの累積資金調達額は5億円に達した。

コグニティは、代表取締役の河野理愛氏が学生起業、ソニーのビジネス戦略部門や DeNA を経て2013年に設立。UpSighter は、スピーチ、セールストーク、プレゼンテーションなどを解析・数値化し、より人に伝わりやすいコミュニケーションを提案するサービスだ。セールスパーソンのトレーニングなど、これまで外部コンサルに頼るしかなかった人材開発のシーンで、大企業から多くの支持を得ている。

みずほ銀行をはじめとする金融機関、中小商社、不動産会社などセールスパーソンが多く在籍する企業が導入。UpSighter としての自社ブランド販売に加え、エムスリーが MR(医薬情報担当者)向けに 「MR Insighter」、CRM コンサルティングのスマートウィルが「AI スマートトーク」として OEM 展開するなどホワイトブランド戦略も功を奏した。金融業界向けの「UpSighter for Finance」、河野氏の NHK Eテレ「プロのプロセス」出演をきっかけに開発したピッチ解析 SaaS「 UpSighter for プレゼン!」など機能特化版や限定版も高評価を得ている。

金融機関向けに営業していた際のカウンターパートが入社してくれたことがきっかけになり、金融機関のユーザが増えた。MR 経験者もそう。業界大手の経験者をはじめ、その業界に精通している人に入社してもらい、業界ごとに営業展開していく戦略がうまく行っている。(河野氏)

UpSighter の仕組み(クリックして拡大)
Image credit: Cognitee

UpSighter はこれまでにのべ120社以上に導入、ユーザ数は対象となる各社の従業員の人数ベースでカウントされるが、約6割がリピートユーザだという。機械学習だけに頼らず、調査対象の従業員の会話をアノテーション(タグ付け)する作業を人と機械学習のミックスとしたことが、結果的に有機的なデータの蓄積につながった。

2年ほど前は誰もがなんでも完全自動化が大事だと思っていたが、ようやく、自動化の部分と人がやる部分を組み合わせないといけないということが、わかってもらえるようになった。セールストークやプレゼンといった、企業の「おもてなしデータ」をたくさん持っていることがコグニティの強み。1つのトークあたり40程度はアノテーションできるデータがあるので、機械学習を得意とするインターン生らには格好の材料となっている。(河野氏)

コグニティには現在190名ほどの従業員がいて、その約8〜9割はアノテーションワーカーと呼ばれる録音されたセールストークやプレゼンからタグ付けや解析を行う人たちだ。アノテーションの作業は、河野氏の出身地である徳島などで  Uターン/I ターンした人たちが主にリモートワークで行なっている。彼らに加え、各種業界を熟知した営業や事業開発担当者、機械学習を得意とする大学生や卒業生などからなる絶妙な混成チームがコグニティのサービスを支える。

今回の調達を受けて、コグニティでは共通で使えるアルゴリズムを開発し、中小企業や部署単位でも使える、より裾野の広いサービス展開、また、各事業領域のパートナー企業との協業も含めて、ニーズの高い事業領域に合わせたサービスを展開を目指すとしている。

----------[AD]----------

Google Assistantユーザーが5億人を突破、「文章を読んでくれる日」も近くに

SHARE:

※本記事は提携するVentureBeat「Google Assistant passes 500 million users, will get longform reading and deeper smart home integration in 2020」の抄訳になります。 Googleの発表によると、Google Assistantは毎月5億人のアクティブユーザーが使っているそうだ。また…

google-assistant-ces.jpg

※本記事は提携するVentureBeat「Google Assistant passes 500 million users, will get longform reading and deeper smart home integration in 2020」の抄訳になります。

Googleの発表によると、Google Assistantは毎月5億人のアクティブユーザーが使っているそうだ。また、2020年に発表する新機能として、より自然で人間らしい声で記事やウェブページを読み上げる新しい音声機能を試験中であることも発表した。

2020年下半期になれば「ねぇGoogle、この文章を読み上げて」だったり「ねぇGoogle、このページを読んで」と言うと、Google Assistantが記事またはウェブページのテキストを読んだり、42言語に翻訳する機能が披露されることになるようだ。

Googleの広報担当者によれば、長い記事やウェブサイトだけでなく、メールを読み上げるまでの多岐にわたる読み上げサービスとして拡大をするかもしれないともコメントしていた。

また、CES(コンシューマー・エレクトロニクス・ショー)では、読み上げ機能だけでなく、Google Assistantは様々なデバイスに搭載される予定であることも発表されている。テレビの電源を操作したり、電話も、スマートディスプレイに音声ポストイットを表示したり、プライバシー重視の新しい音声コマンドを普及させるなど、多くの新機能を披露した。

また、新機能導入の一環として、現在普及しているスマートスピーカーと同じように、テレビのスピーカーを音声コマンドによって機能させたり、音楽を再生したり、天気を確認したり、質問したりするため、より多くのテレビメーカーに遠距離音声認識用のマイクを設置することを望んでいるそうだ。

【via VentureBeat】 @VentureBeat

【原文】

 

----------[AD]----------

人工知能は旅の体験をどう変える? AI旅アプリ「atta(アッタ)」が3億円調達

SHARE:

ニュースサマリ:旅行アプリの「atta」は1月8日に第三者割当増資の実施を公表した。引受先となったのはサンエイトインベストメント、御室工房(ファンドはサンエイトOK組合)、三生キャピタル、名古屋テレビ・ベンチャーズ、マイナビ、三菱UFJキャピタル、31VENTURESの7社。調達した資金は総額で3億円。出資比率や払込日、企業評価額などの詳細は公開していない。 調達した資金は、開発を強化するための人…

Screenshot 2020-01-08 at 06.16.00.png

ニュースサマリ:旅行アプリの「atta」は1月8日に第三者割当増資の実施を公表した。引受先となったのはサンエイトインベストメント、御室工房(ファンドはサンエイトOK組合)、三生キャピタル、名古屋テレビ・ベンチャーズ、マイナビ、三菱UFJキャピタル、31VENTURESの7社。調達した資金は総額で3億円。出資比率や払込日、企業評価額などの詳細は公開していない。

調達した資金は、開発を強化するための人材採用にあてるほか、日本および東南アジアでのユーザー獲得マーケティング活動、事業パートナーシップの推進を計画している。

attaの創業は2018年3月。スカイスキャナー出身の春山佳久氏が創業し、翌年2019年3月にはグローバル・ブレインから2億円の資金調達を実施している。旅先の移動や宿泊などを総合的に検索してくれるメタサーチからサービスを開始し、現在は独自のビッグデータとAIを活用した旅行提案サービスとして、旅行者に最適な旅先や予算の情報を提供してくれる。

日英で利用可能で料金は無料。現在は世界中218カ国と地域で230万軒以上のホテルや旅館・民泊、4400の航空券を検索することができる。

話題のポイント:旅は人工知能でどう変わるのでしょうか?

attaはいわゆるメタサーチ(一括検索)の一種ですが、特徴のひとつに未来予測があります。ビッグデータを使った予測で、宿泊施設の需要状況や航空券の料金トレンドを解析して、現時点の最安値がこの先、どれぐらい安くなるかの確率を出してくれる、というものです。

Screenshot 2020-01-08 at 06.16.15.png

この「お得」という価値は旅の体験をよくするための大切な要素のひとつです。当然ですが予算が最適化されれば、行ける場所や範囲も選択肢が広がります。本誌では先日も旅に関連してこのようなコラムを出しました。

<参考記事>

記事にもあるとおり、旅は「究極のコト消費」だと思います。この定性的な体験を最大化させるためにも、ルートや宿泊などの絞り込み、料金、範囲にある定量的な情報の検討は、人間よりも人工知能にサポートしてもらったほうがシンプルに楽です。春山さんもこの旅の体験を最適化するための「人と人工知能の役割分担」は意識されているようでした。

旅の一番の目的は現地での体験です。その体験をするためのお得な移動手段、宿泊をおすすめするというのは今後の流れになるのではと思っています。ユーザーにあったニュースをキュレーションされた状態でユーザーが閲覧するように、航空券やホテル検索もユーザーからの能動的なインプットは今後、どんどん減ると考えています。ユーザーの傾向から航空券やホテルをおすすめするエンジンの開発を進めていきます。

知らない情報は検索することができない。これはクエリを投げ込んで検索する手法のデメリットです。春山さんの言葉の通り人の情報収集スタイルは今、タイムラインに流れるオススメから選択する、という流れに変わっています。面倒な定量情報のクエリ検索をカットしてくれるだけでなく、自分の知らない未知の領域を教えてくれる、という体験も人工知能ならではといったところでしょうか。

体験という観点では、 当社は既にVoyajinやKlookとパートナーシップを締結しており、旅先での現地アクティビティをユーザーにおすすめしています。

また、テスト段階ではありますが未来の提案も実施しています。例えばタイから毎年北海道のニセコにスキーツアーで訪日している旅行者に対し、2020年度でバンコクから新千歳空港の航空券とニセコの4つ星以上のホテル滞在で、今年はXX月XX日がお得です、というプッシュを送るような感じですね。

現地でのアクティビティ、何かを食べたり、風景を見たり、人と触れ合ったり、こういった体験を軸に、そこまでの最適な方法を提供してくれる。最適化される、ということは効率がよくなるわけですから、例えば「讃岐うどん食べるためだけに四国に行く」といった細分化された体験も可能になるかもしれません。

人工知能が旅に与える影響は思った以上に広がりそうです。

----------[AD]----------

CES 2020: トヨタ、静岡県裾野市にAI・ロボット・持続可能エネルギーの実証都市「Woven City」の建設を発表

SHARE:

トヨタの「Woven City」は、ロボティクス、スマートホーム、自動運転車、IoT、デジタルヘルス、持続可能エネルギーなど、幅広い技術を組み合わせたものとなる予定。 175エーカー(約70.8万平方メートル=東京ドーム約15個分)の土地に建設される。 トヨタはラスベガスで開催されている CES 2020 で、Woven City のビジョンを明らかにした。豊田氏によると、同社は8ヶ月前から計画を…

Image credit: Dean Takahashi / VentureBeat

トヨタの「Woven City」は、ロボティクス、スマートホーム、自動運転車、IoT、デジタルヘルス、持続可能エネルギーなど、幅広い技術を組み合わせたものとなる予定。 175エーカー(約70.8万平方メートル=東京ドーム約15個分)の土地に建設される。

トヨタはラスベガスで開催されている CES 2020 で、Woven City のビジョンを明らかにした。豊田氏によると、同社は8ヶ月前から計画をスタートし、それがようやくビジョンを公表できる段階に至ったと言う。

歩行者、自転車とスクーター、自動運転車の3種のレーンを備えた道路が敷設される予定。

我々がいつ始めるのか、誰もがそう思っていると思う。(豊田氏)

初の画期的な出来事は2021年に起こるだろう。

これは、私の個人的な夢の舞台とも言える。皆さんがそれを築くことで、それらは現実のものとなる。(豊田氏)

このアイデアは、ゼロから都市を作る方法を試験しようとするものだ。トヨタでは、同社の研究者・従業員、彼らの家族、退職者、小売業者、学生などを集めたいと考えている。同社は先にバーチャル上にこの都市を建設する計画で、そこでアイデアをテストしたり、誤りから学んだりすると、豊田氏は語った。

AI に否定的な意味合いが含まれる世界で、AI を 知能増幅(Intelligent Amplified)にしたいと考えている。今、あなたは、この男(豊田氏自身のこと)が自分を失ったと思うかもしれない。彼は、日本版の(「夢のチョコレート工場」で知られる)ウィリー・ウォンカだろうか?(豊田氏)

富士山の見える場所で、新しい種類の都市を共に生み出す機会になると思う、と豊田氏は語った。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

Facebookやマイクロソフトら、ディープフェイク検出技術を募るコンテスト「Deepfake Detection Challenge」を来年3月末まで開催

SHARE:

ディープフェイクとは、既存の画像、音声、動画で人物を記録し、AI アルゴリズムを使って他の人物に置き換えるメディアのこと。このディープフェイクが急速に増加している。アムステルダムに本拠を置くサイバーセキュリティスタートアップ Deeptrace は、今年6月と7月の集計分で14,698のディープフェイク動画を発見した。昨年12月には7,964だったので、わずか7ヶ月で84%増加したことになる。ディ…

Image credit: Deepfake Detection Challenge

ディープフェイクとは、既存の画像、音声、動画で人物を記録し、AI アルゴリズムを使って他の人物に置き換えるメディアのこと。このディープフェイクが急速に増加している。アムステルダムに本拠を置くサイバーセキュリティスタートアップ Deeptrace は、今年6月と7月の集計分で14,698のディープフェイク動画を発見した。昨年12月には7,964だったので、わずか7ヶ月で84%増加したことになる。ディープフェイクが厄介なのは、選挙期間中に世論に揺さぶりをかけたり、犯してもいない犯罪に誰かを巻き込んだりするだけではない。これまでにポルノ素材を作成して、企業から数億米ドルを搾取する事件も起きている。

Facebook はディープフェイクの広がりに対抗すべく、Amazon Web Services(AWS)やマイクロソフトのほか、コーネル工科大学、マサチューセッツ工科大学、オックスフォード大学、カリフォルニア大学バークレー校、メリーランド大学カレッジパーク校、ニューヨーク州立大学アルバニー校らと AI に関する提携関係を結び、9月に発表された「Deepfake Detection Challenge」の先頭に立っている。オープンソース検出ツールの開発を確実にするための研究を促進すべく、先週、バンクーバーで開催されたカンファレンス「NeurIPS 2019」で世界に向けてローンチされた。

Facebook は、このコンテストへの参加促進のため1,000万米ドル以上を寄付。AWSはサービスクレジットで最大100万米ドルを寄付し、必要に応じて参加者モデルを提供。Google のデータサイエンス・機械学習プラットフォーム「Kaggle」は、課題一覧とリーダーボード(参加者順位とスコア一覧)を提供する。

Facebook の CTO Mike Schroepfer 氏は、ブログ投稿で次のように語っている。

ディープフェイク技術とは、実在する人が架空の物事を実行したり発言したりする、AI が生成した動画のこと。ディープフェイクはオンライン上で提供される情報の正当性を決定づける上で影響が大きいが、テック業界にはそれらを検出するための優れたデータセットやベンチマークは存在しない。見ている人をミスリードする動画に AI が使われた時、それを誰もが検出できる技術が生まれることを期待したい。

Deepfake Detection Challenge が提供する動画からは、無修正の画像(左)とディープフェイク画像(右)が確認できる。
Image Credit: Facebook

前述したように、Deepfake Detection Challenge では、AI で操作されたメディアを検出および防止する新しい方法の作成を促進するため、データセットのほか助成金や賞金も提供される。これまでにも、カリフォルニア大学バークレー校や南カリフォルニア大学の研究者によって開発され、AI 操作されたビデオを90%超の精度で識別するいくつかのツールがリリースされているが、ターゲットとなるディープフェイクは常に変化している。 Pinscreen の CEO Hao Li 氏は The Vergeとの最近のインタビューで、「AI フェイクと現実を区別することがほぼ不可能になることを狙って、合成技術は絶えず進化している」と指摘した。

Deepfake Detection Challenge の主催者は、さまざまな俳優(概ね54%が女性、46%が男性)を雇ったベンダーサービスを使って、さまざまな設定、ポーズ、背景で現実的なシナリオを描いたビデオを作成した。 AI で操作されたかどうかを説明する付属ラベル。その後、さまざまな機械学習技術を使用して、元の映像のサブセットから改ざんされたビデオが作成された。顔を入れ替え、動画から音声の変更が行われ、一部のサンプルには、オンラインで共有された動画で生じる劣化が擬似的に追加された。

Facebook の AI リサーチマネージャー Christian Ferrer 氏は、データセット(合計100,000以上の動画など)が、10月の映像解析に関する国際会議で対象を絞った技術作業セッションでテストされた、と語った。これにはユーザデータは含まれず、研究を妨げる可能性のある制限を回避するため、使用契約を締結した参加者のみを対象としている。さらに、Ferrer 氏によると、データセットへのアクセスは制限されており、ライセンスに同意したチームのみがアクセスできるという。

最先端の研究を使用してディープフェイクを検出できるようにするには、大規模で、現実に近く、有用で、自由に利用できるデータセットが必要になる。そのようなリソースは存在しなかったため、ゼロから作成する必要があった。(Christian Ferrer 氏)

Deepfake Detection Challenge の参加者は今月11日以降、資料をダウンロードしてディープフェイク検出 AI モデルをトレーニングすることができる。設計が完成したら、コードセットをブラックボックス検証環境に送信すると、テストセットに対するモデルの有効性を評価するメカニズムが提供される。参加者は参加するためにモデルを共有する必要はないが、チャレンジ賞の資格を得るには作品をオープンソース化することに同意する必要がある。同意した場合でも同意しなかった場合でも、トレーニングデータセットでトレーニングされたシステムに対する権利は参加者が保持することができる。

Deepfake Detection Challenge は、AI とメディアの完全性に関する AI 運営委員会(AI’s Steering Committee on AI and Media Integrity)との関係により促進・監督されている。この委員会は、Facebook、非営利人権団体の Witness、マイクロソフト、その他の市民組織、テクノロジー・メディア・学術の各コミュニティなどからなる連合体で構成されている。2020年3月末まで運用される予定だ。

Facebook の AI ディレクター兼ビジネスリーダー Irina Kofman 氏は次のように述べている。

産業界、学界、市民社会、メディアを含む複数の分野のパートナーからのコミットメントと、チャレンジを実施するために何ヶ月にもわたって一緒に実行する方法を見出せたことは刺激的だ。それぞれがそれぞれの分野からの洞察をもたらし、幅広い視点を検討できるようになった。コミュニティをまとめ、コラボレーションを促進することで、この分野での進歩を加速できることを願っている。

Deepfake Detection Challenge がローンチされる前、Google の社内テクノロジーインキュベータ Jigsaw とのコラボレーションで作成された画像ディープフェイクに関する大量の情報が公開された。これは、合成ビデオ検出システムの開発に関わる研究者らが、自由に利用できるベンチマークとして用意されたものだ。Google は今年初め、AVspoof 2019 のコンテストの一環として、実際の音声とコンピュータ生成の音声を区別できるシステムを開発するために、同社のテキスト読み上げモデルで話されたフレーズを含む音声データセットを公開した

Facebook の AI 担当バイスプレジデント Jerome Pesenti 氏は次のように述べている。

これらの問題に対抗するには、単純かつ決定的な技術的解決策は存在しないことはわかっている。 しかし、研究に対するオープンなアプローチは、AI を使用して他人を欺くために AI で動画操作することを防ぐ、新しいツールを構築するのに役立つと確信している。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------