BRIDGE

B05_人工知能

新型コロナ“重篤化”をAIで発見せよ、中国・温州中央病院、ニューヨーク州立大学が共同で開発

SHARE:

ピックアップ:Experimental AI tool predicts which COVID-19 patients develop respiratory disease ニュースサマリ:温州中央病院、ニューヨーク州立大学らは3月30日、新型コロナウィルスに感染した患者の中から、誰が重度の肺疾患を発症するのかを予測できるAIツールを開発したと報告している。 今回のAIが特定できるのは「急性呼…

pexels-photo-3970332
写真はイメージ:Photo by Markus Spiske on Pexels.com

ピックアップ:Experimental AI tool predicts which COVID-19 patients develop respiratory disease

ニュースサマリ:温州中央病院、ニューヨーク州立大学らは3月30日、新型コロナウィルスに感染した患者の中から、誰が重度の肺疾患を発症するのかを予測できるAIツールを開発したと報告している

今回のAIが特定できるのは「急性呼吸促迫症候群(ARDS)」。中国の温州にある2つの病院にいた53人の新型コロナ患者のデータを元にして、最大80%の精度でARDSを予測することに成功した。

使用された機械学習モデルは決定木、ランダムフォレスト、およびサポートベクターマシン。性別、年齢、肺炎患者転帰(PORT)スコアなどのこれまで有用とされた指標では予測は機能せず、最も予測に機能したのはアラニンアミノトランスフェラーゼ(ALT)とヘモグロビンの増加、および筋肉痛であった。これらの相関関係は今後医師が考慮すべき臨床上の観点であることを示した。

研究に関わったニューヨーク州立大学のバーリ教授は、医師も新型コロナを現場で学習しながら対応している今の状況において、発表したAIツールは医師をサポートするだけでなく、病院が切迫した場合にどの患者に集中すべきかを意思決定するのに役立つと主張する。

研究チームは現在、ニューヨークの患者データを使用してさらに改良することを検討しており、4月中に展開することを目標としてる。

話題のポイント:まず、国境を超えてデータ共有の契約を取り付けた人物を賞賛したいです。研究のためとはいえ、米中間で患者データの共有が早急に行われ、4月から結果を医療現場へ反映することを目標としているそのスピード感に驚かされました。

連日のように食品医薬品局(FDA)が規則を柔軟に変更して、新型コロナの治療を可能な限り迅速に市場に投入することを表明している点も考慮すると、不可能なスケジュールとは言えません。

ただし、今回使用されたデータには新型コロナ感染者53人のうちARDSを発症したのは5人しか含まれていません。精度以前の課題として、医療現場に導入するにはデータ数を増やすのは絶対条件となりますが、この論文で協力者を集いやすくなったことは間違いありません。未開拓地を高速で駆け抜ける正攻法を見た気がします。

pexels-photo-236380
写真はイメージ:Photo by Pixabay from Pexels

さて、ここからは新型コロナを発端としたARDSの早期発見のメリットを見てみます。

医療現場視点から見たメリットは、上記の通りトリアージです。誰にどんな治療が必要になるのかを把握できなければリソースの最適化は叶いません。医師は最大人数の救助に尽力するのをサポートします。さらに患者視点から見たメリットもあります。それは治療施設に自らARDS発症前に移動できることです。

ARDSの治療には気管チューブやマスクを使った人工呼吸器による管理、さらに重篤な低酸素状態に陥った場合は人工肺によるECMO治療を必要とします。新型コロナを受けて急遽実施された(一社)日本呼吸療法医学会・(公社)日本臨床工学技士会による人工呼吸器および ECMO装置の稼働台数調査によると、日本全国には人工呼吸器が約3万台、ECMO装置が1,412台しかないことが分かっています。

機材が揃っていても、運用には装置に熟練した医師による数週間の管理が必要となるため全てを稼働できるわけではありません。そのためARDS発症後に病院を移動しなければいけないケースも生まれるでしょう。

しかし、通常の人工呼吸で酸素化が維持できない患者を他院へ搬送するのは至難の業です。新型コロナによる肺炎の重症化は、突発的には起きず、感染から5~8日後に発展することが分かっているため、この一週間を利用して適切な医療施設に移動できることを可能にする点は今回のAIツールのメリットと言えるでしょう。

<参考文献>

----------[AD]----------

船舶動静共有航行支援システム「Aisea(アイシア)」開発、スパークスやみずほキャピタルから2.4億円を調達——東京海上日動とも提携

SHARE:

AI や IoT を使った船舶動静共有航行支援システム「Aisea(アイシア)」を開発するアイディアは6日、スパークス・グループとみずほキャピタルから2.4億円を調達したことを発表した。調達ラウンドは不明。また、東京海上日動火災と資本業務提携し、Aisea を組み込んだ保険商品・サービスを共同開発することも明らかにした。 同社は昨年7月、日本ベンチャーキャピタル(NVCC)とみずほキャピタルから1…

アイディアの経営陣と、今回ラウンドの投資家の皆さん
Image credit: Aidea

AI や IoT を使った船舶動静共有航行支援システム「Aisea(アイシア)」を開発するアイディアは6日、スパークス・グループとみずほキャピタルから2.4億円を調達したことを発表した。調達ラウンドは不明。また、東京海上日動火災と資本業務提携し、Aisea を組み込んだ保険商品・サービスを共同開発することも明らかにした。

同社は昨年7月、日本ベンチャーキャピタル(NVCC)とみずほキャピタルから1億8,000万円を調達している。また、東京海上日動火災とは昨年、海事産業におけるデジタルトランスフォーメーション(DX)加速を念頭に「Maritime Technology Innovation Consortium」を発足させている

アイディアは2017年に創業、2019年7月から船舶事故の防止や操船時の安全確保を目的とした海洋プラットフォーム Aisea を提供している。スマートフォンやタブレットのアプリとして利用でき、「航行支援システム」と「船舶運航管理システム」を通じて、船舶の動静管理や音声コミュニケーションが可能。

政府では、世界的に注目を集める自動運航船の2025年までの実用化を目指している。アイディアではそれまでのロードマップを念頭に、内航船(国内を航行する船舶)を中心に船舶の事故防止に加え、業務効率や人材不足の解消を目的に導入を進めており、今後、海事産業全体への導入を目指す。

<関連記事>

via Aidea

----------[AD]----------

MicrosoftのAIは、ビデオクリップの字幕が真実かどうかを判断しようとしている

SHARE:

※本記事は提携するVentureBeat「Microsoft’s AI determines whether statements about video clips are true」の抄訳になります。 プレプリントサーバーArxiv.orgに公開された論文の中で、カーネギーメロン大学、カリフォルニア大学サンタバーバラ校、マイクロソフトのDynamics 365 AIリサーチの研究者たちは、動画…

microsoft-1-e1580261336710.jpg
Microsoft
Image Credit: Khari Johnson / VentureBeat

※本記事は提携するVentureBeat「Microsoft’s AI determines whether statements about video clips are true」の抄訳になります。

プレプリントサーバーArxiv.orgに公開された論文の中で、カーネギーメロン大学、カリフォルニア大学サンタバーバラ校、マイクロソフトのDynamics 365 AIリサーチの研究者たちは、動画と言語の推論について説明している。

これはAIがビデオクリップに含む字幕をもとに、内容が合っているか矛盾しているかを推論するものだ。動画と言語の理解に関する調査をさらに進め、企業で使用される会議用の自動テープ起こしツールを強化することを目的としている。

研究者たちが説明するように、動画と言語の推論には、ビジュアルとテキストの両方の手がかりを徹底的に解釈する必要がある。 そのため研究者らは、 Amazon Mechanical Turkを介したクラウドソーシングワーカーが、字幕付き動画を視聴して作成したステートメントを、現実のシーンでの発言と組み合わせたビデオデータセットとして紹介している。

ワーカーたちは、動画と字幕の両方を理解した上で、動画の中の明らかな情報(オブジェクト、場所、キャラクター、社会活動など)を記述し、さらに複雑なプロット(各出来事の理解、人間の感情や関係性の解釈、出来事の因果関係の推論)への理解度を明らかにするためのステートメントを書いた。

081c9a32-1f1f-47dc-9020-38f07d18d134.png

このデータセットには、「フレンズ」、「デスパレートな妻たち – Desperate Housewives」、「 ママと恋に落ちるまで – How I Met Your Mother」、「モダン・ファミリー」などのYouTubeやテレビドラマシリーズから、合計582時間に及ぶ95,322組以上の動画ステートメントと15,887本の映画が含まれる。

それぞれ約30秒の動画は、ポジティブまたはネガティブな6つのステートメントとセットになっており、それは登場人物を特定したり、行動を認識したり、会話やその理由を推論をしたり、人間の動きについて言及したりしている(偏りを防ぐために、否定的なステートメントを収集する際には肯定的なステートメントを参照し、その一部だけを修正して否定的なものにするように依頼した)。

データセットをベンチマークするために、共同研究者らは、動画の特徴を数値化してエンコードできるよう、長期依存性を学習できるAIモデルの一種である双方向性長期短期記憶モデルを採用し、 別のモデルではステートメントと字幕をエンコードした。 動画、字幕、ステートメントが与えられると、データセットの80%による学習、10%による妥当性の確認、10%によるテストにより学習した別のモデルが、ステートメントが動画と字幕に合っているか矛盾するかを判断する。 人間が行った場合85.20%の精度なのに対して、最も性能の高いベースラインは59.45%の精度を達成したという。

「ベースラインモデルと人間の性能の差は大きい。このタスクにコミュニティにも参加してもらい、マルチモーダル推論の最先端を行くために、より強力なメソッドを発明していきたい。今後の可能性としては、キーフレームをローカライズするモデルの開発や、推論能力を向上させるために動画と字幕のアライメントを改善していくことなどが挙げられる」と研究者は述べている。

この研究は、Microsoft Research Asiaとハルビン工科大学による研究に続いており、コメント、ビデオ、オーディオの間の表現をキャプチャすることで、AIを使って動画のキャプションを生成しようとしている。システムのコードはGitHubで公開されており、候補セットから最も関連性の高いコメントと動画を照合し、クロスモーダル表現を共同で学習する。

【via VentureBeat】 @VentureBeat

【原文】

 

081c9a32-1f1f-47dc-9020-38f07d18d134.png

----------[AD]----------

感染拡大に力を発揮する自律走行車たち、検体輸送に医療従事者への食事配送まで

SHARE:

メイヨー・クリニックは今日(注:原文掲載日は現地時間4月2日)、Bestmile社およびJacksonville交通局(JTA)との提携を発表し、病院のドライブスルー検査場で収集した医療機器、およびCOVID-19検査結果を輸送するための、自律型シャトルを配備することを発表した。コロナウイルス感染拡大のリスクを軽減しつつ、必要とされる物資の配送を迅速化することが期待されている。 メイヨー・クリニッ…

39a7bd2d-bf68-4c4c-8485-c83d6c1b2033.png
Beep社が提供する自律走行バスのひとつ
Image Credit: Beep

メイヨー・クリニックは今日(注:原文掲載日は現地時間4月2日)、Bestmile社およびJacksonville交通局(JTA)との提携を発表し、病院のドライブスルー検査場で収集した医療機器、およびCOVID-19検査結果を輸送するための、自律型シャトルを配備することを発表した。コロナウイルス感染拡大のリスクを軽減しつつ、必要とされる物資の配送を迅速化することが期待されている。

メイヨー・クリニックはフロリダの院にて、3月30日からBeep社とNavya社の提供する4つの自律走行シャトルを使用し始めたそうだ。これは院の検査場から病院のキャンパス内にある処理研究所にCOVID-19検査を輸送するために使われている。なお、Beep社はオーランド郊外のNona湖から3台のシャトルを輸送しているのだが、これはJTAにて現在進行中の自律走行車プログラムで追加されたものだ。

COVID-19の試験サンプルは、メイヨー・クリニックのスタッフがシャトルに内容物を積み込む前に、安全なコンテナに保管されることになる。

このパートナーシップは規模は小さいが、世界的なトレンドに沿ったものとなる。COVID-19の影響を受けた地域に医薬品を届けるために、自律走行車が医療システムに利用されるようになっている。

中国では新興企業のNeolix(新石器)社が提供するバンが、COVID-19の影響を最も強く受けた地域に医療品を届け、人手不足を補っているそうだ。Baidu(百度)社の自律走行車プラットフォーム「Apollo」との連携により、これらのバンは北京で病気になった人々の看病をしている医療従事者に食料を届けるという仕事を担っている。

また3月中旬には、KiwiBot社の自律配送ロボットが、バークレーとデンバーのコミュニティに衛生用品やマスク、抗菌ジェル、衛生用品などの配送を開始している。

以前の本誌インタビューでTactile MobilityのCEO、Amit Nisenbaum氏は自律走行車の意義を「配達ロボットは命の危険を犯さず利便性と安全性を担保してくれる。しかも今、人々は自律走行車が【ソーシャルディスタンス】を保ち、感染の拡大防止に役立つことを理解している」と語っている。同社は自律走行車が道路の段差やカーブ、危険を検知できるようにする触覚データとセンシング技術を提供する企業だ。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

AI自身をサイバー攻撃から守れーーAIセキュリティ「ChillStack」にDEEPCOREが出資

SHARE:

ニュースサマリ:AIでセキュリティを進化させる「ChillStack」は3月31日、第三者割当増資の実施を公表した。引受先となったのはAI特化インキュベータのDEEPCORE。シードラウンドで、調達した資金は3,000万円。本調達資金を使ってシステムの開発・改良、ビジネスサイドやバックオフィスを担える人材の採用を進める。 ChillStackの創業は2018年11月。現在はAIを用いた不正ユーザー…

90965794_518429428863028_3077165061937037312_n
写真左から:取締役の茶山祐亮氏、代表取締役の伊東道明氏、取締役の新井颯人氏、谷洋樹氏

ニュースサマリ:AIでセキュリティを進化させる「ChillStack」は3月31日、第三者割当増資の実施を公表した。引受先となったのはAI特化インキュベータのDEEPCORE。シードラウンドで、調達した資金は3,000万円。本調達資金を使ってシステムの開発・改良、ビジネスサイドやバックオフィスを担える人材の採用を進める。

ChillStackの創業は2018年11月。現在はAIを用いた不正ユーザー検知システム「Stena」の開発・提供をしている。

また、これにあわせて「AIを守る」ための事業を開始することを発表。近年、AIは多くの製品やサービスに急速に普及しているが、AI自身もサイバー攻撃の標的となる危険性が指摘されている。この課題を解決するAI×セキュリティを理解できる人材の育成をハンズオン・トレーニング事業となる予定だ。3月19日プレスリリースした三井物産セキュアディレクションとの共同研究の成果が活かされる形だ。

2020-03-30 8.35.43

話題のポイント:AIの技術は幸か不幸か隠されたものではありません。「薬人を殺さず薬師人を殺す」の通り、AIも使い手次第で薬にも毒にもなり得ます。

昨今、未知のサイバー攻撃は世界規模で激増しています。高度化や標的型化が進む中で、全く前例のない手法も出てきており、ここに今後AIが絡んでくることは想像に容易い状況です。既存攻撃の対策が基本であるセキュリティが変化しなければ、後手に回り甚大な被害を受けるケースが多発するでしょう。

そんな問題に取り組むのがChillStackです。同社の共同創業者4人は今年の3月に大学院を卒業、代表取締役の伊東道明氏が研究してきた内容を元に「AI×セキュリティ」の事業を展開しています。本誌では伊東氏に今回のプレスにあたりインタビューを実施しました。(太字の質問はすべて筆者、回答は伊東道明氏)

研究からの発展で創業されていますが、元々はどのような研究をされていたんですか

Webアプリの通信をAIを使って監視して、攻撃されているかどうか、何が攻撃されているかを自動で見つける研究をしていました。この内容でIEEE CSPA 2018のBest paper Awardを頂いています。

それは凄い!

論文を見た複数の会社から作ってくれないかという提案があって、そのことに驚きました。これを製品化して世の中に還元した方が良いのではないかと考えたのが起業のきっかけです。

いつ頃からセキュリティに興味を持ったのですか

セキュリティを始めたきっかけは、大学2年生の時に先輩から「セキュリティ・キャンプ」に誘われて4泊5日の合宿に参加したことです。そこでどっぷりハマりました。
※セキュリティ・キャンプ:独立行政法人情報処理推進機構(IPA)の事業の一つ

研究室に所属する前からセキュリティに取り組んでいたんですね。ただ、研究室はAIを中心とした研究をしているところですよね

実は思惑がありました。セキュリティをやっていると、通信やマルウェアの大量のデータを見る機会があります。そもそも大量にあるデータから悪いものを見つけるのがセキュリティなんです。

その作業を繰り返すうちに統計とか機械学習の技術って使えそうだなとぼんやり頭に浮かべていました。しかし当時はAIが氷河期を乗り越えるぐらいの時期で、書籍などの情報が多くはありませんでした。そこで、AIの研究室の先生に相談してみたところ「行けるかもね」と良いディスカッションできたのが決め手となりました。

共同創業者は同じ研究室で別な研究をされていた方々ですよね

論文を発表した後にハッカソンに参加したんですけど、その時のメンバーです。ハッカソンでは顔認証決済の自動販売機を作って最優秀賞をいただけたことに加えて、お互いの長所を出し合って開発サイクルをガンガン回せたのでこのメンバーでやりたいと考えたんです。

ハッカソンに一緒に参加したのは大きな経験ですよね。信頼できるという意味で。

研究室では一緒に何かをやるということがあまりありません。お互いのスキルやモチベーションって意外と分からないものです。ハッカソンで初めて相手の出来ることを把握しました。

90977061_646491479482687_1080967037028663296_n

話を少し変えます。研究を製品にする上で壁があったと思いますが、どうでしたか

研究と製品は目的が違うんですよね。研究は精度とか先行研究の改善に焦点をあてて突き進みます。一方、製品は顧客の課題解決が一番です。

例えば、研究用のデータセットに対して異常検知をして検知率99%できました!となれば研究では評価されますが、10,000件データがあれば100件見落とすわけです。顧客目線から見ると実運用で攻撃を100件も見落とすってダメじゃない?となるわけです。

100件を見落とした理由や如何にフォローするか、研究では言及されないニーズを満たすための開発と手法の見直しに苦労しました。

AIの可読性など現状解決が困難なものも含まれているようですが

最初は無理じゃない?と思いました。AIってそういうものだし。

ただ、古典的な統計の手法は人間の目で見て分かるものに近いと分かり、そういう直感的にわかる手法を最新の技術と顧客ニーズの間に埋めることで解決しています。

「AIで守る」という文脈で不正ユーザー検知システム「Stena」を提供していますが、最初にゲームをターゲットにしたのはなぜですか

守るという作業に人材をかけづらいところだったからです。エンターテイメントは金融などと比べると必需品ではありません。本腰を入れている会社は非常に少ないです。

たしかにゲームの質を維持するのには欠かせない要素ですが、着手できないのは予算の問題も大きそうです

予算が理由で契約に結びつかないケースもかなり発生しています。被害出てるけど、売れてるんだからセキュリティにコスト割かなくてもいいよねという考え方ですね。値段設定のバランスは非常に難しいですね。

ただニーズがあることは間違いありません。中小規模の会社さんは守りたいけど、予算を割けなかったりするのでそこには寄り添っていきたいなと思っています。

2020-03-30 8.55.41
「stena」ユーザの行動解析専門の高精度AIがゲームやアプリのチートやBOTなど利用ログから自動検知する

さらに先日、三井物産セキュアディレクションと共同で「AIを守る」という2つ目の事業を発表しました

AIを作れない人が、AIを守れるわけがないというのがあります。最終的には「AIを守るAIを作れば良いじゃない」というのがあります。つまり「AIで守る」「AIを守る」この2つの事業の向かうところは一緒だと捉えています。

今後どのような会社にしていきたいですか

AIを安心して提供できる社会の基盤を作るのが仕事だと思っています。そこに向けてやれることは全部やっていきます。年商や従業員の指標は特にはないですね。研究や実務でも、セキュリティで崩れかけている社会を目の当たりにしているので、立て直したいと想いが一番強いです。

では最後に、伊東さん個人として、今後の目指す方向性や、どうありたいかについてお話を聞かせてください

起業も研究も、面白いことがしたいというのが原動力です。私は他の人のためになるものが面白いと感じます。誰かが何かをやるときに、私が支え、躓かないようにしてあげたい。すごい選手になるより、100人すごい選手を育てられるように今後もチャレンジしていきたいです。

ありがとうございました。

----------[AD]----------

バーチャルヒューマンたちはどのようにして生まれる

SHARE:

※本記事は.HUMANS社が運営するメディア「 THE .HUMANS MAGAZINE」からの要約転載 ニュージーランド拠点の「Soul Machines」が今年公表したバーチャルヒューマンは、CESで披露されたサムスン傘下のスタートアップ「NEON」と並ぶ、近未来的なアシスタントとして話題になりました。 同社はAI、脳計算モデル、経験学習を組み合わせて自動アニメーションプラットフォームを開発。…

Soul_Machine.png
Image Credit : The Soul Machines

※本記事は.HUMANS社が運営するメディア「 THE .HUMANS MAGAZINE」からの要約転載

ニュージーランド拠点の「Soul Machines」が今年公表したバーチャルヒューマンは、CESで披露されたサムスン傘下のスタートアップ「NEON」と並ぶ、近未来的なアシスタントとして話題になりました。

同社はAI、脳計算モデル、経験学習を組み合わせて自動アニメーションプラットフォームを開発。ユーザーと面と向かって話すことができるほどの個性と性格を持つ、まるで生きているかのように感情を表わすことのできる「デジタルヒーロー」、つまりバーチャルヒューマンを作り出します。

<参考記事>

表面的な「人間らしさ」はいざ知らず、肝心の中身はどのようにして成立するのでしょうか?そのひとつの鍵となるのがAIアシスタントの存在です。

英国オックスフォード大学の社会・コンピュータ科学部門であるオックスフォード・インターネット研究所(OII)は、Googleと提携して、AIに関するまとめサイト「The A-Z of AI」を公開しました。A-Zの26個の項目が並んでいます。

選ばれた26のトピックから本記事ではARグラスが普及した時代「Spatial Computing(空間コンピューティング)時代」に向けて応用できる項目を4つほど選び、バーチャルアシスタントの具体像に迫ってみたいと思います。

Fakes

pexels-photo-1716861
Photo by Carolina Castilla Arias on Pexels.com

ディープフェイクは現実世界の画像や音声を研究、詳細にマッピングおよび操作をして、不気味なほど忠実なフィクション作品を作成することで機能します。

ほんの数年前には不可能と考えられていたこれらの技術は、ハリウッド映画のCGIから音楽制作、ポルノに至るまで、幅広い分野で応用されています。多くは娯楽や想像力をかきたてることを目的としていますが、不適切な使い方をすれば、社会に有害な誤報を生み出す可能性もあります。

Fakes文脈で注目しておきたい事例は2つです:「Ryff」と「Pokemon Go」。

たとえばGoogleが提供する3D検索では、動物のリアルなオブジェクトをその場に表示できます。ただ、未だ一瞬で3Dであると見破れる完成度に留まっています。

DeepFake技術が進めば、カメラが現実世界の環境条件を認識し、リアルタイムでとても高精度の3Dオブジェクトがレンダリングされる世界が実現するでしょう。すでにLA拠点の「Ryff」は映像市場で超高精度のAI画像およびパターン認識を活用したユースケースを提供しています。

次世代フェイクの概念も知っておくべきでしょう。Pokemon Goは仮想世界に住むポケモンとのやり取りをスマホのカメラ越しに実現させました。そしてイベントがあれば街の至る所でユーザーたちが画面を見つめながら必死にモンスターボールを投げている光景を見かけます。

しかし、現実世界に住む私たちから見れば、何をしているのかわからない“小さいコミュニティ”にしか見えません。こうした仮想・虚構の存在に導かれて発生する「フェイクコミュニティ」を今後頻繁に見かけることになるでしょう。昨年、筆者も参加したAppleが主催のARを楽しむウォーキングイベント「[AR]T Walk」でも、複数の参加者が、街行くに人にはわからない3Dオブジェクトを眺めるという楽しい体験がありました。このように、同時多人数でARを楽しむコラボレーション体験が増えるほど「フェイクコミュニティ」の発生数も増してきます。

Image Recognition

pexels-photo-3571093
Photo by Torsten Dettlaff on Pexels.com

コンピュータビジョンとして知られている画像認識システムは、提供された参照画像を調べるだけで、個人から有名なランドマーク、ペットまで何でも認識できるようになります。このシステムは、スマートフォンの写真を整理するなどの日常的な作業を楽にします。例えば、旅行に行った後に休暇の写真の新しいアルバムを自動的に提案します。

それぞれの画像は指紋のようなものです。AIシステムは、色や形などの識別機能を見つけ出し、何千もの画像と相互参照して正確に認識し、ラベルを付けるように訓練されています。また、ランドマークやグループ旅行の写真を認識できるのと同じ技術は、外国語の警告標識を翻訳したり、オンライン上の露骨なコンテンツから子供たちを保護したりするのに役立ったりと、他の場所でもより深く活用されています。

Spatial Computing時代は、ARグラスが広く普及した世界を前提に話が進みます。この時代では一人称視点の高性能カメラを手軽な価格で手にすることができます。そこでは、かつてGoogle Glassが登場した際に人気を集めた視覚障害者向けの音声サービス「Envision」のようなスタートアップが再興するはずです。

画像認識技術が進んでいることや、昨今のGoogle Map ARナビゲーション機能実装のことを考えると、Envisionと比較して、かなりの付加価値を持った市場展開がなされると考えています。

さらに、Google Glassは2Bを中心に市場戦略が進んでいるため、Envisionが手をつけられていないユーザーは多くいると思います。そこで、今のうちから中国の安価ARグラス「Nreal」などを提供しながら、自社音声サポートサービスなどを展開すれば大きな成長が望めるのではないでしょうか。

Speech Recognition

pexels-photo-699122
Photo by Tyler Lastovich on Pexels.com

音声認識システムは、ディクテーションソフトウェアから言語翻訳ツール、音声起動型スマートスピーカーまで、あらゆるもののバックボーンを形成しています。機械は音声を認識することはできても、人間と同じように理解できるわけではありません。人間は、文脈がなくても、文章がごちゃごちゃしていても、言葉を理解することができます。しかし、機械はそれが難しいのです。

“自然言語処理 “は、人間の複雑な話し方をよりよく理解するために、AIが文法的なルールを引き出し、生きた音声を分析することを可能にする、最近の音声認識の進歩である。これにより、AIシステムは、トーンやユーモアなどの何かが文章の意味をどのように変えてしまうのかを把握することができるようになります。

これらの技術は、私たちが何を言うかだけでなく、何を意味するかを理解するために着実に進化しています。AIの設計チームは、システムにより多くのニュアンスを組み込む方法を継続的に模索しているため、人々はこれまで以上にAIとシームレスで自然なやりとりをすることができるようになっています」とのこと。

筆者は直近まで音声サービスのアイデアを模索していたこともあり、今後タイピング入力から音声入力、ジェスチャー入力といったUIへと大きく転換する予感がしています。ARグラスを用いた体験では、スマホのスクリーン上で行うような高速タイピングは想定されていません。その上で、入力コストを圧倒的に下げて、ユーザーが検索したいことを即座に反映させる入力は音声が現実的でしょう。たしかに公共の場で声を発しづらいなどの解決すべき根本課題が存在しますが、何かしらの解決策が登場するのではないかと思います。

音声UIがARグラスと共に台頭することを考えれば、現在のFace IDやTouch IDに並び、「Voice ID」の重要性が高まると考えます。

すでにAmazon Echoは空間内で特定の人物を認識できますが、より音声認識技術が発展すれば、各ユーザー特有の発生をIDとして活用できるようになるかもしれません。冒頭で説明したFakesに絡み、フェイク音声技術はすでに確立しつつあり、いずれバッティングするかもしれませんが、こうしたセキュリティ上の市場課題を乗り越えれば、非常に大きなニーズを獲得するでしょう。この分野では大型スタートアップが登場しそうです。

Virtual Assistants

pexels-photo-3862601
Photo by ThisIsEngineering on Pexels.com

Virtual Assistantsは、基本的には人間のアシスタントをデジタル化したものです。最もよく知られている例は、スマートフォンやスマートスピーカーを介して話す音声アシスタントです。

これらのアシスタントは日常的に、オンラインで情報を検索したり、音楽を再生したり、基本的な質問に答えたりするのに役立っています。人々の生活や家庭がより接続されるようになるにつれ、バーチャル・アシスタントは、新しいタスクをより簡単に実行するのに役立つようになります。

話しかけられたコマンドに反応することで、これらのアシスタントを簡単かつ効率的に使用できるだけでなく、読み書きの問題や障害、その他の理由でキーボードに困難を感じる人にもメリットがあります。AI機会学習を利用して、バーチャルアシスタントが質問の文脈を理解し、人間の声を解釈するために使用する自然言語システムは、人とそのデバイスの間に、より自然な会話を生み出しています。

説明文にもあったように、現在のVirtual Assistantsの好例はSiriやGoogle Assistantに代表される音声アシスタントでしょう。ただ、今後はここまで紹介してきた「Fakes」「Image Recognition」「Speech Recognition」の集大成のような新たなアシスタントが登場します。

それが冒頭で紹介したようなバーチャルヒューマンたちです。

たとえば、GucciやLouis Vuittonのような高級ブランドの背景や世界観を汲み取った音声と容姿をした本物そっくりのバーチャルヒューマンが開発されれば、話す内容や口調はそれぞれのブランドに最適化されたものになるはずです。

ARグラスを通じ、こうした仮想世界のブランドキャラクターとやり取りすることもSpatial時代の特徴です。高いAI画像認識・音声認識を元に、高精度のフェイクヒューマンとコミュニケーションを取る時代がSpatial Computing時代とも言えます。

本稿は次世代コンピューティング時代のコミュニケーションデザイン・カンパニー「.HUMANS」代表取締役、福家 隆氏が手掛ける「 THE .HUMANS MAGAZINE」からの要約転載。Twitterアカウントは@takashifuke。同氏はBRIDGEにて長年コラムニストとして活動し、2020年に.HUMANS社を創業した

----------[AD]----------

Amazon Go Groceryがもたらすフード革命

Amazonは同社史上初となるフルサイズのキャッシャーレススーパーマーケットのオープンにより、フードシステムに大規模なパーソナライゼーションをもたらし、第二次世界大戦の終わり以降長らく保たれてきた常識を覆そうとしている。 戦後、連邦政府の法案に反映された食糧政策は、食糧を豊富に、手頃な価格で、そして安全に保つことだった。Cargillの前CEOであるGreg Pageの言葉を借りれば、米国連邦政府…

Capture-40-640x472.jpg
シアトルにオープンしたAmazon Go Glocery店舗(Image Credit : Taishi Masubuchi)

Amazonは同社史上初となるフルサイズのキャッシャーレススーパーマーケットのオープンにより、フードシステムに大規模なパーソナライゼーションをもたらし、第二次世界大戦の終わり以降長らく保たれてきた常識を覆そうとしている。

戦後、連邦政府の法案に反映された食糧政策は、食糧を豊富に、手頃な価格で、そして安全に保つことだった。Cargillの前CEOであるGreg Pageの言葉を借りれば、米国連邦政府は、地球上には各人たった1ドルですべての人に十分な食料があることを保証している。

これは、特にカロリーとタンパク質の生産にフォーカスした食糧政策だ(原料となるトウモロコシ、パンになる小麦、家畜飼料のための大豆とする)。この政策の結果、商品価格が大幅に低下し、中西部の農作物生産者は生計を立てることができなくなり、一人前の分量が数年ごとに倍増するほど安価で糖尿病を引き起こす「ファストフード国家の食品」に行き着いた。全く、誰も得をしない食糧政策だ。

食品システムの反対側で、消費者にも目を向けてほしい。Hellmann’sなどの「レガシーブランド」が衰退している一方で、Sir Kensington’sのようなオーガニックブランドは急速に成長している。これは消費者が食に対し、価値観、味、願望を反映するようになりつつあることの表れである。

ほぼすべてのレガシーフードブランドの売上は横ばいまたは減少しているが、小さなエキゾチックフードブランドは急成長している。小売業者はとにかくCheeriosのような商品では稼げないため、より稼げるNature’s Path、Cascadian Farms、Bob’s Red Millのような商品を棚に置きたがっている。そして、消費者が欲しているのもそれらのブランドなのだ。

もちろん、Amazonのホールフーズは、主流になりつつある最新のニッチフードサービスを実験していく発信者でありマスターだ。ホールフーズは、ヴィーガン、肉中心の古食、ナッツ中心のスーパーフード、ナッツを含まない低刺激性スナックなど、トレンドの完全食に対応している。

大きなストアは通常、価格や機能をスマートフォンを使って比較する消費者を恐れる。しかしAmazonは、販売を促進するハイパーパーソナライズされた情報を顧客に提供する道を切り開いた。考えられるあらゆる倫理的、実践的、また物理的な軸に沿って、各ストックユニットを探索できるプロジェクトとの関係性を目の当たりにできる。

また、数百台のカメラとセンサーで消費者を追跡するキャッシャーレススーパーマーケットでの最新実験にも注目したい。 Amazonは「自動運転車で使用されているのと同じタイプのテクノロジー:コンピュータービジョン、センサーフュージョン、ディープラーニング」を使用して、どの顧客がどの製品を排除(または閲覧のみ)するかを特定および監視する。

商品への視線や接触、足取りなどが分析され、この発表後にKrogerやCostcoのようなレガシー食料品チェーンが株式市場において大敗していることに驚きはない。Amazonが成したのは、それが偶然であれ意図的であれ、戦後の食糧システム全体をかき回し、作物助成金によってではなく、背後にいる消費者によって動かされる仕組みに変えたことだ。

消費者は、Amazon Goのかなり正確にパーソナライズされたレコメンドにより、オーガニックスペルト、インコーン、エンマー小麦入りの朝食シリアルなどを列に並ばずに購入できる。それだけでなく、他の農家が育てている冬小麦を栽培していないがために突然生計を立てられるようになった農家に対して、より多く支払おうという意思が逆伝播する。

多様な植物、サステナブルな生産過程、またテロワール(場所・気候・土壌などの栽培環境)など、特定の属性を持つ食品をより多くの消費者が望むほど、農場システムは分解され、農家が生計を立てるための実行可能な道を提供する。アメリカの田舎にとっては、よいことなのではないだろうか?

VentureBeat編集部注:この記事をゲストポストしてくれたAdam Wolf氏はアグリテックスタートアップのArable Labs.の創業者であり、チーフサイエンティスト。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

3Dモデルテクスチャ作成をAIで驚異的に効率化したArtomatix、Unity傘下に

SHARE:

ピックアップ:Unity Technologies Buys Artomatix ニュースサマリ:3月10日、AIで3Dモデルのテクスチャ作成補助をする 「Artomatix」が、3D開発プラットフォームを運営する「Unity Technologies(以下、Unity)」に買収された。買収額は公開されていない。Artomatixは2014年にアイルランドで創業。写実的なコンテンツの作成をAIで補…

APatel_Artomatix_Newsletter_Spheres_001
Image Credit:Artomatix HP

ピックアップ:Unity Technologies Buys Artomatix

ニュースサマリ:3月10日、AIで3Dモデルのテクスチャ作成補助をする 「Artomatix」が、3D開発プラットフォームを運営する「Unity Technologies(以下、Unity)」に買収された。買収額は公開されていない。Artomatixは2014年にアイルランドで創業。写実的なコンテンツの作成をAIで補助するArtEngineを提供する。

Unityは、リアルタイムの3D開発のためのプラットフォームを提供し、初心者からグローバルブランドまでアクセス可能なツールを提供する。同社には、Google、Facebook、Oculus、Autodesk、Microsoftなどのパートナーと共に働く1,000人のチームが存在する。

hero-2500-004
Image Credit:Artomatix HP

話題のポイント:今や3Dモデルはゲーム、自動車、インテリア、ファッションデザイン、製品デザインと生産に欠かせないものとなっています。その中でもテクスチャ作成は世界観を作り出し、没入させるのに重要な要素です。写実的になればなるほど少しのズレが違和感を生んでしまいます。

そして年々、PC側の処理性能が上がる中で表現の幅が広がり、要求レベルは上がっています。しかし、クリエーターのリソースには限界があるため高品質コンテンツを如何に効率よく作れるかという課題がありました。これがArtomatixがAIで解決する問題です。

課題をミクロに見ると、テクスチャの高品質化によってプロセスの複雑性が増しているというよりはチューニングが困難になっている状況です。人間が反復する煩雑な作業を自動化するのに最適であるAIとは相性が抜群であるということです。

Artomatixが効率化した時間は驚異的です。従来、一つのシーンのテクスチャアセットを準備するのに数時間や数日必要だったのが、ArtEngineを用いると数分で済むようになります。クリエーターにとってのインパクトの大きさが垣間見えます。

ArtEngineの最大の特徴は、スキャン/写真を物理ベースのレンダリングマテリアル(PBR)に変換するのが優れている点です。 

2020-03-17 0.55.17
Image Credit:Unity Youtubeチャンネル(ArtEngineを使用して作成された3Dモデル)

例えばシーンを写真のようにリアルにしたい場合、多くのアーティストがスキャン/写真測量3Dワークフローを使用します。しかしこれらのテクスチャを高品質に保ち、インテリジェンスに振る舞いながらシーンに直接適用できるのは同様ツールであるAdobeのSubstanceと比べても優位性があると言えます。

ただこれ、今すぐに使い始めたい方もいると思いますが、残念ながらすぐに使えるになるわけではありません。

これまで主に大手スタジオと大企業の顧客を対象とした製品であったため、ハイエンドのGPUハードウェア上で実行され、個別のライセンスではなくスタジオ製品として価格設定されていました。

ArtEngineはスタンドアロンツールでエンジンに依存しないとはいえ、Unityの一部としてArtEngineの主要な機能と利点をできるだけ多くのクリエイターに提供する方法をビジネスモデルと共に考案しなければならないため多少時間が必要となります。

一方、UnityとArtomatixの共通理念はコンテンツ作成を民主化することです。プロだけでなく初心者も多く利用するUnityにおいて、イメージしたものを作成できる体験を多くの人に届けられる形にしてくれるはずです。続報が楽しみで仕方ありません。

----------[AD]----------

北京拠点、AIで新型コロナ治療薬の発見を目指す「Stonewise(望石智慧)」が1,000万米ドルを調達

SHARE:

3月16日、北京を拠点とするAIを活用した薬剤開発プラットフォーム「Stonewise(望石智慧)」がシリーズAラウンドで1,000万米ドルを調達したことを発表した。 重要視すべき理由:新型コロナウイルスの登場によって、特有の感染症に対する手当てや診断、治療などにAIを活用するアイディアが注目を集めている。 インフルエンザのような新型コロナウイルス「Covid-19」は、昨年12月末に中国の武漢で…

AI-drug-development-1440x1080
Image Credit :123RF

3月16日、北京を拠点とするAIを活用した薬剤開発プラットフォーム「Stonewise(望石智慧)」がシリーズAラウンドで1,000万米ドルを調達したことを発表した。

重要視すべき理由:新型コロナウイルスの登場によって、特有の感染症に対する手当てや診断、治療などにAIを活用するアイディアが注目を集めている。

  • インフルエンザのような新型コロナウイルス「Covid-19」は、昨年12月末に中国の武漢で最初の発見が報告され、現在世界で約17万人に感染が拡大している。

詳細情報:本調達のリード投資家はLong Hill Capital(長嶺資本)だ。Stonewiseによると調達資金は、研究・開発やテクノロジープラットフォームの改善や最適化、そして技術及びマネジメントチームの拡大に用いられる。

  • 上海を拠点とするLinear Capital(線性資本)も本ラウンドに参加している。
  • Stonewiseは2018年に元 Baidu(百度)の企画責任者Zhou Jielong(周杰龍)氏によって創業された。
  • Stonewiseは、米国のバイオ医薬品企業Beyond Springや中国医学科学院、北京大学医学部など、数多くの国内及び国際企業や研究機関と提携している。
  • 同社は2月、スマートドラッグ研究開発部の副責任者として、Zhang Yingsheng 氏を任命した。同氏は米国のバイオ医薬品企業Verseonの元シニアサイエンティストである。

背景:Stonewiseは現在、北米と中国に研究所を設置しており、今後世界中へ拡大することを目標としている。

  • 同社は現在、コロナウイルスの治療法を研究するために、中国医学科学院薬物研究所と北京協和医学院が共同で活動している。

【via TechNode】 @technodechina

【原文】

----------[AD]----------

年成長率75%超、機械学習を活用した中小事業者向けローン「Lendio」

SHARE:

※本記事は提携するVentureBeat「Lendio raises $55 million to surface small business loans using machine learning」の抄訳になります。 機械学習を活用し、借り手と貸し手を適切にマッチングするプラットフォームを運営する「Lendio」が5,500万ドルの調達を発表。同社CEOのBrock Blake氏は、同調達資…

ezgif-1-ba0b8f75787b-e1582667221886
Image Credit : Lendio

※本記事は提携するVentureBeat「Lendio raises $55 million to surface small business loans using machine learning」の抄訳になります。

機械学習を活用し、借り手と貸し手を適切にマッチングするプラットフォームを運営する「Lendio」が5,500万ドルの調達を発表。同社CEOのBrock Blake氏は、同調達資金は貸し手向けの新機能の追加などに費やされ、同プラットフォームの拡大に寄与すると発言している。

Lendioの機械学習アルゴリズムは、貸し手比較・信用スコアや担保、手数料の算出を行うことで、中小事業者による担保ローン獲得を補助し、全体のプロセスを最適化すると主張する。

事業者は同社ウェブサイト上にて、15分程度で済むアプリケーション・フォームに企業の情報を記入する。すると短期・長期か、クレジットカードかキャッシュか、他にはスタートアップ・ローンか商業モーゲージかなど、複数のオプションから最適なプランを選ぶことが可能。貸し手には American ExpressやChase、PayPal、LendingClub、Kabbage、 Comcast Business、Staples, and Funding Circleなどが名を連ねる。

lendio3
Image Credit : Lendio

Lendioは過去2年間で10万件のローンを提供してきた実績を持ち、その合計額は20億ドルに及ぶという。また年間成長率は75%を超えている。

Brock氏は、本調達資金は、資金管理ダッシュボードという新プロダクトの開発資金にも当てられると発言している。これは顧客が自身のキャッシュフローや調達履歴を簡単に閲覧することや、請求書のカスタマイズ、銀行口座とクレジットカードの接続、バランスシートの作成、税計算など可能にする新機能。事業者は会計や請求業務を簡易化でき、またLendioも多くのデータを収集することができる点で大きく期待されている。

また同社は貸し手事業者の性質に合わせ、オリジナルのオンライン・アプリを提供することも検討している。銀行や信用ユニオン、オンライン貸し付け業者など別にカスタマイズされたアプリケーションを提供し、各貸し手は、そのアプリを用いて融資の意思決定が行えるようになる。

今回の5,500万ドルの調達資金のうち、それぞれ3,100万ドルは株式、残り2,400万ドルはデットによるもの。本調達を機に同社の累計調達額は1億ドルに到達している。またLinkedInのデータによれば、同社の従業員は300名規模であるという。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------