THE BRIDGE

Kyle Wiggers

Kyle Wiggers

テクノロジージャーナリスト。VentureBeat では主に AI の話題を担当。

執筆記事

合鍵をスマホで管理、コンビニで作成のキオスク「KeyMe」が3,500万ドルの資金調達

SHARE:

これまで鍵の複製には非常に高いコストがかかっていたが、ニューヨークに本拠を置く「KeyMe」(2012年に自動車技術会社「Aperia Technologies」の元財務ディレクターであるGreg Marsh氏によって設立)は、鍵スキャンを行うキオスクの開発を通じて、こうした従来の業界構造を大きく変えようとする企業である。 同社は1月14日、Brentwood Associatesからの3,500…

keyme-e1578863685865
KeyMe’s kiosk for copying keys.
Image Credit: KeyMe

これまで鍵の複製には非常に高いコストがかかっていたが、ニューヨークに本拠を置く「KeyMe」(2012年に自動車技術会社「Aperia Technologies」の元財務ディレクターであるGreg Marsh氏によって設立)は、鍵スキャンを行うキオスクの開発を通じて、こうした従来の業界構造を大きく変えようとする企業である。

同社は1月14日、Brentwood Associatesからの3,500万ドルの資金調達を発表し、昨年のBlackRockがリードした5,000万ドルのデッド調達ラウンドに続いて総額約2億ドルの調達に成功した。

Marsh氏は、顧客ベースが1,000万人以上に成長するにつれて、1万拠点のキオスク設置という拡大目標を達成するために新しい資金が今後数か月以内に必要と述べた。

「私たちは年間120億ドルの錠業界での新しい顧客体験創出のため、新しいタイプのロボット工学およびAI企業を作っています。Brentwood Associatesと協力してサービスを拡大し、錠業界で最も信頼できるブランドを構築できることを嬉しく思います」

KeyMeは、Albertsons、Autozone、Bed Bath&Beyond、Giant Eagle、Ikea、Kmart、Kroger、Menard’s Rite Aid、Sears and Kmartおよび7Elevenなど、49州(2019年4月時点では2,300の拠点と46州展開)の小売業者および3,000を超える拠点で鍵複製サービスを提供している。同社技術はオフィス、住宅、車両のトランスポンダーとRFIDキーを30秒以内にコピーでき(自動車キーに関しては85%以上をサポート)、モバイルアプリを使った鍵のスキャンとデータストレージサービスを提供する。

クラウドベースのアプローチを採用しており、iOSおよびAndroid用のKeyMeアプリを使用すると、ユーザーは電子メールまたはテキストで鍵を保存、コピー、および共有でき、100を超えるデザインから選択できる。

キオスクの仕組みは次の通りである。顧客は鍵を挿入し、指紋をスワイプ、独自のコンピュータービジョンと機械学習アルゴリズムを機能させる。鍵の歯をスキャンした3D画像を使用して新しい鍵を作成する。作成された鍵はキオスクで直接渡されるか、3〜5日以内に郵便で発送される。

費用に関しては、ディーラーまたはプロの錠前屋が請求する金額と比較して安価である。平均で約70%安く、20ドルから60ドルほどとのこと。そしてKeyMeは、業界標準のエラー率15%-20%と比較して、1桁パーセントのエラー率であるという。

keyme-2
Above: KeyMe kiosk viewed from the front.
Image Credit: KeyMe

一部の専門家は、KeyMeや競合企業であるMinuteKeyとMy Key Machineのような技術により、電子アクセスカードのコピーが非常に簡単になり、犯罪者が高いセキュリティを誇る物件へ侵入できるようになると警告する。ただ、Marsh氏とBrentwood AssociatesのパートナーであるEric Reiter氏によると、KeyMeにはタイムスタンプ、キオスクからのセキュリティ映像、支払いログなど、鍵の所有者を探し出す独自のメカニズムがあると断言している。

さらにKeyMeが顧客に関する最小限の識別可能なデータ(通常は電子メールアドレス、キーデータ、指紋データ)のみを保持し、鍵が出荷された後に正式な名前と住所が定期的に削除されるそうだ。保持されているデータは3つの物理拠点に分割保存されているため、悪意あるハッカーは3つのシステムすべてに侵入して取得する必要があるとも主張する。

「信じられないほど洗練された技術を活用し、高度に差別化された、便利で満足のいく顧客体験を提供するKeyMeは、錠業界で比較できない価値を提供します。米国全体で急速に拡大するフットプリント、国際市場における成長および今後の大幅なサービス拡大の可能性を基に、優れたチームと提携できることに興奮しています」とReiter氏は語る。

KeyMeの既存の投資家には、Battery Ventures、Comcast Ventures、Questmark Partners、River Park Ventures、White Star Capitalが含まれる。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

GoogleのAI、局地的な降水パターンを「瞬時に」予測

SHARE:

GoogleはAI(機械学習)を活用して迅速に局地気象予測をしたいと考えている。同社は論文と一連のブログ記事で、人工衛星の画像を使って「ほぼ瞬時に」高解像度の予測を行うAIシステム(平均して、およそ1kmの解像度でレイテンシーはわずか5~10分)について詳しく説明している。研究チームによると開発の初期段階にも関わらず、従来モデルより優れた性能を持っているという。 このシステムはデータ駆動型で物理学…

google
Image Credit: Khari Johnson / VentureBeat

GoogleはAI(機械学習)を活用して迅速に局地気象予測をしたいと考えている。同社は論文と一連のブログ記事で、人工衛星の画像を使って「ほぼ瞬時に」高解像度の予測を行うAIシステム(平均して、およそ1kmの解像度でレイテンシーはわずか5~10分)について詳しく説明している。研究チームによると開発の初期段階にも関わらず、従来モデルより優れた性能を持っているという。

このシステムはデータ駆動型で物理学に依存しない気象モデリングを採用しており、事前情報を取り入れるのではなく、気象例のみによって近似する大気物理学を学習する。これを支えるのが畳み込みニューラルネットワークで、天候パターンの入力画像を取り込み、それを新しい出力画像に変換する。

Googleの研究者らが説明しているように、畳み込みネットワークは、各層が数学演算の集合である一連の層から構成される。この場合はU-Netと呼ばれ、各レイヤーは通過する画像の解像度を下げる符号化フェーズで配置される。別個の復号化フェーズは、符号化フェーズ中に生成された低次元表現を拡大する。

U-Netへの入力には、所定の時間における一連の観測のマルチスペクトル衛星画像毎に1チャンネルが含まれる。たとえば、1時間に10個の衛星画像が収集され、各画像が10個の波長で撮影された場合、画像入力は100個のチャンネルを有する。

初期作業として、エンジニアリングチームは2017年から2019年の期間を4週間毎に分割した米国の歴史的観測データを用いてモデルをトレーニングし、その一部を評価用に確保した。チームはモデル性能を次の3つのベースラインと比較した。米国海洋大気庁(NOAA)の数値予測モデル「High Resolution Rapid Refresh(HRRR)」(1時間の全累積表面予測)、連続する画像から動く物体を分析するオプティカルフロー・アルゴリズム、そして、将来の各地の降水量が現在と同じであると仮定したパーシスタンス・モデルである。

研究者らの報告によると、自社システムの精度は総じて3つのモデル全てに勝っていたものの、予測範囲が約5~6時間に達した時点でHRRRが性能を上回り始めたという。しかし、HRRRのレイテンシーは自社システムのレイテンシーよりも1~3時間、あるいはそれ以上に長く時間がかかることを指摘している。

HRRRで使用されている数値モデルは、フル3D物理モデルを使用しているため、長期的な予測をより正確に行うことができます。雲の形成は2D画像からは観測が難しく、「機械学習」方法で対流動向を学習するのは困難です。

研究者らは続けて語った。

短期予測に適した弊社機械学習モデルと長期予測に適したHRRR、これら2つのシステムを組み合わせることで、全体的に見て、より優れた成果を上げることができる可能性があります。

研究者らは、機械学習が3D観測に直接適応できるよう、今後の研究に委ねている。

もちろん、AIを使って天気や自然現象、災害を予測しているのはGoogleだけではない。昨年初めにはIBMは2016年に買収した、気象予報およびIT企業のThe Weather Companyが開発した新しい天気予報システムをローンチした。このシステムは高精度な世界各地の天気予報を提供する。Facebookの研究者らは、衛星画像を分析して火災や洪水によって被災した地域の被害状況の程度を把握する方法を開発した。また、スタンフォード大学の地球物理学科の科学者らは、歴史的・連続的なデータから一連の地震信号を分離し特定することができる、Cnn-Rnn地震探知機(CRED)と呼ばれるシステムを使って実験を行った

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

サムスン子会社のSTAR Labs、人そっくりの動きを再現するAIアバター「Neon」を公開

SHARE:

サムスンは AI アシスタントで満たされた世界を標榜しているが、我々が慣れ親しんでいるようなチャットボットを使ったアシスタントのようなものではない。ソウルに本社を置く同社は、6日夜のプレスリリースで、子会社の STAR Labs が開発したプロジェクト「Neon」を発表した。このプロジェクトは、「サイエンスフィクションを実現する没入型サービス」の提供を意欲的に目指している。 サムスン電子のヒューマ…

Image credit: STAR Labs

サムスンは AI アシスタントで満たされた世界を標榜しているが、我々が慣れ親しんでいるようなチャットボットを使ったアシスタントのようなものではない。ソウルに本社を置く同社は、6日夜のプレスリリースで、子会社の STAR Labs が開発したプロジェクト「Neon」を発表した。このプロジェクトは、「サイエンスフィクションを実現する没入型サービス」の提供を意欲的に目指している。

サムスン電子のヒューマンコンピューターインタラクション研究者で、元シニアバイスプレジデントである Pranav Mistry 氏は、Neon の基盤となるソフトウェアエンジン「Core R3」が、映画、拡張現実(AR)体験、Web、モバイルアプリで使われるリアルなアバターをアニメーション化すると説明した。

(彼らは)自律的に新しい表現、新しい動き、新しいダイアログを作り出す。キャプチャされた元のデータとはまったく異なる見え方を再現する。キャプチャされたデータから、新たな動きが作り出されるまでの遅延は数ミリ秒未満だ。(Mistry 氏のツイッターから)

Neon のアバターは、コンピュータ生成されたキャラクタというより動画のようだ。設計上、これらのアバターはメディアを超えて「仲間や友人」になり、ホテル、店舗、レストランなどのコンシェルジュや受付に立つことを目的としている。とはいえ、彼らは個人情報が許可なく共有しないよう、厳格にプライバシーを保証をするよう設計されている。

彼らには、ユーザが使う平均的な AI アシスタントほどの能力は無い。記者に共有された FAQ の中で、STAR Labs は、Neon のアバターは「何も知らない」と明示しており、「天気予報を尋ねる」「お気に入りの音楽を再生する」といったことに対応できるインターネットにつながったインターフェースでもない。その代わり、会話をして目標のあるタスクを支援したり、人間的な質感を必要とする少し複雑な事柄を支援したりするのだ。

Mistry 氏によれば、β版が今年後半にリリースされ、企業は「Neon-as-a-service」のライセンスを取得または購読できるようになる。Neon アバターの知能、学習、感情、記憶を担当する2番目のコンポーネント「Spectra」はまだ開発中で、今年後半のカンファレンスでデビューする可能性がある。

我々は SF 小説や映画の中で、そのようなバーチャルな生き物を常に夢見てきた。 Neon のアバターは我々の世界と連携し、「人間は人間」であり「機械は人間」である、より良い未来への新しいリンクとして機能する。(Mistry 氏の声明)

Image credit: STAR Labs

AI を使って忠実に再現されたアバターは、地球上で最も斬新なものではない。 2018年11月、中国で毎年開催される「World Internet Conference(世界互連網大会)」で、国営の新華社通信は24時間にわたってニュースヘッドラインを読み上げることができる AI ニュースキャスター「Qiu Hao(邱浩)」をデビューさせた。スタートアップの Vue.ai は、服による違いを排除し、リアルなポーズや肌の色などを学習させることで、AI によるモデルが洋服を着用したファッション画像の生成を実現した。また、Boris Johnson 氏があたかもやっていないスピーチをしたかのように、政治家候補のフェイク動画を作るのにも AI や機械学習は使われてきた。

Neon は、2009年に Lionhead Studios が開発したプロトタイプのエモーショナル AI 体験「Project Milo」を想起させる。Milo は、話し言葉、ジェスチャー、事前定義されたアクションに応答する AI 構造を特徴としており、音声生成クリップと会話中の単語を一致させることができる、組み込み辞書を常に更新する手続き生成システムを備えている。

Milo は日の目を見ることがなかったが、サムスンは今後も Neon に使われている技術を商業化することに熱心なようだ。時が経てば、それがわかるだろう。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

DIYの自動運転キット「Comma.ai」が再来、次代型のハードウェアを発表

SHARE:

※本記事は提携するVentureBeat「Comma.ai launches Comma Two, a $999 kit that imbues cars with assisted driving features」の抄訳になります。 市場アナリストは2020年までに1,000万台以上の自動運転車が道路に衝突すると予測していた。これは決して強気の予測ではなかった。 ところが、2016年になるとG…

comma_two-e1578431755389.png
Image Credit: Comma.ai

※本記事は提携するVentureBeat「Comma.ai launches Comma Two, a $999 kit that imbues cars with assisted driving features」の抄訳になります。

市場アナリストは2020年までに1,000万台以上の自動運転車が道路に衝突すると予測していた。これは決して強気の予測ではなかった。

ところが、2016年になるとGuardianとBusinessInsiderの2誌は、2020年から完全自動運転車に乗れるようになり、私たちが運転席に座ることはなくなり始めると予測。ただ、2025年には最大800万台の無人運転車が道路に追加されるという保証がある関わらず、未だ市場に自動運転は普及していないのが現状だ。

たとえば、AlphabetのWaymoのような自動運転企業でさえ、指定区域外でのオペレーション拡大を図れていない。大きな理由として、規制と技術の問題が挙げられるが、費用が足かせになる点が挙げられる。控えめな見積もりでも、1台あたり10万〜25万ドルの実装コストを必要とする。

そこで高額な費用ではなく、DIYによって自動運転を実現させたいとした人物がいた。それが5年前に登場したComma.ai創業者のGeorge Hotz氏である。Hotz氏はAppleのiOSを標的としたハッキングシステムを開発し、SonyのPlayStation 3をリバースエンジニアリングすることで有名な米国のハッカー。

2015年9月、Hotz氏は自動車に自動運転機能を吹き込む支援システム「OpenPilot」を開発。しかし、OpenPilotの立ち上げは多くの障害が立ちはだかった。Bloombergの記事で公開された最初のバージョンは、カリフォルニア州自動車局からの認可を受けず、免許なしで自動運転車をテストしたと非難された。

その後、OpenPilotは「Comma One」と呼ばれる出荷可能なデバイスにパッケージ化された。ただ、Comma Oneは米国連邦自動車安全基準に違反したため、再び当局に違反したと指摘される。結局、当局からの圧力を受け、Comma Oneの開発は断念しなければならず、GitHub上でOpenPilotはオープンソース化された経緯を持つ。

こういった経緯で8日に発表されたのが「Comma Two」になる。Comma.aiは以前、フロントガラスに取り付ける型の改良版OnePlusスマートフォンである「Eon Devkit」を販売していた。599ドルからの価格で、OpenPilotがインストールされるとCANネットワークトラフィックを分析することで自動車モデルが自動認識される。

Comma TwoはEon Devkitの機能をほぼ全て踏襲しているアップデート版。Comma Twoに搭載されているOpenPilotは路上カメラ・CAN・GPS・慣性測定ユニット・磁力計・温度センサー・オペレーティングシステムの情報を基に、Comma.aiの​​サーバーに運転データをリアルタイムでアップロードする。値段は1,000ドルから。最初の販売キットは300個ほど展開され、今すぐに購入可能だ。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

Facebookやマイクロソフトら、ディープフェイク検出技術を募るコンテスト「Deepfake Detection Challenge」を来年3月末まで開催

SHARE:

ディープフェイクとは、既存の画像、音声、動画で人物を記録し、AI アルゴリズムを使って他の人物に置き換えるメディアのこと。このディープフェイクが急速に増加している。アムステルダムに本拠を置くサイバーセキュリティスタートアップ Deeptrace は、今年6月と7月の集計分で14,698のディープフェイク動画を発見した。昨年12月には7,964だったので、わずか7ヶ月で84%増加したことになる。ディ…

Image credit: Deepfake Detection Challenge

ディープフェイクとは、既存の画像、音声、動画で人物を記録し、AI アルゴリズムを使って他の人物に置き換えるメディアのこと。このディープフェイクが急速に増加している。アムステルダムに本拠を置くサイバーセキュリティスタートアップ Deeptrace は、今年6月と7月の集計分で14,698のディープフェイク動画を発見した。昨年12月には7,964だったので、わずか7ヶ月で84%増加したことになる。ディープフェイクが厄介なのは、選挙期間中に世論に揺さぶりをかけたり、犯してもいない犯罪に誰かを巻き込んだりするだけではない。これまでにポルノ素材を作成して、企業から数億米ドルを搾取する事件も起きている。

Facebook はディープフェイクの広がりに対抗すべく、Amazon Web Services(AWS)やマイクロソフトのほか、コーネル工科大学、マサチューセッツ工科大学、オックスフォード大学、カリフォルニア大学バークレー校、メリーランド大学カレッジパーク校、ニューヨーク州立大学アルバニー校らと AI に関する提携関係を結び、9月に発表された「Deepfake Detection Challenge」の先頭に立っている。オープンソース検出ツールの開発を確実にするための研究を促進すべく、先週、バンクーバーで開催されたカンファレンス「NeurIPS 2019」で世界に向けてローンチされた。

Facebook は、このコンテストへの参加促進のため1,000万米ドル以上を寄付。AWSはサービスクレジットで最大100万米ドルを寄付し、必要に応じて参加者モデルを提供。Google のデータサイエンス・機械学習プラットフォーム「Kaggle」は、課題一覧とリーダーボード(参加者順位とスコア一覧)を提供する。

Facebook の CTO Mike Schroepfer 氏は、ブログ投稿で次のように語っている。

ディープフェイク技術とは、実在する人が架空の物事を実行したり発言したりする、AI が生成した動画のこと。ディープフェイクはオンライン上で提供される情報の正当性を決定づける上で影響が大きいが、テック業界にはそれらを検出するための優れたデータセットやベンチマークは存在しない。見ている人をミスリードする動画に AI が使われた時、それを誰もが検出できる技術が生まれることを期待したい。

Deepfake Detection Challenge が提供する動画からは、無修正の画像(左)とディープフェイク画像(右)が確認できる。
Image Credit: Facebook

前述したように、Deepfake Detection Challenge では、AI で操作されたメディアを検出および防止する新しい方法の作成を促進するため、データセットのほか助成金や賞金も提供される。これまでにも、カリフォルニア大学バークレー校や南カリフォルニア大学の研究者によって開発され、AI 操作されたビデオを90%超の精度で識別するいくつかのツールがリリースされているが、ターゲットとなるディープフェイクは常に変化している。 Pinscreen の CEO Hao Li 氏は The Vergeとの最近のインタビューで、「AI フェイクと現実を区別することがほぼ不可能になることを狙って、合成技術は絶えず進化している」と指摘した。

Deepfake Detection Challenge の主催者は、さまざまな俳優(概ね54%が女性、46%が男性)を雇ったベンダーサービスを使って、さまざまな設定、ポーズ、背景で現実的なシナリオを描いたビデオを作成した。 AI で操作されたかどうかを説明する付属ラベル。その後、さまざまな機械学習技術を使用して、元の映像のサブセットから改ざんされたビデオが作成された。顔を入れ替え、動画から音声の変更が行われ、一部のサンプルには、オンラインで共有された動画で生じる劣化が擬似的に追加された。

Facebook の AI リサーチマネージャー Christian Ferrer 氏は、データセット(合計100,000以上の動画など)が、10月の映像解析に関する国際会議で対象を絞った技術作業セッションでテストされた、と語った。これにはユーザデータは含まれず、研究を妨げる可能性のある制限を回避するため、使用契約を締結した参加者のみを対象としている。さらに、Ferrer 氏によると、データセットへのアクセスは制限されており、ライセンスに同意したチームのみがアクセスできるという。

最先端の研究を使用してディープフェイクを検出できるようにするには、大規模で、現実に近く、有用で、自由に利用できるデータセットが必要になる。そのようなリソースは存在しなかったため、ゼロから作成する必要があった。(Christian Ferrer 氏)

Deepfake Detection Challenge の参加者は今月11日以降、資料をダウンロードしてディープフェイク検出 AI モデルをトレーニングすることができる。設計が完成したら、コードセットをブラックボックス検証環境に送信すると、テストセットに対するモデルの有効性を評価するメカニズムが提供される。参加者は参加するためにモデルを共有する必要はないが、チャレンジ賞の資格を得るには作品をオープンソース化することに同意する必要がある。同意した場合でも同意しなかった場合でも、トレーニングデータセットでトレーニングされたシステムに対する権利は参加者が保持することができる。

Deepfake Detection Challenge は、AI とメディアの完全性に関する AI 運営委員会(AI’s Steering Committee on AI and Media Integrity)との関係により促進・監督されている。この委員会は、Facebook、非営利人権団体の Witness、マイクロソフト、その他の市民組織、テクノロジー・メディア・学術の各コミュニティなどからなる連合体で構成されている。2020年3月末まで運用される予定だ。

Facebook の AI ディレクター兼ビジネスリーダー Irina Kofman 氏は次のように述べている。

産業界、学界、市民社会、メディアを含む複数の分野のパートナーからのコミットメントと、チャレンジを実施するために何ヶ月にもわたって一緒に実行する方法を見出せたことは刺激的だ。それぞれがそれぞれの分野からの洞察をもたらし、幅広い視点を検討できるようになった。コミュニティをまとめ、コラボレーションを促進することで、この分野での進歩を加速できることを願っている。

Deepfake Detection Challenge がローンチされる前、Google の社内テクノロジーインキュベータ Jigsaw とのコラボレーションで作成された画像ディープフェイクに関する大量の情報が公開された。これは、合成ビデオ検出システムの開発に関わる研究者らが、自由に利用できるベンチマークとして用意されたものだ。Google は今年初め、AVspoof 2019 のコンテストの一環として、実際の音声とコンピュータ生成の音声を区別できるシステムを開発するために、同社のテキスト読み上げモデルで話されたフレーズを含む音声データセットを公開した

Facebook の AI 担当バイスプレジデント Jerome Pesenti 氏は次のように述べている。

これらの問題に対抗するには、単純かつ決定的な技術的解決策は存在しないことはわかっている。 しかし、研究に対するオープンなアプローチは、AI を使用して他人を欺くために AI で動画操作することを防ぐ、新しいツールを構築するのに役立つと確信している。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

Amazon Translateがパワーアップ、合計54言語と2804の言語ペアに対応

SHARE:

12月に米ラスベガスにて開催予定のAWSイベント「re:Invent」に先駆け、AmazonはAWSの一機能であるAmazon Translateに関するアップデートを公開した。同サービスはAPIを通して言語翻訳をするというもの。今回のアップデートでは対応言語並びにサービス提供地域が大幅に追加された。 Amazon Translateは2017年11月に限定公開され、昨年4月に一般公開された。同機…

amazon-2
Image Credit: VentureBeat

12月に米ラスベガスにて開催予定のAWSイベント「re:Invent」に先駆け、AmazonはAWSの一機能であるAmazon Translateに関するアップデートを公開した。同サービスはAPIを通して言語翻訳をするというもの。今回のアップデートでは対応言語並びにサービス提供地域が大幅に追加された。

Amazon Translateは2017年11月に限定公開され、昨年4月に一般公開された。同機能では、的確かつ自然な翻訳をAIを利用して提供している。ブランド名、キャラクター名、モデル名など特定個人を指すユニーク性を持つ用語も翻訳することが可能だ。また、自然言語処理と組み合わせることで、感情分析に応用することもできる。

今回のアップデートで新たに追加されたのは22言語で、計54の言語と方言に対応した。また、組み合わせ可能な言語ペア数は2,804にも上る。昨年11月の段階で417、今年10月で987の組み合わせであったため、対応言語数は格段に範囲が広がった。

ちなみにライバル企業のBaidu Translateは16言語、Google Cloud Translationは100を超える言語に対応、またMicrosoft Translatorは60以上の言語に対応する。

今回アマゾンが新規に追加した言語は以下の通り。

アフリカーンス語、アルバニア語、アムハラ語、アゼルバイジャン語、ベンガル語、ボスニア語、ブルガリア語、クロアチア語、ダリー語、エストニア語、カナディアンフランス語、グルジア語、ハウサ語、ラトビア語、パシュート語、セルビア語、スロバキア語、スロベニア語、ソマリ後、スワヒリ語、タガログ語、タミル語。

AWSのテクニカルエバンジェリストJulien Simon氏はブログにて以下のように語っている。

小売事業拡大や顧客問い合わせに対応するための多言語化など、今回対応言語数とペア数が増えたことであらゆる事業拡大に快適さとスムーズさをもたらすことが出来るようになりました。

Amazon Translateは新たに6つの地域におけるAWSサーバーへの対応を発表し、合計17か所で利用できるようになった。(2年前までは3か所のみ)加えて、同サービスは昨年11月より、HIPAAに準拠認定された。さらに、開発者が自動で音声認識システムをアプリケーションに導入できるサービス「Amazon Transcribe」には日本語を含む新たに7言語が追加された。

また、最近では新サービス「Textract」をローンチ。Textractは機械学習を利用したデータテーブル、フォーム、ページ全体の解析をクラウドホスト型で提供する。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

Androidが動く折りたたみデバイス「Surface Duo」MSが発表ーーOutlookなどのアプリも最適化

SHARE:

Microsoftが今日、ニューヨークで開催したイベントで公表したものは驚くべきものだった。なんと折りたたみ式のSurface Neoに電話機能を備えた「Surface Duo」まで登場させたのだ。しかもこれ、WindowsではなくAndroidで動く。 Surface Duoの外観は丸くSurface Neoによく似ている。内部は360度稼働するヒンジが取り付けられており、前面カメラ(解像度はよ…

Microsoftが今日、ニューヨークで開催したイベントで公表したものは驚くべきものだった。なんと折りたたみ式のSurface Neoに電話機能を備えた「Surface Duo」まで登場させたのだ。しかもこれ、WindowsではなくAndroidで動く。

Surface Duoの外観は丸くSurface Neoによく似ている。内部は360度稼働するヒンジが取り付けられており、前面カメラ(解像度はよくわからない)とデュアル5.6インチディスプレイ(展開時には8インチになる!)を備えている。ボディの裏側にはガラスにエッチングされたSurfaceロゴが鎮座しており、Qualcomm Snapdragon 855が採用されている。一方、背面カメラは見当たらない。

ソフトウェアはというと、DuoはGoogle Playストアにフルアクセスできる上、最近発表されたWindows 10Xの美しいカスタムスキンを備えている。OutlookやTeamsなどは、Duoの2画面を活用できるよう、多くのアプリが最適化されているようだ。例えばOutlookでは、一方の画面には受信トレイが表示され、もう一方の画面には作成画面が表示される、といった具合だ。Teamsでは、ミーティングルームは1つの画面にまとまっていて、もう1つの画面はドキュメント編集として使える。また、Duoにプリインされているウェブブラウザは2画面にまたがって使えるようになっている。

microsoft-surface-duo-2.jpg

Microsoftの最高製品責任者であるPanos Panay氏によれば、Surface Duoがお目見えするのは2020年のホリデーシーズンらしい。彼はライバルであるGoogleとの強力なタッグをこう表現している。

「Googleと提携することで、Androidの最高の機能を1つの製品に統合することに成功しました。これは業界をリードするテクノロジーであり、次のイノベーションを起こしうる製品になるでしょう」。

DuoはSurface Laptop 3、Surface Pro 7、Surface Earbuds、Surface Pro Xを含む製品群のお披露目イベントの締めくくりに登場した。Panay氏はSurface Penやデュアルスクリーンを備えたキーボードなど、新たなカテゴリのデバイスを「Neo」と称している。

via VentureBeat @VentureBeat

【原文】

 

 

----------[AD]----------

Facebookらが取り組むファッションのAI「Fashion++」、最小限の服装アレンジを提案し人々をもっと素敵にする

SHARE:

ありとあらゆる衣類が出回る中、それらを組み合わせたファッションに、どんな手を加えれば全体的なスタイルを改善できるだろうか? これこそが、プレプリントサーバの Arxiv.org で発表された論文で、コーネル大学、ジョージア工科大学、Facebook AI Research の研究者らが最近調査した疑問だ。論文に記載されたアプローチが目指すのは、ファッション性に大きく影響するかもしれない服装への微調…

ありとあらゆる衣類が出回る中、それらを組み合わせたファッションに、どんな手を加えれば全体的なスタイルを改善できるだろうか? これこそが、プレプリントサーバの Arxiv.org で発表された論文で、コーネル大学、ジョージア工科大学、Facebook AI Research の研究者らが最近調査した疑問だ。論文に記載されたアプローチが目指すのは、ファッション性に大きく影響するかもしれない服装への微調整を特定することだ。

人間と機械の知力を組み合わせてスタイルを提案したり、衣服にカラーフィルタをかけたり、2つの服装を比較したり、また手持ちの衣類を記録したりするコネクテッドカメラ、Amazon の Echo Look を連想させる。だが研究者らは、自分たちの技法は他のほとんどの技法よりも洗練されていると断言する。

共著者らは次のように述べている。

ココ・シャネルの有名な素晴らしい言葉にもあるように、小さな変更でファッション性に大きな影響を与えられるということが提唱されています。アクセサリーを外したり、もっとネックラインが高いブラウスを選んだり、シャツの裾を入れたり、あるいはもう少し色の濃いパンツに変えたり、わずかな調整で今の服をずっとおしゃれに見せることができます。こういった見解を動機とし、私たちは最小限の変更で服装を改善するというコンピュータビジョンの新たな課題に取り組みました。

この目標はいくつかの技術的な課題を伴うと研究者らは指摘する。まず第一に、AI モデルのトレーニングに関する課題だ。各服装のより優れたバージョンと劣るバージョンの画像の組み合わせがあればシステムに違いを教えることはできるかもしれないが、こういったデータはすぐに入手できるものではないし、流行が変わるにつれて情報は古くなるだろう。またこういった画像の組み合わせを手に入れることができたとしても、前述のモデルはポジティブとネガティブの間の微妙な違いを識別し、オリジナルの衣類を特定し、それと各々の微調整ごとに相乗効果がどう変わるかを推論しなくてはならない。

研究者らは Fashion++ というアプローチで解決に挑んだ。Fashion++ は、1万5,000件を超えるファッション画像でトレーニングを受けた画像生成システムで合成されたエンコーディングに基づいて動作する。オリジナルの服装を与えられると、それを構成する要素(バッグ、ブラウス、ブーツなど)をそれぞれのコードにマッピングし、続いてエンコーディングをアップデートする編集モジュールとして、1万2,000件以上の服装写真(およびそれぞれのネガティブな変更)を入力した「識別ファッション性(discriminative fashionability)」モデルを使う。これにより服装のスコアが最大化され、スタイルが改善される。

Fashion++ は、編集内容を最適化した後、2つのフォーマットでアウトプットを提供する。1つ目は提案内容にもっともマッチする衣料品の在庫検索結果だ。もう1つは、同一人物に編集後の服装エンコーディングから生成された新たなファッションを着せたレンダリングだ。双方のパターン、色、形、フィット感を考慮し、研究者らは各衣類のエンコーディングを基本的な生地や形の構成要素へと因数分解し、編集モジュールが変更箇所や変更内容を制御できるようにした(シャツの形はそのままで色を微調整する、ネックラインを変更したりシャツの裾を入れたりする。あるいは、袖をまくるのに対してパンツをゆったり目にするなど)。さらに、更新の軌道から、もっとも変更の少ない状態からもっともファッション性の高い状態へと移行するまでの一連の編集内容を最後に確認できるようにした。

同チームによると、100件以上のテスト用の服装と Amazon の Mechanical Turk 経由で募った300人近くの人間が関与した人間の知覚研究で、Fashion++ が変更を加えた後の方がよりファッション性に優れていると92%の回答者が評価した。さらに、すでにファッション性が高い服装に Fashion++ が修正を加えたところ、84%が同程度のファッション性あるいはよりファッション性が高いと回答している。

論文の共著者らはこう述べている。

結果はかなり前途有望です。今後は、トレーニングソースの構成内容を広げていく予定です。例えば Instagram などより広範なソーシャルメディアプラットフォームを活用したり、入手可能な在庫のあるものを優先した編集内容にしたり、あるいは個人の好みのスタイルや着用場面に応じて改善点を生成したりしていきます。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

MITらが開発するロボットのボート「Roboat」、自動運転でアムステルダムの運河に橋をかけ歩行者の混雑緩和を狙う

SHARE:

いざという時、広い池や運河、裏庭のプールに架かる橋が必要なことはないだろうか?MIT の研究者と Amsterdam Institute for Advanced Metropolitan Solutions(AMS Institute)が開発したロボットなら、そのニーズに応えられるかもしれない。ロボットのようなボート、略してロボートと呼ばれるこのボートは、様々な配置の組み合わせをすることで「変形…

Roboat
Image credit: Rob Matheson / MIT

いざという時、広い池や運河、裏庭のプールに架かる橋が必要なことはないだろうか?MIT の研究者と Amsterdam Institute for Advanced Metropolitan Solutions(AMS Institute)が開発したロボットなら、そのニーズに応えられるかもしれない。ロボットのようなボート、略してロボートと呼ばれるこのボートは、様々な配置の組み合わせをすることで「変形できる」よう設計されたプラットフォームだ。

MIT の Rob Matheson 氏がブログへの投稿で述べているように、センサー、スラスター、マイクロコントローラー、GPS モジュール、カメラその他のハードウェアが装備された長方形の物体であるこのロボートは、MIT と AMS Institute が共同で実施している Roboat プロジェクトの成果である。プロジェクトの長期的な目標は、アムステルダムに160以上ある運河で人やモノを運び、歩行者の混雑緩和に役立つ橋を自動で組み立てるようにすることだ。

最近の開発状況をみると、最新アルゴリズムがプランニングと追跡を処理して、ロボートの一団が障害物を避けながら水上を移動できるようになっており、3年にわたる共同作業の成果がここに表れている。MIT CSAIL ディレクターの Daniela Rus 氏によると、対象を定めて繫ぎ止めをするラッチ機構を使い、予め定められた進路を移動できる3D 印刷のプロトタイプを制作したという。Rus 氏は次のように述べている。

ロボートは別のロボートと結合と切断ができるようになりました。アムステルダムの路上での活動を水上に移せるようにしたいと考えています。

Roboat
Image credit: Rob Matheson / MIT

ロボートには、コーディネーターとワーカーという2つの基本要素がある。さらに4つのプロペラ、無線マイクロコントローラー、自動ラッチ機構、センサーシステムを備えている。接続されているすべてのワーカーを認識して通信するコーディネーターには、その他にナビゲーション用 GPS、ローカライゼーション、配置、速度を計算する機能を担う慣性計測装置を備えている。

つなげられているロボートは、元々の形状と新たに作る形状との違いを比較し、その場にとどまるか移動をするかを判別する。その後、分離して新たな配置を作る時間が割り当てられる。その際は、衝突しない場所を事前に計算し、最終目的地に向かう最短の進路を見分ける。多くの最適化技術を利用することにより、コーディネーターが最終的な場所へ各ロボートを動かすために配置と速度を計算し、安全な進路を特定するのに100ミリ秒もかからないと研究者たちは述べている。

MIT のプールを舞台に行われた実世界の実験では、論文の共著者がロボートを直線でつながれた状態から再構成させてみせた。ロボートは側面で互いにラッチされ、前後で接続されて直線や L 字型になった。プロトタイプは長さ1メートル、幅50センチだったが、将来はアルゴリズムをスケールしてロボートを長さ4メートル、幅2メートルにするほか、豪雨など厳しい気象条件に対処しつつ、運河の壁のような滑りやすい建造物につなげられるようシステムを頑強にする課題が残されている。

同チームでは年内に、RoundAround と呼ばれるプロジェクトの一環としてアムステルダム市中心部にある NEMO 科学技術博物館と開発中の地域を結ぶ60メートルの運河をまたぐダイナミックな橋を展開したいと考えている。計画通りに進捗すれば、ロボートは運河で巡回運航してドックや乗り場で乗客を乗降させたり、途中で障害物を見つけたら停まったりルート変更したりすることができるようになる。

MIT の Carlo Ratti 教授は次のように述べている。

これは、世界で初めての自動ボートで作られた橋となります。船が行き来しているため、開閉式の可動橋やとても高い橋を作らなくてはならず、通常の橋を建造するのはきわめて高価になります。ところが、水上で漂いながらダイナミックで機敏に反応する建造物になる自動ボートを活用することで、運河の両岸をつなぐことができるのです。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------

Twitter、モバイルアプリ作成エンジン「Lightwell」のチームを買収——会話機能の向上を目指す

SHARE:

アプリ作成エンジンの Lightwell は、対話型ストーリーテリングアプリの開発を手掛けるスタートアップ Hullabalu によって2017年にリリースされた。Lightwell の内部関係者は8月20日、買収額非公開で同社が Twitter に acqu-hire(人材獲得を目的とした買収)されたことを明かした。Lightwell の公式 Twitter アカウントに掲載された声明によると、…

Image credit: Hullabalu

アプリ作成エンジンの Lightwell は、対話型ストーリーテリングアプリの開発を手掛けるスタートアップ Hullabalu によって2017年にリリースされた。Lightwell の内部関係者は8月20日、買収額非公開で同社が Twitter に acqu-hire(人材獲得を目的とした買収)されたことを明かした。Lightwell の公式 Twitter アカウントに掲載された声明によると、Lightwell は Twitter のもとで会話機能の向上に取り組んでいくことになるという。

Lightwell によると、同社のツールセットはこれまでサブスクリプションモデルで提供していたが、今回の買収に伴って、8月第4週からは無料で利用できるようになるという。ユーザはログインやアカウントの作成、プランの購入をしなくても、レイアウト作業やプロトタイプの作成、iOS へのエクスポートができるようになる。Lightwell で構築した公開済みのアプリへの影響はないが、今後 Lightwell を積極的にサポートしたり、新たな機能を追加することはなくなるという。

Lightwell は次のように投稿している。

私たち自身が長い間 Twitter の熱心なユーザでした。Twitter の人たちと長い時間を過ごす中で、会話機能の向上のために私たちの経験を本当に必要としていることがわかりました。Twitter 上で今回の発表を行うのも当然の流れなのです。皆さんのサポートのおかげで、Lightwell はモバイル開発における最もパワフルな設計・開発ツールになることができました。

Lightwell
Image credit: Hullabalu

Twitter はここ数ヶ月、無関係な情報を排除してユーザがプラットフォーム上で会話をフォローしやすいように機能を向上させるべく取り組んでいる。同社は招待制モバイルアプリのプロトタイプで、数珠つなぎになった会話の中の返信や、長大なスレッドの中から他のユーザへの返信に関連するタイムラインを見つけやすくするための表示機能を実装している。

今年初めのベータ版ではカラーコードと入れ子型の返信機能がリリースされた。さらに7月には、ツイートへの返信を非表示にできる機能をカナダ向けにリリースした。グレーのアイコンをクリックすると返信の再表示や対応を行うことができる。

Lightwell は「The Adventures of Pan」という子ども向けのオリジナルシリーズを作成するために Hullabalu が作成したソフトウェアだ。「The Adventures of Pan」は38か国以上でベストセラーとなり、数百万ダウンロードを記録した。デザイナーは Lightwell を使って様々なタイプのデバイス向けにアニメを作成・公開することができる。この際、各デバイスの仕様に合わせるために、開発者に Apple の Xcode 開発環境でアニメを再作成してもらう必要はない。Lightwell ではアンビエントな動きや回転、レイアウト制限、スクロールビューのほかに画面遷移とオーディオマッピングがサポートされている。

Lightwell のターゲットクライアントは、アプリをシンプルに構築・リリースしたいと考えているメディア企業や広告制作会社だと、2年前の TechCrunch のインタビューで Hullabalu の CEO である Suzanne Xie 氏は語っていた。8月20日の買収に至るまでに、ニューヨークに拠点を置く Hullabalu は投資家から650万米ドルを調達していた。投資家には SV Angel、Vayner RSE、Initialized Capital、Technicolor などの企業とともに、Joanne Wilson 氏、Scott Belsky 氏、Carmelo Anthony 氏、Nas 氏などの個人投資家が名を連ねている。

【via VentureBeat】 @VentureBeat

【原文】

----------[AD]----------