BRIDGE

Kyle Wiggers

Kyle Wiggers

テクノロジージャーナリスト。VentureBeat では主に AI の話題を担当。

執筆記事

Amazon新デバイス発表:クルマの危険を察知して自動録画する「Car Cam」(2/2)

SHARE:

(前回からのつづき)一方の車関連ではCar Cam(200ドル)が発表された。ドライバーが家族に対してアラートを出し、車を路肩に停めた時に自動的に録画を開始する「停止検出機能」を備えている。標準的なOBD-IIポートにプラグを差し込み、Wi-Fiまたは内臓LTEから接続して利用できる。 Car Camは、これを実現するために2台目のカメラで車内を監視しており、ユーザーは「Alexa, I&#821…

(前回からのつづき)一方の車関連ではCar Cam(200ドル)が発表された。ドライバーが家族に対してアラートを出し、車を路肩に停めた時に自動的に録画を開始する「停止検出機能」を備えている。標準的なOBD-IIポートにプラグを差し込み、Wi-Fiまたは内臓LTEから接続して利用できる。

Car Camは、これを実現するために2台目のカメラで車内を監視しており、ユーザーは「Alexa, I’m being pulled over(アレクサ、これから車を止めるね)」と言ってカメラを起動し、クラウドに映像を保存する。Car Camにはサイレンも搭載されており、LTE通信を使って通知を送信することができる。これはAmazonが最近発表した、Sidewalkのワイヤレスネットワークと交通事故の認識機能に対応している。

Amazonによると、物理的なカメラシャッターや、室内の映像や音声の録画を電子的に無効にする機能など、プライバシー機能が多数内蔵されているという。これは、本日発表された他のRing製品と同様、来年から利用できるようになる。

また、自動車メーカーが既存のセキュリティシステムにRingを組み込むためのAPI「Ring Car Connect」に対応した「Ring Car Alarm」(60ドル)という新しいカーアラームデバイスも登場している。AmazonによるとTeslaがこれに対応するそうで、例えば顧客が映像を見たり、イベントのお知らせを受け取ったり、ドアがロックされているかどうか(対応モデルは3、X、S、Y)をRingアプリから確認したりできるようになるそうだ。

ちなみにRing Car Alarmについてはどのような車に取り付けられていても、侵入やレッカー、衝突などを検知してくれるとのこと。

記者会見では取り上げられなかったが、30ドルのRing Mailbox Sensorは郵便受けのドアが開いたときに検知し、他のRing製品(Sidewalkネットワークが必要だが)と連携して郵便物の配達の映像を記録する。通知はRingアプリまたは接続されたAlexa対応デバイスから届くようになっている。

関連したニュースを少し。AmazonはすべてのRing製品を通じて録画されたビデオのエンドツーエンド暗号化技術を取得することを発表している(ちなみにAmazon は年末までに利用できるようになるとしているが、具体的な日程については明言を避けた)。

顧客がデバイスやサービスなどを制御できるようにするRingアプリのコンポーネント「Control Center」の立ち上げに続くもので、Fight for the Future や Electronic Frontier Foundation のような市民団体からの批判に対するダイレクトな回答だったと言えるだろう。

彼らはRingが提供するカメラとご近所アプリ「Neighbors」(安心安全のアラートを出す)を利用し、警察とのパートナーシップを介していわば「民間の監視ネットワーク」を構築することを非難してきた。特にElectronic Frontier財団は、AmazonがRingを売るための恐怖を煽る「悪循環マーケティング」を作り出したと厳しく指摘している。人々は疑わしい行動を密告することで、人を分別するようになってしまったのだ。

【via VentureBeat】 @VentureBeat

【原文】

Amazon新デバイス発表:Ring Always Home Camは家庭を監視するドローン(1/2)

SHARE:

本日、年次ハードウェアイベントでAmazonは「Ring」ブランドの新たなデバイスを発表した。家や車を対象にしたバラエティ溢れるラインナップが登場したのだが、やはり特に目を引いたのがRing Always Home Camになるだろう。これは部屋の中を飛んですべての状況を監視する小型ドローンであり、郵便物が届くとユーザーにお知らせしてくれる郵便受けセンサーも付いている。 Always Home C…

Image Credit: Amazon

本日、年次ハードウェアイベントでAmazonは「Ring」ブランドの新たなデバイスを発表した。家や車を対象にしたバラエティ溢れるラインナップが登場したのだが、やはり特に目を引いたのがRing Always Home Camになるだろう。これは部屋の中を飛んですべての状況を監視する小型ドローンであり、郵便物が届くとユーザーにお知らせしてくれる郵便受けセンサーも付いている。

Always Home Camを除けばRing の新製品は特に目新しいものや画期的なものはなかったのだが、それよりも重要なのはこれらのデバイスが発表されたタイミングだ。マザーボード調査でRingのデバイスがサイバーアタックに利用されたという内容を含むフォーラムが発見され、米下院の監視改革委員会が法執行機関と共にRingのデータ共有パートナーシップに関する調査を開始した数カ月後、という時期だったからだ。

というわけで今日のAmazonは、プレゼンテーションの中で繰り返し義務付けられた二要素認証ソリューションを含むセキュリティとプライバシーへのコミットメントを強調し続けていた。

とはいえ、Always Home CamはRingのラインナップに加えて最も興味をそそられる製品であるのは間違いない。250ドルのクワッドコプターは、ノイズを頼りに事前に設定された通り道に沿ってホバリングする。動作中は1080pのビデオを記録し、電池がなくなると自動的にドックに着陸する。

Ringの創業者であるJamie Siminoff氏はThe Vergeの取材に対し「障害物回避型の密閉型プロペラを搭載したAlways Home Camは開発に何年もかかったと語っている。このドローンは家庭内にマップをつくり、キッチンや寝室などで特定の視点を作ることができるそうだ。オンデマンドに飛ぶように命令することもできるが、リンクされたリングアラームシステムが何かの妨害を検出した時に飛ぶようプログラムすることもできる。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

Microsoft、85インチ「Surface Hub 2S」発表:会議室の新しいカタチ(2/2)

SHARE:

(前回からのつづき)Surface HubのWindowsエクスペリエンスとは別に、Windows 10 Team 2020更新プログラムがある。これにより、Azure Active Directory(Azure AD)を使用している組織は、Surface HubおよびSurface Hub 2Sデバイスを管理しやすくなる(Microsoftによると、Windows 10 Team 2020更新…

前回からのつづき)Surface HubのWindowsエクスペリエンスとは別に、Windows 10 Team 2020更新プログラムがある。これにより、Azure Active Directory(Azure AD)を使用している組織は、Surface HubおよびSurface Hub 2Sデバイスを管理しやすくなる(Microsoftによると、Windows 10 Team 2020更新プログラムのベースとなっているのは2020年にリリースされた最初のWindows 10になるそうだ)。

主要なものとしては、クラウドデバイスアカウントの認証方法が「最新の」ものになったこと、新しいMicrosoft Edgeのサポート、およびMicrosoft Teamsとの間でコーディネートされた会議や会議への「近接ベースの参加」がある。

この近接ベースの参加を使用すると、ユーザーは自分のPC、スマートフォン、またはタブレットからSurface Hub会議に参加できる。参加する前に、ルームオーディオデバイスがメニューに表示される。ユーザーがその中から使用するオーディオを選択すると、ユーザー個人のPCとモバイルデバイスはハウリングを避けるために自動的にミュートされる。

コーディネートされた会議ツールを使用すると、ユーザーはルーム内ののSurface HubデバイスとMicrosoft Teams Roomsデバイスの両方を同時に操作できる。一方のデバイスでオーディオとビデオを管理すると、もう一方のデバイスは自動的にミュートされる。ルームの前方ディスプレイには、7行7列のグリッドビューで出席者が表示されるオプションがある。Surface Hubでは、ユーザーはそれぞれのいる場所に関係なく、同じキャンバスに書き込むことができる。

Microsoftによると、Windows 10 Team 2020更新プログラムは来月、すべてのSurface Hubユーザーに公開される予定だ。

MicrosoftがSurface Hub 2Sのプロセッサーとグラフィックカードをアップグレードさせた「Surface Hub 2X」のリリース中止を発表した後だけに、Surface Hubソフトウェアのアップグレードは注目だ。

当初、同社はSurface NeoなどのWindows 10Xデバイスに搭載されているWindows Core OSプラットフォームを実行するには、Hub 2X(カートリッジの形で提供される)が必要になると述べていたが、2月初旬に別の戦略へ切り替えた

【via VentureBeat】 @VentureBeat

【原文】

Microsoft、85インチ「Surface Hub 2S」発表:大画面でオフィスのソーシャルディスタンスを実現(1/2)

SHARE:

昨年4月に発売された「Surface Hub 2S」に続き、Microsoftは2021年1月からより大型の21,999ドルの85インチモデルを出荷する計画であることを発表した。同社が本日開催したIgnite 2020イベントで明らかになったもので、Microsoftは、Windows 10 Pro、Windows 10 Enterprise、ファームウェアアップデート(Windows 10 Te…

Image Credit: Microsoft

昨年4月に発売された「Surface Hub 2S」に続き、Microsoftは2021年1月からより大型の21,999ドルの85インチモデルを出荷する計画であることを発表した。同社が本日開催したIgnite 2020イベントで明らかになったもので、Microsoftは、Windows 10 Pro、Windows 10 Enterprise、ファームウェアアップデート(Windows 10 Team 2020 Update)を、すべてのSurface Hub顧客に無料で提供するとしている。

パンデミックによって世界中でオフィス閉鎖が続く中、CEOの3分の2以上(68%)がフロアスペースの縮小を計画しているのに、なぜエンタープライズ向けのデジタルホワイトボードに注目するのだろうか(KPMGによると)。MicrosoftはSurface Hub製品だからこそ、ソーシャル・ディスタンスを必要とする空間計画を考慮し、オフィスへ戻る「移行を容易にする」ことができるとしている。

MicrosoftのコーポレートバイスプレジデントのRobin Seiler氏はブログ記事で「Hubが提供するより大きな画面の利点の1つは、人々が一緒に仕事をしながら6フィート離れて滞在するためのソーシャル・ディスタンスを保つことができる点にあります」と伝えている。

この点を強調するためか、MicrosoftはSurface Hub 2Sの85インチモデル(米国では本日から予約販売開始)を、シンプルにSurface Hub 2Sの拡大版であると説明している。ベゼルが45%小さくなり、ディスプレイが20%薄くなり、本体が30%軽くなっている。Microsoftと長年の協力関係にあるSteelcaseは、Surface Hub 2Sの85インチモデルのために、フローティングウォールマウント、フロアサポートウォールマウント、モバイルカートなど、一連のマウントソリューションを共同でデザインした。

一方、オリジナルのSurface Hub 2Sがなくなるわけではない。実際、Microsoft Teamsの統合、ワンタッチ会議参加、Microsoft Whiteboardのサポートなどの機能を備えたSurface Hub 2Sは、今年後半に中国で発売される予定だ。

既存のSurfaceデバイスでは、Windows 10 ProとWindows 10 Enterpriseのフルインストールが可能になった。Surface HubシリーズのWindowsは、タスクバーやスタートメニュー、Windowsアプリなどのおなじみの機能や要素を備えて自由な体験を実現する。Windows Helloログインも可能になったが、これは指紋リーダーを搭載したSurface Hub 2のみが対象となる。(次につづく)

【via VentureBeat】 @VentureBeat

【原文】

ローコード市場は520億米ドル規模へ、2700億円評価のAirtableとは何者か(2/2)

SHARE:

(前回からのつづき)Airtableと連携できるサービスやアプリは1,000を超える。たとえばAsana、Dropbox、Box、Facebook、GitHub、LinkedIn、Slack、Stripe、SoundCloudなどだ。ZapierやIFTTTのようなワークフロー自動化サービスはつなぎの役割を果たし、SlackのメッセージやSMS、eメールをトリガーとしてAirtableのデータベー…

(前回からのつづき)Airtableと連携できるサービスやアプリは1,000を超える。たとえばAsana、Dropbox、Box、Facebook、GitHub、LinkedIn、Slack、Stripe、SoundCloudなどだ。ZapierやIFTTTのようなワークフロー自動化サービスはつなぎの役割を果たし、SlackのメッセージやSMS、eメールをトリガーとしてAirtableのデータベースに入力することを可能にする。

Airtableプラットフォームの新機能「Marketplace」では、コミュニティによって構築されたJavaScriptベースのアプリをインストールしたり、独自の機能を作成したりすることができる。9月第3週にリリースされた「Automations」では、eメール、メッセージアラート、レポート、およびタスク作成のトリガーを設定することにより、反復プロセスを自動化できる(AutomationsはG Suite、Microsoft Teams、Facebook、Twitter、Slack、Jiraなどと連携可能)。

最後に、「Sync」を使用すると、Airtableに保存されているカスタマイズされたビューとデータフィールドの一部(またはすべて)を他のチームや組織と共有できる。

「Marketplaceでは、コミュニティの開発者らが作成したアプリを共有できます。AIや機械学習に対応したツールが人気となるのではないかと期待しています。たとえば、GoogleのCloud Vision APIを活用するカスタムアプリを顧客企業のAirtable内に直接インストールしてAIや機械学習の機能を提供できます。

顧客はそのアプリを使用して、画像を数千のカテゴリにすばやく分類し、画像内の個々の顔やオブジェクトを検出し、画像カタログにメタデータを構築して、不快なコンテンツのモデレーションから画像の感情分析による新しいマーケティングシナリオの有効化まで、すべてを行うことができます(Liu氏)」。

Gartnerの予測によると今後3年間でプロの開発者の4倍もの「市民開発者」が誕生し、5億種ものビジネス用アプリやサービスが生み出されるだろう。ローコード市場は520億米ドルに急成長すると見込まれている。Airtableの競合にはGoogle、Microsoft、Amazonは言うまでもなく、Zoho、Smartsheet、そしてTablePlusやRetoolといったスタートアップがいる。サンフランシスコを拠点とする同社はカリフォルニア州マウンテンビューおよびテキサス州オースティンに新オフィスを構え、162名を新規採用し、トータルで280名の従業員をかかえている。

シリーズDラウンドはThriveがリードし、既存投資家のBenchmark、Coatue、Caffeinated Capital、CRV、および新規投資家のD1 Capitalが参加した。このラウンドにより、Airtableの調達総額は3億5,000万米ドル超となった。

※本稿は提携するVentureBeat記事の抄訳です

【via VentureBeat】 @VentureBeat

【原文】

「ローコード」の衝撃、2700億円評価のAirtableとは何者か(1/2)

SHARE:

噂通り、Airtableは本日(9月14日)1億8,500万米ドルの資金調達を発表した。評価額は前回の評価額11億米ドルの2倍以上、25億8,500万米ドルとなった。同社の成長は加速中だ。Netflix、HBO、Condé Nast、Time、IBM、Robinhood、Equinoxが名を連ねる顧客ベースは2018年11月には8万人だったのが20万人にまで増加している。 IDCの推計によると、コ…

Airtableのサンフランシスコオフィス
Image Credit: Airtable

通り、Airtableは本日(9月14日)1億8,500万米ドルの資金調達を発表した。評価額は前回の評価額11億米ドルの2倍以上、25億8,500万米ドルとなった。同社の成長は加速中だ。Netflix、HBO、Condé Nast、Time、IBM、Robinhood、Equinoxが名を連ねる顧客ベースは2018年11月には8万人だったのが20万人にまで増加している。

IDCの推計によると、コーディングの方法を知っている人口は世界全体の0.5%にすぎない。一方、業界はパンデミックによって引き起こされた問題を解決してくれる「特化型ソフトウェア」へとシフトしようとしている。Airtableはこのニーズを満たすプラットフォームを提供し、ユーザ自身が職場で使うアプリをほぼコーディングせずに開発できるよう支援することを目指している。いわゆる「ローコード」だ。

CEOのHowie Liu氏はVentureBeat宛のeメールでこう述べた。

「Airtableは、誰でも自分に必要な特製のアプリを作り上げられるようにします。自分で自分のアプリを作るというアプローチによって、既製品のツールやプロジェクト管理サービスを使うよりも自由にカスタマイズできるようになります」。

同社の共同設立者たちがプロダクトを世に出す前の2015年、元Stack OverflowのエンジニアのEmmett Nicholas氏、Google MapsのマネージャーのAndrew Ofstad氏、シリアルアントレプレナーのLiu氏が大事にしていたモットーは「すべてをオーガナイズする」ことだった。Excelのスプレッドシートに似たインターフェイスはドラッグ・アンド・ドロップで操作でき、付属のSDK(ソフトウェア開発キット)でプラットフォーム上にアプリを構築することができる。

Airtableに行や列を挿入・削除する際はほぼジェスチャーで操作することができる。またシェアリングツールも組み込まれており、互いにカレンダー、ギャラリー、カンバンといったビューを共有して共同作業することも可能になる。

Airtableには添付ファイル、テキスト、チェックボックス、バーコード、アルゴリズムなどさまざまなものを埋め込んだり、テーブル間のレコードを自動的にリンクさせてグラフ表示させたりすることもできる。また、「ブロック」やテーマ、カテゴリー、ユースケース別に分類されたテンプレートを使って容易に取り組むことができる。

ブロックは約30〜40個の「ミニアプリ」の集まりで、コンピュータービジョンを使って画像の中から自動的に対象物を検出するクラウドビジョンのようなものから、サードパーティ製のAdobe XD用ブロックに似たものまであり、Airtableの機能を拡張してくれる。

Airtableによると、第一線で働く医療従事者に食事を提供するFrontline Foodsは、病院などの施設と地元レストランをマッチングするカスタムアプリを構築した。このアプリは食事が最も求められている地域をリアルタイムで表示し、移動時間やコストを削減するのに役立っている。そして、より新鮮な食物を配達することでコミュニティを支えている。(次につづく)

※本稿は提携するVentureBeat記事の抄訳です

【via VentureBeat】 @VentureBeat

【原文】

Google、AI活用で速報検知などの精度向上ーー自然災害や選挙に影響

SHARE:

GoogleはAIとマシーンラーニングを活用し、自然災害など速報性が求められる情報検知システムの向上に成功したと発表した。同社バイスプレジデントのPandu Nayak氏によれば、同システムは現在数分前後で関連性の高い速報を検知することが可能だという。これは、数年前までまでの40分前後と比較すると大きく向上していることが分かる。 こうした速報性が伴うニュースは、自然災害などに加え、例えば2020年…

Photo by PhotoMIX Company on Pexels.com

GoogleはAIとマシーンラーニングを活用し、自然災害など速報性が求められる情報検知システムの向上に成功したと発表した。同社バイスプレジデントのPandu Nayak氏によれば、同システムは現在数分前後で関連性の高い速報を検知することが可能だという。これは、数年前までまでの40分前後と比較すると大きく向上していることが分かる。

こうした速報性が伴うニュースは、自然災害などに加え、例えば2020年におけるアメリカ大統領選挙にも大きく影響を与えていくことが想定される。

カリフォルニア州やオレゴン州で被害が甚大な山火事は、まさに一瞬で状況が変化するため、最新の情報が求められることは明らかだ。また、選挙活動などにおけるフェイクニュースを見極めるうえでも、正しい情報をその場で手に入れることが出来る環境整備は重要になる。

Pandu氏は同社ブログにて、以下のように述べている。

「ウェブに公開される情報が増えるにつれ、特に速報性を伴うニュースの信頼度を見極めることの難易度は上がってきていました。だからこそここ数年、私たちは最も信頼度の高い情報へアクセスできるシステム環境を整えてきました。しかし、人々の情報に対する欲求は時に独り歩きしてしまう可能性が多くあるのです」。

Googleはまた、BERTベースのモデルを活用し、ニュース情報とファクトチェックのマッチング設計改善を試みているそうだ。Pandu氏によれば、現在同モデルはニュースとファクトの関連性を正確に感知し、Googleニュースのフルカバレッジ機能で表示する仕組みを取っている。

Pandu氏は、こうしたファクトとニュースの整合性精査は、Googleそのものの取り組みと大きく一致する点が多いとし、大きな進展が期待されていることを明かしている。

例えば、同社が今までも利用してきたWikipediaの一部を検索上部に表示する機能では、機械学習が用いられれ、より正確性が増したとされている。同氏によれば、仮にWikipedia自体に情報の問題があった場合でも、異常性の検知が可能としている。

また、こうした改善は予想変換機能(オートコンプリート)にも反映されている。具体的には、オートコンプリートされる検索結果に信頼度の低いコンテンツが含まれている場合、変換予想が表示されないような市雲となっている。こうしたアップデートに関し、Pandu氏は以下のように述べる。

「Googleでは、以前より不適切な予想がオートコンプリートへ表示されないためのポリシーを厳しく制定してきました。今回のアップデートでは、クエリがコンテンツの信頼性を検出した場合、予想そのものを表示しない自動化システムへ改良を遂げることができました。これらシステムは完全に正確とは言えないため、仮に予想に適さない結果を得た場合は、ポリシーを手動的な適応を繰り返し対応していきます」。

【via VentureBeat】 @VentureBeat

【原文】

DeepMindと連携で進む、Google Mapsの予想性能

SHARE:

Google傘下のAI企業DeepMindは、Google Mapsと連携し同アプリケーションにおけるETA(Estimate Time of Arrival:到着予定)分析の最適化に成功したと発表した。同社によれば、同機能の精度をベルリン、ジャカルタ、サンパウロ、シドニー、東京、ワシントンDCなどのいくつかの地域で50%近く向上させたという。同社は機械学習を活用することで、交通渋滞のモデル化、さ…

wimage

Google傘下のAI企業DeepMindは、Google Mapsと連携し同アプリケーションにおけるETA(Estimate Time of Arrival:到着予定)分析の最適化に成功したと発表した。同社によれば、同機能の精度をベルリン、ジャカルタ、サンパウロ、シドニー、東京、ワシントンDCなどのいくつかの地域で50%近く向上させたという。同社は機械学習を活用することで、交通渋滞のモデル化、さらには交通状態の予想のぶれを最小限に抑え込むことに成功したと主張している。

Google Mapsはユーザーの位置情報を活用し、交通状態のレベルを的確に、色合いに違いを出すことで表現してきた。しかし、10分、20分、50分などの間隔で正確に情報を伝え続けることは難題とされてきていた。DeepMindはグラフィカルニューラルネットワークと呼ばれるアーキテクチャーを開発し、時空間推論を実施した。今までにGoogleが行ってきた、世界中の交通情報を用いた機械学習のデータとDeepMindのアーキテクチャーが交わることで、正確性を飛躍させることに成功した。

具体的には、以下のようなフローとなる。

Google Mapsはまず、テラバイトを超える移動データや交通ネットワークを分析し、交通量が多く隣接する箇所を複数のセグメントに分割する。これは、「スーパーセグメント」と呼ばれる。グラフィカルニューラルネットワークは各スーパーセグメントを分析し、それぞれの移動予想時間を予測するといった流れで最適化が実施される。

グラフィカルニューラルネットワークは一般化することが可能。そのため各スーパーセグメントはそれぞれ特有な性質を持つこととなる。(例えば:数個のノード~数百を超えるノードを持つ道路情報)DeepMindのブログによれば、隣接する道路の状況をお互いが考慮し合わせるアーキテクチャー設計が、予想力向上の大きなきっかけに繋がったと述べている。

「例えば、わき道で起きている渋滞が隣接する本線に対してどのような影響を与えているかをモデルでは考慮しています。また、こうした情報が積み重なることで、カーブや合流による渋滞発生など様々な要素を横断的に用いて、予想することができるようになりました」。

DeepMind Google Maps

「Google Mapsチームとのコラボレーションで、私たちのモデルを大規模に活用することができました。また、GoogleのAIチームと協力することで当初の目的に加え、生産性やスケーラビリティーの問題などの解決もスムーズに進みました。こうした協力関係のおかげで最終的な私たちのモデルは成功したと言えるでしょう」。

DeepMindとGoogleの協力関係は、今回以外にもGoogle Play Storeにおけるディスカバリーシステムの改善など、多岐に渡っている。また、Googleから独立したWaymoなどにも、同社は機械学習を活用したフレームワークを提供し、自動運転技術の促進に協力している。

【via VentureBeat】 @VentureBeat

【原文】

Intelの研究者、50ドルで「スマホのロボット化」に成功

SHARE:

すべてのロボットが高価だとは限らない。事実、Intelの研究者であるMatthias Muller氏とVladlen Koltun氏によると、スマートフォンが手元にあれば約50米ドルで車輪付きのボットを構築できるそうだ。二人は共著の「OpenBot: Turning Smartphones to Robots」という論文で、スマートフォンを活用してロボットにセンサー、計算、通信、およびオープンソフ…

すべてのロボットが高価だとは限らない。事実、Intelの研究者であるMatthias Muller氏とVladlen Koltun氏によると、スマートフォンが手元にあれば約50米ドルで車輪付きのボットを構築できるそうだ。二人は共著の「OpenBot: Turning Smartphones to Robots」という論文で、スマートフォンを活用してロボットにセンサー、計算、通信、およびオープンソフトウェアエコシステムへのアクセスを装備することを提案している。

市販のスマートフォンをロボットの頭脳として使用すると、コスト削減以外にも多くの利点がある。アップグレードサイクルが短いことから、中古のスマートフォンが手軽に利用できるーー世界的なスマートフォン所有率は全人口の40%にも上ると推計されているーーさらに、スマートフォンのカメラの品質とプロセッサの速度は常に向上している。加えて、コモディティモデルでさえ、慣性測定ユニット、GPS、Wi-Fi、Bluetooth、セルラーモデム、AI推論用の専用チップを搭載しており、中にはデスクトップパソコンのプロセッサよりも優れているものもある。

Muller氏とKoltun氏が設計した「OpenBot」は、スマートフォンをロボット本体に接続して、感知、データ融合、および計算をする。ロボットのシャーシは3Dプリントで作れるように設計されており、最大4つのモーターに対応し、コントローラー、マイクロコントローラー、LED、スマートフォンマウント、USBケーブル用の端子がある。バッテリーパックは専用端子に接続し、必要に応じてモーターに電力を供給する。Arduino NanoボードにはUSB経由でスマートフォンからシリアル通信リンクと電力を供給する。2つの前輪には、オドメトリ信号を送信するセンサーが装備されており、モーターコントローラーに接続されたピンにより、速度と方向をリアルタイムで調整できる。

OpenBotのソフトウェアスタックはシンプルなもので、シリアルリンクを介して通信する2つのコンポーネントのみで構成されている。オペレータはAndroidアプリをインターフェースとしてデータセットを収集することができる。また、このアプリは高度な認識とワークロードのコントロールも提供する。一方、Arduino側では低水準の動作を制御し、オドメトリやバッテリー残量などの測定もする。

このAndroidアプリがあれば、コントローラのボタンをデータ収集や経路探索モデル間の切り替えなどに割り当て、既製のBluetooth対応PS4、Xbox、SwitchゲームコントローラーでOpenBotを制御することができる。経路探索モデルには、ロボットの視界に入った人を検出して追跡する自律ナビゲーションモデルも含まれている。

Muller氏とKoltun氏は、さまざまな機種のスマートフォンを使ってロボットのパフォーマンスを比較するテストを実施した。パフォーマンスが最も低かったのは最も安価なローエンド機種(Nokia 2.2)だったが、それでも約30分で人を検出して追跡することができた。最近テストされたすべてのミッドレンジフォン(Xiaomi Note 8、Huawei P30 Lite、Xiaomi Poco F1など)は、搭載されている専用AIアクセラレータが寄与し毎秒10フレーム以上の速さで人々を追跡した。

Muller氏とKoltun氏は次のように述べている。

当研究は、ロボット工学における2つの重要な課題、アクセシビリティとスケーラビリティに取り組むことを目的としています。スマートフォンはユビキタスであり、年々強力になっています。私たちはスマートフォンをロボットに変えるためにハードウェアとソフトウェアを組み合わせました。その結果、安価でありながら有能なロボットを開発することができました。

実験で、スマートフォン駆動の50米ドルのロボットが人の追跡とリアルタイムでの自律ナビゲーションを行えることが明らかになりました。この研究を発表することで、世界中に配備された何千もの低コストのロボットを介して、教育と大規模な学習のための新しいチャンスが開かれることを願っています。

【via VentureBeat】 @VentureBeat

【原文】

イーロン・マスク氏のNeuralink、チップを脳に埋め込んだ豚を使い技術開発の進捗状況を披露

SHARE:

カリフォルニア州フリーモントにある Neuralink 本社からオンラインでストリーミングされたカンファレンスの中で、Elon Musk 氏が出資する同社の科学者たちが進捗状況のアップデートを行った。今から1年以上前、ブレイン・マシン・インターフェースを作ることを目標に2016年に設立された Neuralink はそのビジョン、ソフトウェア、移植可能なハードウェア・プラットフォームを最初に明らかに…

Neuralink の外科手術ロボットのコンセプトイメージ
Image Credit: Woke Studios

カリフォルニア州フリーモントにある Neuralink 本社からオンラインでストリーミングされたカンファレンスの中で、Elon Musk 氏が出資する同社の科学者たちが進捗状況のアップデートを行った。今から1年以上前、ブレイン・マシン・インターフェースを作ることを目標に2016年に設立された Neuralink はそのビジョン、ソフトウェア、移植可能なハードウェア・プラットフォームを最初に明らかにした。この日議論されたことのほとんどは驚くべきものではなかったが、新型コロナウイルスの感染拡大が Neuralink の目標に向かって歩みを進めることを妨げていないことを明らかにしてくれた。

Neuralink のプロトタイプは、一度に多くのニューロンからリアルタイムの情報を抽出することができる、と Musk 氏はストリーミングで繰り返し述べた。ライブデモでは、豚の脳からの読み取った値が画面に表示された。豚が鼻で物体に触れると、Neuralink の技術(2ヶ月前に豚の脳に埋め込まれた)によって捕捉されたニューロンがテレビモニター上に視覚化された。それ自体は斬新ではないものの(KernelParadromics など多くの企業も、頭蓋骨の中にある脳読み取りチップを開発している)、Neuralink はミシン式の手術ロボットを使って、組織に挿入された曲げ折り可能なセロハンのような導電性ワイヤーを活用してい点でユニークだ。Musk 氏によると、7月に「Breakthrough Device」の指定を受け、FDA(米国食品医薬品局)と協力して麻痺者を対象とした将来の臨床試験に取り組んでいるという。

Neuralink の共同創立者である Tim Hanson 氏と Philip Sabes 氏は、ともにカリフォルニア大学サンフランシスコ校出身で、カリフォルニア大学バークレー校教授の Michel Maharbiz 氏と共同でこの技術を開発した。Musk 氏はこの日デモしたバージョンを「V2」と呼んでおり、昨年発表されたものよりも改善されている。Musk 氏は、全身麻酔を使わずに1時間以内に人間の脳内に埋め込むことがいつか可能になると確信している。彼はまた、患者が Neuralink のアップグレードや使用中止を希望する場合は、簡単に除去することができ、永続的な損傷を残すこともない、とも語った。

V2

Neuralink はミシンのデザインに関し、サンフランシスコに拠点を置くクリエイティブデザインコンサルタント会社 Woke Studios と協業した。Woke は1年以上前に、Neuralinkが2019年に発表した耳の後ろに配置するコンセプトモデルで Neuralink と協業を始め、2社はその後まもなく手術用ロボットのために再提携した。

Woke のヘッドデザイナーである Afshin Mehin 氏は、このマシンで脳の全体を見ることができると VentureBeat に電子メールで語った。

デザインのプロセスは、Woke Studios のデザインチーム、Neuralink の技術者、手術そのものについてアドバイスを与えてくれる一流の外科コンサルタントとの緊密なコラボレーションだった、

我々の役割は、特に、手術を行うことができる既存の技術を活用し、医療アドバイザーからのアドバイスや、この種の機器の医療基準に照らし合わせて、脳移植を行うことができる、威圧感のないロボットを作成することだった。(Mehin 氏)

マシンは3つのパーツで構成されていル。自動化された手術器具と脳スキャンカメラとセンサーを収容する「マシン頭部」に患者の頭蓋骨を固定する。最初に装置が頭蓋骨の一部を取り除き、術後に元の位置に戻す。その後、コンピュータビジョンのアルゴリズムは、血管を避けながら、5ミクロンのワイヤーと絶縁体の束を含む針を脳内に6ミリ誘導する。(Neuralink によると、このマシンは技術的には任意の長さに穴を開けることができるそうだ)。これらのワイヤー(人間の髪の毛(4〜6μm)の直径の4分の1)は、異なる場所と深さで一連の電極にリンクする。最大容量では、マシンは毎分192個の電極を含む6つのスレッドを挿入することができる。

マシンの頭部の周りに磁石で取り付けられバッグは一回使い切りによって無菌性を維持し洗浄が可能、また内側のファサード取り付けられたウイングにより、挿入中に患者の頭蓋骨が所定の位置に保つ。マシンの「本体」は全体構造の重量を支えるべくベースに取り付けられているが、本体にはシステム動作を可能にする他の技術を内包している。

Mehin氏 は、プロトタイプが診療所や病院で使用されるかどうかについての質問には答えなかったが、このデザインが広範囲 での使用を意図したものであると指摘した。

エンジニアとして、我々は何が可能かを知っているし、設計の必要性をわかりやすく伝える方法を知っている。また、Neuralink のチームは、我々が実行可能で非常に複雑な回路図を送ることができる。我々は、これが研究室の外でも、あらゆる数の臨床環境でも通用する設計であると考えている。

Link

昨年 Neuralink が詳述したように、試験用に設計された最初の脳内インターフェース「N1(別名「Link 0.9」)には、ASIC(特定用途向け集積回路)、薄膜、密閉基板が含まれており、最大1,024個の電極と繋ぐことができる。最大10個の N1/Link インターフェースを脳半球に配置でき、最適の状態では、少なくとも4つの脳の運動野と1つの体性感覚野に配置することができる。

Musk 氏は、2019年に示されたコンセプトと比較して、インターフェースが劇的に簡素化されたと語った。もはや耳の後ろに置く必要はなく、大きなコインサイズ(幅23ミリ、厚さ8ミリ)になり、電極が必要とするすべての配線はデバイス本体の1センチ以内に収まった。

ニューラルチップのプロトタイプを手にする Elon Musk 氏
Image credit: Neuralink

デモの間、チップをインプラントされた豚(名前は Gertrude)は、檻の中でハンドラーと戯れていた。その隣の檻には、別の豚が2頭いて、そのうちの1頭にはチップがインプラントされ後に除去された。3頭目の豚は比較対象のためのもので、チップはインプラントされ他ことがない。豚は硬膜と頭蓋骨の構造が人間に似ており、ランニングマシンの上を歩くように訓練することができ、その他の実験に役立つ活動を行うことができる、と Musk 氏は説明した。Neuralink がマウス、サルに続いて、3番目にインプラントを受ける動物として豚を選んだのはそういう理由からだ。

電極は、検出された神経パルスを、人間に埋め込まれた現在のシステムよりも約15倍優れた、最大1,536チャンネルの情報を読み取ることができるプロセッサに中継する。これは科学研究や医療用途の基準を満たしており、ベルギーの競合 Imec の技術「Neuropixels」よりも潜在的に優れており、何千もの別々の脳細胞から一度にデータを収集することができる。Musk 氏によると、Neuralink の商用システムは、96本のスレッドを介して1アレイあたり最大3,072個の電極を搭載する可能性があるという。

インプラントからのデータを使い、AI が豚の四肢の動きを予測
Image credit: Neuralink

インターフェイスには、慣性計測センサー、圧力センサー、温度センサー、電磁誘導で充電可能な1日間持続可能なバッテリー、デジタルビットに変換される前に神経信号を増幅してフィルタリングするアナログピクセルが含まれている(Neuralink は、アナログピクセルは、既知の技術状態の少なくとも5倍の大きさであるという)。1つのアナログピクセルは、10ビットの分解能で毎秒2万サンプルの神経信号を捕捉することができ、その結果、記録された1,024チャンネルごとに200Mbpsの神経データを得られる。

信号が増幅されると、それらは、神経パルスの形状を直接的に特徴づけるオンチップのアナログ/デジタル変換器によって変換され、デジタル化される。Neuralink によると、N1/Linkが入力された神経データを計算するのにかかる時間はわずか900ナノ秒だという。

2019年のカンファレンスで披露された、Neuralink のセンサー「N1/Link」
Image credit: Neuralink

N1/Link は、皮膚越しに Bluetooth で最大10メートル離れたスマートフォンにペアリングされる。Neuralink によれば、インプラントは最終的にアプリで設定可能になるそうで、患者はボタンを制御し、コンピュータのキーボードやマウスにスマートフォンからの出力をリダイレクトすることができるようになるかもしれない。この日のカンファレンスで再生されたビデオの中で、N1/Link は 高精度 で豚の四肢の位置を予測するアルゴリズムに信号を供給する様子が映し出された。

Neuralink の高尚な目標の一つは、四肢麻痺者が毎分40語でタイピングできるようにすることだ。最終的には、Neuralink のシステムが、人間が人工知能ソフトウェアと連携することを可能にする、Musk 氏の言う「デジタル超知能(認知)層(digital super-intelligent [cognitive] layer)」を作るために使われることを彼は期待している。彼によれば、1つの N1/Link センサーで何百万ものニューロンに影響を与えたり、書き込んだりすることができるという。

潜在的な障害

高解像度のブレイン・マシン・インターフェース(BCI)は、予想通り複雑で、神経活動を読み取って、どのニューロン群がどのタスクを実行しているかを特定できなければならない。埋込型の電極はこれに適しているが、昔からハードウェア上の制約から、電極が脳の複数の領域に接触したり、干渉する瘢痕組織(治癒過程の組織)を生成したりする原因となっていた。

しかし、小さな生体適合性電極の出現により、傷跡を最小化し、細胞群を正確にターゲットできるようになった(耐久性については疑問が残るが)。そして以前と変わらないのは、それぞれの神経プロセスについての理解が不足していることである。

Neuralink の機能
Image credit: Neuralink

前頭前野や海馬などの脳領域で脳活動が分離されることは稀だ。その代わり、脳活動は脳のさまざまな領域にまたがって起こるので、部位特定が難しい。さらに、神経の電気的インパルスを機械で読める情報に変換するという問題があるが、研究者たちはまだ脳のエンコーディングを解明できていない。視覚中枢からのパルスは、音声を形成するときに発生するものとは異なり、信号の発生源を特定することが困難な場合もある。

また、Neuralink は、臨床試験のためのデバイスを承認すべく規制当局を説得する必要がある。ブレイン・コンピューター・インターフェースは医療機器とみなされ、FDA からのさらなる同意が必要で、これを得るには非常に手間がかかる可能性がある。

おそらくこれを見越してか、Neuralink はサンフランシスコに独自の動物実験施設を開設することに関心を示しており、同社は先月、電話やウェアラブルの経験を持つ候補者の求人情報を公開した。Neuralinkは2019年、動物の手術を19回行い、約87%の時間でワイヤーの配置に成功したと主張している。

これからの道のり

これらのハードルは、90人以上の従業員を擁し、Musk 氏からの少なくとも1億米ドルを含め、1億5,800万米ドルの資金援助を受けている Neuralink を落胆させてはいない。しかし、STAT News が「混沌とした社風」と題した記事が、この課題を悪化させている可能性がある。Neuralink のスポークスパーソンは、New York Post の問い合わせに対してこの記事に回答し、STAT の調査結果の多くは「部分的または完全に虚偽のもの」であると述べた。

Neuralink は、電極を挿入するには、最初は頭蓋骨に穴を開ける必要があると考えているが、近いうちにはレーザーを使用し、一連の小さな穴で骨に穴を開けることを期待している。

これは、一見するとそれほど遠い話ではないように思えるかもしれない。コロンビア大学の神経科学者は、脳波を認識可能な音声に変換することに成功した。カリフォルニア大学サンフランシスコ校のチームは、脳を利用して人間の発声をシミュレートできる仮想の声道を構築した。2016年には、脳インプラントによって、切断手術を受けた人が義手の指を自分の考えで動かせるようになった。また、実験的なインターフェースにより、サルが車いすを操作したり、頭の中だけで1分間に12文字を入力したりすることが可能になった。

私は、発売時には、この技術はおそらく……かなり高価なものになるだろうと思う。しかし、価格は急速に下がるだろう。

手術を含めて……価格を数千ドル程度に抑えたい。レーシック(目の手術)と同じようなことが可能になるはずだ(Musk 氏)

【via VentureBeat】 @VentureBeat

【原文】