THE BRIDGE

SasakiShun

SasakiShun

起業準備中。元ソフトバンクのエンジニア。学生時代に鳥人間コンテスト入賞経験あり。ディープテックや社会実装をテーマ>にしたスタートアップが好き。執筆分野は医療/不動産/VR/AR/AI。Twitterアカウント@sanyama1

執筆記事

忍び寄る「第2のリーマン・ショック」、防ぐ決め手は“NLP”

SHARE:

  ピックアップ:Eigen Technologies raises $37m (£29m) in Series B funding round to accelerate market expansion ニュースサマリ:自然言語処理(NLP)を用いたドキュメント分析サービスを展開する「Eigen Technologies」は11月14日、シリーズBで3,700万ドルの資金調達したこと…

 

image1.png
Image Credit:Eigen Technologies

ピックアップ:Eigen Technologies raises $37m (£29m) in Series B funding round to accelerate market expansion

ニュースサマリ:自然言語処理(NLP)を用いたドキュメント分析サービスを展開する「Eigen Technologies」は11月14日、シリーズBで3,700万ドルの資金調達したことを発表した。本ラウンドはLakestarとDawn Capitalが共同でリードし、TemasekとGoldman Sachs Growth Equityが参加した。累計調達額は5,500万ドルに達した。本調達資金はR&Dへのさらなる投資や、欧米での市場展開を加速するために使われる。

同社のNLP技術は、契約書などの複雑な内容の文書からインサイトを抽出することを可能にする。金融安定理事会(FSB)が認定した世界的な銀行「G-SIB」の25%以上で利用されており、シリーズA以降、経常収益が6倍に増えるなど確実な成長を遂げている。

話題のポイント:英国に本拠点を持つEigen Technologiesは、現在ヨーロッパで高く評価されているAI文脈で急成長をしてきたフィンテック・スタートアップです。実際、2019年に入ってから「FinTech50 2019」「Financial Times Intelligent Business Awards」「CogX 2019 Innovation Awards」など数々の賞を獲得しています。

01.png
Image Credit:Eigen Technologies

今回取り上げるEigen Technologiesの特徴は、「第2のリーマン・ショック」の発生を予防に繋がるサービス展開をしている点です。そこでまずは2008年に起きたリーマン・ショックの経緯から説明を始めたいと思います。

2008年、投資銀行リーマン・ブラザースの経営破綻したことをきっかけに起きた金融危機がリーマン・ショックです。信用力の乏しい低所得者向けに高い金利で貸し付けた住宅ローン「サブプライム・ローン」の債権を、住宅ローン会社から投資会社が買って証券を発行。発行した証券を担保に新たに証券化をして金融機関やヘッジファンドに大量に売っていました。

しかし、元々信用力が低い人に向けた貸し付けだったため、不良債権となる案件が大量に発生。これによって担保にしていた住宅の差押えや売却が大量に発生し、市場価格が下落。次々とヘッジファンドが破綻する中、銀行が資金回収を実施して資金流動性と信用を失ったことで経済の悪循環が世界中に波及しました。なかでもサブプライム・ローンを大量に購入していて経営破綻したのがリーマン・ブラザーズです。負債総額約64兆円のアメリカ史上最大の企業倒産になりました。

映画『ザ・ビッグ・ショート』(邦題:世紀の空売り)では、ヘッジファンドマネージャーである主人公マイケル・バリーが担保付債務を調べてサブプライム・ローンという爆弾の存在に気付くシーンが描かれています。ここで描かれてる通り、金融危機の本質的なリスクは十分に予想が可能でした。ところが、当時は市場関係者が必要な情報にアクセスして追跡する手段を用いていませんでした。取引文書の量を考えれば当然のことだと思います。

02.png
Image Credit:Eigen Technologies

さて、リーマン・ショック以降、米国規制当局は銀行に潜むリスクを正確に把握しようと試みてきましたが、現在扱えるのは企業が持つデータのうち20%の構造化された定量的なデータのみです。各契約に潜むリスクは80%にあたる非構造化データに潜んでいます。このままでは「第2のリーマン・ショック」の発生リスクがくずぶったままです。

そこで注目されているのがNLP(自然言語処理)です。複雑な金融商品に関連した契約文書から各種データを抽出できます。そして従来、非構造化データとして放置されてきたコンテンツを分析して資産化することに成功し、金融機関は抽出データを分析して意思決定に利用できるようになりました。

つまりNLPによってローン担保証券の透明性を大幅に高めることができるようになったのです。金融危機の原因リスクについていち早く、かつ正しく認識できるようになったことを意味します。そして、こうしたNLP技術に長けているEigen Technologiesに注目が集まっています。

最大50ほどのドキュメントを学習させるだけで競合他社と同等以上の精度を出す技術を武器として、法的デューデリジェンスや契約のレビュー、運用自動化とレポート、LIBORの特定、電子メールの選別と処理などのタスクを高速でおこないます。競合となるIBM、Kira、Sealなどの機械学習プロバイダーを抑えてゴールドマンサックス、ING、A&O、Hiscoxなどの大手と契約していることから技術力の高さが伺い知れます。

03.png
Image Credit:Eigen Technologies

現在、米国には「レバレッジド・ローン」と呼ばれる信用の低い企業に対して、高金利ではあるものの緩い規制で貸し出される金融商品が問題として浮上しています。これは証券取引委員会を経由しない特徴があるため、規制当局が銀行の引受け基準や未払い額に注意深く監視しなくていはいけない状況が続いています。また、「担保付きローン債務」として有価証券になり、金融商品として扱われている点も含めてリーマン・ショックと酷似するため再来になるのではないかという意見が挙がっています。

そこで今回の調達資金を元に米国進出を本格化するEigen Technologiesに対して期待が集まっています。「第2のリーマン・ショック」を防ぐソリューション提供できれば、まだ黎明期と言えるNLPの象徴的な成功モデルになるはずです。

AI技術の中でも、NLPが資本市場を変革する大きな可能性を秘めていることは明らかです。筆者は定性データの処理能力が向上させ、非構造化データに新たな“価値”を付ける手法が一般化されることが、AIによる本当の変革なのだと信じています。

----------[AD]----------

機械学習は次のステージへーーMIT研究者が発明、“No-Hardware AI”「Neural Magic」のインパクト

SHARE:

ピックアップ:Neural Magic gets $15M seed to run machine learning models on commodity CPUs ニュースサマリ:“No-Hardware AI” 企業を謳う「Neural Magic」は、11月6日、シードラウンドにて1,500万ドルの資金調達を実施したと発表した。出資者にはComcast Ventures NEA、Andre…

01.png
Image Credit : Neural Magic HP

ピックアップ:Neural Magic gets $15M seed to run machine learning models on commodity CPUs

ニュースサマリ:“No-Hardware AI” 企業を謳う「Neural Magic」は、11月6日、シードラウンドにて1,500万ドルの資金調達を実施したと発表した。出資者にはComcast Ventures NEA、Andreessen Horowitz、Pillar VC、Amdocsが名を連ねる。

同社は、MITでマルチコア処理と機械学習を長年研究してきた2人の研究者によって2018年に設立された。ディープラーニングモデルを処理する高コストなGPUやTPUなどの専用AIハードウェアを使うことなく、汎用CPUでより大きなモデルをより速く、より高い精度で処理するソフトウェアを開発する。

調達した資金は機械学習エンジニア、ソフトウェアエンジニア、セールスおよびマーケティングの採用に使われる。

話題のポイント:現在、AIの躍進を支えるのはムーアの法則(1965年にインテル共同創業者のGordon E. Moore氏が唱えた「集積回路の実装密度は18カ月ごとに2倍になる」)をなぞるように発達したコンピュータの計算能力であることは周知だと思います。

しかし、見方を変えれば2012年以降、常にAIのあしかせになっているのがハードウェアでしょう。画像処理でよく用いられる畳み込みニューラルネットワーク(CNN)を訓練する場合、GPUのメモリ制限内に収まるように画像サイズやデータセットを縮小する必要があります。こういった精度を犠牲にするやり方は、大規模な医療画像データセットを使用する場合、好ましいとはいえません。

実際、AI専用のチップセットを作る大手NvidiaのチーフサイエンティストのBill Dallyは「ディープラーニングはハードウェアによって完全に制限されている」と述べています。

機械学習が実用的かどうかは予測の速度、効率、精度が判断基準となります。高いレベルで実行されれば適用事例は格段に増えるはずです。

さて、ここまで書いたことがよく知られている一般的な話です。

nuralmagic.png
Image Credit : Neural Magic HP

今回取り上げた「Neural Magic」は“No-Hardwawre AI”を謳う企業です。高価なAI専用GPUやTPUを使わずに、誰でも持っているPCに入っている汎用CPUで大きなディープラーニングの高性能実行するためのソフトウェアを開発しています。

Neural Magicがユニークなのは「ハードウェアはボトルネックだが、ソフトウェアでもっとできることはないのか?」というニーズに応えている点です。

同社はコネクトミクスの研究を起点に以下を提供すると発表しています。

  • 汎用CPUで大規模なディープラーニングモデルを実行した場合、条件によっては最大10倍のコスト削減
  • 精度を犠牲にすることなくGPUと同等のパフォーマンスを実現
  • 既存のツールと連携し、必要な場所(オンプレミス、クラウド、またはエッジ)に展開できる柔軟性

CNNが適用できる領域に限られますが、ハードウェアの発展に頼らず低コスト化とハイパフォーマンスを実現できる衝撃は大きいです。仮にGPUと併用できるならハイスペックマシーンを社内で取り合うことは間違いなくなくなるでしょう。

ちなみに、CNNが適用できる領域を少し紹介すると、衛生画像や医療画像の分析、音声認識、感情分析、SpotifyやTikTokのレコメンデーションなどが挙げられます。ディープラーニングが得意とする画像分析に含まれているので十分な適用範囲といえます。

04.png
Image Credit : Neural Magic HP

たとえハードウェアの効率化をしたとしても、導入企業からすればスイッチコストが非常に高くなります。一方、ソフトウェアは入力と出力の型を統一しておけば、新しいコンセプトのソフトウェアが登場したとしても柔軟に対応できます。

また、ビッグデータの取り扱い需要の高騰に伴い、これまで表計算程度の処理で済んでいたシステムに限界が押し寄せるでしょう。そのため、リレーショナルデータベースや基幹系システムに代わる新たな仕組みに期待が集まります。

そこで最小限の処理機能しか想定されていなかった従来型ソフトウェアの大幅アップデートがAI市場で起こると感じています。この再発明はスタートアップにとって大きなチャンスが眠っており、Neural Magicはまさにそこを突きました。

Neural Magicは資金調達の翌日、最初の製品となるNeural Magic Inference Engineを発表しました。現在、アーリーアクセスができる状態です。Pytorch、Tensorflow、Caffeなどの主要な機械学習フレームワークからONNXファイル出力で動作します。気になった方は是非試してみてください。

----------[AD]----------

電気自動車のカギ握る「リチウムイオン電池」、急成長するバッテリースタートアップたち

SHARE:

ピックアップ:Daimler-Backed Battery Startup Raises Funds, Hires Tesla Veteran ニュースサマリ:次世代リチウムイオン電池の開発を行う「Sila Nanotechnologies」は11月4日、カナダ年金制度投資委員会から4,500万ドルの資金調達を発表した。同社は今年4月にDaimler AGがリードして1億7,000万ドルを資金調達…

01.png
Image Credit:Sila Nanotechnologies HP

ピックアップ:Daimler-Backed Battery Startup Raises Funds, Hires Tesla Veteran

ニュースサマリ:次世代リチウムイオン電池の開発を行う「Sila Nanotechnologies」は11月4日、カナダ年金制度投資委員会から4,500万ドルの資金調達を発表した。同社は今年4月にDaimler AGがリードして1億7,000万ドルを資金調達したばかり。総資金調達額は3億4,000万ドルとなった。

2011年、Sila Nanotechnologiesはテスラ7番目の社員であったGene Berdichevsky氏とジョージア工科大学教授のGleb Yushin氏によって設立された。

資金調達に合わせて2人の幹部の参画を発表。副社長にパナソニックとテスラの元幹部Bill Mulligan氏、COOにソーラーパネルメーカーSunPower元副社長のKurt Kelty氏が加わる。今回の投資と幹部確保によって、バッテリー製品の市場投入を目指す。

02.png
Image Credit:Sila Nanotechnologies HP

話題のポイント:自動車業界の成長と共に、電気自動車の基幹部品となる次世代リチウムイオン電池の開発投資額が増え続けています。

Mercom Capital Groupのレポートによると、バッテリースタートアップの資金調達額は2018年9月時点で7億8,300万ドルだったのに対し、2019年9月時点で16億ドルと倍増しており、その多くの会社がリチウムイオンベースの企業でした。全てにソフトバンクが関わったのではないかと疑いたくなる金額です。

03.png
Image Credit:Battery Storage, Smart Grid, and Efficiency Companies Raise Over $2 Billion in VC Funding in 9M 2019

実際に製品を市場投入している企業が少ない中、調達額が1億ドルを超える企業が増えている理由は電気自動車の拡大と汎用性だと考えられます。

大和証券によると、2038年までに世界の新車販売台数の50%超が電気自動車に置き換わるそうです。それに伴う市場規模は9,185億ドルになる見通しです。

04.png
Image Credit:大和証券 HP

成長曲線の実現性の鍵を握っているのが、電気自動車の部品で最も価格が高いバッテリーといえるでしょう。というのも、未だ内燃機関を上回るコストパフォーマンスを性能面で実現できていないためです。十分な性能のバッテリーをどの会社が最初に手に入れるのか、各自動車メーカーが張っている状態なのです。

数例紹介すると、今回取り上げている「Sila Nanotechnologies」はメルセデス・ベンツで有名なDaimler AGとBMWから投資を受けています。加えて、スウェーデンのスタートアップ「Northvolt」はフォルクスワーゲンとBMWから10億ドル、固体リチウムイオン電池の実用化を目指す「QuantumScape」はファルクスワーゲンから1億ドルの出資を受けて実用化を急いでいます。

日本では2020年に電気自動車向け電池で売上高8,000億円を目指すパナソニックが、本格的に電気自動車の販売へ踏み切るトヨタと合併会社を作って開発を進める意向を発表。世界に遅れを取らない姿勢を示しています。

もちろん、リチウムイオン電池の性能向上がもたらす恩恵は自動車業界に留まりません。電池の持続時間が購入理由になるデバイスは多岐に渡ります。たとえばIoT化でより知能的に振る舞うためには電池の発展が不可欠でしょう。そのためメーカーは低消費電力化に尽力しています。

05.png
Image Credit:Sila Nanotechnologies HP

こうした市場状況下で2018年7,000万ドル、2019年2億1,500万ドルと大型調達しているのがSila Nanotechnologiesなのです。同社はリチウムイオン電池のアノード材料に既存のグラファイトではなく、シリコンベースの材料を採用する技術を持ちます。これにより高サイクル寿命、超低膨張、高エネルギー密度、低コストが実現できると述べます。

Sila Nanotechnologiesの特筆すべき特徴は、「市場ポジション」と「ドロップイン製造プロセス」の2点です。Sila Nanotechnologiesはバッテリーの材料を製造する会社であり、バッテリーを作る会社ではないことを明確にしています。また、既存製造プロセスを変えることなく材料の導入ができる仕様にしているためスイッチコストを最小限に抑えています。市場概念のディスラプト(破壊)を望むVCが大きく興味をそそられる理由ががここにあります。

事実、BMWとAppleとSamsungのバッテリーを作る「Amperex Technology」がクライアントになることがわかっています。バッテリーを作らないことが急速な事業拡大の最大の理由となりそうです。

今年、リチウムイオン電池を実用化した旭化成の吉野彰氏がノーベル化学賞を受賞しました。しかし25年以上経過してなおリチウムイオン電池は膨張や爆発など不完全な面が残っています。

将来のインフラと言っても過言ではないリチウムイオン電池。利用リスク課題を解消し、私たちのニーズを満たす技術を生み出すのはどの企業になるのか、これから5年程度で大きな動きを見せそうなバッテリー領域から目が離せません。

----------[AD]----------

5年後の市場規模は663億ドル「大麻業界」、ゴールドラッシュのツルハシ目指す“Flowhub”とは

SHARE:

ピックアップ:KRAFT HEINZ MAKES FIRST INVESTMENT IN CANNABIS, CO-LEADS $23M SERIES A FOR CANNABIS TECH STARTUP FLOWHUB ニュースサマリ:10月15日、大麻薬局向けの小売管理ソリューションを提供する「Flowhub」はシリーズAで2,300万ドルの資金調達を実施した。同ラウンドのリードはEvolv…

image3.png
credit:Flowhub HP

ピックアップ:KRAFT HEINZ MAKES FIRST INVESTMENT IN CANNABIS, CO-LEADS $23M SERIES A FOR CANNABIS TECH STARTUP FLOWHUB

ニュースサマリ:10月15日、大麻薬局向けの小売管理ソリューションを提供する「Flowhub」はシリーズAで2,300万ドルの資金調達を実施した。同ラウンドのリードはEvolv Venturesが担当し、e.ventures、9Yards Capital、元NBAコミッショナーのDavid Stern、Venmo共同設立者兼元CEOのIqram Magdon-Ismail、Poseidon Asset Managementが出資している。

Flowhubは合法大麻企業向けに各州の規制に対応した販売、管理、分析、および拡大する方法を提供している。具体的には規制順守、販売時点管理、在庫管理、API接続を保証するツールが挙げられる。

調達資金は生産フロー革新の加速、技術人材の採用、オープンAIアプローチを用いた技術統合とコラボレーションによるパートナーシップエコシステムの拡大に使用される。

image1.png
credit:Flowhub HP

話題のポイント:成長著しい合法大麻市場。市場規模は2025年末までに663億ドルになるとされ、年平均成長率は23.9%と物凄い加速度で成長するとみられます。

日本では「依存性」を懸念して否定的な意見が多い印象ですが、世界の見方は少し違います。なかでも医療用大麻においてはその有用性が主張されつつあるため肯定的な意見が増えています。実際、2018年4月時点では大麻由来の製品を承認している国は49ヶ国存在します。

世界の中でも医療用大麻業界のパイオニアとされる米国。Flowhubは米国で欠かせない存在になりつつあります。その背景として2つの需要が挙げられます。

1つ目が、急拡大する市場需要です。1996年のカリフォルニア州から始まり14の州が住民投票によって医療用大麻が合法化されました。

アルツハイマー病などの神経性疾患、がんの化学療法やHIV/AIDS関連の副作用など消化管などの病気に対する効果があることが認められつつあります。これを受けて、医師と患者から規制緩和の声が大きくなっているのです。

加えて、違法に関わらず生産、流通、販売を行う反社会勢グループの資金源になっていることを問題視する声が上がっています。違法の状態でも犯罪件数が減る傾向が見られないため、合法化して国が管理することである程度の制御をする需要が高まりつつあります。

2つ目が、税収増加による公共政策目的です。大麻草と派生品に課税をすることで税収を得ることができます。さらに企業利益の増加が州税収を増加させます。

2004年のバーモンド州から始まり15の州が立法プロセスによって税収政策が可決されました。これらを学校資金、薬物依存防止・治療など社会的利益に配分しているのです。

以上の2つの要望を踏まえて、国民主導による市場健全性を優先するような合法化の動きと、産業による税収創出を目指した制度化に突き動かされているのが米国の現状です。

image2.png
credit:Flowhub HP

一方、医療用大麻は国連の薬物統制条約で禁止されている(2020年3月までに規制見直し予定)ため、地域ごとのリテラシーに差があり、規制制度の足並みを揃えることができない状況です。州ごとにコントロールできる税の最適解も模索中であることもあり、規制制度は混乱の真っ只中にあるといえます。

こうした環境に柔軟に適用できるからこそ、Flowhubの存在価値が大きくなることは想像しやすいでしょう。規制対応を外部に任せられるため、利用企業はサプライチェーンのサービス拡大に集中できます。

改めて、米国の善意に任せない「仕組み化」の能力の高さに驚かされます。良いと判断すれば潮流に逆らってでも実現する国民性と仕組み化で業界を牽引してきます。

日本においても、今年5月に厚生労働省が「海外で承認前の薬であっても、安全性が確認できれば医療機関が治験で使うことを認める」と発表し、医療用大麻に前向きな動きを見せています。日本市場でFlowhubのような立ち回りがベストかどうかはわかりませんが、サプライチェーンに食い込むなら今から準備が必要となりそうです。

----------[AD]----------

AmazonからMSへ電撃移籍、ゲームストリーマーShroudが「Mixer」で独占配信へ

SHARE:

ピックアップ:Twitch megastar Shroud is joining Ninja on Mixer as an exclusive streamer ニュースサマリ:世界で最も有名なゲームストリーマーの一人であるShroud(シュラウド)が、Amazon傘下のストリーミングプラットフォーム「Twitch」を離れ、Microsoftが所有する「Mixer」で独占配信することを発表した。 …

01
Image Credit: Twitter

ピックアップ:Twitch megastar Shroud is joining Ninja on Mixer as an exclusive streamer

ニュースサマリ:世界で最も有名なゲームストリーマーの一人であるShroud(シュラウド)が、Amazon傘下のストリーミングプラットフォーム「Twitch」を離れ、Microsoftが所有する「Mixer」で独占配信することを発表した。

今年8月に同じくTwitchのスターであったNinja(ニンジャ)がMixerと専属契約を結んだことを発表し、ストリーミング業界に衝撃を与えたニュースは聞くに新しい。著名ゲーマー2人の移籍はファンにとっても、業界にとっても衝撃を与えるだろう。

話題のポイント:e-sportsやストリーミング業界に少しでも関わりがある人なら誰でも知っているShroud。プロゲーマー達も彼の一挙手一投足に注目し、新作ゲームに対する彼の評価は大きな影響力を持ちます。

現在ストリーミングプラットフォームはTwitch(Amazon)、YouTube Gaming Live(Google)、Mixer(Microsoft)、Facebook Gamingの4つが市場シェアの大半を占めています。Twitchが業界をリードしており、視聴時間で比較すると業界2位のYouTube Gaming Liveに38倍の圧倒的な差をつけています。(ちなみにMixerの283倍)

02
Image Credit:Streamlabs & Newzoo Q3 2019 Live Streaming Industry Report

Shroudは業界をリードするTwitchで第2位のフォロワー700万人を超えるトップストリーマー。その彼が業界3位を争うMixerに移籍したのです。大胆に例えると、日本でYouTube登録者数第2位のヒカキンがニコニコ動画にだけ動画を上げることを宣言したのに匹敵する衝撃です。ちなみにNinjaもTwitchでフォロワー1,400万人を超えるトップストリーマーでした。

今回はShroudのMixer移籍がストリーミングプラットフォームにどのような影響を与えるのか、2カ月早く移籍しているNinjaの例から考えようと思います。

SteaLabsとNewzooの業界レポートによると、Ninjaが加入した8月以降、Mixerのストリーミングプラットフォーム主要指標は第2四半期比で、総視聴時間は10.6%減の902万時間、総ストリーミング時間は288%増の326万時間、ユニークチャンネルは200%増の300万でした。

03
Image Credit:Streamlabs & Newzoo Q3 2019 Live Streaming Industry Report

総視聴時間が減少している点に言及すると、メガヒットゲーム「Fortnite」に世界中が飽き始めていることが原因だと思われます。現在でも最も視聴されているコンテンツであることに間違いありませんが、全盛期に比べると40%ほど視聴時間が減っています。

Ninjaは「Fortnite」で絶大な人気を手に入れたプレイヤーです。Ninjaによるストリーミングのほぼすべてを占める「Fortnite」の人気に陰りが出たことが活躍の足かせになっていることは自明でしょう。

しかし、この傾向は移籍前から出ていました。Ninjaチャンネルの有料登録者数は2018年3月時点で25万人いたのに対し、2019年7月時点で1万5,000人と約6%にまで急激に落ち込んでいます。つまりMixerがNinjaに移籍金をわざわざ払って引き抜いた目的は視聴時間の増加ではなく、ストリーマー数の増加が目的と推測されます。

一般的にストリーミング拠点を複数持つ人は少なく、ユーザーにお試しで使ってもらえるだけで一定数のユーザーがMixerに定着する自信が合ったのでないでしょうか。言い換えれば広告塔としての役割を持ってもらうだけで十分な費用対効果があるという算段であったと感じます。

04
Shroud のTwitterを引用

Mixerの引き抜き戦略を考えるとShroudの移籍もストリーマ増加が目的でしょう。ただしNinjaとは違い、視聴時間の増加も大いに期待ができます。

Shroudの特筆べき特徴は「配信回数の多さ」「人気がゲームタイトルに依存しない」の2点です。Ninjaが1カ月に約15日ストリーミングを行うのに対して、Shroudは約25回です。そのほとんどで7〜12時間のストリーミングを行います。また、FPSを軸に「PUBG」「Apex Legends」「CoD」など多様なゲームをプレイし、どのゲームに対しても2万人程度の視聴者を集めています。つまり、ゲームタイトルの流行り廃りの波を乗りこなしてくことができるわけです。

最近の二人のストリーミング状況を参考に、今後のMixerでの活動実績を予想してみます。Ninjaの基本スペックを「視聴者数:1万人、視聴時間:6時間、視聴回数:15回 / 月」と仮定すると月の総視聴時間は90万時間。Shroudを「視聴者数:2万人、視聴時間:6時間、視聴回数:25回 / 月」と仮定すると月の総視聴時間は300万時間になります。およそ33倍となり、ShroudだけでMixer全体の1/3程度の視聴時間を生み出す計算になります。

もちろん既存Twitchユーザーにとってはスイッチコストがあるため上記ほどの差は生まれないと思います。しかし、「配信回数の多さ」「人気がゲームタイトルに依存しない」の2点が続くとすればMixerの躍進に貢献することは間違いないでしょう。Ninjyaがユーザーのアテンションを惹きつける役割を果たし、Shroudが継続利用するフックとして機能する形になると感じます。

タレントの人気を生み出すことで成長したライブストリーミング業界。まだ黎明期の業界を牽引してさらなる成長を生み出すのは誰になるのか、GAFAMのうち4社(Google VS Amazon VS Facebook VS Microsoft )がしのぎを削る戦いにこれからも目が離せません。

----------[AD]----------

Amazonが変革する医療サービス

SHARE:

ピックアップ:Amazon acquires start-up Health Navigator, its first health-related purchase since PillPack ニュースサマリ:10月24日、Amazonがオンライン医療診断サービスと患者の重篤度選別ツールを開発する「Health Navigator」を買収したことを発表した。買収額は非公開である。 Health…

image1.png
credits : Amazon HP

ピックアップ:Amazon acquires start-up Health Navigator, its first health-related purchase since PillPack

ニュースサマリ:10月24日、Amazonがオンライン医療診断サービスと患者の重篤度選別ツールを開発する「Health Navigator」を買収したことを発表した。買収額は非公開である。

Health Navigatorは2014年に設立され、臨床医や看護師が患者を症状に合わせて適切な施設に案内できるサービスとして立ち上がった。Health Navigatorはオンライン医療企業向けサービスであり、顧客企業のプラットフォームに統合することを前提に開発されている。

買収後はAmazonが9月に立ち上げた「Amazon Care」に参加し、従業員向けにサービスが継続提供される。これまでの外部顧客に対しては段階的に提供を停止する。

image3.png
credits : Health Navigator HP

話題のポイント:今回の買収はAmazonが目指す“ヘルスケア・ポートフォリオ”の実現に向けた確かな一歩となります。昨年、Amazonは「Berkshire Hathawa」と「JPMorgan Chase」と提携して非営利団体「Haven」を立ち上げました。また、オンライン薬局「PillPack」を7億5,300万ドルで買収しています。今回の「Health Navigator」の買収も、Amazonが目指す一大ヘルスケア・ポートフォリオ確立を達成する上で重要なマイルストーンになったことは間違いないでしょう。

こうした買収企業サービスとAmazonが持つ物流インフラと組み合わさった際、医療サービスの利便性が向上される点は容易く想像できます。病院へは必要最低限行けばよく、軽度な症状の治療に必要な物は自宅に届くようになるでしょう。風邪薬と安心感を貰うためにスケジュールを割いて病院へ通う時間を消耗する必要がなくなるはずです。

ここまで聞くとサービスの恩恵を受けるのは消費者だけだと感じるかもしれませんが、むしろ一番喜んでいるのは雇用主である企業です。

米国の医療費が世界で最も高いことは知られています。日本と違い米国では公的医療制度は高齢者および障害者を対象としたものしか用意されていないため、企業が保険料を負担して従業員を民間保険に加入させるのが一般的です。企業にとって年々高騰する医療費に合わせて高くなる保険料が大きな負担になっているのです。

そのためAmazonの業界参入を称賛し、最適化したリソースで予防医療に挑む試みに期待が寄せられています。

image2
credits : Amazon Care HP

しかしAmazonはとても慎重なプロセスを選んでいます。今年9月に自社従業員向けサービス「Amazon Care」を発表。Amazonの従業員であればオンライン医療サービスを通じていつでも受けられます。つまり、市場需要は把握しつつも、自社内で完結するサービスに留まる決定しかしていません。

大きな理由として、ヘルスケア業界はステークホルダーが複雑であることが挙げられます。一貫したシステムを構築するには提携が困難になることが予想でき、時間とお金を無駄に消費する可能性が高いため大きな失敗の原因になると判断したのでしょう。

実際、2008年にGoogleは「Google Health」という処方箋や投薬履歴、通院記録の管理ができるサービスを立ち上げましたが、病院や保険企業などと提携に苦戦した結果、2011年に閉鎖しています。

現在60万人を超える従業員数を抱えるAmazonでは、従業員向けだとしてもサービス展開規模としては十分なもの。ここで培われるノウハウとサービス完成度を武器に、ヘルスケア業界に乗り込む戦略をじっくり取れる点は一つの強みといえるでしょう。

現状、米国にある医療に関する社会問題を解決できる環境が整いつつあるのはAmazonだけのように思えます。Amazonが生み出す結果がこれからの社会の流れを大きく変えることになるかもしれません。果たして救世主になれるのか、今後の動向に注目が集まります。

----------[AD]----------

過熱する「投げ銭」ビジネスに乗り遅れるな!ーーLogitechがライブ配信者向けツール「StreamLabs」を買収した理由

SHARE:

ピックアップ:Logitech + Streamlabs = Awesome ニュースサマリ:9月26日、ライブストリーミング配信者向けソフトウェアを開発する「SteamLabs」がLogitechに買収されたことを発表した。Logitechは日本ではLogicoolとして知られているデバイスメーカー。買収額は約8,900万ドルで、収益成長目標の達成を条件として追加の買収額約2,900万ドルが発生…

image3.png

ピックアップ:Logitech + Streamlabs = Awesome

ニュースサマリ:9月26日、ライブストリーミング配信者向けソフトウェアを開発する「SteamLabs」がLogitechに買収されたことを発表した。Logitechは日本ではLogicoolとして知られているデバイスメーカー。買収額は約8,900万ドルで、収益成長目標の達成を条件として追加の買収額約2,900万ドルが発生する。

SteamLabsはゲームストリーミング・視聴者との交流・投げ銭機能を備えたツールを配信者に提供する。2018年1月のベータ版リリースから1,500万人の配信者が利用している。SteamLabsの買収後も、ツールは無料で継続利用できる。

話題のポイント:今回はLogitechがなぜStreamLabsを買収したのかを考察していきます。

LogitechはPC周辺機器の開発を行うメーカーでハードウェアを扱っています。これまでファームウェアの開発は行っていたものの、消費者向けソフトウェアの製品を取り扱っていませんでした。今回のStreamLabsの買収で、Logitechは本格的にソフトウェア開発に乗り出す姿勢を明確にしたといえるでしょう。

一方、StreamLabsは配信者向けにライブストリーミング配信中に視聴者とリアルタイムでコミュニケーションを行うサポートをするツールを無料で提供。主要配信プラットフォーム(AmazonのTwitch、GoogleのYoutube Gaming Live、MicrosoftのMixer、Facebook Live)の全てに対応しており、各プラットフォームを機能拡張することで一定の市場ポジションを勝ち得たといえます。

2018年第4四半期には約70%の配信者がTwitchで配信行っており、そのうち約41%の配信者がStreamLabsのサービスを利用していました。同年第1四半期のシェア率が約15%だったことを考えると成長スピードの早さが顕著です。

image1.png
引用:SteamLabs, “Live Streaming Q4’18 Report”

背景として、ライブストリーミング市場が盛り上がりを見せた点が挙げられます。ここで、ライブ配信中に発生した「投げ銭額」を時系列別で比較し、ライブストリーミング市場の成長度合いを確認してみましょう。

三菱UFJリサーチ&コンサルティングの調査によると、投げ銭を行うのは全視聴者のたった8.1%程度。しかしSteamLabsの業界レポートでは、主要配信プラットフォームでSteamLabsのサービスを通して行われた「投げ銭」の年間合計が2015年の4,360万ドルから2018年の1億4,100万ドルへ323%の成長を達成したと報告されています。

投げ銭総額が3倍も増加した理由には「新規視聴者数が増えた」点と、まさにライブストリーミング市場に注目が集まったタイミングにStreamLabsが提供する「気軽に無料で始められて稼げる環境」が配信者の増加を後押した点が挙げられます。市場成長する絶妙なタイミングでStreamLabsが参入を果たし、市場シェアを急速に広めていったのです。

ストリーミング市場の成長はStreamLabsに大きな成長をもたらしましたが、Logitechにとっては競合他社数を増やす結果になりました。事実、マウスだけ見ても2016年から2018年にかけてメーカー数が1.5倍以上になり、Logitechのシェア率と業界順位を下げています。

ここにLogitechの課題がありました。類似機能を備えた製品が乱立し、差別化が難しくなる中でユーザーに選ばれる理由を作る必要がなくなっていたのです。

そこでLogitechが目指した戦略が「PC周辺機器メーカー」から「クラウド周辺機器メーカー」への進化です。ハードウェアのラインナップを単に増やす時代から、最新のクラウド環境に対応したハードウェアとソフトウェア両方の提供価値を実現しようとしたのです。

実際、2017年9月からキーボードのハイエンドモデル「CRAFT」では、搭載するコントロールホイールを使ってAdobeのクリエイティブ系アプリやMicrosoft Officeアプリのキーツールに素早くアクセスできる機能をクリエータ向けに販売しています。

また、Video CollaborationソリューションのLogitech Syncではビデオ会議デバイスのモニタリングに役立つ最新のクラウドベース・プラットフォームを提供しており、この分野はYoY 25%と高成長を叩き出しています。

image2.png

Logitechはこれからもクラウドをベースにハードウェアとソフトウェア環境の統合を図り、UI/UX向上を戦略として強化していくでしょう。その延長線上にSteamLabs買収があります。

両社の共通戦略は配信者に選ばれるハードウェアと配信ツールになることです。SteamLabsの「気軽に無料で始められて稼げる環境」には視聴者を配信者に変えるほどの魅力があります。この競合優位性を武器に、市場シェア拡大における大事なKPI「配信者数」と「配信時間」を高めている考えです。明らかになっていせんが、買収額の追加支払いの達成を条件として、配信者数の増加率が含まれている可能性は高いと思います。

加えて、配信者へのコメントとして、使用している周辺機器関連の質問がよく見られます。乱立するデバイスの使用感を確認し、失敗のない環境を整えることができるのです。つまり配信者が使っていることが購入動機となり得るということです。

配信者向けのサポートソフトウェアとLogitechが提供するハードウェアポートフォリオの環境統合が行われれば、配信者が自然と購入導線を拡散する流れを期待できます。この点もいち早く買収に至った理由だと考えられます。

どの企業もライブストリーミング市場の成長に乗り遅れまいと躍起になっています。Logitechの配信者ニーズを抑える戦略性が一致することで実現したと思われる今回の買収。プラットフォームをサポートする支える企業であり続けるLogitechが今後どのような製品を世に出すのかとても楽しみです。

----------[AD]----------

自己紹介だけで個人を特定できるリザーバコンピューティングのスゴさ、QuantumCore秋吉氏に聞く「深層学習(LSTM)の次」

SHARE:

2012年の画像認識コンテストILSVRCでの圧勝、Googleの猫認識から巻き起こった第三次AIブームを牽引する技術がディープラーニングであることは周知の通りです。ウェブの発達による大量のデータとそれを処理できる計算機の能力の向上がブームを後押しし、ソフトバンク社長兼CEO宮内謙氏の「データは石油」という言葉は記憶に新しいと思います。 1969年に渡辺慧氏が提唱した「みにくいアヒルの子の定理」に…

IMG_0241.jpeg
QuantumCore代表取締役CEOの秋吉信吾氏

2012年の画像認識コンテストILSVRCでの圧勝、Googleの猫認識から巻き起こった第三次AIブームを牽引する技術がディープラーニングであることは周知の通りです。ウェブの発達による大量のデータとそれを処理できる計算機の能力の向上がブームを後押しし、ソフトバンク社長兼CEO宮内謙氏の「データは石油」という言葉は記憶に新しいと思います。

1969年に渡辺慧氏が提唱した「みにくいアヒルの子の定理」によると、人間の識別・認識の本質は特徴の選択・抽出です。機械学習においても「次元の呪い」を避けるために、ビッグデータから特徴の選択・抽出を行う必要がありました。ディープラーニングのブレイクスルーはこの「特徴を自ら抽出できる」部分で、人間が特徴を抽出するより精度が良い結果が生まれ始めています。

一方で、「AI≒ディープラーニング」のブームが加熱してバズワードとして浸透したため、なんでもできるという誤った認識が企業に多くの失敗を生み出しました。当然ですが、ディープラーニングにも得意・不得意があり、十分な精度を出す条件を満たすのは簡単ではありません。

本稿では再帰ニューラルネットワークの一種である「リザーバコンピューティング」を活用して、ディープラーニングが取れない領域を狙うQuantumCore代表取締役CEOの秋吉信吾氏にインタビューを実施し、今後注目すべき「リザーバコンピューティング」とは一体何か、その技術で実現したい社会とは何かを伺ってきました。(太字の質問は全て筆者)

image3.png

2018年4月、エンジニアリングに精通する3人によって創業されたQuantumCoreは、テクノロジードリブンで事業展開をしています。創業2年目にしてR&Dを構え、社会実装に向けた基礎技術の積み上げも行っています。課題解決能力に強みを持つQuantumCoreが目指す社会とはどういうものなのでしょうか。

QuantumCoreが実現したい社会を教えてください

QuantumCoreの究極の目標は、世の中の「一極集中」の解決です。世の中には波動問題が存在すると思っています。どういうことかというと、朝の通勤ラッシュの混み具合、待機児童、長時間労働、介護、子供の見守りなどの問題は絶対的なリソースが不足しているわけではなく、本質的な課題は一極集中していることだと思うんです。これをうまく“ならす”ことが我々の目指すところです。

目標のためにどんなことが必要になりますか

マクロで見ると波動(世の中の流れ)を捉えて、機械学習などで世の中を予測することです。その上でリソースの再配置を行う必要があります。

ミクロで見ると各領域の負担の軽減が必要。たとえば介護見守り系では、24時間365日ご老人を見ておかなくちゃいけないが、カメラを付けるとプライバシーの問題があります。似たような話で、オレオレ詐欺、子供の見守りでも知ってる方の声を登録しておくことで初めて声をかけられたかどうかが分かるようになります。これまでの機械学習ではパーソナルなデータを大量に集めてモデルを作り、その上で製品に適用するため実現できませんでした。

秋吉氏らが目標を実現するために選んだのが「リザーバコンピューティング」と呼ばれる再帰ニューラルネットワークの一種。2000年代初めに Echo State NetworkとLiquid State Machineで提案された学習モデルです。

時系列情報(時間ともに変化する情報。たとえば毎月の売上、音声・映像データなど)の機械学習に適しており学習が極めて早いのが特徴ではあるが、扱うデータに合わせて各要素を調整じづらい側面があります。そのため期待はされつつも深層学習(LSTM)に比べても知名度は高くありませんでした。

IMG_0234
数キロバイト程度のメモリで時系列処理が扱える

Quantum Core のコア技術について教えて下さい

リザーバコンピューティングは複雑系力学といわれる物理分野で研究されてきたものを活用したものです。世界ではまだあまり使われていませんが、少ないデータでリアルタイムで学習ができる強みを持っています。

深層学習を適用した製品は日々正常値が変わる環境では使いづらいのが現状です。チューニングし直したいという要望が出てても、データを取り直して再計算する時間が必要で現実的ではありません。特に、パーソナルヘルスケア分野では製品の購入者ごとに適用させることが求められますが、何万件というオーダで個人のデータは中々取れません。

「少量データ、リアルタイム学習」の特徴を持つリザーバコンピューティングでは、数十秒程度でキャリブレーションをかけてすぐに使えるようにできます。また、現在提案している例でいうと、議事ログを自動作成するシチュエーションで、一人あたり大体十秒以下のデータで学習可能なので自己紹介だけで個人を特定することが可能になります。

もう少しリザーバコンピューティングについて教えてください

リザーバコンピューティングの本質は特徴抽出器です。ディープラーニング全般には特徴抽出する部分と判定する部分があって、特徴抽出する部分が中間層と呼ばれます。リザーバコンピューティングでは中間層(リザーバ層という)を一切更新しません。

出力層だけを学習するため、出力層には何をおいても構いません。(ランダムフォレスト、ディープラーニングなども可能)。普通なら良い特徴を取るために、大量のデータを流し込んで、特徴を捉えるための中間層のフィルタを育てる必要があるんです。

では、なぜ特徴抽出ができるんでしょうか

例えると、水面が複雑系力学と同じです。水面に小石を投げ込んだら波紋が発生します。その波紋は小石の重量・大きさ・形・スピードの特徴を全て含んだ形になるので、ここの波紋を特徴として使いましょう!という発想がリザーバコンピューティング。ただし石一個だとメリットが分かりづらくて面白くないんですが、小石を1,2,3と投げ込むと波紋がどんどん湧いて、2個目の波紋は1個目の波紋を含んだ形になります。最後の波紋を見れば全ての小石の特徴を含んで、かつ時系列の関係を踏まえた波紋が取れるんですよ。

image2

リザーバは日本語にすると溜め池です。リザーバ層は投げ込まれた情報を波紋のようなパターンに変換する装置とみることができます。この波紋を観察することで特徴量を抽出するのです。つまり、リザバーコンピューティングの最大の狙いはリザーバ層が生成する波紋パ ターンから簡便なアルゴリズムを用いて、時系列入力の識別を行うことだということです。

ここで気になることがあります。前述の通りリザーバコンピューティングが提案されてから10年以上が経過しています。なぜ現在まで社会実装されてこなかったのでしょうか。

リザーバコンピューティングの技術が登場したのは2000年代初めです。これまで精度向上を実現できなかったのはなぜですか

マシンパワーが足りないのが問題でした。具体的には、リザーバ層のレイヤーを非常に大きくしないと複雑な問題が解けませんでした。あまりにレイヤーが大きくなると、計算量が大きくなるし、メモリに収まらないし、本末転倒になってしまいます。

そんな中、QuantumCoreは業界で初めて、リザーバコンピューティングを活用した多変量時系列処理ソリューションで深層学習(LSTM)を大きく上回る精度と短学習時間を達成しています。どのようなブレイクスルーがあったのでしょうか

要はリザーバ層のレイヤーを小さくしながら、複雑の問題を解ければいいわけです。特許出願中のため詳細はお伝えできませんが、リザーバ層に適した前処理を加えました。これで小さなリザーバ層のレイヤーで複雑な問題が解けるようになりました。

イメージをお伝えすると、センサーと音の発生源があるとします。音が発生すると物体の中を伝達する波と表層を伝わる波、そして空気中を伝わる波がそれぞれ合わさってセンサーで受信されます。これをそれぞれの波に分解する技術にブレイクスルーがあります。通常はこれをうまく学習アルゴリズム内で分解してやらないといけません。そのため大きなネットワークが必要になってしまうんです。

ディープラーニングであれば、ニューラルネットワークを多段にして高次の特徴量を得るという発想は以前からありましたが、マシンパワーと頑健性という方向性で実現したと思います。これはどういう方向性の発想だったんでしょうか

機械学習に全て任せてしまわない、という発想です。特徴を捉えるところは機械学習に任せる。そして複雑に絡み合った情報をバラしてあげるところはまた違うアルゴリズムを適用すれば良いんです。

入力する前のデータに信号処理を加えることで精度向上ができるということは、使うセンサーの種類が増えれば様々な状態検知できるのでしょうか

レーザーでもできるし、カメラでもできます。現在、R&Dで非接触のバイタル系も取り組んでいます。今は医療機器の扱いになるので製品として出せませんが、カメラを使ったバイタル、レーダーを使ったセンシングを社内でやっています。人間の顔の皮は薄くて血流が見えるので、ここのピクセルを解析することで脈を見たり、血圧を見たりできます。

今までだったら多数の方からその人の見て異常を当てることはできましたが、その人にとっての異常が検知できませんでした。少量データでその人の平常状態がわかるので、異常なデータを推定でき、密接な異常検知の実現を期待しています。

画像の分野ではディープラーニングが強いと感じていますが、そうではなくなる可能性があるんですか

ディープラーニングが流行ってはいますが、適用できるのは画像処理ぐらいだと思っています。当初我々は画像分野以外を取りにいこうと考えていました。

しかし状況が変わって、レーダー技術に独自技術とリザーバコンピューティングを組み合わせることで画像認識領域をカバーできてしまいます。人の検知だったり、動きの検知だったり。更にカメラでは被っていて撮れなかったものがレーダーだと取れるので、今は画像分野でも意外と勝負できると感じています。

ここからは現在の戦略について教えてください。WebAPIを公開していますが、これの狙いはなんでしょうか

リザーバコンピューティングは認知度が低いです。その中で良いじゃんこのアルゴリズム!と思ってもらわなければなりません。そのため導入しやすいWebAPIの形態で、幅広いエンジニアの方に使っていただきたいというのが狙いです。REST APIの形式で提供しているのでWebエンジニアにも含めて親しんでもらい、手軽にWebのサービスに利用していただきたいと考えています。

ターゲットはエンジニアということですね

ハマるところはエンジニアの現場だと考えています。現場は少量データしかないがビッグデータをなんとか作らないといけない、さらに計算量すごいかかると悩んでいました。問題意識を持っているエンジニアと現場に刺したいです。

エッジとして提供を開始しました。同じ狙いでしょうか

WebAPIと同様に取っ掛かりとしています。Raspberry Piに組み込んですぐに使える形です。さらにARMのcoretex m4fに移植開発をして提供します。事業会社とはPoC(Proof of Concept)をEdgeの形で検証して、事業会社が持つ製品に組み込むこともやっています。

事業会社視点だと「導入のしやすさ」にインパクトがあると感じました。実際PoC製作に取り組んでいる事業会社にはどのような点が評価されていますか

今のQuantumCoreは駆け込み寺的なところがあります。ディープラーニングでやってみたけどうまくいかなかった事業会社に刺さっているんです。「手元に少量データしかなくてあってうまくいかなかったんです」「それ貸してください、やってみます」で結果を出してしまうので驚かれます。それに加えてPoCの結果は2カ月程度で出ます。その早さにかなり驚かれますね。

QuantumCoreの開発は時系列を扱う機械学習の発展にインパクトがあると感じます。

実際、時系列データのパターン認識は広い分野で必要とされています。応用できる例を挙げると、医療(心拍、バイオマーカ、fMRI、眼球運動)、機械(車両、ロボット、アクチュエータ)、通信(電波、インターネット通信)、環境(風力、オゾン濃度、廃水、地震)、安全(暗号)、金融(株価、株価指数、為替)など多岐に渡ります。

さらにエッジコンピューティングとも大変相性が良いです。秋吉氏によると、数キロバイト程度のメモリで時系列処理が扱えるそうです。メモリが必要ないとエッジコンピューティングが目指すセキュリティ向上、プライバシーの保護、通信量削減に加えて、消費電力を抑えることが可能になります。ウェアラブルデバイスのように小型化、持ち運び負荷を小さくしたいものにとっては避けては通れない問題です。

要するに、QuantumCoreの技術はソフトウェアがより知性的に振る舞い、IoTの普及にネックだった問題が解決する可能性があるということです。

ここからは、技術の話を離れて最新技術を社会実装するスタートアップとして行ってきたことについて聞きたいと思います。

起業をしたきっかけを教えて下さい

2020年までに自分の事業を持ちたいと考えていました。ベンチャーキャピタルとして他のスタートアップと話をし、手を動かす経験から自分が主体となってやってみたかったのです。

元々AI関連技術に興味を持っていたので、2012年ぐらいに独学でディープラーニングの勉強を始めました。その後、Mistletoeに入社してディープラーニング周りの話者認識や画像認識だったりに携わっていました。その要素技術を使って色々やっていきたいと思っていたんです。

現場では時系列データを扱うことが多かったので、深層学習をする時や既存のアルゴリズムを使う時に、無駄が多いなと感じていました。特にディープラーニングだとデータを画像認識の技術に適用して分析しなければなりません。これは非常に非効率です。

個人的に色々文献を調べているうちに、意外と人間の脳はすべてを学習しているわけではなくて、最後の出力のところだけを学習してるらしいと分かりました。この知見は活かせると感じていたときに、リザーバコンピューティングに出会ったんです。これは自分でやりたい、と思って起業を決意しました。

その後、ブレイクスルーまではどのようにたどり着きましたか

リザーバコンピューティングでいこうと決めて、何もプロダクトはありませんでしたがCEATECに出展することにしました。作る物はデモ受けを考えて話者特定にして2週間でデモを作ったのですが、リアルタイム学習データを見せるために計算量が非常に少なくて済むようにしなければいけませんでした。それはつまりリザーバレイヤーを小さくしないといけないということです。

問題の本質を追及したところ、信号があまりにも複雑すぎるというところに行き着きました。複雑な波形を分解するのを機械学習でやるのは本当に正しいのかと。特徴抽出でやるのが正しいのかと。別アプローチがあるんじゃないかと考えた結果、良いアイディアが生まれました。

image1.png
CEATEC:毎年幕張メッセで開催されるアジア最大級の規模を誇るIT技術とエレクトロニクスの国際展示会。

人工知能学会(JSAI2019)に出展されていたと思います。NIPSなどの国際学会に参加される予定はありますか

R&Dも行ってはいますが、社会実装に持っていきたいと思っています。基本は事業会社の方に来ていただいて、その方と話を進めていきたいと考えているので予定はないです。

東京大学の池上高志教授が2019年1月から技術顧問と参加しています。現在はどのよう関わり方をしていますか

普及とコアの研究開発を推進する、この両輪を揃える目的でコメットメントの依頼をしました。具体的には、シンポジウムの登壇依頼、案件の相談(研究への発展)などです。社会実装へ向けて研究的な視点から多大なお力をお借りしています。

この手の技術は怪しいと思われてしまう可能性があります。実際、リザーバコンピューティングはなぜ上手くいくのかわからないところが多いんです。懸念点を払拭するために、長らく研究されている方に説明いただいた方が信用できるだろう考えています。さらに今後リザーバコンピューティングのコア部分も発展させていきたいので改良ポイントなどをご相談させてもらっています。

最後に今後の展望とそれに必要な要素があれば教えて下さい

リザーバコンピューティングで本格始動して1年経過しました。この技術は何に使えるかはといえば、何にでも使える技術です。そのため、本当に一番当てはまるのはどこだろうと模索してきました。段々とハマりどころが見えてきた中で、進化していくためには事業開発をもっと強化する方針です。

もう一つは、8月に発表した電通国際情報サービスとの取り組みで画像認識アフターで適用できることが分かりました。それに加えてレーダー技術を組み合わせることで、画像認識をディープラーニングを使わないことで置き換えれるんじゃないか、と新しい可能性が見えてきました。そのため新しいセンシング技術を使った研究開発を進めるのは必須だなと考えています。センサの知見がある方は技術者として入ってきていただきたいです。

ありがとうございました

----------[AD]----------

Teslaが革新的バッテリーで参入する「ロボタクシー事業」ーー耐久走行距離100万マイルが生み出す新ビジネス

SHARE:

ピックアップ:Million-mile battery unveiled by ground-breaking research ニュースサマリ:9月6日、Tesla Motors(以下Tesla)のバッテリー研究パートナーであるJeff Dahnの研究グループは、電気化学のトップカンファレンス「Electrochemical Society」の学会誌である「Journal of The Elec…

close up of illuminated text against black background
Photo by Pixabay on Pexels.com

ピックアップ:Million-mile battery unveiled by ground-breaking research

ニュースサマリ:9月6日、Tesla Motors(以下Tesla)のバッテリー研究パートナーであるJeff Dahnの研究グループは、電気化学のトップカンファレンス「Electrochemical Society」の学会誌である「Journal of The Electrochemical Society(JES)」において、リチウムイオン電池に関する論文を発表した。

論文では陽極にニッケル50%、コバルト20%、マンガン30%のNCM523の単結晶、負極に合成グラファイトを組み合わせたセルを調査している。その結果、160km以上にわたって電気自動車に電力を供給でき、少なくとも20年間電力を貯めることができることを明らかにした。

話題のポイント:Teslaは4月22日、製品発表会「Tesla Autonomy Day」で電気自動車による完全自動運転のロボタクシー事業を展開することを発表しました。利用者はアプリからTesla車を呼び出して利用できることに加え、Tesla車の所有者はリース契約をして運転していない時間をロボタクシーに提供して収益を得ることができます。

最近1~2年の内にTeslaの特徴の一つである「電気自動車(以下EV)」のスペックで、ロボタクシー事業を支える技術革新がありました。それがリチウムイオン電池です。

実はEVを一般的に利用するのと、タクシーとして利用するのでは求められるスペックが違うのです。

EVに採用されているリチウムイオン電池は、100%充電されている状態から残量が何%で充電するかで電池寿命が異なります。これまでの研究では残量を多くの残したまま充放電を繰り返すことで電池寿命がはるかに長くなることがわかっています。

具体的にみると、EVを一般的に利用するとおおよそ毎日残量が75%まで消費されてから充電される傾向があります。それに対してEVをタクシーとして利用する場合は終日走行するため、残量が0%まで消費されてから充電される回数が多くなります。

Teslaが想定するロボタクシーの用途では電池に多くの負荷がかかるため、短命なのです。

image2.png

今回の論文で、過酷なロボタクシーの用途に耐えるリチウムイオン電池を開発ができることが発表され、走行距離が従来の2倍になる点で非常にインパクトがありました。

たとえばTeslaをロボタクシーとして年間14万km走行させたとしても、11年間は使用可能です。この場合、1台の1年間当たりの売上総利益は3万ドル程度になります。こうしたロボタクシーを2020年半ばまでに100万台に広げる計画のため、ロボタクシー事業による年間の利益は300億ドルに到達する計算です。

走行距離に余裕があるからこそ、Tesla車の所有者はリース契約をして収益をあげることを望むでしょう。そして参加者の数がTesla側の経費を下げ、利益を生む仕組みです。Teslaの新しいビジネスを支えるのは間違いなく電池の発展だといえるでしょう。

さらにこの研究はまだ余力を残しているため、JESの技術編集者Aurbach氏によると、一回の充電で500kmを走るリチウムイオン電池がまもなく開発されるそうです。

実現されれば、長距離EVトラック「セル」の実用化が見えてきます。より遠くに行ければ、現在問題になっている輸送中の充電時間を克服できるからです。

さらに、もしEVトラックを使用した輸送事業においてもリース契約を通じたシェアリングによるロボトラック事業化できれば、大きな市場に経済性を武器に乗り込めるのに加えて、社会リソースの平滑化という面で大きな意味を持つことになるでしょう。

Teslaは電池技術の発展から、輸送事業を経済性で支配する可能性があるのです。(執筆:佐々木峻

----------[AD]----------

特化型SNSで「患者の本音」を聞き出せーーMyHealthTeamsが940万ドルの資金調達

SHARE:

ピックアップ:MyHealthTeams Raises $9.44 Million in Financing Round Led By Strategic Investor UCB ニュースサマリー:慢性疾患の患者向けソーシャルネットワークを提供する「MyHealthTeams」がバイオ医療会社であるUCBが主導するシリーズBラウンドで940万ドルの資金調達を完了した。この資金調達によりAdams…

image_01.png

ピックアップ:MyHealthTeams Raises $9.44 Million in Financing Round Led By Strategic Investor UCB

ニュースサマリー:慢性疾患の患者向けソーシャルネットワークを提供する「MyHealthTeams」がバイオ医療会社であるUCBが主導するシリーズBラウンドで940万ドルの資金調達を完了した。この資金調達によりAdams Street Partners、Qiming US Ventures、CVS Health、The Westly Group、HealthTech Capital、500 Startupsなどの投資家からの総調達額は2,684万ドルに到達した。

同サービスは慢性疾患と診断された人々が、同様の課題を抱えている他の人と簡単につながることができる点が特徴。現在33の特定疾患コミュニティが用意されており、200万人以上の登録メンバーに利用されている。

今回の調達資金は新たな疾患に対する患者ネットワークの立ち上げのために使われる。

image_02.png

話題のポイント:今回はMyHealthTeamsが製薬会社と取り組む「特化型SNS」が生み出す提供価値について紹介します。

MyHealthTeamsでは、各疾患に対応して「my〇〇team」と名前を付けてSNSが運用さています。myMSteam, myhemophiliaという具合です。現在33のコミュニティがあり、他の人に相談しにくい内容を共有することで不安の解消や有効な情報を取得することができます。

このようにユーザー側のメリットには不安の解消が挙げられます。一方、MyHealthTeamsとパートナシップを結ぶ製薬会社は、患者同士のやり取りから製薬事業へ利用できるデータを抽出する「Patient Research and Insight」という大きなメリットを得ます。

本音を共有しやすい特徴をもつSNSで集まった非構造化データから情報抽出し、新たなインサイトの発見とエンドポイント(治療法や処方箋)の再設定を行うことで解決策を模索する取り組みを行っているのです。

image_03.png

血友病の治験をおこなう企業「Bioverativ」の例を挙げます。

Bioverativ社は血友病の患者に対して、従来使われている止血療法が本当に有効なのかを知りたいと考えていました。通常は医者が症状に合わせて患者からヒアリングを行いますが、症状が発生する前後の状態、処方された薬が利いている実感などの深堀りはできていませんでした。

そこでBioverativはMyHealthTeamsが抱える「myhemophilia」の患者コミュニティをリサーチ。日常生活にどんな痛みが影響を及ぼしているのかを調査したのです。

その結果、出血の痛みよりも酷いときには涙が出るほどの関節の痛みに問題を持つ患者が多いことが判明し、加えて患者が求める歩行能力向上に関しても貢献できていないことがわかったのです。

この調査結果により、Bioverativは血友病患者が本当に求める関節の痛みや歩行能力を向上する製薬開発へと動くことができました。このようにMyHealthTeamsは製薬会社へ製品開発のインサイトを提供する接点として大きな価値提供をしています。

image_04.png

上図のように全ての病気はあたかも氷山として表現できます。たとえ1つの病名で括れたとしても、様々な症状が複雑に組み合わさっており、どれを優先的に治療すれば良いのかわからなくなってしまうことがしばしば。

そこでMyHealthTeamsの患者コミュニティを積極活用することで患者の声を分析し、今までわからなかった高い治療優先度のものを整理できるようになったのです。患者と医薬機関が本質的にインタラクティブになったと言えます。

MyHealthTeamsのCEOは、医療業界の会議で定期的に新しい治療法の研究開発に患者コミュニティを関与させ、全てのプロセスにおいて実際の患者の声が聞こえるようにすることの重要性について話しています。世界の製薬会社上位10社のうち9社とパートナーシップを結んでいることから、その重要性が名実共に理解され始めています。

今後もこのように専門的なSNSが、ユーザの声を代表するものとして小さな一言が世界を変える例が他の分野でも起こっていくのではないかと思います。

その先陣を切っていくMyHealthTeamsには大きな注目が集まるでしょう。(執筆:佐々木峻

----------[AD]----------