外科手術ロボットが動画を見て縫合トレーニングを実施、Google Brainらがテスト

SHARE:

Google Brain、Intel AI Lab、カリフォルニア大学バークレー校の研究者らはMotion2VecというAIモデルを作成した。これはロボット手術に関連の深い縫合、針の通過や刺入、糸結びといった課題を外科手術の動画から学習することができるモデルだ。2本腕のサージカルロボット「da Vinci」にこのモデルを適用し、布を縫合させるテストを行った。

Motion2Vecは半教師あり学習で訓練された特徴表現学習アルゴリズムの1つで、Word2VecやGrasp2Vecと同じく埋め込み空間内で得た知識を使って学習する。カリフォルニア大学バークレー校の研究者は過去に、YouTubeの動画を使ってダンスやバックフリップなどのアクロバティックな動きをキャラクターに学習させる研究を行っている。Googleは動画を使ってアルゴリズムを訓練し、本物のような動画を生成させたりYouTubeのマネキンチャレンジ動画から奥行きを予測させたりしている

同研究者らは、外科医のデモンストレーション動画から新たなロボット操作技術を学習することでビデオロボティクスが向上する可能性が示されたとしている。論文にはこう書かれている。

セグメンテーションに関しては最高レベルの改善が見られた。一方、ポーズの模倣の誤差は1回の観測につき平均0.94cmであった。

Motion2Vecの詳細については6月第1週、arXivのプレプリントリポジトリに公開され、IEEE International Conference on Robotics and Automation(ICRA)でも発表されている。このアルゴリズムは、模倣学習を通して、JIGSAWSのデータセット内の外科医8名による「da Vinci」操作動画で特徴表現学習を行った。

JIGSAWSはJHU-ISI Gesture and Skill Assessment Working Setの頭文字をとったもので、ジョンズ・ホプキンズ大学(JHU)と手術ロボット製造会社のIntuitive Surgery, Inc(ISI)のビデオをまとめたものだ。

論文ではこう述べられている。

私たちは合計で78件の縫合のデータセットを使用した。縫合のスタイルは外科医によって大きく異なっていた。

パリでの開催の代わりにオンラインで行われたICRAでは他にも注目すべき研究が発表された。たとえば下半身用のエクソスケルトン(外骨格スーツ)による歩行の最適化や、AIによって公共交通機関を活用することでドローンの配達区域を拡大するというスタンフォード大学の取り組みなどだ。

【via VentureBeat】 @VentureBeat

【原文】