Google AI、転移性乳癌の検出で99%の正確性を達成

SHARE:
Google
(左)リンパ節を含む顕微鏡画像、(右)LYNA が検出した腫瘍領域
Image Credit: Google

転移性の腫瘍、つまり元々の組織片から移動する癌細胞は循環系やリンパ系を通って全身を移動し、身体の別の部位で新たな腫瘍を形成するが、これは検知が困難なことで知られている。2つのボストンヘルスセンターが行った102人の乳癌に関する2009年の研究では、患者の4分の1が不十分な身体診察や不完全な診断検査といった「プロセスオブケア」の失敗の影響を受けていたことが分かった。

これこそが全世界で乳癌に起因する50万件の死の理由の1つであり、その90%は転移によるものと見られている。だがサンディエゴ海軍医療センターの研究者、および Google 内で人工知能(AI)研究に専念している部門 Google AI の研究者は、自動でリンパ節生検の評価を行う癌検知アルゴリズムを備えた将来有望なソリューションを開発している。

Lymph Node Assistant(リンパ節アシスタント)または LYNA と呼ばれるこの AI システムは、『The American Journal of Surgical Pathology』で公表された「Artificial Intelligence-Based Breast Cancer Nodal Metastasis Detection(人工知能に基づいた乳癌の節転移検知)」というタイトルの論文で説明されている。試験では検出精度の尺度である ROC 曲線下面積(AUC)で99%を達成した。これは人間の病理医を超えるものである。最近の評価によると、人間の病理医は時間的制約がある場合、個々の顕微鏡画像では小さな転移を62%の確率で見逃すとされている。

論文の中ではこう述べられている。

人工知能のアルゴリズムは顕微鏡画像上のあらゆる組織片を徹底的に評価することができる。病理医がこういったアルゴリズムをワークフローに採用するための評価を手助けするような枠組みを提供する(免疫組織化学検査の結果を病理医が評価するのと同様)。

LYNA の元となっているのは、スタンフォード大学の ImageNet データセットで78.1%以上の正確性を達成した、オープンソースの画像認識ディープラーニングモデル Inception-v3である。研究者が説明したように、299画素の画像(Inception-v3のデフォルトのインプットサイズ)をインプットとして取り込み、画素レベルで腫瘍の輪郭を描き、そして、トレーニングの中で(「良性」または「悪性」の)組織片の、例えば予測のようなラベルを抽出し、エラーを減らすためにモデルのアルゴリズムの重みづけを調整する。

研究チームは正常と腫瘍の組織片を4:1の割合で LYNA に触れさせ、トレーニング過程の「コンピュータ計算の効率性」を向上させてアルゴリズムがより幅広い組織片を「見る」ことができるようにすることで、以前に公表したアルゴリズムを改良した。さらに、生検の顕微鏡画像のスキャンについてバリエーションを標準化することで、モデルのパフォーマンスはさらに著しく向上したとしている。

研究者は LYNA を Cancer Metastases in Lymph Nodes(リンパ節における癌転移)2016年チャレンジデータセット(Camelyon16)に適用した。これはラドバウド大学医療センター(オランダ、ナイメーヘン)と大学医療センターユトレヒト(オランダ、ユトレヒト)が提供した、リンパ節分野の399枚のスライドガラス標本全体のコレクション、ならびに、20人の患者の108枚の画像である。LYNA はこれらの顕微鏡画像のうち270枚に照準を合わせ(正常160枚、腫瘍110枚)、129枚と108枚の顕微鏡画像からなる2つの評価セットはパフォーマンスの評価に用いられた。

テストでは LYNA は顕微鏡画像レベルで99.3%の正確性を達成した。すべての顕微鏡画像上で腫瘍が検知されるようモデルの敏感度の閾値が調整されていた場合、LYNA は69%の敏感度を示し、評価データセット内の全40の転移を誤検知なしで正確に見分けた。さらに、気泡や処理不良、出血、過度の染色というような顕微鏡写真の乱れにも影響を受けなかった。

LYNA も完璧ではない。時には大きな細胞や初期の癌、そして組織球として知られる骨髄由来の白血球を誤認することもある。だが同じ顕微鏡画像を見極めるという仕事では、病理医より優れたパフォーマンスを発揮することができる。そして Google AI と、Google の親会社 Alphabet の生命科学を扱う子会社 Verily が発表した2つ目の論文では、このモデルはリンパ節における転移の検知にかかる時間が、有資格者の病理医6名のチームに比べて半分であった。

今後はこのアルゴリズムが効率性を向上させるのか、あるいは診断の正確性を改善するのかについて研究される。

研究者はこう記している。

LYNA は病理医と比べて腫瘍レベルの敏感度では勝っており、顕微鏡画像レベルでは同等である。これらの技術は病理医の生産性を向上させ、腫瘍細胞の形態学的検知に関係する見落としを減少させると思われる。

Google は AI ヘルスケアのアプリケーションに幅広く投資してきた。今春、マウンテンビューの同社 Medical Brain チームは、再入院の見込みを予測することができる AI システムを作り上げたこと、そして6月に90%の確率で死亡率を予測するために2つの病院で使用したことを明らかにした。そして2月には、Google と Verily の研究者は機械学習ネットワークを作り上げた。これは1人の人間の年齢や血圧を含む基本的な情報、そして心臓発作のような重大な心臓事象が起きるリスクがあるかどうかを正確に予測することができるものである。

ロンドンに拠点を置く Google の AI 研究部門 DeepMind は、健康に関連した複数の AI プロジェクトに関わっている。アメリカ合衆国退役軍人省で行われている、入院中の患者の容体が悪化する時期を予測しようとする試みもその1つだ。以前は失明の初期症状を探ることができるアルゴリズム開発のために、同研究所はイギリス国民保険サービスと協力していた。また、今年行われた Medical Image Computing & Computer Assisted Intervention のカンファレンスで公表された論文では、DeepMind の研究者は CT スキャンの分割で「人間に近いパフォーマンス」を発揮する能力がある AI システムを開発したとしている。

【via VentureBeat】 @VentureBeat

【原文】