AI(人工知能)は偽ニュースを撲滅することができるか?ーーその具体的な方法と「壁」の存在

SHARE:
01f187e2e9116ea3b30767eae266e24a
Image via Attribution Engine. Licensed under CC0.

編集部注:寄稿者のDavid Famolari氏は、Verizon Venturesのディレクターである。NVCAのコーポレート・ベンチャー・キャピタル・アドバイザリー・ボードとグランド・セントラル・テックのアドバイザリー・ボードを務める。Verizonに入社する前は、投資銀行業務と先端的なR&Dの上級職を歴任した。

先の米国大統領選挙では共和・民主の両陣営がインターネットやソーシャルメディアに「偽ニュース」を流して嘘の情報を広めていたことが発覚した。それぞれの候補の支援団体や個人がほぼリアルタイムで費用もほとんどかからないニュースサイト、ソーシャルメディア、ブログを使って、見た目には正しい情報だと思える偽りの記事を投稿していた。当時のバラク・オバマ大統領(当時)がドイツ首相のメルケル氏との共同記者会見で述べたように、何百万人もの人々がその影響を受けている可能性もあった。

「私たちが事実、そして真実と偽りとの違いに真剣ではないとしたらどうだろう?特にこの非常に多くの人々が、単に聞きかじりや電話の会話から情報を得ているようなソーシャルメディアの時代では、 真面目な議論と誇張された宣伝文句を区別できなければ、大変なことになる」。

偽のニュースが大統領選挙の結果を変えたかどうかはまだ議論の余地があるが、もし正確な情報がもたらされていたのであればこの国はよくなっていたのでは、という意見に多くは賛成してくれるのではないだろうか。

AIが手助けになる

偽のニュースは簡単に発見・訂正できるものではないが、あるテクノロジーを使えば人々がやり取りしている意見の質は向上できる。そのテクノロジーはAI(人工知能)だ。FacebookやGoogleはすでにAIを使用してコンテンツの特定をしており、まもなくマスメディア関連、政府および超党派グループなどにおいても同様のツールを導入することになっている。

AIを利用したソフトウェアは、記事の構造を分析し論理的に正しいかどうか評価することができる。ビデオコンテンツの分析は難しいが、それも近いうちにできるようになる。

すべての記事が健全な基準に基づいて評価されることができる世界を想像できるだろうか。数年前、有名な投資家でYCombinator社の創設者であるポール・グレアム氏の「同意しない方法」という記事を読んだがとても興味深かった。その中で、グレアム氏は、罵りという最も粗雑なやり方から個人攻撃も含め、議論の中核での直接反論までのあらゆる議論の段階を説明している。

AIによる自然言語の理解とマシンラーニングのツールは、記事を解析して論点の要点や、論点を支持する言葉などの根底にある修辞的なアーキテクチャを明らかにし、作者が自分でこの議論を喚起しているのか、それとも単にその情報源を信用しようとしているのかなどを判断する。

これはプログラミング言語やインデント、閉じ括弧、色で関数をグループ化するなどのコンテキストに従って自動的に書式設定するソフトウェア開発ツールがより高いレベルに抽象化されたものだと考えることができる。

開発時にはこれらの機能によりベースとなる単語の前後関係と機能、および個々のフレーズがその上のレベルの文章にどのように関係し、影響を与えているかを理解することが簡単になっている。AIソフトウェアは、さらに確認済み情報と非確認済み情報の両方のソース資料へのリンクを自動的に挿入することができる。このようなツールは偽のニュースを排斥するものではないが、人々は文脈により全体的な論理構造をみて、信頼性に関する情報に基づき真偽の判定を下すことができる。

すべては需要が決定する

残念ながらそれはまだ実践までには至っていない。AIを使って偽のニュースの流れを止めることは可能だが、コストがかかるので実用化のニーズがあるまでは、偽のニュース監視システムは広まらない。そのうちにはマスメディア企業は、自社の評判を保つことにさらに関心を持つようになり、AIコンテンツ監視システムに投資して、コンテンツの信頼性を証明するようになり、市場調査会社やブランドもAIを使用してメディアが偽者と本物を対比させるようになれば、消費者の購入意思決定に影響を与えることに強く関心を持つことだろう。

しかし今のところ、ニュース・モニタリング・システムが実際にビジネスに使われている例はない。現実は、大きな収入の見返りがあるため、閲覧の数および記事の根底にあるものについての見方がコントロールされており、そこではクリック誘導の釣りタイトルなどがまだ幅を利かせているからなのだ。

ただ、改革はまだ始まっていないわけではない。実際、イニシアチブを取って偽のニュースと戦うケースが日を追って増えているようだ。最近、GoogleのJigsaw部門は、有害コメントを自動で発見するソフトウェアツールを発表した。FacebookやGoogleはネット上の悪評判を防ぐため偽のニュースや無礼な言葉を取り除くAIツールに投資している。

Narrative Science、Automated Insights、Smart Logicなどの企業は、既にAIを使用してニュース記事を自動的に生成しているため、実用化となればすぐに、偽のニュースをフィルタリングする技術を適用することができる。またコンピュータサイエンスの研究者、開発者、およびハッカーもすでにこの問題に取り組み始めている。スタンフォード大学の19歳の学生はAI主導の嘘発見フィルタを自分で試用している。

しかし、ウェブ上のすべてのニュースコンテンツをスキャンし、評価できる幅広いニュースフィルタリングシステムは、依然として夢のような話だ。そのようなシステムは大規模であるし、ハッカーに先駆けるために常時更新の必要がある。

AI主導型の偽ニュース監視システムの構築のために政府が資金を供給すべきだろうか?またマスメディア業界が第三者のピア・モニタリング・システムを作成し維持する責任を負うべきだろうか?ニュースを監視することは、数千人単位の独立した人員によって作成され、監視されるクラウドソースシステムでなければならないのだろうか?誰が実行しているかにかかわらず、様々な視点を持つ者の集まりである開発者グループが偏りのない監視システムを作るにはどうすればよいのだろうか?

これらの質問には簡単には答えられない。

これまでにわかっていることは、AIが既にメディアの警察の役割を果たしていることである。記事を分析して情報の出所を特定し、その情報源へのリンクを作成することができる。そして情報の出所の質と合理性の度合いに基づき、記事の信頼度を採点することができる。もちろん、AIは偽のニュースを特定するための完璧な解決策ではない。記事が信用できるかどうかをより正確に判断するのに役立つツールやガイドラインを提供することはできるが、100%正確な評価は決してできない。

AI企業の投資家として、私は常にこの世界最大の問題に取り組もうとしているスタートアップ企業に注目している。起業家が偽のニュースと戦うビジネスモデルを特定するのは時間の問題である。残念なことにはそれまでは、虚偽の内容、宣伝、偏狭な釣り記事は拡散し続ける。

【原文】

【via VentureBeat】 @VentureBeat

BRIDGE Members

BRIDGEでは会員制度の「Members」を運営しています。登録いただくと会員限定の記事が毎月3本まで読めるほか、Discordの招待リンクをお送りしています。登録は無料で、有料会員の方は会員限定記事が全て読めるようになります(初回登録時1週間無料)。
  • 会員限定記事・毎月3本
  • コミュニティDiscord招待
無料メンバー登録