人工知能(AI)業界の著名人で Meta のチーフ AI サイエンティスト Yann LeCun 氏と DeepLearning の創設者 Andrew Ng(呉恩達)氏は7日のオンラインディスカッションで、強力な AI システムの開発に関する一時停止案に反論した。
「6ヶ月の AI 休止はなぜ悪い考えなのか」と題されたこの議論は、YouTube で開催され、数千人の視聴者を集めた。
このイベントで LeCun 氏と Ng 氏は先月、数百人の AI 専門家、技術起業家、科学者が署名した質問やトピックに対して、現実的で一貫した回答を生成できるテキスト生成プログラム「GPT-4」よりも高度なAIシステムのトレーニングを少なくとも6ヶ月間一時停止することを求める公開書簡に対抗した。
私たちはこの6ヶ月間のモラトリアム提案についてじっくり考え、十分に重要なテーマだと感じた。もし政府がこの提案を実行すれば、大きな損害が発生すると思う。だから、Yann と私は、今日、この件について、ここで皆さんとお話したいと思った。(Ng 氏)
Ng 氏はまず、AI の分野はここ数十年、特にここ数年で目覚ましい進歩を遂げてきたと説明した。ディープラーニングの技術により、ChatGPT、LLaMA、Midjourney、Stable Diffusion、Dall-Eなど、リアルなテキスト、画像、音を生成できるジェネレーティブ AIシステムが誕生した。これらのシステムは、新たな応用や可能性への期待とともに、潜在的な弊害やリスクへの懸念も抱かせたのは事実だ。
これらの懸念の中には、公平性、偏見、社会的経済的変位など、現在や近未来に関連するものもある。また、汎用人工知能(AGI)の出現や、悪意や意図しない結果の可能性など、より推測的で遠い世界の話もあった。
History shows over and over that society and people's well-being makes progress with more intelligence: better skills, literacy, education, creativity, culture, communication, & the free exchange of ideas.
Intelligence, by humans and machines, is what fuels progress.— Yann LeCun (@ylecun) April 6, 2023
LeCun 氏は開会挨拶で、次のように述べた。
署名した人たちには、おそらくいくつかの動機があると思う。その中には、おそらく極端な話、AGI が起動し、短期間で人類を抹殺することを心配している人もいるだろう。このようなシナリオを本当に信じている人、止めることのできない明確な脅威だと信じている人は少ないと思う。
それから、もっと合理的で、対処すべき潜在的な危害や危険が実際にあると考える人々もいる。そして、私は彼らに同意する。AIシステムを制御可能にすること、情報を提供することになっているのであれば事実に基づいたものにすること、無害なものにすることなど、多くの問題がある。
ChatGPT や GPT-4 のような現在の自動回帰型 LLM(大規模言語モデル)や、Galactica や Bard のようなそれ以前のシステムと同じ青写真で未来の AI システムが設計されるとは思えない、という意味での想像力の欠如が少しある。そのようなシステムをよりコントロールしやすくする新しいアイデアが生まれると思う。
AI をどう規制するか、高まる議論
ほぼすべてのトピックについてリアルな文章を作成できる新しい LLM をどのように規制するかという議論が高まる中、今回のオンラインイベントが開催された。ディープラーニングに基づき、大量のオンラインデータで訓練されたこれらのモデルは、悪用や危害を加える可能性があるとして懸念を呼んでいる。3週間前、OpenAI が最新かつ最も強力なモデル GPT-4 を公開したことで、議論はエスカレートした。
Ng 氏と LeCun 氏は議論の中で、ある程度の規制は必要だが、研究やイノベーションを犠牲にしてはいけないという意見で一致した。モデルの開発または展開を一時停止することは非現実的で非生産的であると主張する。また、これらのモデルを倫理的かつ責任を持って使用するために、研究者、政府、企業の間でより多くの協力と透明性を確保することを求めた。
1/The call for a 6 month moratorium on making AI progress beyond GPT-4 is a terrible idea.
I'm seeing many new applications in education, healthcare, food, … that'll help many people. Improving GPT-4 will help. Lets balance the huge value AI is creating vs. realistic risks.
— Andrew Ng (@AndrewYNg) March 29, 2023
私が最初に感じたのは、研究開発の遅延を求めることは、新たな曖昧さを生み出すのではないかということだ。なぜ知識や科学の進歩を遅らせるのか? そして、製品の問題である。私は、人々の手に渡る製品を規制することには賛成だ。研究開発を規制する意味がわからない。それは、実際に技術をより良く、より安全にするために使える知識を減らすこと以外の目的にはならないと思う。
今日の AI には、偏見や公平性、権力の集中など、害を及ぼすリスクがあるが、それらは現実の問題であり、同時にとてつもなく大きな価値を生み出していると思う。ここ10年のディープラーニング、そしてここ1年ほどのジェネレーティブ AI のアイデアと、それを教育や医療、あるいはレスポンシブ・コーチングにどう使うか、その数は信じられないほど刺激的で、多くの人々が AI を使って他の人を助けるために価値を生み出していると思う。
GPT-4 が現在素晴らしいように、GPT-4 よりもさらに優れたものを作ることが、これらのアプリケーションのすべてを助け、多くの人々を助けることになると思う。だから、その進歩を一時停止することは、多くの害を生み、多くの人々を助ける非常に価値のあるものの創造を遅らせることになるように思える。(LeCun 氏)
YouTube で会話の動画の全編をご覧いただきたい。
【via VentureBeat】 @VentureBeat
BRIDGE Members
BRIDGEでは会員制度の「Members」を運営しています。登録いただくと会員限定の記事が毎月3本まで読めるほか、Discordの招待リンクをお送りしています。登録は無料で、有料会員の方は会員限定記事が全て読めるようになります(初回登録時1週間無料)。- 会員限定記事・毎月3本
- コミュニティDiscord招待