ジェネレーティブAI開発のAnthropic、倫理的な行動と開発を促す〝AI憲法〟を公開

SHARE:
Image credit: Anthropic

元 OpenAI のエンジニアによって設立された AI のリーディングカンパニー Anthropic は、ますます強力になる AI システムがもたらす倫理的・社会的課題に対処するために、AI に憲法を与えるという斬新なアプローチを採用した。

同社は9日、テキスト、画像、コードを生成できる最新の会話型 AIモデル「Claude」の公式憲法を公開した。この憲法には、Claude がユーザと対話する際に守るべき価値観や原則がまとめられており、「役に立つこと」「無害であること」「誠実であること」などが示されている。また、Claude がデリケートな話題をどのように扱うべきか、ユーザのプライバシーをどのように尊重するか、違法行為をどのように回避するかについても明記されている。

Anthropic の共同設立者 Jared Kaplan 氏は VentureBeat とのインタビューで次のように述べている。

我々は透明性の精神からClaudeの現在の憲法を共有しています。この研究が、AIコミュニティがより有益なモデルを構築し、その価値観をより明確にするのに役立つことを願っています。私たちはまた、これを出発点として共有しています – 私たちはクロードの憲法を継続的に改訂することを期待し、この投稿を共有する私たちの希望の一部は、憲法設計に関するより多くの研究と議論を喚起することです。

この憲法は、国連人権宣言、AI 倫理研究、プラットフォームのコンテンツポリシーなどの情報源から引用されている。これは、Anthropicの研究者、政策専門家、運用リーダーが、Claudeの行動とパフォーマンスをテストし、改良してきた数ヶ月間の共同作業の結果である。

Anthropicは、その憲法を公開することで、偏見や誤報、操作に関する論争に悩まされてきたAIの分野で、より信頼と透明性を育むことを期待している。また、他のAI開発者や関係者が同様の慣行や基準を採用するよう、同社が促すことも期待している。

今回の発表は、AI システムがより高度になり、自律的に行動するようになる中で、どのように倫理的な振る舞いを保証するかという懸念の高まりを浮き彫りにしている。先週には、Google の AI 研究部門の元リーダー Geoffrey Hinton 氏が、自身が開発に携わった技術の倫理的意味合いに対する懸念が高まっているとして、巨大ハイテク企業の職を辞したばかりである。膨大なデータセットからテキストを生成する大規模言語モデル(LLM)は、学習データのバイアスを反映し、増幅することさえあることが明らかになっている。

偏見と害悪に対抗するAIシステム構築

Anthropic は、さまざまな領域で幅広いタスクをこなすことを目的とした一般的な AI システムや言語モデルの開発に特化した数少ないスタートアップの1つである。2021年に1億2,400万米ドルのシリーズ A ラウンドで発足した同社は、変革的な AI が人々と社会の繁栄に貢献することを使命としている。

Claude は Anthropic の主力製品で、教育、エンターテインメント、ソーシャルグッドなど、さまざまな用途に展開する予定である。Claude は、詩、物語、コード、エッセイ、歌、有名人のパロディなどのコンテンツを生成することができる。また、ユーザのコンテンツのリライト、改善、最適化を支援することも可能である。Anthropic は、Claude がその体質と人間のフィードバックから学習する能力により、市場で最も信頼性が高く、舵取りが可能な AI システムの一つであると主張している。

Kaplan 氏は VentureBeat に対して次のように語っている。

国連人権宣言にあるような、幅広い合意を得て参加型で作られた原則を選びました。これを補足するために、デジタルプラットフォームの利用規約のベストプラクティスにヒントを得た原則を加え、より現代的な問題に対処できるようにしました。

また、私たちの研究で試行錯誤の末にうまく機能することがわかった原則も含まれています。これらの原則は、Anthropic の研究者によって集められ、選ばれました。

私たちは、より民主的に Claude の憲法を作成する方法を模索しており、また、特定のユースケースのためにカスタマイズ可能な憲法を提供することも検討しています。

Anthropic の憲法の公開は、AI コミュニティがシステムの価値や倫理に対する関心を高め、それに対処するための新しい技術への需要が高まっていることを強調している。世界中の企業でますます高度な AI が導入される中、研究者は、モデルは人間の倫理や道徳に基づいたものでなければならず、単にキャッチーなテキストを生成するような狭いタスクに最適化されているのではない、と主張している。この理想を実現するための一つの有力な道筋が、「Constitutional AI(憲法 AI)」である。

AI の進歩とともに進化する憲法

Anthropic の規約の重要な側面の一つは、その適応性である。Anthropic は、現在のバージョンは最終的なものでもなければ、最高のものでもないと認識しており、憲法を改良し改善するための研究とフィードバックを歓迎している。このような変化に対するオープンな姿勢は、新たな倫理的関心や社会的規範が出現しても、AI システムが最新かつ適切であることを保証するという、同社のコミットメントを示すものである。

憲法をカスタマイズする方法については、後ほど詳しく説明する予定です。しかし、明確にしておきたいのは、私たちのモデルのすべての使用は、私たちの Acceptable Use Policy(AUP=利用規約)の範囲内である必要があるということです。これは、カスタマイズの際のガードレールになります。私たちのAUPは、私たちのモデルの有害な使用を除外しており、今後もそうしていくつもりです。(Kaplan 氏)

AI 憲法は万能ではないが、AI システムが進歩し続ける中で生じる複雑な倫理的問題に対処するための積極的なアプローチを示している。AI モデルの価値体系をより明確にし、容易に変更できるようにすることで、AI コミュニティは、社会のニーズに真に応える、より有益なモデルの構築に協力することができる。

私たちは、より多くの人々が憲法設計に重きを置いていることに興奮しています。Anthropic は、Constitutional AI の手法を考案しましたが、AIを最終的に導くべき価値観を決めるのは、民間企業の役割ではないと考えます。

私たちは、「役に立ち」「無害」かつ「誠実」な AI システムを作るという目標に沿った原則を見つけるために最善を尽くしましたが、最終的には、私たちのシステムにどんな価値観があるべきかについて、より多くの声が欲しいのです。

私たちの憲法は生きているものであり、今後も更新と反復を続けていきます。このブログ記事が研究や議論のきっかけになればと思い、私たちの憲法についてより多くの意見を集める方法を模索し続けています。(Kaplan 氏)

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する