OpenAI競合のAnthropic、対話型AI「Claude」のプライベートα版を一部ユーザに公開

SHARE:
Image credit: Anthropic

OpenAI の主要な競合の1つの Anthropic は、3月31にサンフランシスコのダウンタウンに位置するExploratoriumで開催され、5,000人以上が参加した賑やかなオープンソース AI ミートアップで、期待されていたチャットサービス「Claude」のプライベートアルファ版へのアクセスを拡大した。

この限定公開で、ChatGPT に匹敵する革新的なチャットボットインターフェース Claude へのアーリーアクセスの機会が、一部の参加者に提供された。Claude の一般公開は、これまでになく控えめなものであった。Anthropic は、Claude を3月14日に一般公開すると発表していたが、現在、どの程度の人々が新しいユーザインターフェースにアクセスできるかは不明だ。

「Poe」
Image credit: Quora

Anthropic の広報担当者は、VentureBeat とのメールインタビューで、「3月上旬にビジネス製品を紹介した後、数万人がウェイティングリストに加わり、Claude へのアクセスを許可するために努力している」と述べた。現在、誰でもチャットボットクライアント「Poe」上で Claude を使用することができるが、同社の公式 Claude チャットインターフェースへのアクセスはまだ制限されているウェイティングリストへの登録はこちらから)。

それゆえ、オープンソースの AI ミートアップに参加することは、新しいチャットサービスを手に入れようとする熱心なユーザの大部分にとって、非常に有益であったことだろう。

画期的な製品へのアーリーアクセス

Image source: Michael Nuñez

3月31日、Exploratorium に入場すると、メインストリームのコンサートにしかない緊張感あふれるエネルギーが観客を支配していた。それは、サンフランシスコのオープンソース AI ムーブメントの決定的な瞬間が近づいていることを予感させるものであった。

Exploratorium の入り口にある狭い廊下で、早起きした人たちが陣取り合戦をしているとき、カジュアルな服装の地味な人物が、その上にある手すりに謎の QR コードをさりげなく貼った。そのQRコードには「Anthropic Claude Access」と小さな文字で書かれており、それ以上の説明はない。

私はこの奇妙な光景を、Anthropic の社員であることが確認できた人物の背後から、偶然にも目撃してしまった。特に、不透明な技術と独占的なアクセスの約束を含む謎めいたコミュニケを無視することはできないが、私はすぐにコードをスキャンして「Anthropic Claude Access」に登録した。数時間後、私は Anthropic の秘密のチャットボット「Claude」への仮入場を許可されたとの知らせを受けた。Claude はこれまでに作られた最も高度な AI の1つであると数ヶ月前から噂されている。

「Claude」のインターフェースのスクリーンショット
Image credit: Michael Nuñez

これは Anthropic が採用した巧妙な戦術だ。AI をこよなく愛する人たちにソフトウェアを提供することで、メインストリームのユーザを驚かせることなく宣伝効果を高めることができるのだ。このイベントに参加したサンフランシスコの人々は、誰もが話題にしているこのボットをいち早く手に入れることができる。Claude が野に放たれれば、どんな進化を遂げるか、その AI から何が生まれるかはわからない。しかし、この場合、精霊は自分で考えることができるのだ。

Anthropic の広報担当者は、VentureBeat とのインタビューで、「我々は、Claude へのアクセスを広く展開しており、参加者が我々の製品を使用し、評価することに価値を見出すと考えた。また、同様にいくつかの他のミートアップでアクセスを提供する。」と説明した。

憲法 AI の約束

Google の親会社 Alphabet の支援を受け、元 OpenAI の研究者が設立した Anthropic は、AI における画期的な技術、すなわち原理原則に基づくアプローチによって AI システムを人間の意図に沿わせる手法の開発を目指している。これは、AI システムの憲法ともいうべきルールや原理のリストを提供し、教師あり学習や強化学習の手法を用いて、それに従うようにシステムを訓練するものだ、

AI システムが従うべき倫理的・行動的原則のセットを与えられる憲法 AI の目標は、これらのシステムをより有用で、より安全で、より堅牢にすることであり、また、その出力を導く価値観を理解することを容易にすることだ

Claudeは安全性評価で良い結果を出しており、私たちは安全性の研究と私たちのモデルで行われた作業を誇りに思っている。しかし、Claude は他の言語モデルと同様、時々幻覚を見ること(AI がウソをつくこと)があるのも事実だ。(Anthropic 広報担当者)

Anthropic は、自然言語処理コンピュータビジョンなど、さまざまな領域に憲法 AI を適用している。彼らの主なプロジェクトの1つは、OpenAI のChatGPT モデルを改良するために憲法 AI を使用した AI チャットボットの Claude だ。Claude は、真実であること、尊敬すること、役に立つこと、無害であることなど、その原則を守りながら、質問に答えたり、会話に参加したりすることができる。

最終的に成功すれば、憲法 AI は、潜在的な危険を回避しながら AI の利点を実現し、公益のための AI の新時代を切り開くのに役立つかもしれない。Anthropic は、Dustin Moskovitz 氏やその他の投資家からの資金提供を受け、AI の安全性に関するこの新しいアプローチの開拓に着手している。

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する