OpenAI、AIのセキュリティリスクに対応するバグバウンティプログラム(脆弱性報奨金制度)を発表

SHARE:

人工知能(AI)研究のリーディングカンパニー OpenAI は11日、自社の「ChatGPT」のような強力な言語モデルがもたらすサイバーセキュリティリスクの増大に対応するため、バグバウンティプログラム(脆弱性報奨金制度)をローンチしたと発表した。

このプログラムは、クラウドソーシングのサイバーセキュリティ企業であるBugcrowdと提携して実施され、研究者にOpenAIのシステムの脆弱性を報告してもらい、重大性に応じて200米ドルから2万米ドルの金銭的報酬を与えるものだ。OpenAI は、このプログラムは「安全で高度なAIを開発するためのコミットメント」の一部であると述べている。

合成テキストや画像などを生成できる AI システムの脆弱性について、ここ数ヶ月で懸念が高まっている。AI サイバーセキュリティ企業DarkTraceによると、研究者は、ChatGPT の採用と時を同じくして、1月から2月にかけて AI を利用したソーシャルエンジニアリング攻撃が135%増加したことを発見した。

OpenAI の発表を歓迎する専門家もいれば、ますます高度化する AI テクノロジーによってもたらされる幅広いサイバーセキュリティリスクにバグバウンティプログラムが完全に対処する可能性は低いと言う専門家もいる。

プログラムの範囲は、OpenAI のシステムやパートナーに直接影響を与える可能性のある脆弱性に限定されている。なりすまし、合成メディア、自動ハッキングツールなど、こうした技術の悪意ある使用に関する広範な懸念には対処していないようなのだ。OpenAI は、コメント要請にはすぐに応じなかった。

適用範囲は限定的

バグバウンティプログラムは、セキュリティ上の懸念が相次ぐ中で登場し、GPT-4ジェイルブレイクが出現している。ユーザはコンピュータをハッキングする方法の指示を作成でき、研究者が技術的でないユーザがマルウェアやフィッシングメールを作成するための回避策を発見している。

また、Rez0 として知られるセキュリティ研究者が、エクスプロイト(編注:脆弱性攻撃プログラム)を使用して ChatGPT のAPIをハックし、80以上の秘密のプラグインを発見したと主張した。

こうした論争を踏まえ、脆弱性報奨金プラットフォームを立ち上げることは、OpenAI が自社製品のエコシステムにおける脆弱性に対処する機会を提供するとともに、ジェネレーティブ AI がもたらすセキュリティリスクに誠実に対処する組織であることを示すことになる。

しかし、残念ながら、OpenAI のバグバウンティプログラムは、対応する脅威の範囲が非常に限定的である。例えば、バグバウンティプログラムの公式ページにはこう記されている。

モデルのプロンプトやレスポンスの内容に関する問題は厳密には範囲外であり、範囲内のサービスに直接検証可能な追加のセキュリティ影響を与えない限り、報奨金は与えられません。

範囲外とされる安全性の問題の例としては、脱獄や安全性の回避、モデルに悪いことを言わせる、モデルに悪意のあるコードを書かせる、モデルに悪いことをする方法を教えてもらうなどがある。

この意味で、OpenAI のバグバウンティプログラムは組織が自らのセキュリティ態勢を改善するのに役立つことはあっても、社会全体にとってジェネレーティブAIやGPT-4がもたらすセキュリティリスクに対応することはほとんどないと言える。

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する