
データプライバシーを提供する Private AI は1日、OpenAI の「ChatGPT」のような大規模言語モデル(LLM)用のプライバシーレイヤー「PrivateGPT」をローンチしたと発表した。この新しいツールは、ユーザのプロンプトから機密情報や個人を特定できる情報(PII)を自動的に再編集するように設計されている。
PrivateAI は、独自の AI システムを使用して、ChatGPT に送信される前に、ユーザのプロンプトから50種類以上の PII を再編集し、PII にプレースホルダーデータを再投入して、ユーザが機密データを OpenAI に公開せずに LLM に問い合わせることができるようにする。
増加する ChatGPT の精査
今回の発表は、イタリアがプライバシーに関する懸念から ChatGPT を一時的に禁止し、カナダの連邦プライバシーコミッショナーから「同意なしに個人情報を収集、使用、開示した」という申し立てを受け、OpenAI のデータ保護活動に対する監視が高まり始めていることを受けたものだ。
<関連記事>
Private AI の共同創設者兼 CEO Patricia Thaine 氏は、プレスリリースでこのように述べている。
ジェネレーティブ AIは、それを安全に使用するための適切なツールが存在する場合にのみ、我々の組織や社会の中で活動できる場所を持つことになる。
ChatGPTは、GDPR、HIPAA、PCI DSS、CPPA のようなデータ保護法から除外されることはない。例えば GDPR では、企業はユーザの個人データのすべての使用について同意を得る必要があり、また忘れ去られる要求にも応じる必要がある。
個人情報を第三者機関と共有することで、そのデータの保存方法や使用方法のコントロールを失い、コンプライアンス違反の深刻なリスクにさらされることになる。
データの匿名化技術は必須
しかし、OpenAI のデータ保護機能を強化するソリューションを設計しているのは、PrivateAI だけではない。3月末、クラウドセキュリティプロバイダ Cado Security は、GPT-4 に提出される機密データをマスクするために設計されたオープンソースツール「Masked-AI」のリリースを発表した。
PrivateGPT と同様に、Masked-AI は、名前、クレジットカード番号、電子メールアドレス、電話番号、ウェブリンク、IP アドレスなどの機密データをマスクし、プレースホルダーに置き換えてから OpenAI APIに 冗長化したリクエストを送る。
PrivateAI と Cado Security は、既存の LLM にプライバシー機能を追加しようと試みており、ChatGPT のようなソリューションを活用しながら第三者への露出を最小限に抑えようとする組織にとって、データの匿名化技術が不可欠であることを強調している。
【via VentureBeat】 @VentureBeat
BRIDGE Members
BRIDGEでは会員制度の「Members」を運営しています。登録いただくと会員限定の記事が毎月3本まで読めるほか、Discordの招待リンクをお送りしています。登録は無料で、有料会員の方は会員限定記事が全て読めるようになります(初回登録時1週間無料)。- 会員限定記事・毎月3本
- コミュニティDiscord招待