
ピックアップ:AI language models are rife with political biases
サマリー:AI言語モデルは、使用するモデルによって異なる政治的なバイアスを持っていることが明らかになった。
話題のポイント:ワシントン大学、カーネギーメロン大学、および西安交通大学の研究によれば、14の大規模な言語モデルをテストした結果、OpenAIのGPT-4が最も左翼的な自由主義者であり、MetaのLLaMAが最も右翼的な権威主義者であることを発見した。この研究は、先月のAssociation for Computational Linguistics(ACL)で最優秀論文賞を受賞した。
- 研究者は、モデルがフェミニズムや民主主義などのさまざまなトピックにどのように立場を取るかを尋ね、それを政治的思考としてグラフにプロットした。
- AI言語モデルが製品やサービスに導入されるようになるため、その背後にある政治的な前提やバイアスを理解することが非常に重要になっている。
- OpenAIはChatGPTの成功以来、AIモデルを調整するための人間のレビュアーに、政治的優遇を指示しないというブログ投稿でその懸念に対応している。
- Googleが開発したAI言語モデルであるBERTは、OpenAIのGPTモデルよりも社会的に保守的。
- 一方、AIモデルはテクノロジー企業がデータセットやトレーニング方法を更新するにつれて時間とともに変化するものである。
- 研究者はバイアスをデータセットから取り除くか、それをフィルタリングすることで言語モデルのバイアスを軽減しようとしたが、大規模なデータベースからバイアスを取り除くことは非常に困難であるとも指摘している。
BRIDGE Members
BRIDGEでは会員制度の「Members」を運営しています。登録いただくと会員限定の記事が毎月3本まで読めるほか、Discordの招待リンクをお送りしています。登録は無料で、有料会員の方は会員限定記事が全て読めるようになります(初回登録時1週間無料)。- 会員限定記事・毎月3本
- コミュニティDiscord招待