ピックアップ:AI language models are rife with political biases
サマリー:AI言語モデルは、使用するモデルによって異なる政治的なバイアスを持っていることが明らかになった。
話題のポイント:ワシントン大学、カーネギーメロン大学、および西安交通大学の研究によれば、14の大規模な言語モデルをテストした結果、OpenAIのGPT-4が最も左翼的な自由主義者であり、MetaのLLaMAが最も右翼的な権威主義者であることを発見した。この研究は、先月のAssociation for Computational Linguistics(ACL)で最優秀論文賞を受賞した。
- 研究者は、モデルがフェミニズムや民主主義などのさまざまなトピックにどのように立場を取るかを尋ね、それを政治的思考としてグラフにプロットした。
- AI言語モデルが製品やサービスに導入されるようになるため、その背後にある政治的な前提やバイアスを理解することが非常に重要になっている。
- OpenAIはChatGPTの成功以来、AIモデルを調整するための人間のレビュアーに、政治的優遇を指示しないというブログ投稿でその懸念に対応している。
- Googleが開発したAI言語モデルであるBERTは、OpenAIのGPTモデルよりも社会的に保守的。
- 一方、AIモデルはテクノロジー企業がデータセットやトレーニング方法を更新するにつれて時間とともに変化するものである。
- 研究者はバイアスをデータセットから取り除くか、それをフィルタリングすることで言語モデルのバイアスを軽減しようとしたが、大規模なデータベースからバイアスを取り除くことは非常に困難であるとも指摘している。
Members
BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。無料で登録する