GPT-4とは違う!OpenAI新AIモデル「GPT-o1」に指示する「4つのポイント」とは

SHARE:
Credit: VentureBeat made with ChatGPT
Image Credit: VentureBeat

OpenAI の最新モデルファミリー GPT-o1 は、以前のモデルよりも強力で推論能力に優れていることを約束している。GPT-o1 の使用は、GPT-4 や GPT-4o へのプロンプトとは少し異なる。というのも、このモデルはより優れた推論能力を持っているため、通常のプロンプトエンジニアリング手法の一部はうまく機能しない。初期のモデルではより多くの指示が必要であり、人々は長いコンテキストウィンドウを活用してモデルにより多くの指示を与えていた。

OpenAI の API ドキュメント によると、o1 モデルは「明確なプロンプトで最も良く機能する」という。しかし、モデルに指示を与えたり、「few-shot」プロンプティングのような技術は「パフォーマンスを向上させず、時には妨げになることがある」とのことである。

OpenAI は、新しいモデルにプロンプトを与える際に4つのことを考慮するよう助言している

  • プロンプトをシンプルで直接的なものにし、モデルを過度に誘導しないこと。モデルは指示をよく理解するため
  • o1 モデルは既に内部で推論を行っているため、思考連鎖プロンプトを避けること
  • トリプルクォーテーション、XML タグ、セクションタイトルなどの区切り文字を使用し、モデルが解釈しているセクションを明確にすること
  • 検索拡張生成(RAG)タスクでモデルを使用する際、追加のコンテキストを制限すること。OpenAI によると、RAG タスクでより多くのコンテキストやドキュメントを追加すると、その応答が複雑になりすぎる可能性があるとのこと

OpenAI の o1 に対する助言は、以前のモデルに対する提案とは大きく異なる。以前は、非常に具体的であること、詳細を含めること、モデルに段階的な指示を与えることを提案していた。GPTo1 は、クエリをどのように解決するかを自らで「考える」方が良い結果を出すというのだ。

ペンシルベニア大学ウォートンスクールの Ethan Mollick 教授は、彼の One Useful Thing ブログ で、o1 の初期ユーザーとしての経験から、計画を必要とするタスク、つまりモデルが問題の解決方法を自ら結論付けるタスクでより良く機能すると述べている。

プロンプトエンジニアリングとモデルの誘導を容易にする

プロンプトエンジニアリングは、もちろん、人々が具体的な内容を掘り下げ、AI モデルから望む応答を得るための方法となった。これは重要なスキルであるだけでなく、台頭する職種カテゴリーにもなっている。他の AI 開発者たちは、AI アプリケーションを設計する際にプロンプトを作成しやすくするツールをリリースした。Google は Character.ai の助けを借りて構築された Prompt Poet をローンチした。これは外部データソースを統合して応答をより関連性の高いものにする。

GPT-o1 はまだ新しく、人々はそれをどのように使用するか正確に理解しようとしている(私を含め、まだ最初のプロンプトを考え出せていない)。しかし、一部のソーシャルメディアユーザーは、人々が ChatGPT へのプロンプトのアプローチを変える必要があると予測している。

これはgpt-o1ではなく、o1という新しいものであることを覚えておく必要がある。

プロンプトエンジニアリングは時代遅れになるという作業仮説。LLM は時間とともに知性が向上するにつれて、それらを必要としなくなる。

 

【via VentureBeat】 @VentureBeat

【原文】

Members

BRIDGEの会員制度「Members」に登録いただくと無料で会員限定の記事が毎月10本までお読みいただけます。また、有料の「Members Plus」の方は記事が全て読めるほか、BRIDGE HOT 100などのコンテンツや会員限定のオンラインイベントにご参加いただけます。
無料で登録する