チェーン・オブ・ソート(CoT) ちぇーんおぶそーと
CoTChain-of-Thought思考の連鎖推論プロンプトLLM
チェーン・オブ・ソートって何のためにあるの?
簡単に言うとこんな感じ!
CoTは「AIに答えだけじゃなく、考えるプロセスも出力させる」テクニックだよ!人間でも難しい問題は「まず〇〇を確認して、次に△△を計算して…」と順番に考えるよね。AIも同じで、「ステップバイステップで考えて」と指示すると正解率が上がるんだ。
チェーン・オブ・ソートとは
チェーン・オブ・ソート(Chain-of-Thought:CoT) とは、LLMに推論の中間ステップを明示的に出力させることで、複雑な問題の正解率を向上させるプロンプト技術です。
2022年にGoogle Brainの研究者が「Chain-of-Thought Prompting Elicits Reasoning in Large Language Models」という論文で体系化しました。「Let’s think step by step(ステップバイステップで考えましょう)」という一言を加えるだけで大幅に精度が上がることが実証されました。
CoTの種類
| 種類 | 内容 | 例 |
|---|---|---|
| Few-shot CoT | 推論例(例題+思考過程)をプロンプトに含める | 例を3つ示してから質問 |
| Zero-shot CoT | 「ステップバイステップで考えて」とだけ指示 | ”Think step by step” |
| Auto-CoT | モデルが自動で推論例を生成 | 手動の例示が不要 |
| Tree-of-Thought(ToT) | 複数の思考経路を探索・評価 | ゲームツリー探索的アプローチ |
CoTの効果が出やすい問題
歴史と背景
- 2022年:Google BrainがCoTの効果を大規模な実験で実証
- 2022年末〜:ChatGPT公開とともにCoTが一般ユーザーにも広まる
- 2023年以降:ReAct・Tree-of-Thoughtなど発展的な手法が登場
関連用語
- プロンプトエンジニアリング — CoTはプロンプト技術の代表手法
- LLM(大規模言語モデル) — CoTが有効に働くモデルの種類
- AIエージェント — CoTはエージェントの推論ステップの基礎
- ハルシネーション — CoTはハルシネーション低減にも効果
- ファインチューニング — CoTデータでファインチューニングすると推論能力が向上