ハルシネーション(AIの幻覚) はるしねーしょん
ハルシネーション幻覚事実誤りLLM信頼性RAG
ハルシネーションってどうして起きるの?
ハルシネーションとは
ハルシネーション(Hallucination:幻覚) とは、AIモデルが事実ではない情報を、あたかも事実であるかのように自信を持って生成する現象です。
LLMは統計的な言語モデルであり、「正確な事実」を記憶しているのではなく「テキストとして自然な出力」を生成します。このため、知識の欠如・文脈の誤解・訓練データの偏りなどにより事実と異なる情報を出力することがあります。
ハルシネーションの種類
| 種類 | 内容 | 例 |
|---|---|---|
| 事実の誤り | 存在しない情報を「ある」として出力 | 存在しない論文の引用・架空の人物の経歴 |
| 混同 | 複数の情報を誤って組み合わせる | AさんとBさんの経歴が混在 |
| 過剰な確信 | 不確実な情報を断言する | 「〜は必ず〜です」という誤った断言 |
| 忠実性の問題 | 入力文書に基づかない内容を生成 | 要約時に文書にない内容を追加 |
ハルシネーション低減の対策
| 対策 | 内容 |
|---|---|
| RAG(検索拡張生成) | 回答の根拠となる文書を検索して提示 |
| グラウンディング | 事実確認できるソースを参照させる |
| 温度パラメータの調整 | 出力の多様性を下げて安定させる |
| チェーン・オブ・ソート | 推論過程を明示させることで誤りを減らす |
| ファクトチェック機能 | 外部APIで出力内容を検証 |
| ユーザー教育 | 重要な判断にAI出力をそのまま使わない |
歴史と背景
- 2022年以前:ハルシネーションは研究者間で問題視されていた
- 2023年:ChatGPT普及で一般ユーザーもハルシネーションを経験し社会問題化
- 2024〜:各AI企業がハルシネーション低減を主要な研究テーマとして取り組む
関連用語
- LLM(大規模言語モデル) — ハルシネーションが発生するモデル
- RAG(検索拡張生成) — ハルシネーション低減の主要な手法
- プロンプトエンジニアリング — ハルシネーションを引き起こしにくい指示の設計
- チェーン・オブ・ソート — 推論過程を可視化してハルシネーションを検出しやすくする
- AI安全性 — ハルシネーションはAI安全性の重要な課題