生成AI・大規模言語モデル

ハルシネーション(AIの幻覚) はるしねーしょん

ハルシネーション幻覚事実誤りLLM信頼性RAG
ハルシネーションってどうして起きるの?

簡単に言うとこんな感じ!

ハルシネーションは「AIが自信満々に嘘をつく現象」だよ!LLMは「次に来そうな言葉を確率的に予測する」仕組みだから、知識がなくても「それっぽい答え」を作り出してしまうんだ。「知らない」と言えるように作られていないのが根本的な原因なんだ。


ハルシネーションとは

ハルシネーション(Hallucination:幻覚) とは、AIモデルが事実ではない情報を、あたかも事実であるかのように自信を持って生成する現象です。

LLMは統計的な言語モデルであり、「正確な事実」を記憶しているのではなく「テキストとして自然な出力」を生成します。このため、知識の欠如・文脈の誤解・訓練データの偏りなどにより事実と異なる情報を出力することがあります。


ハルシネーションの種類

種類内容
事実の誤り存在しない情報を「ある」として出力存在しない論文の引用・架空の人物の経歴
混同複数の情報を誤って組み合わせるAさんとBさんの経歴が混在
過剰な確信不確実な情報を断言する「〜は必ず〜です」という誤った断言
忠実性の問題入力文書に基づかない内容を生成要約時に文書にない内容を追加

ハルシネーション低減の対策

対策内容
RAG(検索拡張生成)回答の根拠となる文書を検索して提示
グラウンディング事実確認できるソースを参照させる
温度パラメータの調整出力の多様性を下げて安定させる
チェーン・オブ・ソート推論過程を明示させることで誤りを減らす
ファクトチェック機能外部APIで出力内容を検証
ユーザー教育重要な判断にAI出力をそのまま使わない

歴史と背景

  • 2022年以前:ハルシネーションは研究者間で問題視されていた
  • 2023年:ChatGPT普及で一般ユーザーもハルシネーションを経験し社会問題化
  • 2024〜:各AI企業がハルシネーション低減を主要な研究テーマとして取り組む

関連用語