AI倫理・規制

説明可能なAI(XAI) せつめいかのうなあい

XAI説明可能なAIブラックボックスLIMESHAP解釈可能性
説明可能なAIって何のためにあるの?

簡単に言うとこんな感じ!

説明可能なAIは「なぜこの答えを出したか説明できるAI」を目指す取り組みだよ!ローン審査や医療診断でAIが使われるとき、「なぜ落とされたの?」「なぜこの治療を勧めるの?」と聞いても答えられないブラックボックスAIは信頼できないし、法律的にも問題になるんだ。


説明可能なAI(XAI)とは

説明可能なAI(XAI:Explainable AI) とは、AIモデルがどのような根拠・プロセスで出力を生成したかを人間が理解できる形で説明できるようにするための研究・技術の総称です。

深層学習モデルは高精度ですが、内部の判断プロセスが不透明(ブラックボックス問題)です。金融・医療・行政などリスクの高い分野では、「なぜこの判断をしたか」の説明責任が求められます。


主なXAI手法

手法内容
LIME(Local Interpretable Model-agnostic Explanations)特定の予測について局所的に線形モデルで近似して解説
SHAP(SHapley Additive exPlanations)特徴量の貢献度を数値化(ゲーム理論のシャープレイ値)
Attention VisualizationTransformerの注意機構を可視化してどのトークンに着目したかを表示
Grad-CAM画像分類でどの部分が判断に影響したかをヒートマップで表示

XAIが特に重要な分野

分野必要性
金融(与信審査・不正検出)審査理由の説明義務(GDPRの「説明を受ける権利」)
医療診断支援医師への判断根拠提示
採用・人事評価差別的判断の排除・透明性確保
公共行政行政決定への透明性要件

歴史と背景

  • DARPA XAIプログラム(2016年):米国防総省がXAIを正式プロジェクトとして始動
  • GDPR(2018年):「自動化された意思決定への説明を受ける権利」を規定
  • EU AI法(2024年):高リスクAIシステムへの透明性・説明可能性の要件を義務化

関連用語