AI・機械学習の基本概念

ROC曲線・AUC あーるおーしーきょくせん・えーゆーしー

ROCAUC分類評価真陽性率偽陽性率閾値
ROC曲線・AUCについて教えて

簡単に言うとこんな感じ!

AIの「閾値をどう変えても追いかけられる成績グラフ」だよ!「陽性」と判定する厳しさを色々変えながら、「本物を正しく見つける率(TPR)」と「間違えて陽性と言う率(FPR)」をプロットした曲線がROC曲線。その曲線の下の面積がAUC——1.0に近いほど優秀なモデルってことなんだ!


ROC曲線・AUCとは

ROC曲線(Receiver Operating Characteristic Curve)とは、二値分類モデルの閾値(しきい値)を0から1まで変化させたときの、真陽性率(TPR = Recall)偽陽性率(FPR) のトレードオフを可視化したグラフです。もとはレーダー探知機の信号検出研究に由来します。

AUC(Area Under the Curve)はROC曲線の下の面積のことで、0から1の値をとります。AUC = 1.0 は完璧な分類器、AUC = 0.5 はランダムな予測(コインで当てるのと同じ)を意味します。実務では AUC 0.7 以上で実用的、0.9 以上で非常に良好な性能と見なすことが多いです。

ROC-AUCの最大の特徴は閾値に依存しないモデル全体の性能評価ができることです。また、クラスの不均衡(陽性サンプルが極端に少ない場合)では代わりにPR曲線(Precision-Recall Curve)のAUC(AP:Average Precision)が推奨されます。


ROC曲線の読み方

指標計算式説明
TPR(真陽性率)TP / (TP+FN)本物の陽性を検出できた割合(=Recall)
FPR(偽陽性率)FP / (FP+TN)陰性をうっかり陽性と判定してしまう割合
AUCROC曲線の下の面積1.0が最高・0.5がランダム・0.5以下は逆転モデル

AUCの目安

AUC値意味実務評価
1.0完璧な分類理論値(過学習の可能性も)
0.9〜1.0非常に優秀本番利用に適する
0.8〜0.9良好多くの実用タスクで十分
0.7〜0.8普通改善の余地あり
0.5〜0.7低い実用には難しい
0.5ランダムモデルが意味を持たない

歴史と背景

  • 第二次世界大戦中(1940年代):レーダー技術者が「真の信号」と「雑音」を区別するために ROC 解析を開発したのが起源
  • 1950〜60年代:心理物理学・信号検出理論に応用される
  • 1970〜80年代:放射線医学・診断医学で検査精度の評価ツールとして普及
  • 1990年代後半機械学習コミュニティに導入。不均衡データへの対応として注目される
  • 2000年代:生物医学情報学・医療AI分野でAUCが標準評価指標として定着
  • 2010年代ディープラーニングモデルの評価でも標準的に使われるようになる
  • 現在:信用スコアリング・医療診断・不正検知など「誤検知・見逃しのコストが非対称な」タスクで特に重視される

ROC曲線のイメージ

ROC曲線と AUC の比較 0 1 FPR(偽陽性率)→ TPR(真陽性率)↑ AUC=0.5 AUC ≈ 0.90 (非常に優秀) 優秀なモデル 0 1 FPR(偽陽性率)→ AUC=0.5 AUC ≈ 0.68 (改善の余地あり) 改善が必要なモデル 左上の角(FPR=0・TPR=1)に近いほど良いモデル。曲線が対角線に近いほどランダムに近い

関連する規格・RFC

規格・RFC番号内容
ISO/IEC 22989:2022AI概念・用語(モデル評価指標の定義を含む)
ISO 15189臨床検査でのROC解析の適用

関連用語