データと前処理

バイアスとバリアンスのトレードオフ ばいあすとばりあんすのとれーどおふ

過学習汎化性能機械学習モデル複雑度正則化交差検証
バイアスとバリアンスのトレードオフについて教えて

簡単に言うとこんな感じ!

AIモデルって「融通がきかなすぎ(バイアス大)」と「気まぐれすぎ(バリアンス大)」の間でバランスを取らないといけないんだ。どっちかを下げようとするともう一方が上がる、まさに”シーソー関係”なんだよ!


バイアスとバリアンスのトレードオフとは

機械学習モデルを作るとき、モデルの予測誤差は大きく「バイアス(偏り)」と「バリアンス(分散)」という2つの成分に分解できます。バイアスはモデルが本質的な傾向をどれだけ捉え損なっているかを表し、バリアンスはモデルが学習データのノイズにどれだけ敏感に反応してしまうかを表します。

バイアスとバリアンスは互いにトレードオフの関係にあり、モデルを複雑にしてバイアスを下げようとすると、今度はバリアンスが上がって予測が不安定になります。逆にシンプルにしてバリアンスを抑えようとすると、バイアスが上がって重要なパターンを見逃してしまいます。このジレンマを「バイアス・バリアンスのトレードオフ」と呼びます。

実務上では、このトレードオフを意識しながら「汎化性能(新しいデータに対する予測精度)」が最大になるモデルの複雑さを探ることが、AI開発・機械学習プロジェクトの核心的な作業になります。


バイアスとバリアンスの正体

それぞれの概念を具体的なイメージで整理しましょう。

項目バイアス(Bias)バリアンス(Variance)
一言で言うとモデルの「思い込みの強さ」モデルの「気まぐれ度」
原因モデルが単純すぎるモデルが複雑すぎる
学習データへの精度低い高い(ただしノイズも覚える)
新データへの精度低い低い(環境が変わると崩れる)
代表的な状態過小学習(Underfitting)過学習(Overfitting)
たとえカンニングしない優等生だが応用問題が全滅過去問だけ完璧に覚えて模試で玉砕

的(まと)で覚えるイメージ

【バイアス大・バリアンス小】     【バイアス小・バリアンス大】
        ○                              ×    ×
     ○  ○  ○                        ×      ×
        ○                               ×
  ←的の中心から外れているが    ←的の中心付近だがバラバラ
    まとまっている(ズレている)   (安定していない)

【理想:バイアス小・バリアンス小】

     ●  ●  ●

  ←中心付近にまとまっている!

総誤差の分解式

モデルの期待誤差(MSE: 平均二乗誤差)は次のように分解されます。

期待誤差 = バイアス² + バリアンス + ノイズ(避けられない誤差)

ノイズはデータそのものに含まれる不可避な誤差なので、私たちがコントロールできるのはバイアスとバリアンスの2項だけです。


歴史と背景

  • 1950年代〜: 統計学の分野で「推定量のバイアスと分散」の概念が確立。モデル選択の理論的基盤となる
  • 1992年: Stuart Geman らが機械学習の文脈でバイアス・バリアンス分解を定式化し、過学習の理論的説明として広まる
  • 1990年代後半: ニューラルネットワークの「過学習」問題が深刻化し、正則化・ドロップアウトなどのバリアンス低減手法が次々と開発される
  • 2000年代: アンサンブル学習(ランダムフォレスト・ブースティング)が普及。バリアンスを下げる(バギング)・バイアスを下げる(ブースティング)という手法の棲み分けが明確化
  • 2010年代〜: ディープラーニングの台頭により「非常に複雑なモデルでも過学習しにくい」ケースが観察され、二重降下(Double Descent) という新しい現象が報告され理論の更新が進む

モデル複雑度とのトレードオフ関係

バイアスとバリアンスは「モデルの複雑さ」を軸にして、次のような関係を持ちます。

モデルの複雑さ と バイアス・バリアンス・総誤差 モデルの複雑さ → 誤差 → 単純 複雑 バリアンス バイアス² 総誤差 最適な複雑さ(総誤差最小) 過小学習 Underfitting 過学習 Overfitting

対処法の使い分け

問題症状対処法
バイアスが高い(過小学習)学習データでも精度が低いモデルを複雑化・特徴量追加・正則化を緩める
バリアンスが高い(過学習)学習精度は高いがテスト精度が低い正則化・データ増量・ドロップアウトアンサンブル学習
両方バランスよく低い理想状態交差検証でモデルを選定する

アンサンブル学習との関係

機械学習ではバイアス・バリアンスのどちらを主に下げるかで、手法の方向性が異なります。

バギング(例: ランダムフォレスト)
  → 複数モデルの予測を平均 → バリアンスを下げる

ブースティング(例: XGBoost, LightGBM)
  → 弱いモデルを順番に強化 → バイアスを下げる

関連する規格・RFC

※ この用語はIETF RFC・ISO・IEEE等の標準規格が存在しないため、このセクションは省略します。


関連用語