パーセプトロン ぱーせぷとろん
パーセプトロン単純パーセプトロン線形分類器ニューラルネットワーク起源重み更新
パーセプトロンについて教えて
簡単に言うとこんな感じ!
ニューラルネットワークの最も原始的な形で、入力を受け取って「はい/いいえ」を出力する単純な分類器だよ。複数の入力を受け取り、重み付け合計を計算して閾値と比較するだけ。これをたくさん積み重ねたのが現代のディープラーニングなんだ!
パーセプトロンとは
パーセプトロン(Perceptron)は、1958年にFrank Rosenblattが発明した人工ニューロンモデルです。ニューラルネットワークの最小単位であり、線形2値分類器として機能します。
仕組み
入力:x₁, x₂, ..., xₙ
重み:w₁, w₂, ..., wₙ
加重和の計算:
z = w₁x₁ + w₂x₂ + ... + wₙxₙ + b
ステップ関数で2値化:
出力 = 1(z ≥ 0の場合)
出力 = 0(z < 0の場合)
学習規則(パーセプトロン学習則)
予測が正しい場合:重みを変更しない
予測が間違いの場合(ラベルy、予測ŷ):
wᵢ ← wᵢ + η(y - ŷ)xᵢ
η:学習率(小さな正の数)
パーセプトロンの限界:XOR問題
単純パーセプトロンは線形分離できない問題を解けない
AND(○) XOR(×)
↑y ↑y
1│ ● ● 1│ ● ○
0│ ○ ○ 0│ ○ ●
└──────→ └──────→
AND:直線で分離できる XOR:直線で分離できない
この問題は1969年にMinskyとPapertが証明。「AIの冬」の原因のひとつに。
→ 解決策:多層パーセプトロン(複数の層を積み重ねる)
歴史と背景
- 1943年:McCulloch & Pitts が最初の数学的ニューロンモデルを発表
- 1958年:Rosenblattがパーセプトロンをコーネル大で発明。当時「思考するマシン」として大注目
- 1969年:Minsky & Papert が「XORを解けない」限界を証明
- 1986年:多層パーセプトロン + 誤差逆伝播でXOR問題を解決