Regularization
Overfitting
回帰パラメータが少なすぎると、学習データに大まかにしか一致しない。例えば、線形回帰において、多項式が望ましいケースで、一次式で回帰を行なっても、良い近似値が得られない。
パラメータを増やす事で、学習データには一致するが、分散した正解値に過剰に一致する複雑な曲線となり、新規データに対して、良い予測値が得られない。この状態を、過剰適合 Overfitting または 過学習 Overtraining と呼ぶ。
Cost Function and Gradient
コスト関数において、回帰パラメータへのペナルティ値を加えることで、過剰適合を中和することができる。最急降下法で用いる偏微分の項にも、ペナルティを加える必要がある。
- この例では、回帰パラメータ
θ
の二乗平均を誤差の総和に加えている。つまりパラメータが適合に大きく作用する時に、ペナルティが増えて中和されることになる。 λ
はペナルティ強度で、この値が小さいほどペナルティ値が減り、過剰適合となる。- ペナルティ強度
λ
が大きすぎると、全ての回帰パラメータが0
に限りなく近づき、あらゆる入力に対し、コストが同じ値になってしまう。 - 入力値
X
に作用しないパラメータについては、ペナルティから除外しなければならない。