Testing
Bias and Variance
アルゴリズムが適切でないために、予測が乖離している状態を High bias と呼ぶ。この場合、学習数を増やしても算出方法が根本的に違っているため、誤差が改善しない。以下の方法で改善する。
- パラメータを増やす。
x1 + x2 + x3 + ...
- パラメータに多項式を用いる。
x + x^2 + x^3 + ...
- ペナルティ強度を下げる。
一方で、アルゴリズムが学習データのみに過剰適合し、予測が分散しすぎている状態を High variance と呼ぶ。この場合、未知のデータの予測は乖離する傾向にある。以下の方法で改善する。
- 学習数を増やす。
- パラメータを減らす。
- ペナルティ強度を上げる。
アルゴリズムを見つけるには、まず簡単なパラメータから初めて、学習数により誤差が改善するかを検証する。改善しない場合は High bias であるので、まずパラメータのみを見直す。 High bias の状態で、ペナルティを与えたり、学習数を増やしても改善しない。
Precision and Recall
Classification problem においては、分類値がレアな場合がある。この場合、検証数に対する正解率で、アルゴリズムの正確性を判断してはならない。
例えば y = 1 (1 sample), y = 0 (99 samples)
のデータに対して検証を行なうとして、アルゴリズムが単に 0
を返す実装になっていても、99 / 100 = 0.99
と高い精度で予測できたように錯覚する。
Actual
| 1 | 0 |
----+---------------------+---------------------+
1 | 0: true positives | 0: false positives |
Predicted ----+---------------------+---------------------+
0 | 1: false negatives | 99: true negatives |
----+---------------------+---------------------+
Accuracy: (true positives + true negatives) / (total examples) = 99 / 100 = 0.99
Precision: true positives / (true positives + false positives) = 0 / 0 = 0.00
Recall: true positives / (true positives + false negatives) = 0 / 1 = 0.00
アルゴリズムの妥当性の判断については、以下を考慮しなければならない。
- 精度 Precision
y = 1
と予測したデータのうち、実データがy = 1
の比率- スパムメールであると予測したうち、実際にスパムメールであった比率
- 再現率 Recall
y = 1
である実データのうち、y = 1
と予測できた比率- 実際のスパムメールを、スパムメールと予測できた比率
精度と再現率は相容れないため、どちらかを優先できるならば、シグモイド関数の Threshold 値 0.5
を調整する。
- Threshold 値を増やすほど、確実な場合のみ
y = 1
と予測する。精度は上がるが、再現率は下がる。- 無駄に終わった場合のリスクが高いため、取りこぼしを許容する。 (危険を伴う手術 / 不正アカウント停止)
- Threshold 値を減らすほど、少しでも可能性があれば
y = 1
と予測する。再現率は上がるが、精度は下がる。- 無駄になっても、取りこぼしを許容しない。 (初期不良 / 障害検知)
F-score
最適なアルゴリズムを比較する際に、精度と再現率の平均 Presicion + Recall / 2
をとってはならない。例えば、全て y = 1
と予測するアルゴリズムになっていた場合、再現率に関しては 1.00
になる。
Actual
| 1 | 0 |
----+---------------------+---------------------+
1 | 1: true positives | 99: false positives |
Predicted ----+---------------------+---------------------+
0 | 0: false negatives | 0: true negatives |
----+---------------------+---------------------+
Accuracy: (true positives + true negatives) / (total examples) = 1 / 100 = 0.01
Precision: true positives / (true positives + false positives) = 1 / 100 = 0.01
Recall: true positives / (true positives + false negatives) = 1 / 1 = 1.00
平均では (0.01 + 1.00) / 2 = 0.505
となり、50% の正確性があるように思えてしまう。
(0.50 + 0.40) / 2 = 0.45000
(0.70 + 0.10) / 2 = 0.40000
(0.01 + 1.00) / 2 = 0.50500
バランスよく、精度と再現率が高いかを判断するには F-score を用いる。
2 * (0.50 * 0.40) / (0.50 + 0.40) = 0.44444
2 * (0.70 * 0.10) / (0.70 + 0.10) = 0.17500
2 * (0.01 * 1.00) / (0.01 + 1.00) = 0.01980
Cross Validation
未知のデータに対して、良い予測結果が得られるかを事前検証するには、保有データ全てを学習用に使うのではなく、3分の1程度を、検証/テスト用に割り当てる。
- 例)保有データを、学習用 60% / 検証用 20% / テスト用 20% に分ける。
- 学習用データのみで、候補モデルの回帰パラメータを算出する。
- 候補モデル毎に、学習用と検証用データの予測誤差を算出する。
- 学習用 / 検証用データの双方で、良い結果が得られるモデルを選択する。
- 選択したモデルで、テスト用データを予測し、過剰適合をチェックする。
この方法を、交差検証 Cross validation と呼ぶ。
Ceiling Analysis
複数ステップで処理を行なう場合、どのステップが精度のボトルネックになっているかを計測する必要がある。
例えば、画像ファイルからの文字認識を行なう場合、以下のステップに分けられているとする。
- テキスト抽出: 画像全体からテキストブロックの抽出 (画像ファイルのスキャン)
- 文字分割: テキストブロックからキャラクタ単位で画像分割
- 文字判定: 分割されたキャラクタ画像から文字判定
どのステップを改善すれば、最も精度が向上するかを判断したい。この場合、各ステップの出力を 100% の精度をもったダミー出力に置き換えて、全体の精度の改善度合いを見る。
全体の精度が 75% であるとして、以下のような結果が得られたとする。
- テキスト抽出を 100% で行なえた場合の精度: 95% (95 - 75 = +20%)
- 文字分割を 100% で行なえた場合の精度: 97% (97 - 95 = +2%)
- 文字判定を 100% で完全に行なえた場合の精度: 100% (100 - 97 = +3%)
上記の例では、テキスト抽出を 100% の精度で行なえた場合に最も精度が向上している。この処理が全体の精度のボトルネックとなっているため、改善すべきはテキスト抽出の処理になる。