"分類損失" 関数は分類モデルの予測誤差を評価します。複数のモデルで同じタイプの損失を比較した場合、損失が低い方が予測モデルとして優れていることになります。
以下のシナリオを考えます。
この状況では、名前と値のペアの引数 'LossFun'
を使用して指定できる、サポートされる損失関数は次の表のようになります。
損失関数 | LossFun の値 | 式 |
---|
二項分布からの逸脱度 | 'binodeviance' | |
指数損失 | 'exponential' | |
分類誤差 | 'classiferror' |
分類誤差は重み付きの誤分類観測値の比率です。 は、事後確率が最大であるクラスに対応するクラス ラベルです。I{x} はインジケーター関数です。 |
ヒンジ損失 | 'hinge' | |
ロジット損失 | 'logit' | |
最小コスト | 'mincost' | 重み付きの最小コストは、次の手順を観測値 j = 1、...、n について使用することにより計算されます。
観測値 j の予測分類コストから構成される 1 行 K 列のベクトルを推定します。
f(Xj) はバイナリおよびマルチクラス分類におけるクラスの事後確率の列ベクトルです。C は入力モデルによって Cost プロパティに格納されるコスト行列です。 最小の予測分類コストに対応するクラス ラベルを観測値 j について予測します。
C を使用して、予測を行うために必要なコスト (cj) を求めます。
重み付きの平均最小コスト損失は次のようになります。
|
二次損失 | 'quadratic' | |
次の図では、mに対する 1 つの観測値の損失関数 ('mincost'
を除く) を比較しています。いくつかの関数は、[0,1] を通過するように正規化されています。