ドキュメンテーション

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

loss

マルチクラス誤り訂正出力符号モデルの分類損失

構文

L = loss(Mdl,tbl,ResponseVarName)
L = loss(Mdl,tbl,Y)
L = loss(Mdl,X,Y)
L = loss(___,Name,Value)

説明

L = loss(Mdl,tbl,ResponseVarName) は、分類損失 (L) を返します。これは、真のクラス ラベル (ResponseVarName) と比較して、学習済みのマルチクラス ECOC (誤り訂正出力符号) モデル Mdl が予測子データ (tbl) をどの程度の精度で分類するかを表すスカラーです。tblResponseVarName の各行は観測です。

L = loss(Mdl,tbl,Y) は、分類損失 (L) を返します。これは、真のクラス ラベル (Y) と比較して、学習済みの誤り訂正出力符号 (ECOC) マルチクラス分類器 Mdl が予測子データ (tbl) をどの程度適切に分類するかを表すスカラーです。tblY の各行は観測です。

L = loss(Mdl,X,Y) は、分類損失 (L) を返します。これは、真のクラス ラベル (Y) と比較して、学習済みの誤り訂正出力符号 (ECOC) マルチクラス分類器 Mdl が予測子データ (X) をどの程度適切に分類するかを表すスカラーです。XY の各行は観測です。

L = loss(___,Name,Value) は、前の構文のいずれかを使用し、1 つ以上の Name,Value ペア引数で指定されたオプションを追加して、分類損失を返します。たとえば、復号化方式、分類損失関数、詳細レベルなどを指定できます。

入力引数

すべて展開する

完全またはコンパクトなマルチクラス ECOC モデル。ClassificationECOC または CompactClassificationECOC モデル オブジェクトを指定します。

完全またはコンパクトな ECOC モデルを作成する方法については、ClassificationECOC または CompactClassificationECOC を参照してください。

標本データ。テーブルとして指定します。tbl の各行は 1 つの観測値に、各列は 1 つの予測子変数に対応します。必要に応じて、応答変数用および観測値の重み用の追加列を tbl に含めることができます。tbl には、Mdl を学習させるために使用したすべての予測子が含まれていなければなりません。文字ベクトルの cell 配列ではない cell 配列と複数列の変数は使用できません。

table に含まれている標本データを使用して Mdl を学習させた場合、このメソッドの入力データもテーブルでなければなりません。

メモ

Mdl.BinaryLearners に線形分類モデルまたはカーネル分類モデル (つまり ClassificationLinear モデル オブジェクトまたは ClassificationKernel モデル オブジェクト) が格納されている場合、table 内の標本データを指定することはできません。代わりに、行列 (X) とクラス ラベル (Y) を渡します。

データ型: テーブル

応答変数の名前。tbl 内の変数の名前で指定します。

ResponseVarName には文字ベクトルまたは string スカラーを指定しなければなりません。たとえば、応答変数 ytbl.y として格納されている場合、'y' として指定します。それ以外の場合、モデルを学習させるときに、tbl の列は y を含めてすべて予測子として扱われます。

応答変数は、categorical 配列、文字配列、string 配列、logical ベクトル、数値ベクトル、または文字ベクトルの cell 配列でなければなりません。応答変数が文字配列の場合、各要素は配列の 1 つの行に対応しなければなりません。

データ型: char | string

予測子データ。数値行列として指定します。

X の各行は 1 つの観測値に対応し、各列は 1 つの変数に対応します。X の列を構成する変数は、Mdl 分類器の学習に使用した変数と同じでなければなりません。

Y の長さと X の行数は等しくなければなりません。

データ型: double | single

クラス ラベル。categorical 配列、文字配列、string 配列、logical ベクトル、数値ベクトル、または文字ベクトルの cell 配列を指定します。Y のデータ型は Mdl.ClassNames と同じでなければなりません。(string 配列は文字ベクトルの cell 配列として扱われます)。

Y の長さと X の行数は等しくなければなりません。

データ型: categorical | char | string | logical | single | double | cell

名前と値のペアの引数

オプションの引数 Name,Value のコンマ区切りペアを指定します。Name は引数名で、Value は対応する値です。Name は引用符で閉じなければなりません。Name1,Value1,...,NameN,ValueN のように、複数の名前と値のペアの引数を任意の順序で指定できます。

バイナリ学習器の損失関数。'BinaryLoss' と組み込みの損失関数名または関数ハンドルから構成されるコンマ区切りのペアとして指定します。

  • 次の表には、組み込み関数の名前と説明が含まれています。ここで、yj は特定のバイナリ学習器のクラス ラベル (集合 {–1,1,0} 内)、sj は観測値 j のスコア、g(yj,sj) はバイナリ損失の式です。

    説明スコア領域g(yj,sj)
    'binodeviance'二項分布からの逸脱度(–∞,∞)log[1 + exp(–2yjsj)]/[2log(2)]
    'exponential'指数(–∞,∞)exp(–yjsj)/2
    'hamming'ハミング[0,1] または (–∞,∞)[1 – sign(yjsj)]/2
    'hinge'ヒンジ(–∞,∞)max(0,1 – yjsj)/2
    'linear'線形(–∞,∞)(1 – yjsj)/2
    'logit'ロジスティック(–∞,∞)log[1 + exp(–yjsj)]/[2log(2)]
    'quadratic'2 次[0,1][1 – yj(2sj – 1)]2/2

    バイナリ損失は、yj = 0 の場合に損失が 0.5 になるように正規化されます。また、各クラスについて平均のバイナリ損失が計算されます。

  • カスタム バイナリ損失関数の場合は関数ハンドルを指定します。たとえば、customFunction の場合は 'BinaryLoss',@customFunction を指定します。

    customFunction の形式は次のとおりです。

    bLoss = customFunction(M,s)
    ここで、

    • MMdl.CodingMatrix に格納された K 行 L 列のコーディング行列です。

    • s は、1 行 L 列の分類スコアの行ベクトルです。

    • bLoss は分類損失です。このスカラーは、特定のクラスのすべての学習器についてバイナリ損失を集計します。たとえば、平均バイナリ損失を使用して、各クラスの学習器の損失を集計できます。

    • K は、クラスの数です。

    • L は、バイナリ学習器の数です。

    カスタムなバイナリ損失関数を渡す例については、カスタム バイナリ損失関数を使用する ECOC モデルの検定標本ラベルの予測を参照してください。

既定の設定では、すべてのバイナリ学習器が

  • SVM である場合、または SVM 学習器の線形分類モデルまたはカーネル分類モデルのいずれかである場合、BinaryLoss'hinge'

  • AdaboostM1 または GentleBoost によって学習させたアンサンブルの場合、BinaryLoss'exponential'

  • LogitBoost によって学習させたアンサンブルの場合、BinaryLoss'binodeviance'

  • ロジスティック回帰学習器の線形分類モデルまたはカーネル分類モデルである場合、またはクラス事後確率を予測するように指定した場合 (つまり fitcecoc'FitPosterior',1 を設定した場合)、BinaryLoss'quadratic'

それ以外の場合、'BinaryLoss' の既定値は 'hamming' です。既定値を確認するには、コマンド ラインでドット表記を使用して学習済みモデルの BinaryLoss プロパティを表示します。

例: 'BinaryLoss','binodeviance'

データ型: char | string | 関数ハンドル

バイナリ損失を集計する復号化方式。'Decoding''lossweighted' または 'lossbased' から構成されるコンマ区切りのペアとして指定します。詳細は、バイナリ損失 を参照してください。

例: 'Decoding','lossbased'

損失関数。'LossFun''classiferror' または関数ハンドルから構成されるコンマ区切りのペアとして指定します。

次が可能です。

  • 分類誤差について組み込み関数 'classiferror' (誤分類観測値の比率) を指定します。

  • 関数ハンドル表記を使用して独自の関数を指定します。

    n = size(X,1) が標本サイズで、k がクラス数であるとします。関数には署名 lossvalue = lossfun(C,S,W,Cost) がなければなりません。ここで、次のようになります。

    • 出力引数 lossvalue はスカラーです。

    • 関数名 (lossfun) を選択します。

    • Cnk 列の logical 行列で、行は対応する観測値が属するクラスを示しています。列の順序は Mdl.ClassNames のクラスの順序に対応します。

      C を作成するには、各行について観測値 p がクラス q に含まれている場合に C(p,q) = 1 を設定します。行 p の他のすべての要素を 0 に設定します。

    • S は、符号を反転したクラスの損失値からなる nk 列の数値行列です。各列は観測と対応しています。列の順序は Mdl.ClassNames のクラスの順序に対応します。Spredict の出力引数 NegLoss に類似します。

    • W は、観測値の重みの n 行 1 列の数値ベクトルです。W を渡す場合、その要素は正規化され、合計が 1 になります。

    • Cost は、誤分類コストの、kk 列の数値行列です。たとえば、Cost = ones(K) -eye(K) は正確な分類を 0 のコストで指定し、誤判定を 1 で指定します。

    'LossFun',@lossfun を使用して独自の関数を指定します。

データ型: char | string | 関数ハンドル

予測子データにおける観測値の次元。'ObservationsIn''columns' または 'rows' から構成されるコンマ区切りのペアとして指定します。Mdl.BinaryLearners には線形分類モデルが格納されていなければなりません。

メモ

観測値が列に対応するように予測子行列を配置して 'ObservationsIn','columns' を指定すると、実行時間が大幅に短縮される可能性があります。

推定オプション。statset により返される 'Options' と構造体配列から構成されるコンマ区切りのペアとして指定します。

並列計算を起動するには、以下を行います。

  • Parallel Computing Toolbox™ ライセンスが必要です。

  • 'Options',statset('UseParallel',1) を指定します。

詳細レベル。'Verbose'0 または 1 から構成されるコンマ区切りのペアとして指定します。Verbose は、コマンド ウィンドウに表示される診断メッセージの量を制御します。

Verbose0 の場合、診断メッセージは表示されません。それ以外の場合は、診断メッセージが表示されます。

例: 'Verbose',1

データ型: single | double

観測値の重み。'Weights' と数値ベクトル、または tbl に含まれる変数の名前から構成されるコンマ区切りのペアとして指定します。重みを指定した場合、loss は重み付きの損失を計算します。

Weights の長さは X または tbl の観測値数と同じでなければなりません。

tbl 内の変数名を Weights として指定する場合、文字ベクトルまたは string スカラーを指定しなければなりません。たとえば、重みが tbl.w として格納されている場合、'w' として指定します。それ以外の場合、tbl の列は tbl.w を含めてすべて予測子として扱われます。

独自の損失関数を (LossFun を使用して) 指定しない場合、Weights が正規化され、合計が各クラスの事前確率の値になります。

Mdl.BinaryLearners に線形分類モデルが格納されている場合、ベクトルを指定しなければなりません。

データ型: single | double | char | string

出力引数

すべて展開する

分類損失。数値スカラーまたは行ベクトルとして返されます。L は汎化または再代入の品質の尺度です。解釈は損失関数と加重スキームによって異なりますが、通常は、優れた分類器の方が損失値がより小さくなります。

Mdl.BinaryLearners に線形分類モデルが格納されている場合、L は 1 行 ℓ 列のベクトルになります。ℓ は線形分類モデル内の正則化強度の数 (numel(Mdl.BinaryLearners{1}.Lambda)) です。L(j) は、正則化強度 Mdl.BinaryLearners{1}.Lambda(j) を使用して学習をさせたモデルの損失です。

それ以外の場合、L はスカラーです。

すべて展開する

フィッシャーのアヤメのデータセットを読み込みます。

load fisheriris
X = meas;
Y = categorical(species);
classOrder = unique(Y); % Class order
rng(1); % For reproducibility

SVM バイナリ分類器を使用して ECOC モデルを学習させます。15% のホールドアウト標本を指定します。予測子を標準化してクラスの順序を定義することをお勧めします。SVM テンプレートを使用して、予測子の標準化を指定します。

t = templateSVM('Standardize',1);
CVMdl = fitcecoc(X,Y,'Holdout',0.15,'Learners',t,'ClassNames',classOrder);
CMdl = CVMdl.Trained{1};           % Extract trained, compact classifier
testInds = test(CVMdl.Partition);  % Extract the test indices
XTest = X(testInds,:);
YTest = Y(testInds,:);

CVMdlClassificationPartitionedECOC モデルです。これには Trained プロパティが含まれています。これは 1 行 1 列の cell 配列で、学習セットにより学習させた CompactClassificationECOC モデルが格納されています。

検定標本損失を推定します。

L = loss(CMdl,XTest,YTest)
L = 0

ECOC モデルは、標本外のすべてのアヤメを正しく分類します。

モデルがどの程度の精度で特定のクラスを分類するかを知りたいと仮定します。次の例では、このようなカスタム損失関数を loss に渡す方法を示します。

フィッシャーのアヤメのデータセットを読み込みます。

load fisheriris
X = meas;
Y = categorical(species);
n = numel(Y);           % Sample size
classOrder = unique(Y)  % Class order
classOrder = 3x1 categorical array
     setosa 
     versicolor 
     virginica 

K = numel(classOrder);  % Number of classes
rng(1) % For reproducibility

SVM バイナリ分類器を使用して ECOC モデルを学習させます。15% のホールドアウト標本を指定します。クラスの順序を定義することをお勧めします。SVM テンプレートを使用して、予測子の標準化を指定します。

t = templateSVM('Standardize',1);
CVMdl = fitcecoc(X,Y,'Holdout',0.15,'Learners',t,'ClassNames',classOrder);
CMdl = CVMdl.Trained{1};           % Extract trained, compact classifier
testInds = test(CVMdl.Partition);  % Extract the test indices
XTest = X(testInds,:);
YTest = Y(testInds,:);

CVMdlClassificationPartitionedECOC モデルです。これには Trained プロパティが含まれています。これは 1 行 1 列の cell 配列で、学習セットにより学習させた CompactClassificationECOC モデルが格納されています。

検定標本の観測値の符号を反転した損失を計算します。

[~,negLoss] = predict(CMdl,XTest);

各観測値の最小損失を取る関数を作成し、すべての観測値の最小損失を平均化します。

lossfun = @(~,S,~,~)mean(min(-S,[],2));

検定標本のカスタム損失を計算します。

loss(CMdl,XTest,YTest,'LossFun',lossfun)
ans = 0.0033

検定標本の平均値、最小値、バイナリ損失値は 0.0033 です。

詳細

すべて展開する

アルゴリズム

予測子データの標準化を指定して Mdl を学習させる場合、学習器 jMdl.BinaryLearner{j}.MuMdl.BinaryLearner{j}.Sigma に格納された対応する平均と標準偏差を使用して X の列が標準化されます。

参照

[1] Allwein, E., R. Schapire, and Y. Singer. “Reducing multiclass to binary: A unifying approach for margin classifiers.” Journal of Machine Learning Research. Vol. 1, 2000, pp. 113–141.

[2] Escalera, S., O. Pujol, and P. Radeva. “On the decoding process in ternary error-correcting output codes.” IEEE Transactions on Pattern Analysis and Machine Intelligence. Vol. 32, Issue 7, 2010, pp. 120–134.

[3] Escalera, S., O. Pujol, and P. Radeva. “Separability of ternary codes for sparse designs of error-correcting output codes.” Pattern Recogn. Vol. 30, Issue 3, 2009, pp. 285–297.

拡張機能