ドキュメンテーション

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

resubLoss

再置換による分類誤差

構文

L = resubLoss(ens)
L = resubLoss(ens,Name,Value)

説明

L = resubLoss(ens) は、関数 fitcensembleens の作成に使用したデータで計算した損失を意味する、再代入損失を返します。

L = resubLoss(ens,Name,Value) では、1 つ以上の Name,Value のペア引数で指定された追加オプションを使用して、損失を計算します。Name1,Value1,…,NameN,ValueN のように、複数の名前と値のペアの引数を任意の順番で指定できます。

入力引数

ens

関数 fitcensemble で作成されたアンサンブル分類。

名前と値のペアの引数

オプションの Name,Value 引数のコンマ区切りペアを指定します。Name は引数名で、Value は対応する値です。Name は引用符で囲まなければなりません。Name1,Value1,...,NameN,ValueN のように、複数の名前と値のペアの引数を、任意の順番で指定できます。

'learners'

アンサンブルに含まれている 1 から NumTrained までの弱学習器のインデックス。resubLoss は、これらの学習器のみを損失の計算に使用します。

既定値: 1:NumTrained

'lossfun'

損失関数。'LossFun' と組み込みの損失関数名または関数ハンドルから構成されるコンマ区切りのペアとして指定します。

  • 次の表は、使用可能な損失関数の一覧です。対応する文字ベクトルまたは string スカラーを使用して、いずれかを指定します。

    説明
    'binodeviance'二項分布からの逸脱度
    'classiferror'分類誤差
    'exponential'指数
    'hinge'ヒンジ
    'logit'ロジスティック
    'mincost'最小予測誤分類コスト (事後確率である分類スコアの場合)
    'quadratic'2 次

    'mincost' は、事後確率である分類スコアに適しています。

    • 既定の設定では、バギングされたアンサンブルと部分空間アンサンブルは事後確率を返します (ens.Method'Bag' または 'Subspace')。

    • アンサンブル法が 'AdaBoostM1''AdaBoostM2'GentleBoost または 'LogitBoost' の場合、事後確率を分類スコアとして使用するには、次の入力によりダブルロジットのスコア変換を指定しなければなりません。

      ens.ScoreTransform = 'doublelogit';

    • 他のすべてのアンサンブル法の場合、事後確率は分類スコアとしてサポートされていません。

  • 関数ハンドル表記を使用して独自の関数を指定します。

    nX 内の観測値数、K を異なるクラスの数 (numel(ens.ClassNames)ens は入力モデル) とします。使用する関数のシグネチャは次のようになっていなければなりません。

    lossvalue = lossfun(C,S,W,Cost)
    ここで、

    • 出力引数 lossvalue はスカラーです。

    • 関数名 (lossfun) を選択します。

    • CnK 列の logical 行列で、行は対応する観測値が属するクラスを示しています。列の順序は ens.ClassNames のクラスの順序に対応します。

      C を作成するには、各行について観測値 p がクラス q に含まれている場合に C(p,q) = 1 を設定します。行 p の他のすべての要素を 0 に設定します。

    • S は、分類スコアの nK 列の行列です。列の順序は ens.ClassNames のクラスの順序に対応します。S は分類スコアの行列で、predict の出力と同様です。

    • W は、観測値の重みの n 行 1 列の数値ベクトルです。W を渡す場合、要素は正規化され、合計が 1 になります。

    • Cost は、誤分類コストの、K 行 K 列の数値行列です。たとえば、Cost = ones(K) - eye(K) は、正しい分類のコストとして 0 を、誤分類のコストとして 1 を指定します。

    'LossFun',@lossfun を使用して独自の関数を指定します。

損失関数の詳細については、分類損失を参照してください。

既定値: 'classiferror'

'mode'

出力 L の意味を表す文字ベクトルまたは string スカラー。

  • 'ensemble'L は、アンサンブル全体に対する損失を表すスカラー値です。

  • 'individual'L は、学習された学習器ごとに 1 つの要素をもつベクトルです。

  • 'cumulative'L は、学習器の入力リストから学習器 1:J を使用して要素 J が取得されたベクトルです。

既定値: 'ensemble'

出力引数

L

分類損失。既定の設定では、誤分類データの比率です。L はベクトルになる可能性があり、名前と値のペアの引数の設定によっては意味が異なります。

すべて展開する

フィッシャーのアヤメのデータセットを読み込みます。

load fisheriris

AdaBoostM2 を使用して、100 本の決定木によるアンサンブル分類に学習をさせます。弱学習器として木の切り株を指定します。

t = templateTree('MaxNumSplits',1);
ens = fitcensemble(meas,species,'Method','AdaBoostM2','Learners',t);

再代入分類誤差を推定します。

loss = resubLoss(ens)
loss = 0.0333

詳細

すべて展開する