kfoldEdge
交差検証済み分類モデルの分類エッジ
説明
例
フィッシャーのアヤメのデータを学習させたモデルの k 分割エッジを計算します。
フィッシャーのアヤメのデータ セットを読み込みます。
load fisheriris分類木分類器を学習させます。
tree = fitctree(meas,species);
10 分割交差検証を使用して分類器を交差検証します。
cvtree = crossval(tree);
k 分割エッジを計算します。
edge = kfoldEdge(cvtree)
edge = 0.8578
フィッシャーのアヤメのデータに対して学習をさせたアンサンブルについて k 分割エッジを計算します。
標本データ セットを読み込みます。
load fisheriris100 本のブースティング分類木のアンサンブルに学習をさせます。
t = templateTree('MaxNumSplits',1); % Weak learner template tree object ens = fitcensemble(meas,species,'Learners',t);
ens から交差検証済みのアンサンブルを作成し、分類エッジを求めます。
rng(10,'twister') % For reproducibility cvens = crossval(ens); E = kfoldEdge(cvens)
E = 3.2033
入力引数
交差検証された分割済みの分類器。ClassificationPartitionedModel オブジェクト、ClassificationPartitionedEnsemble オブジェクトまたは ClassificationPartitionedGAM オブジェクトを指定します。オブジェクトは 2 つの方法で作成できます。
次の表に記載されている学習済み分類モデルをそのオブジェクト関数
crossvalに渡す。次の表に記載されている関数を使用して分類モデルに学習をさせ、その関数の交差検証に関する名前と値の引数のいずれかを指定する。
名前と値の引数
オプションの引数のペアを Name1=Value1,...,NameN=ValueN として指定します。ここで、Name は引数名で、Value は対応する値です。名前と値の引数は他の引数の後に指定しなければなりませんが、ペアの順序は重要ではありません。
R2021a より前では、名前と値をそれぞれコンマを使って区切り、Name を引用符で囲みます。
例: kfoldEdge(CVMdl,'Folds',[1 2 3 5]) は、分類エッジの計算に 1 番目、2 番目、3 番目、および 5 番目の分割を使用し、4 番目の分割は除外するように指定します。
使用する分割のインデックス。正の整数ベクトルとして指定します。Folds の要素は 1 から CVMdl.KFold の範囲でなければなりません。
Folds で指定された分割のみが使用されます。
例: 'Folds',[1 4 10]
データ型: single | double
モデルの交互作用項を含むというフラグ。true または false として指定します。この引数は、一般化加法モデル (GAM) の場合のみ有効です。つまり、この引数を指定できるのは、CVMdl が ClassificationPartitionedGAM である場合だけです。
CVMdl のモデル (CVMdl.Trained) に交互作用項が含まれる場合、既定値は true です。モデルに交互作用項が含まれない場合、値は false でなければなりません。
例: 'IncludeInteractions',false
データ型: logical
出力の集約レベル。'average'、'individual'、または 'cumulative' として指定します。
| 値 | 説明 |
|---|---|
'average' | 出力は、すべての分割の平均を表すスカラー値です。 |
'individual' | 出力は、分割ごとに 1 つずつの値が含まれている長さ k のベクトルです。k は分割数です。 |
'cumulative' | メモ この値を指定する場合、
|
例: 'Mode','individual'
出力引数
分類エッジ。数値スカラーまたは数値列ベクトルとして返されます。
Modeが'average'である場合、Eはすべての分割の平均分類エッジです。Modeが'individual'である場合、Eは各分割の分類エッジが含まれている k 行 1 列の数値列ベクトルです。k は分割数です。Modeが'cumulative'でCVMdlがClassificationPartitionedEnsembleである場合、Eはmin(CVMdl.NumTrainedPerFold)行 1 列の数値列ベクトルです。各要素jは、弱学習器1:jで学習させたアンサンブルを使用して取得したすべての分割の平均分類エッジです。Modeが'cumulative'でCVMdlがClassificationPartitionedGAMの場合、出力の値はIncludeInteractionsの値によって異なります。IncludeInteractionsがfalseの場合、Lは(1 + min(NumTrainedPerFold.PredictorTrees))行 1 列の数値列ベクトルです。Lの最初の要素は、切片 (定数) 項のみを使用して取得したすべての分割の平均分類エッジです。Lの(j + 1)番目の要素は、切片項と各線形項の最初のj個の予測子木を使用して取得した平均エッジです。IncludeInteractionsがtrueの場合、Lは(1 + min(NumTrainedPerFold.InteractionTrees))行 1 列の数値列ベクトルです。Lの最初の要素は、切片 (定数) 項と各線形項のすべての予測子木を使用して取得したすべての分割の平均分類エッジです。Lの(j + 1)番目の要素は、切片項、各線形項のすべての予測子木、および各交互作用項の最初のj個の交互作用木を使用して取得した平均エッジです。
詳細
"分類エッジ" は "分類マージン" の加重平均です。
特徴選択を実行する場合などに複数の分類器から選択する方法の 1 つは、エッジが最大になる分類器を選択することです。
バイナリ分類の "分類マージン" は、各観測値における真のクラスの分類スコアと偽のクラスの分類スコアの差です。マルチクラス分類の "分類マージン" は、真のクラスの分類スコアと偽のクラスの最大スコアの差を表します。
各マージンのスケールが同じである場合 (つまり、スコア値が同じスコア変換に基づく場合)、マージンを分類の信頼尺度として使用できます。複数の分類器の中で、マージンが大きい分類器の方が優れています。
アルゴリズム
kfoldEdge は、対応するオブジェクト関数 edge で説明されているように、分類エッジを計算します。モデル固有の説明については、次の表に示す該当する関数 edge のリファレンス ページを参照してください。
拡張機能
使用上の注意事項および制限事項:
この関数は、次の交差検証済みモデル オブジェクトの GPU 配列を完全にサポートします。
fitcensembleで学習させたアンサンブル分類器fitcknnで学習させた k 最近傍分類器fitcsvmで学習させたサポート ベクター マシン分類器fitctreeで学習させたマルチクラス分類用の二分決定木fitcnetで学習させた分類用のニューラル ネットワーク
詳細は、GPU での MATLAB 関数の実行 (Parallel Computing Toolbox)を参照してください。
バージョン履歴
R2011a で導入kfoldEdge は、fitcnet を使用して学習させた ClassificationPartitionedModel モデルの GPU 配列を完全にサポートします。
R2023b 以降では、次の分類モデルのオブジェクト関数において、予測子に欠損値がある観測値が再代入 ("resub") と交差検証 ("kfold") による分類エッジ、損失、マージン、および予測の計算でその一部として使用されます。
以前のリリースでは、予測子に欠損値がある観測値は再代入と交差検証の計算で省略されていました。
SVM またはアンサンブル分類モデルの入力モデル オブジェクトを交差検証するときに既定以外のコスト行列を指定すると、関数 kfoldEdge で以前のリリースとは異なる値が返されます。
関数 kfoldEdge は、W プロパティに格納された観測値の重みを使用します。W プロパティの値を関数で使用する方法については変更されていません。ただし、既定以外のコスト行列をもつ交差検証 SVM およびアンサンブル モデル オブジェクトについて入力モデル オブジェクトに格納されるプロパティの値が変更されたため、関数から異なる値が返されることがあります。
プロパティの値の変更に関する詳細については、Cost プロパティにユーザー指定のコスト行列を格納 (交差検証 SVM 分類器) またはCost property stores the user-specified cost matrix (交差検証アンサンブル分類器) を参照してください。
ソフトウェアでコスト行列、事前確率、および観測値の重みを以前のリリースと同じように扱う場合は、誤分類コスト行列に応じた事前確率と観測値の重みの調整の説明に従って、既定以外のコスト行列の事前確率と観測値の重みを調整します。その後、分類モデルに学習させるときに、調整後の事前確率と観測値の重みを名前と値の引数 Prior と Weights を使用して指定し、既定のコスト行列を使用します。
MATLAB Command
You clicked a link that corresponds to this MATLAB command:
Run the command by entering it in the MATLAB Command Window. Web browsers do not support MATLAB commands.
Web サイトの選択
Web サイトを選択すると、翻訳されたコンテンツにアクセスし、地域のイベントやサービスを確認できます。現在の位置情報に基づき、次のサイトの選択を推奨します:
また、以下のリストから Web サイトを選択することもできます。
最適なサイトパフォーマンスの取得方法
中国のサイト (中国語または英語) を選択することで、最適なサイトパフォーマンスが得られます。その他の国の MathWorks のサイトは、お客様の地域からのアクセスが最適化されていません。
南北アメリカ
- América Latina (Español)
- Canada (English)
- United States (English)
ヨーロッパ
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)