Main Content

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

モデルの作成と評価

特徴選択、モデル選択、ハイパーパラメーターの最適化、交差検証、予測性能の評価、および分類精度の比較検定

高品質の予測分類モデルを構築するには、正しい特徴量 (予測子) の選択とハイパーパラメーター (推定されないモデル パラメーター) の調整を行うことが重要です。

特定のモデルのハイパーパラメーターを調整するには、ハイパーパラメーターの値を選択し、この値を使用してモデルを交差検証します。たとえば、SVM モデルを調整するには、一連のボックス制約およびカーネル スケールを選択し、値の各ペアについてモデルを交差検証します。Statistics and Machine Learning Toolbox™ の一部の分類関数では、ベイズ最適化、グリッド探索またはランダム探索による自動的なハイパーパラメーター調整が提供されます。ただし、ベイズ最適化を実装するために使用される中心的な関数である bayesopt は、他の用途にも応用が利きます。ベイズ最適化のワークフローを参照してください。

特徴選択とハイパーパラメーター調整により複数のモデルが生成されます。k 分割誤分類率、受信者動作特性 (ROC) 曲線または混同行列をモデル間で比較できます。または、統計的検定を実施して、ある分類モデルの性能が他の分類モデルに対して有意に優れているかどうかを調べます。

調整されたハイパーパラメーターでモデルを自動的に選択するには、fitcauto を使用します。この関数は、分類モデルのタイプの選択をさまざまなハイパーパラメーターの値で試し、新しいデータで適切に実行されることが期待される最終モデルを返します。データに最適な分類器のタイプがわからない場合は、fitcauto を使用します。

分類モデルの構築と評価を対話的に行うには、分類学習器アプリを使用します。

アプリ

分類学習器教師あり機械学習を使用して、データを分類するようにモデルを学習させる

関数

すべて展開する

fscchi2カイ二乗検定を使用した分類に向けた一変量の特徴量ランク付け
fscmrmrMinimum Redundancy Maximum Relevance (MRMR) アルゴリズムを使用した分類用の特徴量のランク付け
fscnca分類に近傍成分分析を使用する特徴選択
oobPermutedPredictorImportance分類木のランダム フォレストに対する out-of-bag 予測子の並べ替えによる予測子の重要度の推定
predictorImportance分類木の予測子の重要度の推定
predictorImportance決定木の分類アンサンブルに関する予測子の重要度の推定
sequentialfsカスタム基準を使用した逐次特徴選択
relieffReliefF または RReliefF アルゴリズムを使用した予測子の重要度のランク付け
fitcauto最適化されたハイパーパラメーターをもつ分類モデルの自動選択
bayesoptベイズ最適化を使用した最適な機械学習のハイパーパラメーターの選択
hyperparameters近似関数を最適化するための変数の説明
optimizableVariablebayesopt またはその他のオプティマイザーの変数の説明
crossval交差検証を使用した損失の推定
cvpartitionデータの交差検証分割の作成
repartition交差検証のための再分割データ
test交差検証用の検定インデックス
training交差検証用の学習インデックス
confusionchart分類問題用の混同行列チャートの作成
confusionmat分類問題用の混同行列の計算
perfcurve分類器の出力用の受信者動作特性 (ROC) 曲線または他の性能曲線
testcholdout2 つの分類モデルの予測精度を比較
testckfold交差検証の反復により 2 つの分類モデルの精度を比較

オブジェクト

すべて展開する

FeatureSelectionNCAClassification近傍成分分析 (NCA) を使用する分類用の特徴選択
BayesianOptimizationベイズ最適化の結果
cvpartition交差検証のデータ分割

トピック

分類学習器アプリ

分類学習器アプリにおける分類モデルの学習

自動、手動および並列学習など、分類モデルの学習、比較および改善を行うためのワークフローです。

分類学習器における分類器の性能評価

モデルの精度のスコアを比較し、クラスの予測をプロットすることにより結果を可視化し、混同行列でクラスごとの性能をチェックします。

分類学習器アプリの使用による特徴選択と特徴変換

プロットを使用して有用な予測子を識別し、含める特徴量を手動で選択し、分類学習器で PCA を使用して特徴量を変換します。

特徴選択

特徴選択の紹介

特徴選択アルゴリズムについて学び、特徴選択に使用できる関数を確認します。

逐次特徴選択

このトピックでは、逐次特徴選択の基本を説明し、カスタム基準と関数 sequentialfs を使用して逐次的に特徴量を選択する例を示します。

近傍成分分析 (NCA) 特徴選択

近傍成分分析 (NCA) は、特徴量を選択するためのノンパラメトリックな手法であり、回帰および分類アルゴリズムの予測精度を最大化することを目的とします。

分類に NCA を使用して特徴量を判別するための正則化パラメーターの調整

この例では、交差検証を使用して fscnca の正則化パラメーターを調整する方法を示します。

判別分析分類器の正則化

モデルの予測力を損なわずに予測子を削除して、よりロバストで簡潔なモデルを作成します。

高次元のデータを分類する特徴量の選択

この例では、高次元データを分類するための特徴量を選択する方法を示します。

自動モデル選択

ベイズ最適化による分類器の自動選択

fitcauto を使用し、指定した学習予測子と応答データに基づいてさまざまなハイパーパラメーターの値をもつ分類モデルのタイプの選択を自動的に試します。

ハイパーパラメーターの最適化

ベイズ最適化のワークフロー

近似関数を使用するか bayesopt を直接呼び出してベイズ最適化を実行します。

ベイズ最適化用の変数

ベイズ最適化用の変数を作成します。

ベイズ最適化の目的関数

ベイズ最適化の目的関数を作成します。

ベイズ最適化の制約

ベイズ最適化に対してさまざまな種類の制約を設定します。

bayesopt を使用した交差検証済み SVM 分類器の最適化

ベイズ最適化を使用して交差検証損失を最小化します。

ベイズ最適化の使用による SVM 分類器のあてはめの最適化

近似関数で名前と値のペア OptimizeParameters を使用して交差検証損失を最小化します。

ベイズ最適化のプロット関数

ベイズ最適化を視覚的に監視します。

ベイズ最適化の出力関数

ベイズ最適化を監視します。

ベイズ最適化のアルゴリズム

ベイズ最適化の基となるアルゴリズムについて理解します。

並列ベイズ最適化

並列ベイズ最適化はどのように機能するか。

交差検証

並列計算を使用する交差検証の実装

並列計算を使用して交差検証を高速化します。

分類性能の評価

性能曲線

受信者動作特性曲線を使用して、特定の検定データセットに対する分類アルゴリズムの性能を調べます。