ドキュメンテーション

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

モデルの作成と評価

特徴選択、ハイパーパラメーターの最適化、交差検証、残差診断、プロット

高品質の回帰モデルを構築するには、正しい特徴量 (予測子) の選択、ハイパーパラメーター (データへのあてはめを行わないモデル パラメーター) の調整、残差診断によるモデル仮定の評価を行うことが重要です。

ハイパーパラメーターの値の選択とモデルの交差検証を繰り返すことにより、ハイパーパラメーターを調整できます。このプロセスでは複数のモデルが生成されますが、推定された汎化誤差が最小になるものが最適なモデルであると考えることができます。たとえば、SVM モデルを調整するには、一連のボックス制約およびカーネル スケールを選択し、値の各ペアについてモデルを交差検証して、10 分割交差検証の平均二乗誤差の推定値を比較します。

Statistics and Machine Learning Toolbox™ の一部のノンパラメトリック回帰関数では、ベイズ最適化、グリッド探索またはランダム探索による自動的なハイパーパラメーター調整が追加で提供されます。ただし、ベイズ最適化を実装するための中心的な関数である bayesopt は、他の多くの用途にも応用が利きます。詳細は、ベイズ最適化のワークフローを参照してください。

アプリ

回帰学習器教師あり機械学習を使用して、データを予測するように回帰モデルに学習をさせる

関数

すべて展開する

sequentialfs逐次特徴選択
relieffReliefF または RReliefF アルゴリズムを使用した予測子の重要度のランク付け
plotPartialDependence部分従属プロット (PDP) および個別条件付き期待値 (ICE) プロットの作成
stepwiselm ステップワイズ回帰を使用して線形回帰モデルをあてはめる
stepwiseglmステップワイズ回帰による一般化線形回帰モデルの作成
bayesoptベイズ最適化を使用した最適な機械学習のハイパーパラメーターの選択
hyperparameters近似関数を最適化するための変数の説明
optimizableVariablebayesopt またはその他のオプティマイザーの変数の説明
crossval交差検証を使用した損失推定
cvpartitionデータの交差検証分割の作成
repartition交差検証のための再分割データ
test交差検証用の検定インデックス
training交差検証用の学習インデックス
coefCI線形回帰モデルの係数推定値の信頼区間
coefTest線形回帰モデルの係数に対する線形仮説検定
dwtest線形回帰モデル オブジェクトによるダービン・ワトソン検定
plot線形回帰モデルの散布図または追加変数プロット
plotAdded線形回帰モデルの追加変数プロット
plotAdjustedResponse線形回帰モデルの調整応答プロット
plotDiagnostics線形回帰モデルの観測値の診断情報をプロット
plotEffects線形回帰モデルの予測子の主効果をプロット
plotInteraction線形回帰モデルの 2 つの予測子の交互作用効果のプロット
plotResiduals線形回帰モデルの残差プロット
plotSlice近似線形回帰面を通るスライスのプロット
coefCI一般化線形モデルの係数推定の信頼区間
coefTest一般化線形回帰モデルの係数に対する線形仮説検定
devianceTest逸脱度の分析
plotDiagnostics一般化線形回帰モデルの診断のプロット
plotResiduals一般化線形回帰モデルの残差プロット
plotSlice近似された一般化線形回帰面を通るスライスのプロット
coefCI非線形回帰モデルの係数推定の信頼区間
coefTest非線形回帰モデルの係数に対する線形仮説検定
plotDiagnostics非線形回帰モデルの診断プロット
plotResiduals非線形回帰モデルの残差プロット
plotSlice近似非線形回帰面を通るスライスのプロット
linhyptest線形仮説検定

オブジェクト

すべて展開する

BayesianOptimizationベイズ最適化の結果
cvpartition交差検証のデータ分割

トピック

回帰学習器アプリのワークフロー

回帰学習器アプリにより回帰モデルに学習をさせる

自動、手動および並列学習など、回帰モデルの学習、比較および改善を行うためのワークフローです。

回帰モデルのオプションの選択

回帰学習器で、選択したモデルに自動的に学習をさせ、線形回帰モデル、回帰木、サポート ベクター マシン、ガウス過程回帰モデルおよび回帰木のアンサンブルのオプションを比較および調整します。

回帰学習器アプリの使用による特徴選択と特徴変換

プロットを使用して有用な予測子を識別し、含める特徴量を手動で選択し、回帰学習器で PCA を使用して特徴量を変換します。

回帰学習器におけるモデルの性能評価

モデルの統計量を比較し、結果を可視化します。

特徴選択

特徴選択

逐次特徴選択などの特徴選択アルゴリズムについて学びます。

ハイパーパラメーターの最適化

ベイズ最適化のワークフロー

近似関数を使用するか bayesopt を直接呼び出してベイズ最適化を実行します。

ベイズ最適化用の変数

ベイズ最適化用の変数を作成します。

ベイズ最適化の目的関数

ベイズ最適化の目的関数を作成します。

ベイズ最適化の制約

ベイズ最適化に対してさまざまな種類の制約を設定します。

ブースティングされたアンサンブル回帰の最適化

アンサンブル回帰の交差検証損失を最小化します。

ベイズ最適化のプロット関数

ベイズ最適化を視覚的に監視します。

ベイズ最適化の出力関数

ベイズ最適化を監視します。

ベイズ最適化のアルゴリズム

ベイズ最適化の基となるアルゴリズムについて理解します。

並列ベイズ最適化

並列ベイズ最適化はどのように機能するか。

交差検証

並列計算を使用する交差検証の実装

並列計算を使用して交差検証を高速化します。

線形モデルの診断

線形回帰の結果の解釈

線形回帰の出力統計を表示および解釈します。

線形回帰

線形回帰モデルをあてはめ、結果を調べます。

交互作用の影響による線形回帰

交互作用効果がある線形回帰モデルを作成および分析し、結果を解釈します。

出力と診断統計量の概要

モデルのプロパティとオブジェクト関数を使用して、あてはめたモデルを評価する。

F 統計量と t 統計量

線形回帰における F 統計量は、分散分析 (ANOVA) 手法で使用される検定統計量です。これにより、モデルまたはモデルの成分の有意性を検定できます。t 統計量は、回帰係数に関する推定を行うために役立ちます。

決定係数 (R-squared)

決定係数 (R-squared) は、線形回帰モデルの独立変数 X で説明される応答変数 y の変化に比例する量を表します。

係数の標準誤差と信頼区間

推定された係数の分散と共分散から、回帰係数の推定値の精度がわかります。

残差

残差は、y の外れ値を検出し、回帰モデルの誤差項に関する線形回帰仮定を確認する場合に便利です。

ダービン・ワトソン検定

ダービン・ワトソン検定は、残差間の自己相関の有無を評価します。

クックの距離

クックの距離は X の値 (予測子変数の観測数) から外れ値を特定する場合に便利です。

ハット行列とてこ比

ハット行列を使用するとてこ比を測定できます。

1 標本を取り除いたときの統計

1 標本を取り除いたときの共分散の変化 (covratio) により、回帰近似に影響を与える観測値が特定されます。

一般化線形モデルの診断

一般化線形モデル

一般化線形モデルは、線形手法を使用して、予測子項と応答変数との間の潜在的な非線形関係を説明します。

非線形モデルの診断

非線形回帰

パラメトリック非線形モデルは、連続応答変数と 1 つ以上の連続予測子変数の関係を表します。