このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。
モデルの作成と評価
高品質の回帰モデルを構築するには、正しい特徴量 (予測子) の選択、ハイパーパラメーター (データへの当てはめを行わないモデル パラメーター) の調整、残差診断によるモデル仮定の評価を行うことが重要です。
ハイパーパラメーターの値の選択とモデルの交差検証を繰り返すことにより、ハイパーパラメーターを調整できます。このプロセスでは複数のモデルが生成されますが、推定された汎化誤差が最小になるものが最適なモデルである場合があります。たとえば、SVM モデルを調整するには、一連のボックス制約およびカーネル スケールを選択し、値の各ペアについてモデルを交差検証して、10 分割交差検証の平均二乗誤差の推定値を比較します。
回帰モデルに学習させる前に新しい特徴量を設計するには、genrfeatures
を使用します。
回帰モデルの構築と評価を対話的に行うには、回帰学習器アプリを使用します。
調整されたハイパーパラメーターでモデルを自動的に選択するには、fitrauto
を使用します。この関数は、回帰モデルのタイプの選択をさまざまなハイパーパラメーターの値で試し、適切に実行されることが期待される最終モデルを返します。データに最適な回帰モデルのタイプがわからない場合は、fitrauto
を使用します。
Statistics and Machine Learning Toolbox™ の一部のノンパラメトリック回帰関数では、ベイズ最適化、グリッド探索またはランダム探索による自動的なハイパーパラメーター調整が提供されます。ベイズ最適化を実装するための main 関数である bayesopt
は、他の多くの用途にも応用が利きます。詳細は、ベイズ最適化のワークフローを参照してください。
回帰モデルを解釈するために、lime
、shapley
および plotPartialDependence
を使用できます。
アプリ
回帰学習器 | 教師あり機械学習を使用して、データを予測するように回帰モデルに学習をさせる |
関数
オブジェクト
トピック
回帰学習器アプリのワークフロー
- 回帰学習器アプリにより回帰モデルに学習をさせる
自動、手動および並列学習など、回帰モデルの学習、比較および改善を行うためのワークフローです。 - 回帰モデルのオプションの選択
回帰学習器で、選択したモデルに自動的に学習させるか、線形回帰モデル、回帰木、サポート ベクター マシン、ガウス過程回帰モデル、カーネル近似モデル、回帰木のアンサンブル、および回帰ニューラル ネットワークのオプションを比較して調整する。 - 回帰学習器アプリの使用による特徴選択と特徴変換
回帰学習器で、プロットまたは特徴ランク付けアルゴリズムを使用して有用な予測子を識別し、含める特徴量を選択し、PCA を使用して特徴量を変換する。 - 回帰学習器におけるモデルの性能の可視化と評価
モデルのメトリクスを比較し、結果を可視化する。
特徴選択
- 特徴選択の紹介
特徴選択アルゴリズムについて学び、特徴選択に使用できる関数を確認します。 - 逐次特徴選択
このトピックでは、逐次特徴選択の基本を説明し、カスタム基準と関数sequentialfs
を使用して逐次的に特徴量を選択する例を示します。 - 近傍成分分析 (NCA) 特徴選択
近傍成分分析 (NCA) は、特徴量を選択するためのノンパラメトリックな手法であり、回帰および分類アルゴリズムの予測精度を最大化することを目的とします。 - 回帰に NCA を使用するロバスト特徴選択
カスタムなロバスト損失関数を NCA で使用して、外れ値に対してロバストな特徴選択を実行します。 - ランダム フォレストの予測子の選択
交互作用検定アルゴリズムを使用してランダム フォレストの分割予測子を選択します。
特徴量エンジニアリング
- 回帰用の自動特徴量エンジニアリング
回帰モデルに学習させる前に新しい特徴量を設計するために、genrfeatures
を使用する。新しいデータの予測の前に同じ特徴変換を新しいデータ セットに適用する。
自動モデル選択
- ベイズ最適化および ASHA 最適化による回帰モデルの自動選択
fitrauto
を使用し、指定した学習予測子と応答データに基づいてさまざまなハイパーパラメーターの値をもつ回帰モデルのタイプの選択を自動的に試行。
ハイパーパラメーターの最適化
- ベイズ最適化のワークフロー
近似関数を使用するかbayesopt
を直接呼び出してベイズ最適化を実行します。 - ベイズ最適化用の変数
ベイズ最適化用の変数を作成します。 - ベイズ最適化の目的関数
ベイズ最適化の目的関数を作成します。 - ベイズ最適化の制約
ベイズ最適化に対してさまざまな種類の制約を設定します。 - ブースティング回帰アンサンブル回帰の最適化
アンサンブル回帰の交差検証損失を最小化します。 - ベイズ最適化のプロット関数
ベイズ最適化を視覚的に監視します。 - ベイズ最適化の出力関数
ベイズ最適化を監視します。 - ベイズ最適化のアルゴリズム
ベイズ最適化の基となるアルゴリズムについて理解します。 - 並列ベイズ最適化
並列ベイズ最適化はどのように機能するか。
モデルの解釈
- 機械学習モデルの解釈
lime
オブジェクトおよびshapley
オブジェクトと関数plotPartialDependence
を使用してモデル予測を説明する。 - 機械学習モデルのシャープレイ値
介入型アルゴリズムまたは条件付きアルゴリズムを使用して機械学習モデルのシャープレイ値を計算する。 - Shapley Output Functions
Stop Shapley computations, create plots, save information to your workspace, or perform calculations while usingshapley
.
交差検証
- 並列計算を使用する交差検証の実装
並列計算を使用して交差検証を高速化します。 - Perform Time Series Direct Forecasting with directforecaster
Perform time series direct forecasting with thedirectforecaster
function. The function creates a forecasting model that uses a direct strategy in which a separate regression model is trained for each step of the forecasting horizon. For more information, see Direct Forecasting. - ブースティング回帰木のアンサンブルを使用した時系列予想の手動での実行
ブースティング回帰木のアンサンブルを使用して、単一ステップと複数ステップの時系列予想を手動で実行します。
線形モデルの診断
- 線形回帰の結果の解釈
線形回帰の出力統計を表示および解釈します。 - 線形回帰
線形回帰モデルを当てはめ、結果を調べます。 - 交互作用の影響による線形回帰
交互作用効果がある線形回帰モデルを作成および分析し、結果を解釈します。 - 出力と診断統計量の概要
モデルのプロパティとオブジェクト関数を使用して、当てはめたモデルを評価する。 - F 統計量と t 統計量
線形回帰における F 統計量は、分散分析 (ANOVA) 手法で使用される検定統計量です。これにより、モデルまたはモデルの成分の有意性を検定できます。t 統計量は、回帰係数に関する推定を行うために役立ちます。 - 決定係数 (R-squared)
決定係数 (R-squared) は、線形回帰モデルの独立変数 X で説明される応答変数 y の変化に比例する量を表します。 - 係数の標準誤差と信頼区間
推定された係数の分散と共分散から、回帰係数の推定値の精度がわかります。 - 残差
残差は、y の外れ値を検出し、回帰モデルの誤差項に関する線形回帰仮定を確認する場合に便利です。 - ダービン・ワトソン検定
ダービン・ワトソン検定は、時系列データの残差間の自己相関の有無を評価します。 - クックの距離
クックの距離は X の値 (予測子変数の観測数) から外れ値を特定する場合に便利です。 - ハット行列とてこ比
ハット行列を使用するとてこ比を測定できます。 - 1 標本を取り除いたときの統計
1 標本を取り除いたときの共分散の変化 (CovRatio
) により、回帰近似に影響を与える観測値が特定されます。
一般化線形モデルの診断
- 一般化線形モデル
一般化線形モデルは、線形手法を使用して、予測子項と応答変数との間の潜在的な非線形関係を説明します。
非線形モデルの診断
- 非線形回帰
パラメトリック非線形モデルは、連続応答変数と 1 つ以上の連続予測子変数の関係を表します。