Main Content

実験マネージャーを使用した回帰モデルの調整

この例では、実験マネージャーを使用して機械学習回帰モデルを最適化する方法を示します。目標は、交差検証損失が最小になる carbig データ セット用の回帰モデルを作成することです。最初に、回帰学習器アプリを使用して、利用可能なすべての回帰モデルに学習データで学習させます。その後、最適なモデルを実験マネージャーにエクスポートして改良します。

実験マネージャーで、既定の設定を使用して交差検証損失を最小化します (つまり、交差検証の平方根平均二乗誤差を最小化します)。損失の改善に役立つオプションを調べ、より詳しい実験を実行します。たとえば、一部のハイパーパラメーターの最適な値への固定、モデル調整プロセスへの有用なハイパーパラメーターの追加、ハイパーパラメーターの検索範囲の調整、学習データの調整、可視化のカスタマイズを行います。最終結果は、テスト セットの性能が向上したモデルです。

回帰学習器から実験マネージャーにどのような場合にモデルをエクスポートするかの詳細については、回帰学習器から実験マネージャーへのモデルのインポートを参照してください。

データの読み込みと分割

  1. MATLAB® コマンド ウィンドウで、carbig データ セットを読み込みます。このデータ セットには、1970 年代と 1980 年代初期に製造された自動車の測定値が格納されています。

    load carbig

    目標は、自動車のガロンあたりの走行マイル数を自動車の他の測定値に基づいて予測する回帰モデルを作成することです。

  2. 米国製かどうかに基づいて、自動車を分類します。

    Origin = categorical(cellstr(Origin));
    Origin = mergecats(Origin,["France","Japan","Germany", ...
        "Sweden","Italy","England"],"NotUSA");
  3. AccelerationDisplacement などの予測子変数と応答変数 MPG (ガロンあたりの走行マイル数) が格納された table を作成します。

    cars = table(Acceleration,Displacement,Horsepower, ...
        Model_Year,Origin,Weight,MPG);
  4. cars から table に欠損値がある行を削除します。

    cars = rmmissing(cars);
  5. データを 2 つのセットに分割します。観測値の約 80% を回帰学習器でのモデルの学習に使用し、観測値の約 20% を最終的なテスト セット用に確保します。cvpartition を使用してデータを分割します。

    rng("default") % For reproducibility
    c = cvpartition(height(cars),"Holdout",0.2);
    trainingIndices = training(c);
    testIndices = test(c);
    carsTrain = cars(trainingIndices,:);
    carsTest = cars(testIndices,:);

回帰学習器でのモデルの学習

  1. Parallel Computing Toolbox™ がある場合は、回帰学習器アプリでモデルに並列に学習させることができます。モデルを並列に学習させた方がモデルを順番に学習させるよりも一般に速くなります。Parallel Computing Toolbox がない場合は、スキップして次の手順に進んでください。

    アプリを開く前に、関数 parpool を使用してプロセス ワーカーの並列プールを起動します。

    parpool("Processes")

    スレッド ワーカーではなくプロセス ワーカーの並列プールを起動しておけば、この後に実験マネージャーで確実に同じプールを使用できます。

    メモ

    実験マネージャーでは、スレッド プールを使用した並列計算はサポートされません。

  2. 回帰学習器を開きます。[アプリ] タブをクリックしてから、[アプリ] セクションの右にある矢印をクリックしてアプリ ギャラリーを開きます。[機械学習および深層学習] グループの [回帰学習器] をクリックします。

  3. [学習] タブで、[ファイル] セクションの [新規セッション] をクリックし、[ワークスペースから] を選択します。

  4. [ワークスペースからの新規セッション] ダイアログ ボックスで、[データ セット変数] のリストから table [carsTrain] を選択します。応答変数と予測子変数が選択されます。既定の応答変数は [MPG] です。

  5. [検証] セクションで、5 分割交差検証ではなく 3 分割交差検証を使用するように指定します。

  6. [テスト] セクションで、[テスト データ セットの確保] チェック ボックスをクリックします。インポートされたデータの 25 パーセントをテスト セットとして指定します。

  7. オプションはそのままで続行するため、[セッションの開始] をクリックします。

  8. 開いている [応答プロット] で予測子を視覚的に検査します。[X 軸] セクションで、[X] のリストから各予測子を選択します。[Displacement][Horsepower][Weight] など、同様のトレンドを示す予測子がいくつかあるため注意してください。

  9. モデルに学習させる前に、主成分分析 (PCA) を使用して予測子空間の次元を減らします。PCA は、数値予測子を線形的に変換することにより冗長な次元を削除します。[学習] タブの [オプション] セクションで [PCA] をクリックします。

    [既定の PCA オプション] ダイアログ ボックスで、PCA を有効にするチェック ボックスをクリックします。成分の削除基準として [成分数の指定] を選択し、数値成分の数として 4 を指定します。[保存して適用] をクリックします。

  10. 最適なモデルを得るために、事前設定されたすべてのモデルに学習させます。[学習] タブの [モデル] セクションで矢印をクリックしてギャラリーを開きます。[開始] グループで [すべて] をクリックします。[学習] セクションで、[すべてを学習] をクリックして [すべてを学習] を選択します。事前設定された各モデル タイプの学習が既定の複雑な木のモデルと共に 1 つずつ行われ、モデルが [モデル] ペインに表示されます。

  11. 最良の結果を見つけるには、検証平方根平均二乗誤差 (RMSE) に基づいて学習済みモデルを並べ替えます。[モデル] ペインで [並べ替え] リストを開き、[RMSE (検証)] を選択します。

    All models sorted by validation RMSE

    メモ

    検証により、結果に無作為性が導入されます。実際のモデルの検証結果は、この例に示されている結果と異なる場合があります。

最適なモデルの性能の評価

  1. RMSE が最も低いモデルについて、予測された応答と真の応答をプロットして、異なる応答値について回帰モデルがどの程度適切に予測を行うかを調べます。[モデル] ペインで Matern 5/2 GPR モデルを選択します。[学習] タブの [プロットと結果] セクションで矢印をクリックしてギャラリーを開き、[検証結果] グループの [予測と実際 (検証)] をクリックします。

    Validation Predicted vs. Actual plot for a GPR model

    全体に、GPR (ガウス過程回帰) モデルの性能は良好です。ほとんどの予測が対角線の近くにあります。

  2. 残差プロットを表示します。[学習] タブの [プロットと結果] セクションで矢印をクリックしてギャラリーを開き、[検証結果] グループの [残差 (検証)] をクリックします。残差プロットには、真の応答と予測された応答の差が表示されます。

    Validation residuals plot for a GPR model

    残差が 0 を挟んでほぼ対称になっています。

  3. モデルのテスト セット性能を確認します。[テスト] タブの [テスト] セクションで [選択項目をテスト] をクリックします。学習データと検証データを含むデータ セット全体で学習させたモデルのテスト セットの性能が計算されます。

  4. モデルの検証 RMSE とテスト RMSE を比較します。モデルの [概要] タブで、[学習結果][RMSE (検証)] の値と [テスト結果][RMSE (テスト)] の値を比較します。この例では、テスト セットに対するモデルの性能が検証 RMSE で過大に推定されています。

    Summary tab for a GPR model, displaying training and test results

実験マネージャーへのモデルのエクスポート

  1. モデルの予測性能を改善できるか試すために、モデルを実験マネージャーにエクスポートします。[学ぶ] タブで、[エクスポート] セクションの [モデルのエクスポート] をクリックし、[実験の作成] を選択します。[実験の作成] ダイアログ ボックスが開きます。

    Create Experiment dialog box in Regression Learner

  2. [実験の作成] ダイアログ ボックスで [実験の作成] をクリックします。アプリで実験マネージャーと新しいダイアログ ボックスが開きます。

    Create Experiment dialog box in Experiment Manager

  3. ダイアログ ボックスで、実験のプロジェクトとして新規または既存のいずれかを選択します。この例では、新しいプロジェクトを作成し、[プロジェクト フォルダー名を指定] ダイアログ ボックスでファイル名を TrainGPRModelProject と指定します。

既定のハイパーパラメーターでの実験の実行

  1. 実験を逐次的または並列に実行します。

    メモ

    • Parallel Computing Toolbox がある場合は、時間の節約のために実験を並列に実行します。[実験マネージャー] タブの [実行] セクションで、[モード] リストから [同時] を選択します。

    • それ以外の場合は、[モード] の既定のオプションである [逐次] を使用します。

    [実験マネージャー] タブの [実行] セクションで、[実行] をクリックします。

    実験マネージャーで、実験の結果を表示する新しいタブが開きます。アプリでは、[Experiment1] タブにある [ハイパーパラメーター] のテーブルの指定に従って、試行ごとに異なる組み合わせのハイパーパラメーター値を使用してモデルの学習が行われます。

  2. アプリで実験が実行された後、その結果を確認します。結果のテーブルで、[ValidationRMSE] 列の矢印をクリックし、[昇順に並べ替え] を選択します。

    Result1 table for Experiment1

    既定では [Sigma] ハイパーパラメーターと [Standardize] ハイパーパラメーターがアプリで調整されることに注意してください。

  3. RMSE が最も低いモデルの予測と実際のプロットを確認します。[実験マネージャー] タブの [結果の確認] セクションで [予測と実際 (検証)] をクリックします。アプリの [可視化] ペインにモデルのプロットが表示されます。

    プロットを見やすくするために、[可視化] ペインを [実験ブラウザー] ペインの下にドラッグします。

    Validation Predicted vs. Actual plot for a GPR model

    このモデルでは、予測された値が真の応答値の近くにあります。ただし、ガロンあたりの走行マイル数が 40 ~ 50 の値については、モデルで応答が過小に評価される傾向があります。

ハイパーパラメーターとハイパーパラメーター値の調整

  1. このデータ セットには、学習前に数値予測子を標準化することが最適であるように見えます。より優れたモデルが得られるか試すために、Standardize ハイパーパラメーターの値を true と指定して実験をもう一度実行します。[Experiment1] タブをクリックします。[ハイパーパラメーター] のテーブルで Standardize ハイパーパラメーターの行を選択します。次に、[削除] をクリックします。

  2. 学習関数ファイルを開きます。[学習関数] セクションで [編集] をクリックします。アプリで Experiment1_training1.mlx ファイルが開きます。

  3. 関数 fitrgp が使用されているコード行をファイルで検索します。この関数は、GPR モデルの作成に使用されます。名前と値の引数を使用して予測子データを標準化します。ここでは、fitrgp の 4 つの呼び出しについて、'Standardize',true を追加して次のように調整します。

    regressionGP = fitrgp(predictors, response, ...
        paramNameValuePairs{:}, 'KernelParameters', kernelParameters, ...
        'Standardize', true);
    
    regressionGP = fitrgp(predictors, response, ...
        paramNameValuePairs{:}, 'Standardize', true);
    
    regressionGP = fitrgp(trainingPredictors, trainingResponse, ...
        paramNameValuePairs{:}, 'KernelParameters', kernelParameters, ...
        'Standardize', true);
    
    regressionGP = fitrgp(trainingPredictors, trainingResponse, ...
        paramNameValuePairs{:}, 'Standardize', true);
    

    コードの変更を保存し、ファイルを閉じます。

  4. [実験マネージャー] タブの [実行] セクションで、[実行] をクリックします。

  5. 実験で評価されるモデルをさらに変えるために、モデル調整プロセスにハイパーパラメーターを追加します。MATLAB コマンド ウィンドウで関数 hyperparameters を使用すると、モデルで調整できるハイパーパラメーターが表示されます。学習データ セットを指定して、既定のハイパーパラメーターの範囲を確認します。次のコードを入力します。

    load("trainingDataTable1.mat")
    info = hyperparameters("fitrgp",dataTable,"MPG");
    for i = 1:length(info)
        disp(i);disp(info(i))
    end
         1
    
      optimizableVariable with properties:
    
             Name: 'Sigma'
            Range: [1.0000e-04 78.9730]
             Type: 'real'
        Transform: 'log'
         Optimize: 1
    
         2
    
      optimizableVariable with properties:
    
             Name: 'BasisFunction'
            Range: {'constant'  'none'  'linear'  'pureQuadratic'}
             Type: 'categorical'
        Transform: 'none'
         Optimize: 0
    
         3
    
      optimizableVariable with properties:
    
             Name: 'KernelFunction'
            Range: {1×10 cell}
             Type: 'categorical'
        Transform: 'none'
         Optimize: 0
    
         4
    
      optimizableVariable with properties:
    
             Name: 'KernelScale'
            Range: [1.0000e-03 1000]
             Type: 'real'
        Transform: 'log'
         Optimize: 0
    
         5
    
      optimizableVariable with properties:
    
             Name: 'Standardize'
            Range: {'true'  'false'}
             Type: 'categorical'
        Transform: 'none'
         Optimize: 1
  6. 実験マネージャーで、BasisFunctionKernelFunction、および KernelScale の各ハイパーパラメーターを追加します。各ハイパーパラメーターについて、[Experiment1] タブの [ハイパーパラメーター] セクションで [追加] をクリックします。関数 hyperparameters の出力と一致するように行のエントリを編集します。

    特に、BasisFunction の範囲は ["constant","none","linear"]KernelFunction の範囲は ["ardexponential","ardmatern32","ardmatern52","ardrationalquadratic","ardsquaredexponential","exponential","matern32","matern52","rationalquadratic","squaredexponential"] と指定します。学習データ セットにカテゴリカル予測子が含まれるため、基底関数のリストから値 pureQuadratic は除外します。

    Hyperparameters table in Experiment Manager with the added hyperparameters

    モデルで調整できるハイパーパラメーターの詳細については、回帰学習器から実験マネージャーへのモデルのインポートを参照してください。

  7. より良い結果を得るために、複数のハイパーパラメーターを調整するときは試行回数を増やします。[Experiment1] タブの [ベイズ最適化オプション] セクションで、最大試行回数として 60 を指定します。

    Bayesian Optimization Options table in Experiment Manager

  8. [実験マネージャー] タブの [実行] セクションで、[実行] をクリックします。

学習データの指定

  1. 実験をもう一度実行する前に、carsTrain のすべての観測値を使用するように指定します。学習データを回帰学習器にインポートするときに一部の観測値をテスト用に確保したため、これまでの実験では、いずれも carsTrain データ セットの観測値を 75% しか使用していません。

    実験ファイルを格納する TrainGPRModelProject フォルダーに carsTrain データ セットをファイル fullTrainingData.mat として保存します。これを行うには、MATLAB ワークスペースで変数名 carsTrain を右クリックし、[名前を付けて保存] をクリックします。ダイアログ ボックスでファイル名と場所を指定し、[保存] をクリックします。

  2. [Experiment1] タブの [学習関数] セクションで [編集] をクリックします。

  3. Experiment1_training1.mlx ファイルで load コマンドを検索します。コードを次のように調整して、carsTrain データ セット全体をモデルの学習に使用するように指定します。

    % Load training data
    fileData = load("fullTrainingData.mat");
    trainingData = fileData.carsTrain;
  4. [Experiment1] タブの [説明] セクションで、観測値の数を table carsTrain の行数に相当する 314 に変更します。

  5. [実験マネージャー] タブの [実行] セクションで、[実行] をクリックします。

残差プロットの追加

  1. 実験マネージャーの各試行で返す可視化を追加できます。ここでは、残差プロットを作成するように指定します。[Experiment1] タブの [学習関数] セクションで [編集] をクリックします。

  2. Experiment1_training1.mlx ファイルで関数 plot を検索します。その周囲のコードで、学習させた各モデルについての検証の予測と実際のプロットが作成されます。次のコードを入力して残差プロットを作成します。残差プロットのコードは必ず関数 trainRegressionModel の定義内に含めてください。

    % Create validation residuals plot
    residuals = validationResponse - validationPredictions;
    f = figure("Name","Residuals (Validation)");
    resAxes = axes(f);
    hold(resAxes,"on")
    plot(resAxes,validationResponse,residuals,"ko", ...
        "MarkerFaceColor","#D95319")
    yline(resAxes,0)
    xlabel(resAxes,"True response")
    ylabel(resAxes,"Residuals (MPG)")
    title(resAxes,"Predictions: GPR")
  3. [実験マネージャー] タブの [実行] セクションで、[実行] をクリックします。

  4. 結果のテーブルで、[ValidationRMSE] 列の矢印をクリックし、[昇順に並べ替え] を選択します。

    Result5 table for Experiment1

  5. RMSE が最も低いモデルの予測と実際のプロットと残差プロットを確認します。[実験マネージャー] タブの [結果の確認] セクションで [予測と実際 (検証)] をクリックします。アプリの [可視化] ペインにモデルのプロットが表示されます。

    Validation Predicted vs. Actual plot for the best GPR model

  6. [実験マネージャー] タブの [結果の確認] セクションで [残差 (検証)] をクリックします。アプリの [可視化] ペインにモデルのプロットが表示されます。

    Residuals plot for the best GPR model

    両方のプロットから、モデルの性能が全般に良好であることがわかります。

最終モデルのエクスポートと使用

  1. 実験マネージャーで学習させたモデルを MATLAB ワークスペースにエクスポートできます。最後に実行された実験から得られた最適なモデルを選択します。[実験マネージャー] タブで、[エクスポート] セクションの [エクスポート] をクリックし、[学習の出力] を選択します。

  2. [エクスポート] ダイアログ ボックスで、ワークスペース変数名を finalGPRModel に変更して [OK] をクリックします。

    新しい変数がワークスペースに表示されます。

  3. エクスポートした finalGPRModel 構造体を使用して、新しいデータによる予測を行います。構造体は、回帰学習器アプリからエクスポートした学習済みモデルを使用する場合と同じように使用できます。詳細については、エクスポートしたモデルを使用した新しいデータについての予測を参照してください。

    ここでは、carsTest のテスト データの応答値を予測します。

    testPredictedY = finalGPRModel.predictFcn(carsTest);
  4. 予測された応答値を使用してテスト RMSE を計算します。

    testRSME = sqrt((1/length(testPredictedY))* ...
        sum((carsTest.MPG - testPredictedY).^2))
    testRSME =
    
        2.6647

    テスト RMSE は、実験マネージャーで計算された検証 RMSE (2.6894) とほぼ同等です。また、この調整後のモデルのテスト RMSE の方が、回帰学習器での Matern 5/2 GPR モデルのテスト RMSE (3.0267) よりも小さくなっています。ただし、調整後のモデルでは carsTest の観測値をテスト データとして使用しているのに対し、回帰学習器のモデルでは carsTrain の観測値のサブセットをテスト データとして使用している点に注意してください。

  5. 真のテスト データの応答と予測された応答を使用して、予測と実際のプロットと残差プロットを作成します。

    figure
    line([min(carsTest.MPG) max(carsTest.MPG)], ...
        [min(carsTest.MPG) max(carsTest.MPG)], ...,
        "Color","black","LineWidth",2);
    hold on
    plot(carsTest.MPG,testPredictedY,"ko", ...
        "MarkerFaceColor","#0072BD");
    hold off
    xlabel("True response")
    ylabel("Predicted response")

    Test Predicted vs. Actual plot for the exported GPR model

    figure
    residuals = carsTest.MPG - testPredictedY;
    plot(carsTest.MPG,residuals,"ko", ...
        "MarkerFaceColor","#D95319")
    hold on
    yline(0)
    hold off
    xlabel("True response")
    ylabel("Residuals (MPG)")

    Test residuals plot for the exported GPR model

    両方のプロットから、テスト セットにおけるモデルの性能が良好であることがわかります。

参考

アプリ

関数

関連するトピック