実験マネージャー
説明
実験マネージャー アプリを使用すると、複数の初期条件でネットワークに学習させ、結果を比較するための深層学習実験を作成できます。たとえば、深層学習実験を使用して次のことができます。
ハイパーパラメーター値の範囲のスイープ、またはベイズ最適化の使用による最適な学習オプションの検出。ベイズ最適化には、Statistics and Machine Learning Toolbox™ が必要です。
組み込み関数
trainNetwork
の使用、または独自のカスタム学習関数の定義。関数trainNetwork
には Deep Learning Toolbox™ が必要です。さまざまなデータ セットを使用した結果の比較、またはさまざまな深いネットワークのアーキテクチャのテスト。
実験をすばやくセットアップするために、事前構成済みのテンプレートを使用して開始できます。実験テンプレートは、イメージ分類とイメージ回帰、シーケンス分類、オーディオ分類、セマンティック セグメンテーション、およびカスタム学習ループといったワークフローをサポートします。
実験マネージャーは、学習プロットや混同行列などの可視化ツール、実験結果を絞り込むためのフィルター、および観測結果を記録するための注釈を提供します。再現性を向上させるために、実験マネージャーは、実験を実行するたびに、実験定義のコピーを保存します。過去の実験定義にアクセスして、各結果を生成するハイパーパラメーターの組み合わせを継続的に追跡できます。
実験マネージャーは、実験および結果をプロジェクトに整理します。
同じプロジェクトに複数の実験を保存できる。
各実験には、毎回の実験に対する "結果" のセットが含まれる。
結果の各セットは、ハイパーパラメーターのさまざまな組み合わせに対応する 1 つ以上の "試行" で構成される。
既定では、実験マネージャーは一度に 1 つの試行を実行します。Parallel Computing Toolbox™ がある場合は、複数の GPU、1 つのクラスター、またはクラウドで複数の試行を同時に実行したり、試行を一度に 1 つずつ実行したりするように実験を構成できます。MATLAB® Parallel Server™ を使用している場合は、リモート クラスターのバッチ ジョブとして実験をオフロードすることで、学習しながら作業を続行することも MATLAB セッションを閉じることもできます。詳細については、実験マネージャーを使用したネットワークの並列学習およびOffload Experiments as Batch Jobs to Clusterを参照してください。
[実験ブラウザー] ペインには、プロジェクトの実験と結果の階層が表示されます。たとえば、このプロジェクトには 2 つの実験があり、それぞれにいくつかの結果があります。
青のフラスコ は、関数
trainNetwork
を使用する組み込みの学習実験を表します。緑のビーカー は、さまざまな学習関数に依存するカスタムの学習実験を表します。実験の構成を開いてその結果を表示するには、実験の名前または結果のセットをダブルクリックします。

実験マネージャー アプリを開く
MATLAB ツールストリップ: [アプリ] タブの [機械学習および深層学習] にあるアプリ アイコンをクリックします。
MATLAB コマンド プロンプト:
experimentManager
と入力します。
例
ハイパーパラメーターのスイープによるイメージ分類
この例では、ハイパーパラメーターのスイープによるイメージ分類のために実験テンプレートを使用する方法を示します。このテンプレートを使用すると、関数trainNetwork
を使用する組み込みの学習実験をすばやくセットアップできます。関数 trainNetwork
には Deep Learning Toolbox が必要です。
例を開き、検査と実行が可能な事前構成済みの実験を含むプロジェクトを読み込みます。実験を開くには、[実験ブラウザー] ペインで、Experiment1
をダブルクリックします。
または、次の手順に従って、自分で実験を構成することもできます。
1.実験マネージャーを開きます。プロジェクトが MATLAB で既に開いている場合、実験マネージャーは現在のプロジェクトを読み込むように求めます。それ以外の場合、ダイアログ ボックスには、入門チュートリアルや最近使用したプロジェクトへのリンク、新規プロジェクトを作成するボタン、ドキュメンテーションのサンプルを開くボタンが表示されます。
2.[新規] で [プロジェクト] を選択します。ダイアログ ボックスには、イメージ分類とイメージ回帰、シーケンス分類、オーディオ分類、セマンティック セグメンテーション、およびカスタム学習ループといったワークフローをサポートするいくつかの実験テンプレートが一覧表示されます。
3.[イメージ分類実験] で [ハイパーパラメーターのスイープによるイメージ分類] を選択します。
4.新しいプロジェクトの名前と場所を指定します。実験マネージャーによって、プロジェクトで新しい実験が開きます。[実験] ペインには、実験を定義する説明、ハイパーパラメーター、セットアップ関数、およびメトリクスが表示されます。
5.[説明] フィールドに、実験の説明を次のように入力します。
Classification of digits, using various initial learning rates.
6.[ハイパーパラメーター] で、myInitialLearnRate
の値を 0.0025:0.0025:0.015
に置き換えます。[手法] が Exhaustive Sweep
に設定されていることを確認します。
7.[セットアップ関数] で [編集] をクリックします。MATLAB エディターでセットアップ関数が開きます。セットアップ関数では、実験用の学習データ、ネットワーク アーキテクチャ、および学習オプションを指定します。この実験のセットアップ関数には、以下のセクションがあります。
"学習データの読み込み" では、実験用の学習データと検証データを含むイメージ データストアを定義します。実験では、0 ~ 9 の数字から成る 28 x 28 ピクセルのグレースケール イメージ 10,000 個で構成される数字データ セットを使用します。このデータセットの詳細については、イメージ データセットを参照してください。
ネットワーク アーキテクチャの定義では、深層学習による分類用のシンプルな畳み込みニューラル ネットワークのアーキテクチャを定義します。
"学習オプションの指定"では、実験用の
オブジェクトを定義します。この実験のセットアップ関数では、ハイパーパラメーター テーブルのtrainingOptions
myInitialLearnRate
エントリから初期学習率の値を読み込みます。
実験を実行すると、実験マネージャーはセットアップ関数で定義されたネットワークに 6 回学習させます。各試行で、ハイパーパラメーター テーブルで指定された学習率の 1 つが使用されます。既定では、実験マネージャーは一度に 1 つの試行を実行します。Parallel Computing Toolbox を使用している場合は、複数の試行を同時に実行したり、クラスター内のバッチ ジョブとして実験をオフロードしたりできます。
一度に 1 つの実験を実行するには、"実験マネージャー" ツールストリップの [モード] で
[Sequential]
を選択し、[実行] をクリックします。複数の試行を同時に実行するには、[モード] で
[Simultaneous]
を選択し、[実行] をクリックします。現在の並列プールがない場合、実験マネージャーは既定のクラスター プロファイルを使用して並列プールを起動します。その後、実験マネージャーは、並列プールにあるワーカーと同じ数の同時試行を実行します。最良の結果を得るには、実験を実行する前に、GPU と同じ数のワーカーで並列プールを起動します。詳細については、実験マネージャーを使用したネットワークの並列学習とGPU 計算の要件 (Parallel Computing Toolbox)を参照してください。実験をバッチ ジョブとしてオフロードするには、[モード] で
[Batch Sequential]
または[Batch Simultaneous]
を選択し、[クラスター] と [Pool Size] を指定して、[実行] をクリックします。詳細については、Offload Experiments as Batch Jobs to Clusterを参照してください。
結果テーブルに、各試行の精度と損失が表示されます。
実験の実行中に学習プロットを表示して各試行の進行状況を追跡するには、[結果の確認] で [学習プロット] をクリックします。MATLAB コマンド ウィンドウで学習の進行状況を監視することもできます。
完了した各試行の検証データの混同行列を表示するには、[結果の確認] で [検証データ] をクリックします。
実験の完了後、列ごとにテーブルを並べ替えたり、[フィルター] ペインを使用して試行をフィルター処理したりできます。結果テーブルに注釈を追加して、観測結果を記録することもできます。詳細については、実験結果の並べ替え、フィルター処理、および注釈追加を参照してください。
各試行の性能をテストするには、試行で使用した学習済みネットワークまたは試行の学習情報をエクスポートします。[実験マネージャー] ツールストリップで、[エクスポート]、[学習済みネットワーク] を選択するか、[エクスポート]、[学習情報] を選択します。詳細については、net
およびinfo
を参照してください。結果テーブルの内容を MATLAB ワークスペースにtable
配列として保存するには、[エクスポート]、[結果テーブル] を選択します。
実験を閉じるには、[実験ブラウザー] ペインでプロジェクトの名前を右クリックし、[プロジェクトを閉じる] を選択します。実験マネージャーによって、プロジェクトに含まれるすべての実験と結果が閉じられます。
ハイパーパラメーターのスイープによるイメージ回帰
この例では、ハイパーパラメーターのスイープによるイメージ回帰のために実験テンプレートを使用する方法を示します。このテンプレートを使用すると、関数trainNetwork
を使用する組み込みの学習実験をすばやくセットアップできます。関数 trainNetwork
には Deep Learning Toolbox が必要です。
例を開き、検査と実行が可能な事前構成済みの実験を含むプロジェクトを読み込みます。実験を開くには、[実験ブラウザー] ペインで、Experiment1
をダブルクリックします。
または、次の手順に従って、自分で実験を構成することもできます。
1.実験マネージャーを開きます。プロジェクトが MATLAB で既に開いている場合、実験マネージャーは現在のプロジェクトを読み込むように求めます。それ以外の場合、ダイアログ ボックスには、入門チュートリアルや最近使用したプロジェクトへのリンク、新規プロジェクトを作成するボタン、ドキュメンテーションのサンプルを開くボタンが表示されます。
2.[新規] で [プロジェクト] を選択します。ダイアログ ボックスには、イメージ分類とイメージ回帰、シーケンス分類、オーディオ分類、セマンティック セグメンテーション、およびカスタム学習ループといったワークフローをサポートするいくつかの実験テンプレートが一覧表示されます。
3.[イメージ回帰実験] で [ハイパーパラメーターのスイープによるイメージ回帰] を選択します。
4.新しいプロジェクトの名前と場所を指定します。実験マネージャーによって、プロジェクトで新しい実験が開きます。[実験] ペインには、実験を定義する説明、ハイパーパラメーター、セットアップ関数、およびメトリクスが表示されます。
5.[説明] フィールドに、実験の説明を次のように入力します。
Regression to predict angles of rotation of digits, using various initial learning rates.
6.[ハイパーパラメーター] で、myInitialLearnRate
の値を 0.001:0.001:0.006
に置き換えます。[手法] が Exhaustive Sweep
に設定されていることを確認します。
7.[セットアップ関数] で [編集] をクリックします。MATLAB エディターでセットアップ関数が開きます。セットアップ関数では、実験用の学習データ、ネットワーク アーキテクチャ、および学習オプションを指定します。この実験のセットアップ関数には、以下のセクションがあります。
学習データの読み込みでは、実験用の学習データと検証データを 4 次元配列として定義します。学習データと検証データはそれぞれ数字データ セットからの 5000 個のイメージで構成されています。各イメージは 0 ~ 9 の数字で、特定の角度の回転が付けられています。回帰値は、回転角度に対応しています。このデータセットの詳細については、イメージ データセットを参照してください。
"ネットワーク アーキテクチャの定義" では、深層学習による回帰用のシンプルな畳み込みニューラル ネットワークのアーキテクチャを定義します。
"学習オプションの指定"では、実験用の
オブジェクトを定義します。この実験のセットアップ関数では、ハイパーパラメーター テーブルのtrainingOptions
myInitialLearnRate
エントリから初期学習率の値を読み込みます。
実験を実行すると、実験マネージャーはセットアップ関数で定義されたネットワークに 6 回学習させます。各試行で、ハイパーパラメーター テーブルで指定された学習率の 1 つが使用されます。既定では、実験マネージャーは一度に 1 つの試行を実行します。Parallel Computing Toolbox を使用している場合は、複数の試行を同時に実行したり、クラスター内のバッチ ジョブとして実験をオフロードしたりできます。
一度に 1 つの実験を実行するには、"実験マネージャー" ツールストリップの [モード] で
[Sequential]
を選択し、[実行] をクリックします。複数の試行を同時に実行するには、[モード] で
[Simultaneous]
を選択し、[実行] をクリックします。現在の並列プールがない場合、実験マネージャーは既定のクラスター プロファイルを使用して並列プールを起動します。その後、実験マネージャーは、並列プールにあるワーカーと同じ数の同時試行を実行します。最良の結果を得るには、実験を実行する前に、GPU と同じ数のワーカーで並列プールを起動します。詳細については、実験マネージャーを使用したネットワークの並列学習とGPU 計算の要件 (Parallel Computing Toolbox)を参照してください。実験をバッチ ジョブとしてオフロードするには、[モード] で
[Batch Sequential]
または[Batch Simultaneous]
を選択し、[クラスター] と [Pool Size] を指定して、[実行] をクリックします。詳細については、Offload Experiments as Batch Jobs to Clusterを参照してください。
結果テーブルに、各試行の平方根平均二乗誤差 (RMSE) と損失が表示されます。
実験の実行中に学習プロットを表示して各試行の進行状況を追跡するには、[結果の確認] で [学習プロット] をクリックします。MATLAB コマンド ウィンドウで学習の進行状況を監視することもできます。
実験の完了後、列ごとにテーブルを並べ替えたり、[フィルター] ペインを使用して試行をフィルター処理したりできます。結果テーブルに注釈を追加して、観測結果を記録することもできます。詳細については、実験結果の並べ替え、フィルター処理、および注釈追加を参照してください。
各試行の性能をテストするには、試行で使用した学習済みネットワークまたは試行の学習情報をエクスポートします。[実験マネージャー] ツールストリップで、[エクスポート]、[学習済みネットワーク] を選択するか、[エクスポート]、[学習情報] を選択します。詳細については、net
およびinfo
を参照してください。結果テーブルの内容を MATLAB ワークスペースにtable
配列として保存するには、[エクスポート]、[結果テーブル] を選択します。
実験を閉じるには、[実験ブラウザー] ペインでプロジェクトの名前を右クリックし、[プロジェクトを閉じる] を選択します。実験マネージャーによって、プロジェクトに含まれるすべての実験と結果が閉じられます。
カスタム学習ループを使用したイメージ分類
この例では、カスタム学習ループを使用したイメージ分類のために学習実験テンプレートを使用する方法を示します。このテンプレートを使用すると、カスタムの学習実験をすばやくセットアップできます。
例を開き、検査と実行が可能な事前構成済みの実験を含むプロジェクトを読み込みます。実験を開くには、[実験ブラウザー] ペインで、Experiment1
をダブルクリックします。
または、次の手順に従って、自分で実験を構成することもできます。
1.実験マネージャーを開きます。プロジェクトが MATLAB で既に開いている場合、実験マネージャーは現在のプロジェクトを読み込むように求めます。それ以外の場合、ダイアログ ボックスには、入門チュートリアルや最近使用したプロジェクトへのリンク、新規プロジェクトを作成するボタン、ドキュメンテーションのサンプルを開くボタンが表示されます。
2.[新規] で [プロジェクト] を選択します。ダイアログ ボックスには、イメージ分類とイメージ回帰、シーケンス分類、オーディオ分類、セマンティック セグメンテーション、およびカスタム学習ループといったワークフローをサポートするいくつかの実験テンプレートが一覧表示されます。
3.[イメージ分類実験] で [カスタム学習ループを使用したイメージ分類] を選択します。
4.新しいプロジェクトの場所と名前を選択します。実験マネージャーによって、プロジェクトで新しい実験が開きます。[実験] ペインには、実験を定義する説明、ハイパーパラメーター、および学習関数が表示されます。
3.[説明] フィールドに、実験の説明を次のように入力します。
Classification of digits, using various initial learning rates.
4.[ハイパーパラメーター] で、myInitialLearnRate
の値を 0.0025:0.0025:0.015
に置き換えます。[手法] が Exhaustive Sweep
に設定されていることを確認します。
5.[学習関数] で [編集] をクリックします。MATLAB エディターで学習関数が開きます。学習関数では、実験で使用される学習データ、ネットワーク アーキテクチャ、学習オプション、および学習手順を指定します。この実験の学習関数には、以下のセクションがあります。
"学習データの読み込み" では、実験用の学習データを 4 次元配列として定義します。実験では、0 ~ 9 の数字から成る 28 x 28 ピクセルのグレースケール イメージ 5,000 個で構成される数字データ セットを使用します。このデータセットの詳細については、イメージ データセットを参照してください。
ネットワーク アーキテクチャの定義では、深層学習による分類用のシンプルな畳み込みニューラル ネットワークのアーキテクチャを定義します。カスタム学習ループを使用してネットワークに学習させるため、この学習関数はネットワークを
dlnetwork
オブジェクトとして表現します。"学習オプションの指定" では、実験で使用される学習オプションを定義します。この実験の学習関数では、ハイパーパラメーター テーブルの
myInitialLearnRate
エントリから初期学習率の値を読み込みます。"モデルの学習" では、実験で使用されるカスタム学習ループを定義します。カスタム学習ループでは、各エポックについて、データをシャッフルしてデータのミニバッチを繰り返し実行します。カスタム学習ループでは、各ミニバッチについて、モデルの勾配、状態、および損失を評価し、時間ベースの減衰学習率スケジュールの学習率を決定し、ネットワーク パラメーターを更新します。学習の進行状況を追跡して学習損失の値を記録するため、この学習関数は
experiments.Monitor
オブジェクトmonitor
を使用します。
実験を実行すると、実験マネージャーは学習関数で定義されたネットワークに 6 回学習させます。各試行で、ハイパーパラメーター テーブルで指定された学習率の 1 つが使用されます。既定では、実験マネージャーは一度に 1 つの試行を実行します。Parallel Computing Toolbox を使用している場合は、複数の試行を同時に実行したり、クラスター内のバッチ ジョブとして実験をオフロードしたりできます。
一度に 1 つの実験を実行するには、"実験マネージャー" ツールストリップの [モード] で
[Sequential]
を選択し、[実行] をクリックします。複数の試行を同時に実行するには、[モード] で
[Simultaneous]
を選択し、[実行] をクリックします。現在の並列プールがない場合、実験マネージャーは既定のクラスター プロファイルを使用して並列プールを起動します。その後、実験マネージャーは、並列プールにあるワーカーと同じ数の同時試行を実行します。最良の結果を得るには、実験を実行する前に、GPU と同じ数のワーカーで並列プールを起動します。詳細については、実験マネージャーを使用したネットワークの並列学習とGPU 計算の要件 (Parallel Computing Toolbox)を参照してください。実験をバッチ ジョブとしてオフロードするには、[モード] で
[Batch Sequential]
または[Batch Simultaneous]
を選択し、[クラスター] と [Pool Size] を指定して、[実行] をクリックします。詳細については、Offload Experiments as Batch Jobs to Clusterを参照してください。
結果テーブルに、各試行の学習損失が表示されます。
実験の実行中に学習プロットを表示して各試行の進行状況を追跡するには、[結果の確認] で [学習プロット] をクリックします。
実験の完了後、列ごとにテーブルを並べ替えたり、[フィルター] ペインを使用して試行をフィルター処理したりできます。結果テーブルに注釈を追加して、観測結果を記録することもできます。詳細については、実験結果の並べ替え、フィルター処理、および注釈追加を参照してください。
各試行の性能をテストするには、試行における学習の出力をエクスポートします。[実験マネージャー] ツールストリップで [エクスポート]、[学習の出力] を選択します。この実験の学習の出力は、学習損失の値と学習済みネットワークを含む構造体です。結果テーブルの内容を MATLAB ワークスペースにtable
配列として保存するには、[エクスポート]、[結果テーブル] を選択します。
実験を閉じるには、[実験ブラウザー] ペインでプロジェクトの名前を右クリックし、[プロジェクトを閉じる] を選択します。実験マネージャーによって、プロジェクトに含まれるすべての実験と結果が閉じられます。
組み込みの学習実験の構成
この例では、実験マネージャーを使用して組み込みの学習実験を設定する方法を示します。組み込みの学習実験は、関数 trainNetwork
によって、イメージ分類、イメージ回帰、シーケンス分類、セマンティック セグメンテーションといったワークフローをサポートします。関数 trainNetwork
には Deep Learning Toolbox が必要です。
組み込みの学習実験は、説明、ハイパーパラメーターのテーブル、セットアップ関数、および実験の結果を評価するためのメトリクス関数の集合で構成されます。
[説明] フィールドに実験の説明を入力します。
[ハイパーパラメーター] では、手法を選択し、実験に使用するためのハイパーパラメーターを指定します。
ハイパーパラメーター値の範囲をスイープするには、[手法] を [網羅的なスイープ]
に設定します。ハイパーパラメーター テーブルで、実験で使用されるハイパーパラメーターの名前と値を入力します。ハイパーパラメーターの名前は英字で始まり、その後に英字、数字、またはアンダースコアが続くものでなければなりません。ハイパーパラメーターの値は、数値、logical 値、string 値のスカラーまたはベクトルであるか、文字ベクトルの cell 配列でなければなりません。たとえば、以下のようなハイパーパラメーターの指定が有効です。
0.01
0.01:0.01:0.05
[0.01 0.02 0.04 0.08]
["sgdm" "rmsprop" "adam"]
{'squeezenet' 'googlenet' 'resnet18'}
実験を実行すると、実験マネージャーは、テーブルで指定されたハイパーパラメーター値のすべての組み合わせを使用してネットワークに学習させます。
ベイズ最適化を使用して最適な学習オプションを見つけるには、[手法] を [ベイズ最適化]
に設定します。ハイパーパラメーター テーブルで、実験で使用される次のハイパーパラメーターのプロパティを指定します。
名前 — 有効なハイパーパラメーター名を入力します。ハイパーパラメーターの名前は英字で始まり、その後に英字、数字、またはアンダースコアが続くものでなければなりません。
範囲 — 実数値または整数値のハイパーパラメーターの場合、ハイパーパラメーターの下限と上限を示す 2 要素のベクトルを入力します。categorical ハイパーパラメーターの場合は、ハイパーパラメーターが取り得る値をリストする string 配列または文字ベクトルの cell 配列を入力します。
型 — 実数値のハイパーパラメーターの場合は
[実数]
、整数値のハイパーパラメーターの場合は[整数]
、categorical ハイパーパラメーターの場合は[categorical]
を選択します。変換 — 変換を使用しない場合は
[なし]
、対数変換を使用する場合は[対数]
を選択します。[対数]
を選択する場合、ハイパーパラメーター値は正でなければなりません。この設定では、ベイズ最適化アルゴリズムはハイパーパラメーターを対数スケールでモデル化します。
実験の期間を指定するには、[ベイズ最適化オプション] で、実行する最大時間 (秒単位) と最大試行回数を入力します。実験マネージャーは試行完了時にのみこれらのオプションをチェックするため、実験における実際の実行時間と試行回数はこれらの設定値を超える場合があることに注意してください。
オプションで、ベイズ最適化アルゴリズム用の確定的制約、条件付き制約、および獲得関数を指定します。 (R2023a 以降)[ベイズ最適化オプション] で、[詳細オプション] をクリックし、次のように指定します。
確定的制約 – 確定的制約関数の名前を入力します。確定的制約なしでベイズ最適化アルゴリズムを実行するには、このオプションを空白のままにします。詳細については、確定的制約 — XConstraintFcn (Statistics and Machine Learning Toolbox)を参照してください。
条件付き制約 – 条件付き制約関数の名前を入力します。条件付き制約なしでベイズ最適化アルゴリズムを実行するには、このオプションを空白のままにします。詳細については、条件付き制約 — ConditionalVariableFcn (Statistics and Machine Learning Toolbox)を参照してください。
獲得関数名 – リストから獲得関数を選択します。このオプションの既定値は
[expected-improvement-plus]
です。詳細については、獲得関数のタイプ (Statistics and Machine Learning Toolbox)を参照してください。
実験を実行すると、実験マネージャーはハイパーパラメーターの最適な組み合わせを検索します。実験の各試行では、前の試行の結果に基づいてハイパーパラメーター値の新しい組み合わせが使用されます。ベイズ最適化には、Statistics and Machine Learning Toolbox が必要です。
[セットアップ関数] は、実験用の学習データ、ネットワーク アーキテクチャ、および学習オプションを構成します。セットアップ関数への入力は、ハイパーパラメーター テーブルのフィールドをもつ構造体です。セットアップ関数の出力は、関数 trainNetwork
の入力と一致しなければなりません。以下の表は、セットアップ関数でサポートされているシグネチャの一覧です。
実験の目的 | セットアップ関数のシグネチャ |
---|---|
images で指定したイメージと応答、および options で定義した学習オプションを使用して、イメージ分類タスクとイメージ回帰タスクのためのネットワークに学習させます。 | function [images,layers,options] = Experiment_setup(params) ... end |
images で指定したイメージ、および responses で指定した応答を使用してネットワークに学習させます。 | function [images,responses,layers,options] = Experiment_setup(params) ... end |
sequences で指定したシーケンスと応答を使用して、シーケンス分類タスク、時系列分類タスク、および回帰タスクのためのネットワーク (LSTM ネットワークや GRU ネットワークなど) に学習させます。 | function [sequences,layers,options] = Experiment_setup(params) ... end |
sequences で指定したシーケンス、および responses で指定した応答を使用してネットワークに学習させます。 | function [sequences,reponses,layers,options] = Experiment_setup(params) ... end |
features で指定した特徴データと応答を使用して、特徴分類タスクまたは回帰タスクのためのネットワーク (多層パーセプトロン (MLP) ネットワークなど) に学習させます。 | function [features,layers,options] = Experiment_setup(params) ... end |
features で指定した特徴データ、および responses で指定した応答を使用してネットワークに学習させます。 | function [features,responses,layers,options] = Experiment_setup(params) ... end |
ヒント
セットアップ関数を記述するときは、次のガイドラインに従ってください。
すべてのワーカーがアクセスできる場所から、学習データと検証データを読み込みます。たとえば、プロジェクトの外部にデータを保存し、絶対パスを使用してデータにアクセスします。あるいは、データストアの
AlternateFileSystemRoots
プロパティを設定して、別のマシン上のデータにアクセスできるデータストア オブジェクトを作成します。詳細については、異なるマシンまたはクラスターで処理するためのデータ ストアの設定を参照してください。バッチ正規化層が含まれているネットワークで、
BatchNormalizationStatistics
学習オプションがpopulation
の場合、実験マネージャーが、学習時に評価される検証メトリクスとは異なる最終検証メトリクスを表示することがよくあります。値の違いは、ネットワークの学習終了後に実行された追加の演算によるものです。詳細については、バッチ正規化層を参照してください。実験に使用できる実行モードは、学習オプション
ExecutionEnvironment
およびDispatchInBackground
で指定した設定によって異なります。実行モード ExecutionEnvironment
に対して有効な設定DispatchInBackground
に対して有効な設定Sequential
"auto"
,"cpu"
,"gpu"
,"multi-gpu"
,"parallel"
true
,false
Simultaneous
"auto"
,"cpu"
,"gpu"
false
Batch Sequential
"auto"
,"cpu"
,"gpu"
,"parallel"
true
,false
Batch Simultaneous
"auto"
,"cpu"
,"gpu"
false
詳細については、実験マネージャーを使用したネットワークの並列学習およびOffload Experiments as Batch Jobs to Clusterを参照してください。
[メトリクス] セクションは、実験結果を評価するための関数を指定します。メトリクス関数への入力は、以下の 3 つのフィールドをもつ構造体です。
trainedNetwork
は、関数trainNetwork
によって返されるSeriesNetwork
オブジェクトまたはDAGNetwork
オブジェクトです。詳細については、学習済みネットワークを参照してください。trainingInfo
は、関数trainNetwork
によって返される学習情報を含む構造体です。詳細については、学習に関する情報を参照してください。parameters
は、ハイパーパラメーター テーブルのフィールドをもつ構造体です。
メトリクス関数の出力は、スカラー数、logical 値、または string でなければなりません。
実験でベイズ最適化を使用する場合は、[最適化] リストから最適化するメトリクスを選択します。[方向] リストで、このメトリクスの [最大化]
または [最小化]
を指定します。実験マネージャーは、このメトリクスを使用して、実験に最適なハイパーパラメーターの組み合わせを決定します。学習または検証の標準的メトリクス (精度、RMSE、損失など) を選択することも、テーブルからカスタム メトリクスを選択することもできます。
カスタムの学習実験の構成
この例では、実験マネージャーを使用してカスタムの学習実験を設定する方法を示します。カスタムの学習実験は、trainNetwork
以外の学習関数を必要とするワークフローをサポートします。このワークフローには次が含まれます。
層グラフによって定義されていないネットワークの学習。
カスタム学習率スケジュールを使用した、ネットワークの学習。
カスタム関数を使用した、ネットワークの学習可能パラメーターの更新。
敵対的生成ネットワーク (GAN) の学習。
シャム ネットワークの学習。
カスタムの学習実験は、説明、ハイパーパラメーターのテーブル、および学習関数で構成されます。
[説明] フィールドに実験の説明を入力します。
[ハイパーパラメーター] では、手法を選択し、実験に使用するためのハイパーパラメーターを指定します。
ハイパーパラメーター値の範囲をスイープするには、[手法] を [網羅的なスイープ]
に設定します。ハイパーパラメーター テーブルで、実験で使用されるハイパーパラメーターの名前と値を入力します。ハイパーパラメーターの名前は英字で始まり、その後に英字、数字、またはアンダースコアが続くものでなければなりません。ハイパーパラメーターの値は、数値、logical 値、string 値のスカラーまたはベクトルであるか、文字ベクトルの cell 配列でなければなりません。たとえば、以下のようなハイパーパラメーターの指定が有効です。
0.01
0.01:0.01:0.05
[0.01 0.02 0.04 0.08]
["sgdm" "rmsprop" "adam"]
{'squeezenet' 'googlenet' 'resnet18'}
実験を実行すると、実験マネージャーは、テーブルで指定されたハイパーパラメーター値のすべての組み合わせを使用してネットワークに学習させます。
ベイズ最適化を使用して最適な学習オプションを見つけるには、[手法] を [ベイズ最適化]
に設定します。ハイパーパラメーター テーブルで、実験で使用される次のハイパーパラメーターのプロパティを指定します。
名前 — 有効なハイパーパラメーター名を入力します。ハイパーパラメーターの名前は英字で始まり、その後に英字、数字、またはアンダースコアが続くものでなければなりません。
範囲 — 実数値または整数値のハイパーパラメーターの場合、ハイパーパラメーターの下限と上限を示す 2 要素のベクトルを入力します。categorical ハイパーパラメーターの場合は、ハイパーパラメーターが取り得る値をリストする string 配列または文字ベクトルの cell 配列を入力します。
型 — 実数値のハイパーパラメーターの場合は
[実数]
、整数値のハイパーパラメーターの場合は[整数]
、categorical ハイパーパラメーターの場合は[categorical]
を選択します。変換 — 変換を使用しない場合は
[なし]
、対数変換を使用する場合は[対数]
を選択します。[対数]
を選択する場合、ハイパーパラメーター値は正でなければなりません。この設定では、ベイズ最適化アルゴリズムはハイパーパラメーターを対数スケールでモデル化します。
実験の期間を指定するには、[ベイズ最適化オプション] で、実行する最大時間 (秒単位) と最大試行回数を入力します。実験マネージャーは試行完了時にのみこれらのオプションをチェックするため、実験における実際の実行時間と試行回数はこれらの設定値を超える場合があることに注意してください。
オプションで、ベイズ最適化アルゴリズム用の確定的制約、条件付き制約、および獲得関数を指定します。 (R2023a 以降)[ベイズ最適化オプション] で、[詳細オプション] をクリックし、次のように指定します。
確定的制約 – 確定的制約関数の名前を入力します。確定的制約なしでベイズ最適化アルゴリズムを実行するには、このオプションを空白のままにします。詳細については、確定的制約 — XConstraintFcn (Statistics and Machine Learning Toolbox)を参照してください。
条件付き制約 – 条件付き制約関数の名前を入力します。条件付き制約なしでベイズ最適化アルゴリズムを実行するには、このオプションを空白のままにします。詳細については、条件付き制約 — ConditionalVariableFcn (Statistics and Machine Learning Toolbox)を参照してください。
獲得関数名 – リストから獲得関数を選択します。このオプションの既定値は
[expected-improvement-plus]
です。詳細については、獲得関数のタイプ (Statistics and Machine Learning Toolbox)を参照してください。
実験を実行すると、実験マネージャーはハイパーパラメーターの最適な組み合わせを検索します。実験の各試行では、前の試行の結果に基づいてハイパーパラメーター値の新しい組み合わせが使用されます。ベイズ最適化には、Statistics and Machine Learning Toolbox が必要です。
[学習関数] では、実験で使用される学習データ、ネットワーク アーキテクチャ、学習オプション、および学習手順を指定します。学習関数への入力は以下のとおりです。
ハイパーパラメーター テーブルのフィールドをもつ構造体
学習の進行状況を追跡し、結果テーブルで情報フィールドを更新し、学習で使用したメトリクスの値を記録し、学習プロットを生成するために使用できる
experiments.Monitor
オブジェクト
学習マネージャーでは学習関数の出力が保存されるため、学習完了時にこの出力を MATLAB ワークスペースにエクスポートできます。
ヒント
学習関数を記述するときは、次のガイドラインに従ってください。
すべてのワーカーがアクセスできる場所から、学習データと検証データを読み込みます。たとえば、プロジェクトの外部にデータを保存し、絶対パスを使用してデータにアクセスします。あるいは、データストアの
AlternateFileSystemRoots
プロパティを設定して、別のマシン上のデータにアクセスできるデータストア オブジェクトを作成します。詳細については、異なるマシンまたはクラスターで処理するためのデータ ストアの設定を参照してください。実験の結果テーブルでは、情報列とメトリクス列の両方に数値が表示されます。さらに、メトリクス値が学習プロットに記録されます。結果テーブルには表示する必要があるものの学習プロットには表示したくないと考えている値については、情報列を使用してください。
学習が完了すると、ツールストリップの [結果の確認] ギャラリーに、学習関数で作成した各 figure のボタンが表示されます。 (R2023a 以降)[可視化] ペインに Figure を表示するには、ギャラリーの [カスタム プロット] セクションで対応するボタンをクリックします。figure の
Name
プロパティを使用して、ボタンの名前を指定します。Figure に名前を付けない場合、実験マネージャーは座標軸または Figure のタイトルからボタンの名前を派生させます。
実験でベイズ最適化を使用する場合は、[最適化] の [メトリクス] セクションで最適化するメトリクスの名前を入力します。[方向] リストで、このメトリクスの [最大化]
または [最小化]
を指定します。実験マネージャーは、このメトリクスを使用して、実験に最適なハイパーパラメーターの組み合わせを決定します。experiments.Monitor
オブジェクトを使用して学習関数用に定義した任意のメトリクスを選択できます。
学習の停止と再開
実験マネージャーでは、実験を中断するための 2 つのオプションが用意されています。
[停止] は、実行中の試行を
[停止]
とマークし、その結果を保存します。実験が停止した後、この試行に関する学習プロットを表示することや学習結果をエクスポートすることができます。[キャンセル] は、実行中の試行を
[キャンセル済み]
とマークし、その結果を破棄します。実験を停止した後に、この試行に関する学習プロットを表示することや学習結果をエクスポートすることはできません。
どちらのオプションでも、完了した試行の結果が保存され、キューに登録されている試行がキャンセルされます。通常、[キャンセル] のほうが [停止] よりも高速で処理されます。
実験全体を中断する代わりに、実行中の試行を個別に停止することや、キューに登録されている試行を個別にキャンセルすることができます。結果テーブルの [アクション] 列で、試行の停止ボタン またはキャンセル ボタン
をクリックします。
実験のサイズを減らすには、関連しなくなった試行の結果を破棄します。結果テーブルの [アクション] 列で、試行の破棄ボタン をクリックします。実験マネージャーによって、試行の学習結果、学習プロット、および混同行列がプロジェクトから削除されます。
学習が完了すれば、停止、キャンセル、または破棄した試行を再開できます。結果テーブルの [アクション] 列で、試行の再開ボタン をクリックします。
あるいは、実験マネージャーのツールストリップで [再開] リストを開き、再開条件を 1 つ以上選択し、[再開] をクリックすることで、複数の試行を再開することもできます。再開条件として、
["キャンセル済み" をすべて]
、["停止" をすべて]
、["エラー" をすべて]
、および ["破棄" をすべて]
を選択できます。
メモ
停止、キャンセル、再開のオプションは、すべての実験タイプ、戦略、または実行モードで利用できるわけではありません。
実験結果の並べ替え、フィルター処理、および注釈追加
この例では、実験を実行した後に結果を比較したり観測結果を記録したりする方法を示します。
実験を実行すると、実験マネージャーはセットアップ関数で定義されたネットワークに複数回学習させます。試行ごとに、ハイパーパラメーターの異なる組み合わせが使用されます。実験が終了すると、各試行の学習メトリクスおよび検証メトリクス (RMSE や損失など) がテーブルに表示されます。実験の結果を比較するため、これらのメトリクスを使用して、結果テーブルを並べ替えたり、試行をフィルター処理したりできます。
結果テーブルで試行を並べ替えるには、学習メトリクスまたは検証メトリクスに対応する列のドロップダウン リストを使用します。
並べ替える列のヘッダーをポイントします。
三角形のアイコンをクリックします。
[昇順で並べ替え] または [降順で並べ替え] を選択します。
結果テーブルから試行をフィルター処理するには、[フィルター] ペインを使用します。このペインに、結果テーブルの数値メトリクスのヒストグラムが表示されます。[フィルター] ペインからヒストグラムを削除するには、結果テーブルで、対応する列のドロップダウン リストを開き、[フィルターの表示] チェック ボックスをオフにします。
実験マネージャーのツールストリップで、[フィルター] を選択します。
フィルター処理する学習メトリクスまたは検証メトリクスのヒストグラムの下にあるスライダーを調整します。
結果テーブルには、選択した範囲のメトリクス値をもつ試行のみが表示されます。
結果テーブルのすべての試行を復元するには、[Experiment Result] ペインを閉じ、[実験ブラウザー] ペインから結果を再度開きます。
実験結果に関する観測結果を記録するには、注釈を追加します。
結果テーブルのセルを右クリックし、[注釈の追加] を選択します。あるいは、結果テーブルでセルを選択し、実験マネージャーのツールストリップで [注釈] 、 [注釈の追加] を選択します。
[注釈] ペインで、テキスト ボックスに観測結果を入力します。結果テーブルの各セルに複数の注釈を追加できます。
注釈を並べ替えるには、[並べ替え] ドロップダウン リストを使用します。作成時間または試行番号で並べ替えることができます。
注釈に対応するセルを強調表示するには、注釈の上にあるリンクをクリックします。
注釈を削除するには、注釈の右側にある削除ボタン
をクリックします。
過去の実験定義のソースの表示
この例では、特定の結果を生成した実験の構成を検査する方法を示します。
実験を実行した後、[Experiment ソース] ペインを開いて、実験の説明とハイパーパラメーター テーブルの読み取り専用コピー、および実験によって使用されたすべての関数へのリンクを表示できます。このペインの情報を使用して、各結果を生成するデータ、ネットワーク、および学習オプションの構成を追跡できます。
たとえば、実験を複数回実行するとします。実験を実行するたびに、セットアップ関数の内容を変更しますが、関数名は常に同じものを使用します。最初に実験を実行するときは、イメージ分類用の実験テンプレートによって提供される既定のネットワークを使用します。2 回目に実験を実行するときは、セットアップ関数を変更して、事前学習済みの GoogLeNet ネットワークを読み込み、最終層を転移学習用の新しい層に置き換えます。これら 2 つのネットワーク アーキテクチャを使用する例については、分類用の深層学習実験の作成を参照してください。
最初の [Experiment Result] ペインで、[実験のソースの表示] リンクをクリックします。実験マネージャーは、最初の結果セットを生成した実験の定義を含む [Experiment ソース] ペインを開きます。ペインの下部にあるリンクをクリックして、最初の実験の実行時に使用したセットアップ関数を開きます。このセットアップ関数をコピーし、シンプルな分類ネットワークを使用して実験を再実行できます。
2 番目の [Experiment Result] ペインで、[実験のソースの表示] リンクをクリックします。実験マネージャーは、2 番目の結果セットを生成した実験の定義を含む [Experiment ソース] ペインを開きます。ペインの下部にあるリンクをクリックして、2 回目の実験の実行時に使用したセットアップ関数を開きます。このセットアップ関数をコピーし、転移学習を使用して実験を再実行できます。
使用するすべての関数のコピーが実験マネージャーによって保存されるため、実験を変更して再実行するときに、これらの関数の名前を手動で変更する必要はありません。
関連する例
- Generate Experiment Using Deep Network Designer
- 分類用の深層学習実験の作成
- 回帰用の深層学習実験の作成
- メトリクス関数を使用した深層学習実験の評価
- ベイズ最適化を使用した実験ハイパーパラメーターの調整
- Use Bayesian Optimization in Custom Training Experiments
- 転移学習用の事前学習済みのネットワークを複数試用
- 転移学習用の重み初期化子を使用した実験
- Audio Transfer Learning Using Experiment Manager
- ベイズ最適化を使用した LSTM の学習構成の選択
- Run a Custom Training Experiment for Image Comparison
- Use Experiment Manager to Train Generative Adversarial Networks (GANs)
- Custom Training with Multiple GPUs in Experiment Manager
ヒント
ハイパーパラメーターをスイープせずにネットワークの可視化、構築、学習を行うには、ディープ ネットワーク デザイナー アプリを使用します。ネットワークに学習させた後、最適な学習オプションを見つけるための実験を生成します。詳細については、Generate Experiment Using Deep Network Designerを参照してください。
MATLAB Online を使用して実験を並列実行するには、Cloud Center クラスターにアクセスできなければなりません。詳細については、MATLAB Online における Cloud Center クラスターとの Parallel Computing Toolbox の使用 (Parallel Computing Toolbox)を参照してください。
マウスを使用できない環境で実験マネージャーを操作するには、キーボード ショートカットを使用します。詳細については、Keyboard Shortcuts for Experiment Managerを参照してください。
バージョン履歴
R2020a で導入R2023a: カスタム学習実験の可視化
カスタム学習実験の可視化を実験マネージャー アプリで直接表示します。学習が完了すると、ツールストリップの [結果の確認] ギャラリーに、学習関数で作成した各 figure のボタンが表示されます。[可視化] ペインに Figure を表示するには、ギャラリーの [カスタム プロット] セクションで対応するボタンをクリックします。
R2023a: 実験の実行前または実行後のコードのデバッグ
実験マネージャー アプリから直接、実験の問題を診断します。
実験を実行する前に、選択したハイパーパラメーター値を使用して、セットアップ関数と学習関数をテストできます。
実験を実行した後に、いずれかの試行で使用したのと同じ乱数シードとハイパーパラメーターの値を使用して、セットアップ関数と学習関数をデバッグできます。
詳細については、Debug Code Before and After Running Experimentsを参照してください。
R2023a: 使い勝手の向上
ベイズ最適化アルゴリズムを使用する実験用の確定的制約、条件付き制約、および獲得関数を指定します。[ベイズ最適化オプション] で、[詳細オプション] をクリックし、次のように指定します。
確定的制約
条件付き制約
獲得関数名
MATLAB で既に開いているプロジェクトを読み込みます。実験マネージャー アプリを起動すると、現在のプロジェクトを実験マネージャーで開くように求めるダイアログ ボックスが表示されます。または、実験マネージャー アプリで [新規] 、 [プロジェクト] を選択し、ダイアログ ボックスで [MATLAB からのプロジェクト] をクリックします。
Audio Toolbox™ がある場合は、事前構成済みのテンプレートを選択して、組み込みまたはカスタムのオーディオ分類用学習実験を設定できます。
R2022b: 使い勝手の向上
実験マネージャーのツールストリップの [キャンセル済みをすべて再開] ボタンが、[再開] リストに置き換えられました。実験の複数の試行を再開するには、[再開] リストを開き、再開条件を 1 つ以上選択し、[再開]
をクリックします。再開条件として、
["キャンセル済み" をすべて]
、["停止" をすべて]
、["エラー" をすべて]
、および["破棄" をすべて]
を選択できます。組み込みの学習実験では、学習が実行されている間、標準の学習メトリクスと検証メトリクスの途中の値が結果テーブルに表示されます。そのようなメトリクスとして、損失、精度 (分類実験の場合)、および平方根平均二乗誤差 (回帰実験の場合) があります。
組み込みの学習実験では、組み込みの学習実験における各試行が単一の CPU、単一の GPU、複数の CPU、複数の GPU のいずれで実行されたかが結果テーブルの [実行環境] 列に表示されます。
関連しなくなった試行の学習プロット、混同行列、および学習結果を破棄するには、結果テーブルの [アクション] 列で、破棄ボタン
をクリックします。
R2022a: クラスター内のバッチ ジョブとしての実験
Parallel Computing Toolbox および MATLAB Parallel Server を使用している場合は、実験をバッチ ジョブとしてリモート クラスターに送信できます。Parallel Computing Toolbox のみを使用している場合は、ネットワーク クラスターで実行する代わりに、ローカル クラスターのプロファイルを使用してクライアント マシンで実験の開発とテストを行うことができます。詳細については、Offload Experiments as Batch Jobs to Clusterを参照してください。
R2022a: 使い勝手の向上
実験マネージャーのツールストリップの [並列の使用] ボタンが、[モード] リストに置き換えられました。
一度に 1 つの実験の試行を実行するには、
[逐次]
を選択して [実行] をクリックします。複数の試行を同時に実行するには、
[同時]
を選択して [実行] をクリックします。実験をバッチ ジョブとしてオフロードするには、
[逐次バッチ]
または[同時バッチ]
を選択し、クラスターとプール サイズを指定して、[実行] をクリックします。
新たに追加された [実験ブラウザー] コンテキスト メニュー オプションを使用し、次のように実験を管理します。
新しい実験をプロジェクトに追加するには、プロジェクトの名前を右クリックして [新規実験] を選択します。
実験のコピーを作成するには、実験の名前を右クリックして [複製] を選択します。
文字ベクトルの cell 配列としてハイパーパラメーターの値を指定します。以前のリリースの実験マネージャーでは、数値、logical 値、string 値のスカラーおよびベクトルを使用したハイパーパラメーターの指定のみがサポートされていました。
試行を停止、キャンセル、または再開するには、結果テーブルの [アクション] 列で停止ボタン
、キャンセル ボタン
、または再開ボタン
をクリックします。以前のリリースでは、これらのボタンが [進行状況] 列にありました。あるいは、試行の行を右クリックし、コンテキスト メニューで [停止]、[キャンセル]、または [再開] を選択することもできます。
実験の試行が終了すると、結果テーブルの [ステータス] 列に、次のいずれかの停止理由が表示されます。
最大数のエポックが完了
検証基準に適合
OutputFcn によって停止
学習損失が NaN
作成時間または試行番号で注釈を並べ替えるには、[注釈] ペインで [並べ替え] リストを使用します。
学習が完了したら、[エクスポート] 、 [結果テーブル] を選択し、結果テーブルの内容を MATLAB ワークスペースに
table
配列として保存します。停止または完了した試行の学習情報または学習済みネットワークをエクスポートするには、試行の行を右クリックし、コンテキスト メニューで [学習情報のエクスポート] または [学習済みネットワークのエクスポート] を選択します。
R2021b: カスタムの学習実験におけるベイズ最適化
Statistics and Machine Learning Toolbox を使用している場合、カスタムの学習実験に最適なハイパーパラメーターの組み合わせをベイズ最適化を使用して決定できます。以前は、カスタムの学習実験においてハイパーパラメーターのスイープのみがサポートされていました。詳細については、Use Bayesian Optimization in Custom Training Experimentsを参照してください。
R2021b: MATLAB Online での実験
MATLAB Online™ を使用して、Web ブラウザーで実験マネージャーを実行します。実験を並列実行するには、Cloud Center クラスターにアクセスできなければなりません。
R2021b: 使い勝手の向上
実験マネージャーのツールストリップで [キャンセル] をクリックして実験を停止すると、実行中の試行が
[キャンセル済み]
とマークされ、その結果が破棄されます。実験が完了した後に、[キャンセル済みをすべて再開] をクリックすると、キャンセルしたすべての試行が再開されます。マウスを使用できない環境で実験マネージャーを操作するには、キーボード ショートカットを使用します。詳細については、Keyboard Shortcuts for Experiment Managerを参照してください。
R2021a: カスタムの学習実験
次のようなワークフローをサポートするには、カスタムの学習実験を作成します。
シャム ネットワークや敵対的生成ネットワーク (GAN) などの
dlnetwork
における、カスタム学習ループの使用モデル関数またはカスタム学習率スケジュールを使用した、ネットワークの学習
カスタム関数を使用した、ネットワークの学習可能なパラメーターの更新
R2021a: 使い勝手の向上
実験の作成時に、事前構成済みのテンプレートをガイドとして実験を定義します。実験テンプレートは、イメージ分類、イメージ回帰、シーケンス分類、セマンティック セグメンテーション、およびカスタム学習ループといったワークフローをサポートします。
実験結果に関する観測結果を記録するには、注釈を追加します。結果テーブルのセルを右クリックし、[注釈の追加] を選択します。詳細については、実験結果の並べ替え、フィルター処理、および注釈追加を参照してください。
R2020b: ベイズ最適化
Statistics and Machine Learning Toolbox を使用している場合、実験に最適なハイパーパラメーターの組み合わせをベイズ最適化を使用して決定できます。詳細については、ベイズ最適化を使用した実験ハイパーパラメーターの調整を参照してください。
R2020b: 並列実行
Parallel Computing Toolbox を使用している場合、[並列の使用]、[実行] をクリックすることで、実験の複数の試行を同時に実行できます。実験マネージャーによって、並列プールが起動されて複数の試行が同時に実行されます。詳細については、実験マネージャーを使用したネットワークの並列学習を参照してください。
MATLAB コマンド
次の MATLAB コマンドに対応するリンクがクリックされました。
コマンドを MATLAB コマンド ウィンドウに入力して実行してください。Web ブラウザーは MATLAB コマンドをサポートしていません。
Select a Web Site
Choose a web site to get translated content where available and see local events and offers. Based on your location, we recommend that you select: .
You can also select a web site from the following list:
How to Get Best Site Performance
Select the China site (in Chinese or English) for best site performance. Other MathWorks country sites are not optimized for visits from your location.
Americas
- América Latina (Español)
- Canada (English)
- United States (English)
Europe
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)