このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。
実験マネージャー
深層学習ネットワークの学習および比較に向けた実験の設計と実行
説明
実験マネージャー アプリを使用すると、異なる学習条件でネットワークに学習させて結果を比較するための深層学習実験を作成できます。実験マネージャーを使用すると、たとえば以下を行うことができます。
ハイパーパラメーター値の範囲のスイープ、ベイズ最適化の使用による最適な学習オプションの検出、または確率分布からのハイパーパラメーター値の無作為抽出。ベイズ最適化および無作為抽出の手法を使用するには、Statistics and Machine Learning Toolbox™ が必要です。
組み込み関数
trainnet
の使用、または独自のカスタム学習関数の定義。さまざまなデータ セットを使用した結果の比較、またはさまざまな深いネットワークのアーキテクチャのテスト。
実験をすばやくセットアップするために、事前構成済みのテンプレートを使用して開始できます。実験テンプレートは、イメージ分類とイメージ回帰、シーケンス分類、オーディオ分類、信号処理、セマンティック セグメンテーション、およびカスタム学習ループといったワークフローをサポートします。
[実験ブラウザー] パネルには、プロジェクトの実験と結果の階層が表示されます。実験名の横にあるアイコンは、実験のタイプを表します。
— 学習関数
trainnet
を使用する組み込み学習実験— カスタム学習関数を使用するカスタムの学習実験
— ユーザーが作成した実験関数を使用する汎用の実験
このページには、Deep Learning Toolbox™ 用の組み込み学習実験とカスタムの学習実験に関する情報を掲載しています。アプリの使用に関する一般的な情報については、実験マネージャーを参照してください。実験マネージャー アプリを分類学習器アプリおよび回帰学習器アプリと組み合わせて使用する方法の詳細については、実験マネージャー (Statistics and Machine Learning Toolbox)を参照してください。
必要な製品
Deep Learning Toolbox を使用して、深層学習のための組み込みまたはカスタムの学習実験を実行し、それらの実験の混同行列を表示する。
Statistics and Machine Learning Toolbox を使用して、ベイズ最適化を使用する機械学習および実験のためのカスタムの学習実験を実行する。
Parallel Computing Toolbox™ を使用して、複数の GPU、1 つのクラスター、またはクラウドで、複数の試行を同時に実行したり、単一の試行を実行したりする。詳細については、Run Experiments in Parallelを参照してください。
MATLAB® Parallel Server™ を使用して、リモート クラスターのバッチ ジョブとして実験をオフロードする。詳細については、Offload Experiments as Batch Jobs to a Clusterを参照してください。

実験マネージャー アプリを開く
MATLAB ツールストリップ: [アプリ] タブの [MATLAB] にある [実験マネージャー] アイコンをクリックします。
MATLAB コマンド プロンプト:
experimentManager
と入力します。
アプリの使用に関する一般的な情報については、実験マネージャーを参照してください。
例
事前構成済みの実験テンプレートを使用して、実験を迅速にセットアップします。
実験マネージャー アプリを開きます。ダイアログ ボックスで、新規プロジェクトを作成するか、ドキュメンテーションのサンプルを開きます。[新規] で [空のプロジェクト] を選択します。
次のダイアログ ボックスで、空の実験テンプレートを開くか、AI ワークフローをサポートするように事前構成されたいずれかの実験テンプレートを開きます。たとえば、[イメージ分類実験] で、事前構成済みのテンプレート [ハイパーパラメーターのスイープによるイメージ分類] を選択します。
新しいプロジェクトの名前と場所を指定します。実験マネージャーによって、プロジェクトで新しい実験が開きます。
この実験は、 アイコンが示すように、学習関数
trainnet
を使用する組み込み学習実験です。
実験定義タブに、実験を定義する説明、ハイパーパラメーター、セットアップ関数、学習後のカスタム メトリクス、およびサポート ファイルが表示されます。これらのパラメーターを変更することで、実験を迅速にセットアップして実行することができます。
実験パラメーターの構成後に実験を実行して結果を比較する方法の詳細については、実験マネージャーを参照してください。
関数 trainnet
およびハイパーパラメーターの網羅的なスイープを使用して学習を行う実験をセットアップします。組み込み学習実験は、イメージ、シーケンス、時系列、特徴の分類や回帰などのワークフローをサポートします。
実験マネージャー アプリを開きます。ダイアログ ボックスで、新規プロジェクトを作成するか、ドキュメンテーションのサンプルを開きます。[新規] で [空のプロジェクト] を選択します。
次のダイアログ ボックスで、空の実験テンプレートを開くか、AI ワークフローをサポートするように事前構成されたいずれかの実験テンプレートを開きます。[空の実験] で、空のテンプレート [組み込み学習 (trainnet
)] を選択します。
この実験は、 アイコンが示すように、学習関数
trainnet
を使用する組み込み学習実験です。
実験定義タブに、実験を定義する説明、ハイパーパラメーター、セットアップ関数、学習後のカスタム メトリクス、およびサポート ファイルが表示されます。空の実験テンプレートで開始する場合、これらのパラメーターを手動で構成しなければなりません。パラメーターがある程度事前構成されたテンプレートを使用する場合は、代わりに、実験マネージャーのダイアログ ボックスから事前構成済みの組み込み学習テンプレートのいずれか 1 つを選択します。
実験パラメーターを構成します。
説明 — 実験の説明を入力します。
ハイパーパラメーター — ハイパーパラメーター値のすべての組み合わせが使用されるように、[手法] を
[網羅的なスイープ]
として指定します。次に、実験で使用するハイパーパラメーターを定義します。パラメーター探索の手法の選択と構成については、Choose Strategy for Exploring Experiment Parametersを参照してください。たとえば、Evaluate Deep Learning Experiments by Using Metric Functionsの場合、手法は
[網羅的なスイープ]
で、ハイパーパラメーターはInitialLearnRate
およびMomentum
です。セットアップ関数 — セットアップ関数のシグネチャのいずれか 1 つを使用して、学習データ、ネットワーク アーキテクチャ、損失関数、および学習オプションを構成します。セットアップ関数の入力は、[ハイパーパラメーター] テーブルのフィールドをもつ構造体です。出力は、関数
trainnet
の入力と一致しなければなりません。たとえば、Evaluate Deep Learning Experiments by Using Metric Functionsの場合、セットアップ関数は、ハイパーパラメーターの構造体にアクセスし、学習関数への入力を返します。このセットアップ関数は、
ClassificationExperiment_setup.mlx
という名前のファイルで定義されています。学習後のカスタム メトリクス — 各試行の後、結果テーブルに表示するメトリクスを計算します。カスタム メトリクス関数を作成するには、[学習後のカスタム メトリクス] セクションの [追加] ボタンをクリックします。次に、テーブルでメトリクスを選択して [編集] をクリックし、MATLAB エディターで関数を開いて編集します。実験に最適なハイパーパラメーターの組み合わせを決定するには、結果テーブルでこれらのメトリクスの値を検証します。
たとえば、Evaluate Deep Learning Experiments by Using Metric Functionsの場合、学習後のカスタム メトリクスは関数
OnesAsSevens
およびSevensAsOnes
によって指定されます。この関数は、OnesAsSevens.mlx
およびSevensAsOnes.mlx
という名前のファイルで定義されています。結果テーブルにこれらのメトリクスが表示されます。
実験パラメーターの構成後に実験を実行して結果を比較する方法の詳細については、実験マネージャーを参照してください。
関数 trainnet
およびベイズ最適化を使用して学習を行う実験をセットアップします。組み込み学習実験は、イメージ、シーケンス、時系列、特徴の分類や回帰などのワークフローをサポートします。
実験マネージャー アプリを開きます。ダイアログ ボックスで、新規プロジェクトを作成するか、ドキュメンテーションのサンプルを開きます。[新規] で [空のプロジェクト] を選択します。
次のダイアログ ボックスで、空の実験テンプレートを開くか、AI ワークフローをサポートするように事前構成されたいずれかの実験テンプレートを開きます。[空の実験] で、空のテンプレート [組み込み学習 (trainnet
)] を選択します。
この実験は、 アイコンが示すように、学習関数
trainnet
を使用する組み込み学習実験です。
実験定義タブに、実験を定義する説明、ハイパーパラメーター、セットアップ関数、学習後のカスタム メトリクス、およびサポート ファイルが表示されます。空の実験テンプレートで開始する場合、これらのパラメーターを手動で構成しなければなりません。パラメーターがある程度事前構成されたテンプレートを使用する場合は、代わりに、実験マネージャーのダイアログ ボックスから事前構成済みの組み込み学習テンプレートのいずれか 1 つを選択します。
実験パラメーターを構成します。
説明 — 実験の説明を入力します。
ハイパーパラメーター — [手法] を
[ベイズ最適化]
(Statistics and Machine Learning Toolbox) として指定します。下限と上限を示す 2 要素ベクトルとしてハイパーパラメーターを指定するか、ハイパーパラメーターが取り得る値をリストする string 配列または文字ベクトルの cell 配列としてハイパーパラメーターを指定します。この実験では、指定されたメトリクスが最適化され、実験に最適なハイパーパラメーターの組み合わせが自動的に決定されます。次に、ベイズ最適化の最大時間、最大試行回数、および詳細オプションを指定します。パラメーター探索の手法の選択と構成については、Choose Strategy for Exploring Experiment Parametersを参照してください。たとえば、Tune Experiment Hyperparameters by Using Bayesian Optimizationの場合、手法は
[ベイズ最適化]
です。ハイパーパラメーター名は、SectionDepth
、InitialLearnRate
、Momentum
、およびL2Regularization
です。最大試行回数は 30 です。セットアップ関数 — セットアップ関数のシグネチャのいずれか 1 つを使用して、学習データ、ネットワーク アーキテクチャ、損失関数、および学習オプションを構成します。セットアップ関数の入力は、[ハイパーパラメーター] テーブルのフィールドをもつ構造体です。出力は、関数
trainnet
の入力と一致しなければなりません。たとえば、Tune Experiment Hyperparameters by Using Bayesian Optimizationの場合、セットアップ関数は、ハイパーパラメーターの構造体にアクセスし、学習関数への入力を返します。このセットアップ関数は、
BayesOptExperiment_setup.mlx
という名前のファイルで定義されています。学習後のカスタム メトリクス — 最適化の方向を選択します。さらに、学習または検証の標準メトリクス (精度、RMSE、損失など) を選択するか、テーブルからカスタム メトリクスを選択します。メトリクス関数の出力は、数値、logical、または string スカラーでなければなりません。
たとえば、Tune Experiment Hyperparameters by Using Bayesian Optimizationの場合、学習後のカスタム メトリクスは関数
ErrorRate
によって指定されます。この関数は、ErrorRate.mlx
という名前のファイルで定義されています。この実験では、このメトリクスが最小化されます。
実験パラメーターの構成後に実験を実行して結果を比較する方法の詳細については、実験マネージャーを参照してください。
カスタム学習関数を使用して学習を行う実験をセットアップし、カスタムの可視化を作成します。
カスタムの学習実験は、trainnet
以外の学習関数を必要とするワークフローをサポートします。このワークフローには次が含まれます。
層グラフによって定義されていないネットワークの学習
カスタム学習率スケジュールを使用した、ネットワークの学習
カスタム関数を使用した、ネットワークの学習可能なパラメーターの更新
敵対的生成ネットワーク (GAN) の学習
ツイン ニューラル ネットワークの学習
実験マネージャー アプリを開きます。ダイアログ ボックスで、新規プロジェクトを作成するか、ドキュメンテーションのサンプルを開きます。[新規] で [空のプロジェクト] を選択します。
次のダイアログ ボックスで、空の実験テンプレートを開くか、AI ワークフローをサポートするように事前構成されたいずれかの実験テンプレートを開きます。[空の実験] で、空のテンプレート [カスタム学習] を選択します。
この実験は、 アイコンが示すように、カスタム学習関数を使用するカスタムの学習実験です。
実験定義タブに、実験を定義する説明、ハイパーパラメーター、学習関数、およびサポート ファイルが表示されます。空の実験テンプレートで開始する場合、これらのパラメーターを手動で構成しなければなりません。パラメーターがある程度事前構成されたテンプレートを使用する場合は、代わりに、実験マネージャーのダイアログ ボックスから事前構成済みのカスタム学習テンプレートのいずれか 1 つを選択します。
実験パラメーターを構成します。
説明 — 実験の説明を入力します。
ハイパーパラメーター — [手法] を
[網羅的スイープ]
または[ベイズ最適化]
(Statistics and Machine Learning Toolbox) として指定し、実験で使用するハイパーパラメーターを定義します。網羅的なスイープでは、ハイパーパラメーター値のすべての組み合わせが使用されます。一方、ベイズ最適化では、指定されたメトリクスが最適化され、実験に最適なハイパーパラメーターの組み合わせが自動的に決定されます。パラメーター探索の手法の選択と構成については、Choose Strategy for Exploring Experiment Parametersを参照してください。たとえば、Run a Custom Training Experiment for Image Comparisonの場合、手法は
[網羅的なスイープ]
で、ハイパーパラメーターはWeightsInitializer
およびBiasInitializer
です。学習関数 — 学習データ、ネットワーク アーキテクチャ、学習手順、およびカスタムの可視化を構成します。実験マネージャーではこの関数の出力が保存されるため、学習完了時にこの出力を MATLAB ワークスペースにエクスポートできます。学習関数の入力は、[ハイパーパラメーター] テーブルのフィールドをもつ構造体、および
experiments.Monitor
オブジェクトです。このオブジェクトを使用して、学習の進行状況を追跡し、結果テーブルの情報フィールドを更新し、学習で使用したメトリクスの値を記録し、プロットを生成します。たとえば、Run a Custom Training Experiment for Image Comparisonの場合、学習関数は、ハイパーパラメーターの構造体にアクセスし、学習済みネットワークが格納された構造体を返します。この学習関数は、ツイン ニューラル ネットワークに学習させるためのカスタム学習ループを実装します。この関数はプロジェクト内の
ImageComparisonExperiment_training.mlx
という名前のファイルで定義されています。また、この学習関数は、学習完了時に学習イメージのペアを表示する可視化
Test Images
も作成します。
実験パラメーターの構成後に実験を実行して結果を比較する方法の詳細については、実験マネージャーを参照してください。
Parallel Computing Toolbox または MATLAB Parallel Server がある場合は、いくつかの実験の実行時間を短縮できる可能性があります。
既定では、実験マネージャーは一度に 1 つの試行を実行します。Parallel Computing Toolbox がある場合は、複数の GPU、1 つのクラスター、またはクラウドで、複数の試行を同時に実行したり、1 つの試行を実行したりすることができます。MATLAB Parallel Server を使用している場合は、リモート クラスターのバッチ ジョブとして実験をオフロードすることで、実験を実行しながら作業を続行することも MATLAB セッションを閉じることもできます。
実験マネージャーのツールストリップの [実行] セクションで、[モード] リストを使用して実行モードを指定します。実行モードとして [逐次バッチ]
または [同時バッチ]
を選択した場合、ツールストリップの [クラスター] リストと [プール サイズ] フィールドを使用してクラスターとプール サイズを指定します。
詳細については、Run Experiments in ParallelまたはOffload Experiments as Batch Jobs to a Clusterを参照してください。
関連する例
- 分類用の深層学習実験の作成
- 回帰用の深層学習実験の作成
- Evaluate Deep Learning Experiments by Using Metric Functions
- Tune Experiment Hyperparameters by Using Bayesian Optimization
- Use Bayesian Optimization in Custom Training Experiments
- Try Multiple Pretrained Networks for Transfer Learning
- Experiment with Weight Initializers for Transfer Learning
- Audio Transfer Learning Using Experiment Manager
- Choose Training Configurations for LSTM Using Bayesian Optimization
- Run a Custom Training Experiment for Image Comparison
- Use Experiment Manager to Train Generative Adversarial Networks (GANs)
- Custom Training with Multiple GPUs in Experiment Manager
詳細
以下の表は、組み込み学習実験のセットアップ関数でサポートされているシグネチャの一覧です。
実験の目的 | セットアップ関数のシグネチャ |
---|---|
| function [images,layers,lossFcn,options] = Experiment_setup(params) ... end |
| function [images,responses,layers,lossFcn,options] = Experiment_setup(params) ... end |
| function [sequences,layers,lossFcn,options] = Experiment_setup(params) ... end |
| function [sequences,responses,layers,lossFcn,options] = Experiment_setup(params) ... end |
| function [features,layers,lossFcn,options] = Experiment_setup(params) ... end |
| function [features,responses,layers,lossFcn,options] = Experiment_setup(params) ... end |
ヒント
ネットワークの可視化と構築を行うには、ディープ ネットワーク デザイナー アプリを使用します。
実験のサイズを小さくするには、不要になった試行の結果と可視化を破棄します。結果テーブルの [アクション] 列で、試行の破棄ボタン
をクリックします。
セットアップ関数では、ドット表記を使用してハイパーパラメーター値にアクセスします。詳細については、構造体配列を参照してください。
バッチ正規化層が含まれているネットワークで、
BatchNormalizationStatistics
学習オプションがpopulation
の場合、学習時に評価される検証メトリクスとは異なる最終検証メトリクス値が実験マネージャーに表示されることがよくあります。値の違いは、ネットワークの学習終了後に実行された追加の演算によるものです。詳細については、バッチ正規化層を参照してください。
バージョン履歴
R2020a で導入Statistics and Machine Learning Toolbox を使用すると、無作為抽出手法を使用して、確率分布から実験のハイパーパラメーター値をランダムにサンプリングできます。実験定義タブの [ハイパーパラメーター] セクションで、次のようにします。
[無作為抽出]
手法を選択します。表内の各パラメーターについて、リストから確率分布を選択します。
各分布プロパティの値を設定します。
次に、[無作為抽出オプション] セクションで、試行回数を指定します。
パラメーター探索の手法の選択と構成については、Choose Strategy for Exploring Experiment Parametersを参照してください。
以下のテンプレートには、試行の実行時間を短縮するために、試行の実行を開始する前にデータやその他の実験の詳細を構成する初期化関数が含まれるようになりました。以下のテンプレートには、推奨されるハイパーパラメーターも組み込まれています。
ハイパーパラメーターのスイープによるイメージ分類
ベイズ最適化を使用したイメージ分類
ハイパーパラメーターのスイープによるイメージ回帰
ベイズ最適化を使用したイメージ回帰
Signal Processing Toolbox™ がある場合は、事前設定されたテンプレートを選択して、転移学習を使用した信号分類用の組み込み実験をセットアップできます。
Signal Processing Toolbox がある場合は、事前構成済みのテンプレートを選択して、組み込みまたはカスタムの信号分類用学習実験をセットアップできます。これらのテンプレートを使用すると、次を実行できます。
信号セグメンテーション
信号分類
信号回帰
Deep Learning Toolbox の有無にかかわらず、MATLAB で実験マネージャーを使用できるようになりました。Deep Learning Toolbox ライセンスを持たない共同作業者と実験を共有した場合、共同作業者はその実験を開いて結果にアクセスすることができます。実験マネージャーには、次が必要です。
Deep Learning Toolbox: 深層学習のための組み込みまたはカスタムの学習実験を実行し、それらの実験の混同行列を表示する
Statistics and Machine Learning Toolbox: ベイズ最適化を使用する機械学習または実験のためのカスタム学習実験を実行する
Parallel Computing Toolbox: 複数の GPU、1 つのクラスター、またはクラウドで、複数の試行を同時に実行したり、試行を一度に 1 つずつ実行したりする
MATLAB Parallel Server: リモート クラスターのバッチ ジョブとして実験をオフロードする
複数の実験または複数の結果を 1 回の操作でプロジェクトから削除するには、[実験ブラウザー] を使用します。削除する実験または結果を選択し、右クリックして [削除] を選択します。選択結果には、実験のみまたは結果のみが含まれていなければなりません。実験マネージャーで実験を削除すると、その実験に含まれる結果も削除されます。
カスタム学習実験の可視化を実験マネージャー アプリで直接表示します。学習が完了すると、ツールストリップの [結果の確認] ギャラリーに、学習関数で作成した各 figure のボタンが表示されます。[可視化] パネルに Figure を表示するには、ギャラリーの [カスタム プロット] セクションで対応するボタンをクリックします。
実験マネージャー アプリから直接、実験の問題を診断します。
実験を実行する前に、選択したハイパーパラメーター値を使用して、セットアップ関数と学習関数をテストできます。
実験を実行した後に、いずれかの試行で使用したのと同じ乱数シードとハイパーパラメーターの値を使用して、セットアップ関数と学習関数をデバッグできます。
詳細については、Debug Deep Learning Experimentsを参照してください。
ベイズ最適化アルゴリズムを使用する実験用の確定的制約、条件付き制約、および獲得関数を指定します。[ベイズ最適化オプション] で、[詳細オプション] をクリックし、次のように指定します。
確定的制約
条件付き制約
獲得関数名
MATLAB で既に開いているプロジェクトを読み込みます。実験マネージャー アプリを起動すると、現在のプロジェクトを実験マネージャーで開くように求めるダイアログ ボックスが表示されます。または、実験マネージャー アプリで [新規] 、 [プロジェクト] を選択し、ダイアログ ボックスで [MATLAB からのプロジェクト] をクリックします。
Audio Toolbox™ がある場合は、事前構成済みのテンプレートを選択して、組み込みまたはカスタムのオーディオ分類用学習実験を設定できます。
実験マネージャーのツールストリップの [キャンセル済みをすべて再開] ボタンが、[再開] リストに置き換えられました。実験の複数の試行を再開するには、[再開] リストを開き、再開条件を 1 つ以上選択し、[再開]
をクリックします。再開条件として、
["キャンセル済み" をすべて]
、["停止" をすべて]
、["エラー" をすべて]
、および["破棄" をすべて]
を選択できます。組み込み学習実験では、学習が実行されている間、標準の学習メトリクスと検証メトリクスの途中の値が結果テーブルに表示されます。そのようなメトリクスとして、損失、精度 (分類実験の場合)、および平方根平均二乗誤差 (回帰実験の場合) があります。
組み込み学習実験では、組み込み学習実験における各試行が単一の CPU、単一の GPU、複数の CPU、複数の GPU のいずれで実行されたかが結果テーブルの [実行環境] 列に表示されます。
関連しなくなった試行の学習プロット、混同行列、および学習結果を破棄するには、結果テーブルの [アクション] 列で、破棄ボタン
をクリックします。
Parallel Computing Toolbox および MATLAB Parallel Server を使用している場合は、実験をバッチ ジョブとしてリモート クラスターに送信できます。Parallel Computing Toolbox のみを使用している場合は、ネットワーク クラスターで実行する代わりに、ローカル クラスターのプロファイルを使用してクライアント マシンで実験の開発とテストを行うことができます。詳細については、Offload Experiments as Batch Jobs to a Clusterを参照してください。
実験マネージャーのツールストリップの [並列の使用] ボタンが、[モード] リストに置き換えられました。
一度に 1 つの実験の試行を実行するには、
[逐次]
を選択して [実行] をクリックします。複数の試行を同時に実行するには、
[同時]
を選択して [実行] をクリックします。実験をバッチ ジョブとしてオフロードするには、
[逐次バッチ]
または[同時バッチ]
を選択し、クラスターとプール サイズを指定して、[実行] をクリックします。
新たに追加された [実験ブラウザー] コンテキスト メニュー オプションを使用し、次のように実験を管理します。
新しい実験をプロジェクトに追加するには、プロジェクトの名前を右クリックして [新規実験] を選択します。
実験のコピーを作成するには、実験の名前を右クリックして [複製] を選択します。
文字ベクトルの cell 配列としてハイパーパラメーターの値を指定します。以前のリリースの実験マネージャーでは、数値、logical 値、string 値のスカラーおよびベクトルを使用したハイパーパラメーターの指定のみがサポートされていました。
試行を停止、キャンセル、または再開するには、結果テーブルの [アクション] 列で停止ボタン
、キャンセル ボタン
、または再開ボタン
をクリックします。以前のリリースでは、これらのボタンが [進行状況] 列にありました。あるいは、試行の行を右クリックし、コンテキスト メニューで [停止]、[キャンセル]、または [再開] を選択することもできます。
実験の試行が終了すると、結果テーブルの [ステータス] 列に、次のいずれかの停止理由が表示されます。
最大数のエポックが完了
検証基準に適合
OutputFcn によって停止
学習損失が NaN
作成時間または試行番号で注釈を並べ替えるには、[注釈] パネルで [並べ替え] リストを使用します。
学習が完了したら、[エクスポート] 、 [結果テーブル] を選択し、結果テーブルの内容を MATLAB ワークスペースに
table
配列として保存します。停止または完了した試行の学習情報または学習済みネットワークをエクスポートするには、試行の行を右クリックし、コンテキスト メニューで [学習情報のエクスポート] または [学習済みネットワークのエクスポート] を選択します。
Statistics and Machine Learning Toolbox を使用している場合、カスタムの学習実験に最適なハイパーパラメーターの組み合わせをベイズ最適化を使用して決定できます。以前は、カスタムの学習実験においてハイパーパラメーターのスイープのみがサポートされていました。詳細については、Use Bayesian Optimization in Custom Training Experimentsを参照してください。
MATLAB Online™ を使用して、Web ブラウザーで実験マネージャーを実行します。実験を並列実行するには、Cloud Center クラスターにアクセスできなければなりません。
実験マネージャーのツールストリップで [キャンセル] をクリックして実験を停止すると、実行中の試行が
[キャンセル済み]
とマークされ、その結果が破棄されます。実験が完了した後に、[キャンセル済みをすべて再開] をクリックすると、キャンセルしたすべての試行が再開されます。マウスを使用できない環境で実験マネージャーを操作するには、キーボード ショートカットを使用します。詳細については、Keyboard Shortcuts for Experiment Managerを参照してください。
次のようなワークフローをサポートするには、カスタムの学習実験を作成します。
ツイン ニューラル ネットワークや敵対的生成ネットワーク (GAN) などの
dlnetwork
における、カスタム学習ループの使用モデル関数またはカスタム学習率スケジュールを使用した、ネットワークの学習
カスタム関数を使用した、ネットワークの学習可能なパラメーターの更新
実験の作成時に、事前構成済みのテンプレートをガイドとして実験を定義します。実験テンプレートは、イメージ分類、イメージ回帰、シーケンス分類、セマンティック セグメンテーション、およびカスタム学習ループといったワークフローをサポートします。
実験結果に関する観測結果を記録するには、注釈を追加します。結果テーブルのセルを右クリックし、[注釈の追加] を選択します。
Statistics and Machine Learning Toolbox を使用している場合、実験に最適なハイパーパラメーターの組み合わせをベイズ最適化を使用して決定できます。詳細については、Tune Experiment Hyperparameters by Using Bayesian Optimizationを参照してください。
Parallel Computing Toolbox を使用している場合、[並列の使用]、[実行] をクリックすることで、実験の複数の試行を同時に実行できます。実験マネージャーによって、並列プールが起動されて複数の試行が同時に実行されます。詳細については、Run Experiments in Parallelを参照してください。
MATLAB Command
You clicked a link that corresponds to this MATLAB command:
Run the command by entering it in the MATLAB Command Window. Web browsers do not support MATLAB commands.
Web サイトの選択
Web サイトを選択すると、翻訳されたコンテンツにアクセスし、地域のイベントやサービスを確認できます。現在の位置情報に基づき、次のサイトの選択を推奨します:
また、以下のリストから Web サイトを選択することもできます。
最適なサイトパフォーマンスの取得方法
中国のサイト (中国語または英語) を選択することで、最適なサイトパフォーマンスが得られます。その他の国の MathWorks のサイトは、お客様の地域からのアクセスが最適化されていません。
南北アメリカ
- América Latina (Español)
- Canada (English)
- United States (English)
ヨーロッパ
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)