このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。
実験マネージャー
説明
実験マネージャー アプリを使用すると、複数の初期条件でネットワークに学習させて結果を比較するための深層学習実験を作成できます。実験マネージャーを使用すると、たとえば以下を行うことができます。
ハイパーパラメーター値の範囲のスイープ、またはベイズ最適化の使用による最適な学習オプションの検出。ベイズ最適化には、Statistics and Machine Learning Toolbox™ が必要です。
組み込み関数
trainNetwork
の使用、または独自のカスタム学習関数の定義。さまざまなデータ セットを使用した結果の比較、またはさまざまな深いネットワークのアーキテクチャのテスト。
実験をすばやくセットアップするために、事前構成済みのテンプレートを使用して開始できます。実験テンプレートは、イメージ分類とイメージ回帰、シーケンス分類、オーディオ分類、セマンティック セグメンテーション、およびカスタム学習ループといったワークフローをサポートします。
実験マネージャーでは、実験結果の管理と観測結果の記録を行うのに役立つ可視化、フィルター、注釈の機能が提供されます。実験マネージャーでは、再現性を高めるため、実験を行うたびに実験定義のコピーが保存されます。過去の実験定義にアクセスすることで、各結果を生成するハイパーパラメーターの組み合わせを追跡できます。
実験マネージャーでは、実験と結果がプロジェクトとして整理されます。
同じプロジェクトに複数の実験を保存できる。
各実験には、毎回の実験に対する結果のセットが含まれる。
結果の各セットは、ハイパーパラメーターのさまざまな組み合わせに対応する 1 つ以上の試行で構成される。
その他
[実験ブラウザー] ペインには、プロジェクトの実験と結果の階層が表示されます。たとえば、このプロジェクトには 3 つの実験があり、それぞれにいくつかの結果があります。
オレンジの丸底フラスコ は、Deep Learning Toolbox™ のライセンスがなくても MATLAB® 内で実行できる汎用の実験を表します。青の三角フラスコ は、学習関数 trainNetwork
を使用する深層学習のための組み込みの学習実験を表します。緑のビーカー は、カスタム学習関数に依存する深層学習または機械学習のためのカスタムの学習実験を表します。汎用の実験の詳細については、実験の管理を参照してください。
既定では、実験マネージャーは一度に 1 つの試行を実行します。Parallel Computing Toolbox™ がある場合は、複数の GPU、1 つのクラスター、またはクラウドで、複数の試行を同時に実行したり、1 つの試行を実行したりすることができます。MATLAB Parallel Server™ を使用している場合は、リモート クラスターのバッチ ジョブとして実験をオフロードすることで、実験を実行しながら作業を続行することも MATLAB セッションを閉じることもできます。詳細については、Run Experiments in ParallelおよびOffload Experiments as Batch Jobs to a Clusterを参照してください。
必要な製品
Deep Learning Toolbox: 深層学習のための組み込みまたはカスタムの学習実験を実行し、それらの実験の混同行列を表示する
Statistics and Machine Learning Toolbox: ベイズ最適化を使用する機械学習または実験のためのカスタム学習実験を実行する
Parallel Computing Toolbox: 複数の GPU、1 つのクラスター、またはクラウドで、複数の試行を同時に実行したり、試行を一度に 1 つずつ実行したりする
MATLAB Parallel Server: リモート クラスターのバッチ ジョブとして実験をオフロードする
実験マネージャー アプリを開く
MATLAB ツールストリップ: [アプリ] タブの [MATLAB] にある [実験マネージャー] アイコンをクリックします (R2023b 以降)。
MATLAB コマンド プロンプト:
experimentManager
と入力します。
例
ハイパーパラメーターのスイープによるイメージ分類
この例では、ハイパーパラメーターのスイープによるイメージ分類のために実験テンプレートを使用する方法を示します。このテンプレートを使用すると、関数trainNetwork
を使用する組み込みの学習実験をすばやくセットアップできます。関数 trainNetwork
には Deep Learning Toolbox が必要です。
次の手順に従って、自分で実験を構成できます。または、例を開いて構成手順をスキップし、検査と実行が可能な事前構成済みの実験を読み込みます。
1.現在開いているプロジェクトがあればそれを閉じ、実験マネージャー アプリを開きます。
2.ダイアログ ボックスには、入門チュートリアルや最近使用したプロジェクトへのリンク、新規プロジェクトを作成するボタン、ドキュメンテーションのサンプルを開くボタンが表示されます。[新規] で [空のプロジェクト] を選択します。
3.ダイアログ ボックスに、イメージ分類とイメージ回帰、シーケンス分類、オーディオ分類、セマンティック セグメンテーション、およびカスタム学習ループといった AI ワークフローをサポートするいくつかのテンプレートが一覧表示されます。[イメージ分類実験] で [ハイパーパラメーターのスイープによるイメージ分類] を選択します。
4.新しいプロジェクトの名前と場所を指定します。実験マネージャーによって、プロジェクトで新しい実験が開きます。実験定義タブに、実験を定義する説明、ハイパーパラメーター、セットアップ関数、およびメトリクスが表示されます。
5.[説明] フィールドに、実験の説明を次のように入力します。
Classification of digits, using various initial learning rates.
6.[ハイパーパラメーター] で、myInitialLearnRate
の値を 0.0025:0.0025:0.015
に置き換えます。[手法] が Exhaustive Sweep
に設定されていることを確認します。
7.[セットアップ関数] で [編集] をクリックします。MATLAB エディターでセットアップ関数が開きます。セットアップ関数では、実験用の学習データ、ネットワーク アーキテクチャ、および学習オプションを指定します。この実験のセットアップ関数には、以下のセクションがあります。
"学習データの読み込み" では、実験用の学習データと検証データを含むイメージ データストアを定義します。実験では、0 ~ 9 の数字から成る 28 x 28 ピクセルのグレースケール イメージ 10,000 個で構成される数字データ セットを使用します。このデータセットの詳細については、イメージ データセットを参照してください。
ネットワーク アーキテクチャの定義では、深層学習による分類用のシンプルな畳み込みニューラル ネットワークのアーキテクチャを定義します。
"学習オプションの指定"では、実験用の
オブジェクトを定義します。この実験のセットアップ関数では、ハイパーパラメーター テーブルのtrainingOptions
myInitialLearnRate
エントリから初期学習率の値を読み込みます。
実験を実行すると、実験マネージャーはセットアップ関数で定義されたネットワークに 6 回学習させます。各試行で、ハイパーパラメーター テーブルで指定された学習率の 1 つが使用されます。既定では、実験マネージャーは一度に 1 つの試行を実行します。Parallel Computing Toolbox を使用している場合は、複数の試行を同時に実行したり、クラスター内のバッチ ジョブとして実験をオフロードしたりできます。
一度に 1 つの実験を実行するには、実験マネージャー ツールストリップの [モード] を
Sequential
に設定し、[実行] をクリックします。複数の試行を同時に実行するには、[モード] を
Simultaneous
に設定し、[実行] をクリックします。現在の並列プールがない場合、実験マネージャーは既定のクラスター プロファイルを使用して並列プールを起動します。その後、実験マネージャーは、並列プールにあるワーカーと同じ数の同時試行を実行します。最良の結果を得るには、実験を実行する前に、GPU と同じ数のワーカーで並列プールを起動します。詳細については、Run Experiments in ParallelおよびGPU 計算の要件 (Parallel Computing Toolbox)を参照してください。実験をバッチ ジョブとしてオフロードするには、[モード] を
Batch Sequential
またはBatch Simultaneous
に設定し、クラスターとプール サイズを指定して、[実行] をクリックします。詳細については、Offload Experiments as Batch Jobs to a Clusterを参照してください。
結果テーブルに、各試行の精度と損失が表示されます。
実験の実行中に学習プロットを表示して各試行の進行状況を追跡するには、[結果の確認] で [学習プロット] をクリックします。MATLAB コマンド ウィンドウで学習の進行状況を監視することもできます。
完了した各試行の検証データの混同行列を表示するには、[結果の確認] で [検証データ] をクリックします。
実験の完了後、列ごとにテーブルを並べ替えたり、[フィルター] ペインを使用して試行をフィルター処理したりできます。結果テーブルに注釈を追加して、観測結果を記録することもできます。詳細については、実験結果の並べ替え、フィルター処理、および注釈追加を参照してください。
各試行の性能をテストするには、試行で使用した学習済みネットワークまたは試行の学習情報をエクスポートします。実験マネージャー ツールストリップで、[エクスポート]、[学習済みネットワーク] を選択するか、[エクスポート]、[学習情報] を選択します。詳細については、net
およびinfo
を参照してください。結果テーブルの内容を MATLAB ワークスペースにtable
配列として保存するには、[エクスポート]、[結果テーブル] を選択します。
ハイパーパラメーターのスイープによるイメージ回帰
この例では、ハイパーパラメーターのスイープによるイメージ回帰のために実験テンプレートを使用する方法を示します。このテンプレートを使用すると、関数trainNetwork
を使用する組み込みの学習実験をすばやくセットアップできます。関数 trainNetwork
には Deep Learning Toolbox が必要です。
次の手順に従って、自分で実験を構成できます。または、例を開いて構成手順をスキップし、検査と実行が可能な事前構成済みの実験を読み込みます。
1.現在開いているプロジェクトがあればそれを閉じ、実験マネージャー アプリを開きます。
2.ダイアログ ボックスには、入門チュートリアルや最近使用したプロジェクトへのリンク、新規プロジェクトを作成するボタン、ドキュメンテーションのサンプルを開くボタンが表示されます。[新規] で [空のプロジェクト] を選択します。
3.ダイアログ ボックスに、イメージ分類とイメージ回帰、シーケンス分類、オーディオ分類、セマンティック セグメンテーション、およびカスタム学習ループといった AI ワークフローをサポートするいくつかのテンプレートが一覧表示されます。[イメージ回帰実験] で [ハイパーパラメーターのスイープによるイメージ回帰] を選択します。
4.新しいプロジェクトの名前と場所を指定します。実験マネージャーによって、プロジェクトで新しい実験が開きます。実験定義タブに、実験を定義する説明、ハイパーパラメーター、セットアップ関数、およびメトリクスが表示されます。
5.[説明] フィールドに、実験の説明を次のように入力します。
Regression to predict angles of rotation of digits, using various initial learning rates.
6.[ハイパーパラメーター] で、myInitialLearnRate
の値を 0.001:0.001:0.006
に置き換えます。[手法] が Exhaustive Sweep
に設定されていることを確認します。
7.[セットアップ関数] で [編集] をクリックします。MATLAB エディターでセットアップ関数が開きます。セットアップ関数では、実験用の学習データ、ネットワーク アーキテクチャ、および学習オプションを指定します。この実験のセットアップ関数には、以下のセクションがあります。
学習データの読み込みでは、実験用の学習データと検証データを 4 次元配列として定義します。学習データと検証データはそれぞれ数字データ セットからの 5000 個のイメージで構成されています。各イメージは 0 ~ 9 の数字で、特定の角度の回転が付けられています。回帰値は、回転角度に対応しています。このデータセットの詳細については、イメージ データセットを参照してください。
"ネットワーク アーキテクチャの定義" では、深層学習による回帰用のシンプルな畳み込みニューラル ネットワークのアーキテクチャを定義します。
"学習オプションの指定"では、実験用の
オブジェクトを定義します。この実験のセットアップ関数では、ハイパーパラメーター テーブルのtrainingOptions
myInitialLearnRate
エントリから初期学習率の値を読み込みます。
実験を実行すると、実験マネージャーはセットアップ関数で定義されたネットワークに 6 回学習させます。各試行で、ハイパーパラメーター テーブルで指定された学習率の 1 つが使用されます。既定では、実験マネージャーは一度に 1 つの試行を実行します。Parallel Computing Toolbox を使用している場合は、複数の試行を同時に実行したり、クラスター内のバッチ ジョブとして実験をオフロードしたりできます。
一度に 1 つの実験を実行するには、実験マネージャー ツールストリップの [モード] を
Sequential
に設定し、[実行] をクリックします。複数の試行を同時に実行するには、[モード] を
Simultaneous
に設定し、[実行] をクリックします。現在の並列プールがない場合、実験マネージャーは既定のクラスター プロファイルを使用して並列プールを起動します。その後、実験マネージャーは、並列プールにあるワーカーと同じ数の同時試行を実行します。最良の結果を得るには、実験を実行する前に、GPU と同じ数のワーカーで並列プールを起動します。詳細については、Run Experiments in ParallelおよびGPU 計算の要件 (Parallel Computing Toolbox)を参照してください。実験をバッチ ジョブとしてオフロードするには、[モード] を
Batch Sequential
またはBatch Simultaneous
に設定し、クラスターとプール サイズを指定して、[実行] をクリックします。詳細については、Offload Experiments as Batch Jobs to a Clusterを参照してください。
結果テーブルに、各試行の平方根平均二乗誤差 (RMSE) と損失が表示されます。
実験の実行中に学習プロットを表示して各試行の進行状況を追跡するには、[結果の確認] で [学習プロット] をクリックします。MATLAB コマンド ウィンドウで学習の進行状況を監視することもできます。
実験の完了後、列ごとにテーブルを並べ替えたり、[フィルター] ペインを使用して試行をフィルター処理したりできます。結果テーブルに注釈を追加して、観測結果を記録することもできます。詳細については、実験結果の並べ替え、フィルター処理、および注釈追加を参照してください。
各試行の性能をテストするには、試行で使用した学習済みネットワークまたは試行の学習情報をエクスポートします。実験マネージャー ツールストリップで、[エクスポート]、[学習済みネットワーク] を選択するか、[エクスポート]、[学習情報] を選択します。詳細については、net
およびinfo
を参照してください。結果テーブルの内容を MATLAB ワークスペースにtable
配列として保存するには、[エクスポート]、[結果テーブル] を選択します。
カスタム学習ループを使用したイメージ分類
この例では、カスタム学習ループを使用したイメージ分類のために学習実験テンプレートを使用する方法を示します。このテンプレートを使用すると、カスタムの学習実験をすばやくセットアップできます。
次の手順に従って、自分で実験を構成できます。または、例を開いて構成手順をスキップし、検査と実行が可能な事前構成済みの実験を読み込みます。
1.現在開いているプロジェクトがあればそれを閉じ、実験マネージャー アプリを開きます。
2.ダイアログ ボックスには、入門チュートリアルや最近使用したプロジェクトへのリンク、新規プロジェクトを作成するボタン、ドキュメンテーションのサンプルを開くボタンが表示されます。[新規] で [空のプロジェクト] を選択します。
3.ダイアログ ボックスに、イメージ分類とイメージ回帰、シーケンス分類、オーディオ分類、セマンティック セグメンテーション、およびカスタム学習ループといった AI ワークフローをサポートするいくつかのテンプレートが一覧表示されます。[イメージ分類実験] で [カスタム学習ループを使用したイメージ分類] を選択します。
4.新しいプロジェクトの名前と場所を指定します。実験マネージャーによって、プロジェクトで新しい実験が開きます。実験定義タブに、実験を定義する説明、ハイパーパラメーター、および学習関数が表示されます。
5.[説明] フィールドに、実験の説明を次のように入力します。
Classification of digits, using various initial learning rates.
6.[ハイパーパラメーター] で、myInitialLearnRate
の値を 0.0025:0.0025:0.015
に置き換えます。[手法] が Exhaustive Sweep
に設定されていることを確認します。
7.[学習関数] で [編集] をクリックします。MATLAB エディターで学習関数が開きます。学習関数では、実験で使用される学習データ、ネットワーク アーキテクチャ、学習オプション、および学習手順を指定します。この実験の学習関数には、以下のセクションがあります。
"学習データの読み込み" では、実験用の学習データを 4 次元配列として定義します。実験では、0 ~ 9 の数字から成る 28 x 28 ピクセルのグレースケール イメージ 5,000 個で構成される数字データ セットを使用します。このデータセットの詳細については、イメージ データセットを参照してください。
ネットワーク アーキテクチャの定義では、深層学習による分類用のシンプルな畳み込みニューラル ネットワークのアーキテクチャを定義します。カスタム学習ループを使用してネットワークに学習させるため、この学習関数はネットワークを
dlnetwork
オブジェクトとして表現します。"学習オプションの指定" では、実験で使用される学習オプションを定義します。この実験の学習関数では、ハイパーパラメーター テーブルの
myInitialLearnRate
エントリから初期学習率の値を読み込みます。"モデルの学習" では、実験で使用されるカスタム学習ループを定義します。カスタム学習ループでは、各エポックについて、データをシャッフルしてデータのミニバッチを繰り返し実行します。カスタム学習ループでは、各ミニバッチについて、モデルの勾配、状態、および損失を評価し、時間ベースの減衰学習率スケジュールの学習率を決定し、ネットワーク パラメーターを更新します。学習の進行状況を追跡して学習損失の値を記録するため、この学習関数は
experiments.Monitor
オブジェクトmonitor
を使用します。
実験を実行すると、実験マネージャーは学習関数で定義されたネットワークに 6 回学習させます。各試行で、ハイパーパラメーター テーブルで指定された学習率の 1 つが使用されます。既定では、実験マネージャーは一度に 1 つの試行を実行します。Parallel Computing Toolbox を使用している場合は、複数の試行を同時に実行したり、クラスター内のバッチ ジョブとして実験をオフロードしたりできます。
一度に 1 つの実験を実行するには、実験マネージャー ツールストリップの [モード] を
Sequential
に設定し、[実行] をクリックします。複数の試行を同時に実行するには、[モード] を
Simultaneous
に設定し、[実行] をクリックします。現在の並列プールがない場合、実験マネージャーは既定のクラスター プロファイルを使用して並列プールを起動します。その後、実験マネージャーは、並列プールにあるワーカーと同じ数の同時試行を実行します。最良の結果を得るには、実験を実行する前に、GPU と同じ数のワーカーで並列プールを起動します。詳細については、Run Experiments in ParallelおよびGPU 計算の要件 (Parallel Computing Toolbox)を参照してください。実験をバッチ ジョブとしてオフロードするには、[モード] を
Batch Sequential
またはBatch Simultaneous
に設定し、クラスターとプール サイズを指定して、[実行] をクリックします。詳細については、Offload Experiments as Batch Jobs to a Clusterを参照してください。
結果テーブルに、各試行の学習損失が表示されます。
実験の実行中に学習プロットを表示して各試行の進行状況を追跡するには、[結果の確認] で [学習プロット] をクリックします。
実験の完了後、列ごとにテーブルを並べ替えたり、[フィルター] ペインを使用して試行をフィルター処理したりできます。結果テーブルに注釈を追加して、観測結果を記録することもできます。詳細については、実験結果の並べ替え、フィルター処理、および注釈追加を参照してください。
各試行の性能をテストするには、試行における学習の出力をエクスポートします。実験マネージャー ツールストリップで、[エクスポート]、[学習の出力] を選択します。この実験の学習の出力は、学習損失の値と学習済みネットワークを含む構造体です。結果テーブルの内容を MATLAB ワークスペースにtable
配列として保存するには、[エクスポート]、[結果テーブル] を選択します。
組み込みの学習実験の構成
この例では、実験マネージャーを使用して組み込みの学習実験を設定する方法を示します。組み込みの学習実験は、関数 trainNetwork
によって、イメージ分類、イメージ回帰、シーケンス分類、セマンティック セグメンテーションといったワークフローをサポートします。関数 trainNetwork
には Deep Learning Toolbox が必要です。
組み込みの学習実験は、説明、ハイパーパラメーターのテーブル、セットアップ関数、および実験の結果を評価するためのメトリクス関数の集合で構成されます。
[説明] フィールドに実験の説明を入力します。
[ハイパーパラメーター] では、手法を選択し、実験に使用するためのハイパーパラメーターを指定します。
ハイパーパラメーター値の範囲をスイープするには、[手法] を [網羅的なスイープ]
に設定します。ハイパーパラメーター テーブルで、実験で使用されるハイパーパラメーターの名前と値を入力します。ハイパーパラメーターの名前は英字で始まり、その後に英字、数字、またはアンダースコアが続くものでなければなりません。ハイパーパラメーターの値は、数値、logical 値、string 値のスカラーまたはベクトルであるか、文字ベクトルの cell 配列でなければなりません。たとえば、以下のようなハイパーパラメーターの指定が有効です。
0.01
0.01:0.01:0.05
[0.01 0.02 0.04 0.08]
["alpha" "beta" "gamma"]
{'delta' 'epsilon' 'zeta'}
実験マネージャーは、テーブルで指定されたハイパーパラメーター値のすべての組み合わせを使用してネットワークに学習させます。
ベイズ最適化を使用して最適な学習オプションを見つけるには、[手法] を [ベイズ最適化]
に設定します。ハイパーパラメーター テーブルで、実験で使用される次のハイパーパラメーターのプロパティを指定します。
名前 — 有効なハイパーパラメーター名を入力します。ハイパーパラメーターの名前は英字で始まり、その後に英字、数字、またはアンダースコアが続くものでなければなりません。
範囲 — 実数値または整数値のハイパーパラメーターの場合、ハイパーパラメーターの下限と上限を示す 2 要素のベクトルを入力します。categorical ハイパーパラメーターの場合は、ハイパーパラメーターが取り得る値をリストする string 配列または文字ベクトルの cell 配列を入力します。
型 — 実数値のハイパーパラメーターの場合は
[実数]
、整数値のハイパーパラメーターの場合は[整数]
、categorical ハイパーパラメーターの場合は[categorical]
を選択します。変換 — 変換を使用しない場合は
[なし]
、対数変換を使用する場合は[対数]
を選択します。[対数]
を選択する場合、ハイパーパラメーター値は正でなければなりません。この設定では、ベイズ最適化アルゴリズムはハイパーパラメーターを対数スケールでモデル化します。
実験の期間を指定するには、[ベイズ最適化オプション] で、実行する最大時間 (秒単位) と最大試行回数を入力します。実験マネージャーは試行完了時にのみこれらのオプションをチェックするため、実験における実際の実行時間と試行回数はこれらの設定値を超える場合があることに注意してください。
オプションで、ベイズ最適化アルゴリズム用の確定的制約、条件付き制約、および獲得関数を指定します。 (R2023a 以降)[ベイズ最適化オプション] で、[詳細オプション] をクリックし、次のように指定します。
確定的制約 – 確定的制約関数の名前を入力します。確定的制約なしでベイズ最適化アルゴリズムを実行するには、このオプションを空白のままにします。詳細については、確定的制約 — XConstraintFcn (Statistics and Machine Learning Toolbox)を参照してください。
条件付き制約 – 条件付き制約関数の名前を入力します。条件付き制約なしでベイズ最適化アルゴリズムを実行するには、このオプションを空白のままにします。詳細については、条件付き制約 — ConditionalVariableFcn (Statistics and Machine Learning Toolbox)を参照してください。
獲得関数名 – リストから獲得関数を選択します。このオプションの既定値は
[expected-improvement-plus]
です。詳細については、獲得関数のタイプ (Statistics and Machine Learning Toolbox)を参照してください。
実験を実行すると、実験マネージャーはハイパーパラメーターの最適な組み合わせを検索します。実験の各試行では、前の試行の結果に基づいてハイパーパラメーター値の新しい組み合わせが使用されます。ベイズ最適化には、Statistics and Machine Learning Toolbox が必要です。
[セットアップ関数] は、実験用の学習データ、ネットワーク アーキテクチャ、および学習オプションを構成します。セットアップ関数への入力は、ハイパーパラメーター テーブルのフィールドをもつ構造体です。セットアップ関数の出力は、関数 trainNetwork
の入力と一致しなければなりません。以下の表は、セットアップ関数でサポートされているシグネチャの一覧です。
実験の目的 | セットアップ関数のシグネチャ |
---|---|
images で指定したイメージと応答、および options で定義した学習オプションを使用して、イメージ分類タスクとイメージ回帰タスクのためのネットワークに学習させます。 | function [images,layers,options] = Experiment_setup(params) ... end |
images で指定したイメージ、および responses で指定した応答を使用してネットワークに学習させます。 | function [images,responses,layers,options] = Experiment_setup(params) ... end |
sequences で指定したシーケンスと応答を使用して、シーケンス分類タスク、時系列分類タスク、および回帰タスクのためのネットワーク (LSTM ネットワークや GRU ネットワークなど) に学習させます。 | function [sequences,layers,options] = Experiment_setup(params) ... end |
sequences で指定したシーケンス、および responses で指定した応答を使用してネットワークに学習させます。 | function [sequences,responses,layers,options] = Experiment_setup(params) ... end |
features で指定した特徴データと応答を使用して、特徴分類タスクまたは回帰タスクのためのネットワーク (多層パーセプトロン (MLP) ネットワークなど) に学習させます。 | function [features,layers,options] = Experiment_setup(params) ... end |
features で指定した特徴データ、および responses で指定した応答を使用してネットワークに学習させます。 | function [features,responses,layers,options] = Experiment_setup(params) ... end |
ヒント
セットアップ関数を記述するときは、次のガイドラインに従ってください。
実験で使用するハイパーパラメーター値にアクセスするには、ドット表記を使用します。詳細については、構造体配列を参照してください。
すべての並列ワーカーがアクセスできる場所から、実験で使用するデータを読み込みます。たとえば、プロジェクトの外部にデータを保存し、絶対パスを使用してデータにアクセスします。あるいは、データストアの
AlternateFileSystemRoots
プロパティを設定して、別のマシン上のデータにアクセスできるデータストア オブジェクトを作成します。詳細については、異なるマシンまたはクラスターで処理するためのデータストアの設定を参照してください。バッチ正規化層が含まれているネットワークで、
BatchNormalizationStatistics
学習オプションがpopulation
の場合、学習時に評価される検証メトリクスとは異なる最終検証メトリクス値が実験マネージャーに表示されることがよくあります。値の違いは、ネットワークの学習終了後に実行された追加の演算によるものです。詳細については、バッチ正規化層を参照してください。実験に使用できる実行モードは、学習オプション
ExecutionEnvironment
およびDispatchInBackground
で指定した設定によって異なります。実行モード ExecutionEnvironment
に対して有効な設定DispatchInBackground
に対して有効な設定Sequential
"auto"
,"cpu"
,"gpu"
,"multi-gpu"
,"parallel"
true
,false
Simultaneous
"auto"
,"cpu"
,"gpu"
false
Batch Sequential
"auto"
,"cpu"
,"gpu"
,"parallel"
true
,false
Batch Simultaneous
"auto"
,"cpu"
,"gpu"
false
詳細については、Run Experiments in ParallelおよびOffload Experiments as Batch Jobs to a Clusterを参照してください。
[メトリクス] セクションは、実験結果を評価するための関数を指定します。メトリクス関数への入力は、以下の 3 つのフィールドをもつ構造体です。
trainedNetwork
は、関数trainNetwork
によって返されるSeriesNetwork
オブジェクトまたはDAGNetwork
オブジェクトです。詳細については、学習済みネットワークを参照してください。trainingInfo
は、関数trainNetwork
によって返される学習情報を含む構造体です。詳細については、学習に関する情報を参照してください。parameters
は、ハイパーパラメーター テーブルのフィールドをもつ構造体です。
メトリクス関数の出力は、スカラー数、logical 値、または string でなければなりません。
実験でベイズ最適化を使用する場合は、[最適化] リストから最適化するメトリクスを選択します。[方向] リストで、このメトリクスの [最大化]
または [最小化]
を指定します。実験マネージャーは、このメトリクスを使用して、実験に最適なハイパーパラメーターの組み合わせを決定します。学習または検証の標準的メトリクス (精度、RMSE、損失など) を選択することも、テーブルからカスタム メトリクスを選択することもできます。
カスタムの学習実験の構成
この例では、実験マネージャーを使用してカスタムの学習実験を設定する方法を示します。カスタムの学習実験は、trainNetwork
以外の学習関数を必要とするワークフローをサポートします。このワークフローには次が含まれます。
層グラフによって定義されていないネットワークの学習。
カスタム学習率スケジュールを使用した、ネットワークの学習。
カスタム関数を使用した、ネットワークの学習可能パラメーターの更新。
敵対的生成ネットワーク (GAN) の学習。
ツイン ニューラル ネットワークの学習。
カスタムの学習実験は、説明、ハイパーパラメーターのテーブル、および学習関数で構成されます。
[説明] フィールドに実験の説明を入力します。
[ハイパーパラメーター] では、手法を選択し、実験に使用するためのハイパーパラメーターを指定します。
ハイパーパラメーター値の範囲をスイープするには、[手法] を [網羅的なスイープ]
に設定します。ハイパーパラメーター テーブルで、実験で使用されるハイパーパラメーターの名前と値を入力します。ハイパーパラメーターの名前は英字で始まり、その後に英字、数字、またはアンダースコアが続くものでなければなりません。ハイパーパラメーターの値は、数値、logical 値、string 値のスカラーまたはベクトルであるか、文字ベクトルの cell 配列でなければなりません。たとえば、以下のようなハイパーパラメーターの指定が有効です。
0.01
0.01:0.01:0.05
[0.01 0.02 0.04 0.08]
["alpha" "beta" "gamma"]
{'delta' 'epsilon' 'zeta'}
実験マネージャーは、テーブルで指定されたハイパーパラメーター値のすべての組み合わせを使用してネットワークに学習させます。
ベイズ最適化を使用して最適な学習オプションを見つけるには、[手法] を [ベイズ最適化]
に設定します。ハイパーパラメーター テーブルで、実験で使用される次のハイパーパラメーターのプロパティを指定します。
名前 — 有効なハイパーパラメーター名を入力します。ハイパーパラメーターの名前は英字で始まり、その後に英字、数字、またはアンダースコアが続くものでなければなりません。
範囲 — 実数値または整数値のハイパーパラメーターの場合、ハイパーパラメーターの下限と上限を示す 2 要素のベクトルを入力します。categorical ハイパーパラメーターの場合は、ハイパーパラメーターが取り得る値をリストする string 配列または文字ベクトルの cell 配列を入力します。
型 — 実数値のハイパーパラメーターの場合は
[実数]
、整数値のハイパーパラメーターの場合は[整数]
、categorical ハイパーパラメーターの場合は[categorical]
を選択します。変換 — 変換を使用しない場合は
[なし]
、対数変換を使用する場合は[対数]
を選択します。[対数]
を選択する場合、ハイパーパラメーター値は正でなければなりません。この設定では、ベイズ最適化アルゴリズムはハイパーパラメーターを対数スケールでモデル化します。
実験の期間を指定するには、[ベイズ最適化オプション] で、実行する最大時間 (秒単位) と最大試行回数を入力します。実験マネージャーは試行完了時にのみこれらのオプションをチェックするため、実験における実際の実行時間と試行回数はこれらの設定値を超える場合があることに注意してください。
オプションで、ベイズ最適化アルゴリズム用の確定的制約、条件付き制約、および獲得関数を指定します。 (R2023a 以降)[ベイズ最適化オプション] で、[詳細オプション] をクリックし、次のように指定します。
確定的制約 – 確定的制約関数の名前を入力します。確定的制約なしでベイズ最適化アルゴリズムを実行するには、このオプションを空白のままにします。詳細については、確定的制約 — XConstraintFcn (Statistics and Machine Learning Toolbox)を参照してください。
条件付き制約 – 条件付き制約関数の名前を入力します。条件付き制約なしでベイズ最適化アルゴリズムを実行するには、このオプションを空白のままにします。詳細については、条件付き制約 — ConditionalVariableFcn (Statistics and Machine Learning Toolbox)を参照してください。
獲得関数名 – リストから獲得関数を選択します。このオプションの既定値は
[expected-improvement-plus]
です。詳細については、獲得関数のタイプ (Statistics and Machine Learning Toolbox)を参照してください。
実験を実行すると、実験マネージャーはハイパーパラメーターの最適な組み合わせを検索します。実験の各試行では、前の試行の結果に基づいてハイパーパラメーター値の新しい組み合わせが使用されます。ベイズ最適化には、Statistics and Machine Learning Toolbox が必要です。
[学習関数] では、実験で使用される学習データ、ネットワーク アーキテクチャ、学習オプション、および学習手順を指定します。学習関数への入力は以下のとおりです。
ハイパーパラメーター テーブルのフィールドをもつ構造体
学習の進行状況を追跡し、結果テーブルで情報フィールドを更新し、学習で使用したメトリクスの値を記録し、学習プロットを生成するために使用できる
experiments.Monitor
オブジェクト
実験マネージャーでは学習関数の出力が保存されるため、学習完了時にこの出力を MATLAB ワークスペースにエクスポートできます。
ヒント
学習関数を記述するときは、次のガイドラインに従ってください。
実験で使用するハイパーパラメーター値にアクセスするには、ドット表記を使用します。詳細については、構造体配列を参照してください。
すべての並列ワーカーがアクセスできる場所から、実験で使用するデータを読み込みます。たとえば、プロジェクトの外部にデータを保存し、絶対パスを使用してデータにアクセスします。あるいは、データストアの
AlternateFileSystemRoots
プロパティを設定して、別のマシン上のデータにアクセスできるデータストア オブジェクトを作成します。詳細については、異なるマシンまたはクラスターで処理するためのデータストアの設定を参照してください。実験の結果テーブルでは、情報列とメトリクス列の両方に数値が表示されます。さらに、メトリクス値が学習プロットに記録されます。結果テーブルには表示する必要があるものの学習プロットには表示したくないと考えている値については、情報列を使用してください。
学習が完了すると、ツールストリップの [結果の確認] ギャラリーに、学習関数で作成した各 figure のボタンが表示されます (R2023a 以降)。[可視化] ペインに Figure を表示するには、ギャラリーの [カスタム プロット] セクションで対応するボタンをクリックします。figure の
Name
プロパティを使用して、ボタンの名前を指定します。Figure に名前を付けない場合、実験マネージャーは座標軸または Figure のタイトルからボタンの名前を派生させます。学習が完了すると、ツールストリップの [結果の確認] ギャラリーに、学習関数で作成した各 figure のボタンが表示されます。 (R2023a 以降)[可視化] ペインに Figure を表示するには、ギャラリーの [カスタム プロット] セクションで対応するボタンをクリックします。figure の
Name
プロパティを使用して、ボタンの名前を指定します。Figure に名前を付けない場合、実験マネージャーは座標軸または Figure のタイトルからボタンの名前を派生させます。
実験でベイズ最適化を使用する場合は、[最適化] の [メトリクス] セクションで最適化するメトリクスの名前を入力します。[方向] リストで、このメトリクスの [最大化]
または [最小化]
を指定します。実験マネージャーは、このメトリクスを使用して、実験に最適なハイパーパラメーターの組み合わせを決定します。experiments.Monitor
オブジェクトを使用して学習関数用に定義した任意のメトリクスを選択できます。
学習の停止と再開
実験マネージャーでは、実験を中断するための 2 つのオプションが用意されています。
[停止] をクリックすると、実行中の試行が
[停止]
とマークされ、その結果が保存されます。実験が停止した後、この試行に関する学習プロットを表示することや学習結果をエクスポートすることができます。[キャンセル] をクリックすると、実行中の試行が
[キャンセル済み]
とマークされ、その結果が破棄されます。実験を停止した後に、この試行に関する学習プロットを表示することや学習結果をエクスポートすることはできません。
どちらのオプションでも、完了した試行の結果が保存され、キューに登録されている試行がキャンセルされます。通常、[キャンセル] のほうが [停止] よりも高速で処理されます。
実験全体を中断する代わりに、実行中の試行を個別に停止することや、キューに登録されている試行を個別にキャンセルすることができます。結果テーブルの [アクション] 列で、試行の停止ボタン またはキャンセル ボタン をクリックします。
実験のサイズを小さくするには、不要になった試行の結果と可視化を破棄します。結果テーブルの [アクション] 列で、試行の破棄ボタン をクリックします。
学習が完了すれば、停止、キャンセル、または破棄した試行を再開できます。結果テーブルの [アクション] 列で、試行の再開ボタン をクリックします。
あるいは、実験マネージャーのツールストリップで [再開] リストを開き、再開条件を 1 つ以上選択し、[再開] をクリックすることで、複数の試行を再開することもできます。再開条件として、["キャンセル済み" をすべて]
、["停止" をすべて]
、["エラー" をすべて]
、および ["破棄" をすべて]
を選択できます。
メモ
停止、キャンセル、再開のオプションは、すべての実験タイプ、戦略、または実行モードで利用できるわけではありません。
実験結果の並べ替え、フィルター処理、および注釈追加
実験マネージャーは、試行ごとにハイパーパラメーターの組み合わせを変えながら、実験の複数の試行を実行します。結果テーブルに、各試行のハイパーパラメーターとメトリクスの値が表示されます。結果を比較するため、これらの値を使用して結果テーブルの並べ替えや試行のフィルター処理を行うことができます。
結果テーブルで試行を並べ替えるには、列ヘッダーにあるドロップダウン リストを使用します。
並べ替える列のヘッダーをポイントします。
三角形のアイコンをクリックします。
[昇順で並べ替え] または [降順で並べ替え] を選択します。
結果テーブルから試行をフィルター処理するには、[フィルター] ペインを使用します。
実験マネージャーのツールストリップで、[フィルター] を選択します。
[フィルター] ペインに、結果テーブルにおいて数値が含まれる各列のヒストグラムが表示されます。ヒストグラムを削除するには、結果テーブルで、対応する列のドロップダウン リストを開き、[フィルターの表示] チェック ボックスをオフにします。
フィルター処理する列のヒストグラムの下にあるスライダーを調整します。
結果テーブルには、選択した範囲で値をもつ試行のみが表示されます。
結果テーブルのすべての試行を復元するには、実験結果タブを閉じ、[実験ブラウザー] ペインから結果を再度開きます。
実験結果に関する観測結果を記録するには、注釈を追加します。
結果テーブルのセルを右クリックし、[注釈の追加] を選択します。あるいは、結果テーブルでセルを選択し、実験マネージャーのツールストリップで [注釈] 、 [注釈の追加] を選択します。
[注釈] ペインで、テキスト ボックスに観測結果を入力します。結果テーブルの各セルに複数の注釈を追加できます。
注釈を並べ替えるには、[並べ替え] ドロップダウン リストを使用します。作成時間または試行番号で並べ替えることができます。
注釈に対応するセルを強調表示するには、注釈の上にあるリンクをクリックします。
注釈を削除するには、注釈の右側にある削除ボタン をクリックします。
過去の実験定義のソースの表示
実験マネージャーは、実験の各結果のセットを生成するハイパーパラメーター値と MATLAB コードのコピーを読み取り専用で保存します。関数名は常に同じままで、コードのバージョンを変えながら実験を複数回実行できます。前のバージョンのコードに戻す場合は、前の結果の実験ソースを開くことで、そのコードにアクセスすることができます。この情報を表示するには、次のようにします。
[実験ブラウザー] ペインで、検査する結果のセットの名前をダブルクリックします。
実験結果タブで、[実験のソースの表示] をクリックします。
実験ソース タブで、結果のセットを生成した実験の説明、ハイパーパラメーター値、および関数を検査します。
実験で使用した関数を開くには、タブの下部にあるリンクをクリックします。これらの関数は読み取り専用ですが、それらをプロジェクト フォルダーにコピーして実験を再実行することで、結果を再現することができます。
関連する例
- Create a Deep Learning Experiment for Classification
- Create a Deep Learning Experiment for Regression
- Evaluate Deep Learning Experiments by Using Metric Functions
- Tune Experiment Hyperparameters by Using Bayesian Optimization
- Use Bayesian Optimization in Custom Training Experiments
- Try Multiple Pretrained Networks for Transfer Learning
- Experiment with Weight Initializers for Transfer Learning
- Audio Transfer Learning Using Experiment Manager
- Choose Training Configurations for LSTM Using Bayesian Optimization
- Run a Custom Training Experiment for Image Comparison
- Use Experiment Manager to Train Generative Adversarial Networks (GANs)
- Custom Training with Multiple GPUs in Experiment Manager
ヒント
ハイパーパラメーターをスイープせずにネットワークの可視化、構築、学習を行うには、ディープ ネットワーク デザイナー アプリを使用します。ネットワークに学習させた後、最適な学習オプションを見つけるための実験を生成します。詳細については、を参照してください。
マウスを使用できない環境で実験マネージャーを操作するには、キーボード ショートカットを使用します。詳細については、Keyboard Shortcuts for Experiment Managerを参照してください。
実験のサイズを小さくするには、不要になった試行の結果と可視化を破棄します。結果テーブルの [アクション] 列で、試行の破棄ボタン をクリックします。
バージョン履歴
R2020a で導入R2023b: MATLAB でアプリを利用可能
Deep Learning Toolbox の有無にかかわらず、MATLAB で実験マネージャーを使用できるようになりました。Deep Learning Toolbox ライセンスを持たない共同作業者と実験を共有した場合、共同作業者はその実験を開いて結果にアクセスすることができます。実験マネージャーには、次が必要です。
Deep Learning Toolbox: 深層学習のための組み込みまたはカスタムの学習実験を実行し、それらの実験の混同行列を表示する
Statistics and Machine Learning Toolbox: ベイズ最適化を使用する機械学習または実験のためのカスタム学習実験を実行する
Parallel Computing Toolbox: 複数の GPU、1 つのクラスター、またはクラウドで、複数の試行を同時に実行したり、試行を一度に 1 つずつ実行したりする
MATLAB Parallel Server: リモート クラスターのバッチ ジョブとして実験をオフロードする
MATLAB で実行できる汎用の実験に関する詳細については、実験の管理を参照してください。
R2023b: 複数の実験と結果の削除
複数の実験または複数の結果を 1 回の操作でプロジェクトから削除するには、[実験ブラウザー] を使用します。削除する実験または結果を選択し、右クリックして [削除] を選択します。選択結果には、実験のみまたは結果のみが含まれていなければなりません。実験マネージャーで実験を削除すると、その実験に含まれる結果も削除されます。
R2023a: カスタム学習実験の可視化
カスタム学習実験の可視化を実験マネージャー アプリで直接表示します。学習が完了すると、ツールストリップの [結果の確認] ギャラリーに、学習関数で作成した各 figure のボタンが表示されます。[可視化] ペインに Figure を表示するには、ギャラリーの [カスタム プロット] セクションで対応するボタンをクリックします。
R2023a: 実験の実行前または実行後のコードのデバッグ
実験マネージャー アプリから直接、実験の問題を診断します。
実験を実行する前に、選択したハイパーパラメーター値を使用して、セットアップ関数と学習関数をテストできます。
実験を実行した後に、いずれかの試行で使用したのと同じ乱数シードとハイパーパラメーターの値を使用して、セットアップ関数と学習関数をデバッグできます。
詳細については、Debug Deep Learning Experimentsを参照してください。
R2023a: 使い勝手の向上
ベイズ最適化アルゴリズムを使用する実験用の確定的制約、条件付き制約、および獲得関数を指定します。[ベイズ最適化オプション] で、[詳細オプション] をクリックし、次のように指定します。
確定的制約
条件付き制約
獲得関数名
MATLAB で既に開いているプロジェクトを読み込みます。実験マネージャー アプリを起動すると、現在のプロジェクトを実験マネージャーで開くように求めるダイアログ ボックスが表示されます。または、実験マネージャー アプリで [新規] 、 [プロジェクト] を選択し、ダイアログ ボックスで [MATLAB からのプロジェクト] をクリックします。
Audio Toolbox™ がある場合は、事前構成済みのテンプレートを選択して、組み込みまたはカスタムのオーディオ分類用学習実験を設定できます。
R2022b: 使い勝手の向上
実験マネージャーのツールストリップの [キャンセル済みをすべて再開] ボタンが、[再開] リストに置き換えられました。実験の複数の試行を再開するには、[再開] リストを開き、再開条件を 1 つ以上選択し、[再開] をクリックします。再開条件として、
["キャンセル済み" をすべて]
、["停止" をすべて]
、["エラー" をすべて]
、および["破棄" をすべて]
を選択できます。組み込みの学習実験では、学習が実行されている間、標準の学習メトリクスと検証メトリクスの途中の値が結果テーブルに表示されます。そのようなメトリクスとして、損失、精度 (分類実験の場合)、および平方根平均二乗誤差 (回帰実験の場合) があります。
組み込みの学習実験では、組み込みの学習実験における各試行が単一の CPU、単一の GPU、複数の CPU、複数の GPU のいずれで実行されたかが結果テーブルの [実行環境] 列に表示されます。
関連しなくなった試行の学習プロット、混同行列、および学習結果を破棄するには、結果テーブルの [アクション] 列で、破棄ボタン をクリックします。
R2022a: クラスター内のバッチ ジョブとしての実験
Parallel Computing Toolbox および MATLAB Parallel Server を使用している場合は、実験をバッチ ジョブとしてリモート クラスターに送信できます。Parallel Computing Toolbox のみを使用している場合は、ネットワーク クラスターで実行する代わりに、ローカル クラスターのプロファイルを使用してクライアント マシンで実験の開発とテストを行うことができます。詳細については、Offload Experiments as Batch Jobs to a Clusterを参照してください。
R2022a: 使い勝手の向上
実験マネージャーのツールストリップの [並列の使用] ボタンが、[モード] リストに置き換えられました。
一度に 1 つの実験の試行を実行するには、
[逐次]
を選択して [実行] をクリックします。複数の試行を同時に実行するには、
[同時]
を選択して [実行] をクリックします。実験をバッチ ジョブとしてオフロードするには、
[逐次バッチ]
または[同時バッチ]
を選択し、クラスターとプール サイズを指定して、[実行] をクリックします。
新たに追加された [実験ブラウザー] コンテキスト メニュー オプションを使用し、次のように実験を管理します。
新しい実験をプロジェクトに追加するには、プロジェクトの名前を右クリックして [新規実験] を選択します。
実験のコピーを作成するには、実験の名前を右クリックして [複製] を選択します。
文字ベクトルの cell 配列としてハイパーパラメーターの値を指定します。以前のリリースの実験マネージャーでは、数値、logical 値、string 値のスカラーおよびベクトルを使用したハイパーパラメーターの指定のみがサポートされていました。
試行を停止、キャンセル、または再開するには、結果テーブルの [アクション] 列で停止ボタン 、キャンセル ボタン 、または再開ボタン をクリックします。以前のリリースでは、これらのボタンが [進行状況] 列にありました。あるいは、試行の行を右クリックし、コンテキスト メニューで [停止]、[キャンセル]、または [再開] を選択することもできます。
実験の試行が終了すると、結果テーブルの [ステータス] 列に、次のいずれかの停止理由が表示されます。
最大数のエポックが完了
検証基準に適合
OutputFcn によって停止
学習損失が NaN
作成時間または試行番号で注釈を並べ替えるには、[注釈] ペインで [並べ替え] リストを使用します。
学習が完了したら、[エクスポート] 、 [結果テーブル] を選択し、結果テーブルの内容を MATLAB ワークスペースに
table
配列として保存します。停止または完了した試行の学習情報または学習済みネットワークをエクスポートするには、試行の行を右クリックし、コンテキスト メニューで [学習情報のエクスポート] または [学習済みネットワークのエクスポート] を選択します。
R2021b: カスタムの学習実験におけるベイズ最適化
Statistics and Machine Learning Toolbox を使用している場合、カスタムの学習実験に最適なハイパーパラメーターの組み合わせをベイズ最適化を使用して決定できます。以前は、カスタムの学習実験においてハイパーパラメーターのスイープのみがサポートされていました。詳細については、Use Bayesian Optimization in Custom Training Experimentsを参照してください。
R2021b: MATLAB Online での実験
MATLAB Online™ を使用して、Web ブラウザーで実験マネージャーを実行します。実験を並列実行するには、Cloud Center クラスターにアクセスできなければなりません。
R2021b: 使い勝手の向上
実験マネージャーのツールストリップで [キャンセル] をクリックして実験を停止すると、実行中の試行が
[キャンセル済み]
とマークされ、その結果が破棄されます。実験が完了した後に、[キャンセル済みをすべて再開] をクリックすると、キャンセルしたすべての試行が再開されます。マウスを使用できない環境で実験マネージャーを操作するには、キーボード ショートカットを使用します。詳細については、Keyboard Shortcuts for Experiment Managerを参照してください。
R2021a: カスタムの学習実験
次のようなワークフローをサポートするには、カスタムの学習実験を作成します。
ツイン ニューラル ネットワークや敵対的生成ネットワーク (GAN) などの
dlnetwork
における、カスタム学習ループの使用モデル関数またはカスタム学習率スケジュールを使用した、ネットワークの学習
カスタム関数を使用した、ネットワークの学習可能なパラメーターの更新
R2021a: 使い勝手の向上
実験の作成時に、事前構成済みのテンプレートをガイドとして実験を定義します。実験テンプレートは、イメージ分類、イメージ回帰、シーケンス分類、セマンティック セグメンテーション、およびカスタム学習ループといったワークフローをサポートします。
実験結果に関する観測結果を記録するには、注釈を追加します。結果テーブルのセルを右クリックし、[注釈の追加] を選択します。詳細については、実験結果の並べ替え、フィルター処理、および注釈追加を参照してください。
R2020b: ベイズ最適化
Statistics and Machine Learning Toolbox を使用している場合、実験に最適なハイパーパラメーターの組み合わせをベイズ最適化を使用して決定できます。詳細については、Tune Experiment Hyperparameters by Using Bayesian Optimizationを参照してください。
R2020b: 並列実行
Parallel Computing Toolbox を使用している場合、[並列の使用]、[実行] をクリックすることで、実験の複数の試行を同時に実行できます。実験マネージャーによって、並列プールが起動されて複数の試行が同時に実行されます。詳細については、Run Experiments in Parallelを参照してください。
MATLAB コマンド
次の MATLAB コマンドに対応するリンクがクリックされました。
コマンドを MATLAB コマンド ウィンドウに入力して実行してください。Web ブラウザーは MATLAB コマンドをサポートしていません。
Select a Web Site
Choose a web site to get translated content where available and see local events and offers. Based on your location, we recommend that you select: .
You can also select a web site from the following list:
How to Get Best Site Performance
Select the China site (in Chinese or English) for best site performance. Other MathWorks country sites are not optimized for visits from your location.
Americas
- América Latina (Español)
- Canada (English)
- United States (English)
Europe
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)