このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。
調整
関数 trainingOptions
を使用してオプションを設定する方法については、パラメーターの設定と畳み込みニューラル ネットワークの学習を参照してください。適切な開始オプションを指定した後、実験マネージャーを使用してハイパーパラメーターの自動スイープまたはベイズ最適化を行えます。
敵対的サンプルを生成して、ネットワークのロバスト性を調査します。その後、Fast Gradient Sign Method (FGSM) による敵対的学習を使用し、敵対的摂動に対してロバストなネットワークに学習させます。
アプリ
ディープ ネットワーク デザイナー | 深層学習ネットワークの設計、可視化、および学習 |
オブジェクト
trainingProgressMonitor | Monitor and plot training progress for deep learning custom training loops (R2022b 以降) |
関数
trainingOptions | 深層学習ニューラル ネットワークの学習のオプション |
trainNetwork | 深層学習ニューラル ネットワークの学習 |
トピック
- パラメーターの設定と畳み込みニューラル ネットワークの学習
畳み込みニューラル ネットワークの学習パラメーターの設定方法を学習します。
- ベイズ最適化を使用した深層学習
この例では、深層学習にベイズ最適化を適用して、畳み込みニューラル ネットワークに最適なネットワーク ハイパーパラメーターと学習オプションを求める方法を説明します。
- Detect Issues During Deep Neural Network Training
This example shows how to automatically detect issues while training a deep neural network.
- 深層学習ネットワークの並列学習
この例では、ローカル マシンで複数の深層学習実験を実行する方法を説明します。
- カスタム学習ループを使用したネットワークの学習
この例では、カスタム学習率スケジュールで手書きの数字を分類するネットワークに学習させる方法を示します。
- 活性化層の比較
この例では、ReLU 活性化層、leaky ReLU 活性化層、ELU 活性化層、Swish 活性化層を使用してネットワークの学習精度を比較する方法を説明します。
- Generate Experiment Using Deep Network Designer
Use Experiment Manager to tune the hyperparameters of a network trained in Deep Network Designer.
- 深層学習のヒントとコツ
深層学習ネットワークの精度を改善する方法を学習します。
- カスタム重み初期化関数の指定
この例では、leaky ReLU 層が続く畳み込み層のカスタム He 重み初期化関数を作成する方法を示します。
- 層の重み初期化子の比較
この例では、さまざまな重み初期化子を使用して深層学習ネットワークに学習させる方法を示します。
- 深層学習ネットワークの学習時の出力のカスタマイズ
この例では、深層学習ニューラル ネットワークの学習中に各反復で実行される出力関数を定義する方法を説明します。