Main Content

このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。

カスタム学習ループ

イメージ ネットワーク用の深層学習の学習ループおよび損失関数のカスタマイズ

タスクに必要な学習オプションが関数 trainingOptions に用意されていない場合、または必要な損失関数をカスタム出力層がサポートしていない場合、カスタム学習ループを定義できます。層グラフを使用して作成できないネットワークの場合、カスタム ネットワークを関数として定義できます。詳細については、カスタム学習ループ、損失関数、およびネットワークの定義を参照してください。

関数

すべて展開する

dlnetworkカスタム学習ループ向けの深層学習ネットワーク (R2019b 以降)
trainingProgressMonitorMonitor and plot training progress for deep learning custom training loops (R2022b 以降)
minibatchqueue深層学習用のミニバッチの作成 (R2020b 以降)
dlarrayカスタマイズ用の深層学習配列 (R2019b 以降)
dlgradient自動微分を使用したカスタム学習ループの勾配の計算 (R2019b 以降)
dlfevalカスタム学習ループ用の深層学習モデルの評価 (R2019b 以降)
crossentropy分類タスク用の交差エントロピー損失 (R2019b 以降)
l1lossL1 loss for regression tasks (R2021b 以降)
l2lossL2 loss for regression tasks (R2021b 以降)
huber回帰タスクの Huber 損失 (R2021a 以降)
mse半平均二乗誤差 (R2019b 以降)
dlconvDeep learning convolution (R2019b 以降)
dltranspconvDeep learning transposed convolution (R2019b 以降)
fullyconnectすべての重み付き入力データの加算とバイアスの適用 (R2019b 以降)
batchnormNormalize data across all observations for each channel independently (R2019b 以降)
crosschannelnormCross channel square-normalize using local responses (R2020a 以降)
groupnormNormalize data across grouped subsets of channels for each observation independently (R2020b 以降)
instancenormNormalize across each channel for each observation independently (R2021a 以降)
layernormNormalize data across all channels for each observation independently (R2021a 以降)
avgpoolPool data to average values over spatial dimensions (R2019b 以降)
maxpoolPool data to maximum value (R2019b 以降)
maxunpool最大プーリング演算の出力の逆プーリング (R2019b 以降)
relu正規化線形ユニット活性化の適用 (R2019b 以降)
leakyrelu漏洩 (leaky) 正規化線形ユニット活性化の適用 (R2019b 以降)
geluApply Gaussian error linear unit (GELU) activation (R2022b 以降)
softmaxチャネル次元へのソフトマックス活性化の適用 (R2019b 以降)
sigmoidシグモイド活性化の適用 (R2019b 以降)

トピック

カスタム学習ループ

自動微分