Main Content

このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。

カスタム学習ループ

シーケンス データと表形式データのための深層学習の学習ループおよび損失関数のカスタマイズ

タスクに必要な学習オプションが関数 trainingOptions に用意されていない場合、または関数 trainnet がサポートしていない損失関数がある場合は、カスタム学習ループを定義できます。層のネットワークとして指定できないモデルの場合は、モデルを関数として定義できます。詳細については、カスタム学習ループ、損失関数、およびネットワークの定義を参照してください。

関数

すべて展開する

dlnetwork深層学習ニューラル ネットワーク
trainingProgressMonitorMonitor and plot training progress for deep learning custom training loops (R2022b 以降)
minibatchqueue深層学習用のミニバッチの作成 (R2020b 以降)
padsequencesPad or truncate sequence data to same length (R2021a 以降)
dlarrayカスタマイズ用の深層学習配列
dlgradient自動微分を使用したカスタム学習ループの勾配の計算
dlfevalカスタム学習ループ用の深層学習モデルの評価
crossentropy分類タスク用のクロスエントロピー損失
l1lossL1 loss for regression tasks (R2021b 以降)
l2lossL2 loss for regression tasks (R2021b 以降)
huber回帰タスクの Huber 損失 (R2021a 以降)
mse半平均二乗誤差
ctcConnectionist temporal classification (CTC) loss for unaligned sequence classification (R2021a 以降)
dlconvDeep learning convolution
dltranspconvDeep learning transposed convolution
lstm長短期記憶
gruゲート付き回帰型ユニット (R2020a 以降)
attentionDot-product attention (R2022b 以降)
embedEmbed discrete data (R2020b 以降)
fullyconnectすべての重み付き入力データの加算とバイアスの適用
dlode45Deep learning solution of nonstiff ordinary differential equation (ODE) (R2021b 以降)
batchnormNormalize data across all observations for each channel independently
crosschannelnormCross channel square-normalize using local responses (R2020a 以降)
groupnormNormalize data across grouped subsets of channels for each observation independently (R2020b 以降)
instancenormNormalize across each channel for each observation independently (R2021a 以降)
layernormNormalize data across all channels for each observation independently (R2021a 以降)
avgpoolPool data to average values over spatial dimensions
maxpoolPool data to maximum value
maxunpool最大プーリング演算の出力の逆プーリング
relu正規化線形ユニット活性化の適用
leakyrelu漏洩 (leaky) 正規化線形ユニット活性化の適用
geluApply Gaussian error linear unit (GELU) activation (R2022b 以降)
softmaxチャネル次元へのソフトマックス活性化の適用
sigmoidシグモイド活性化の適用

トピック

カスタム学習ループ

自動微分

注目の例