Main Content

深層学習のカスタム学習ループ

深層学習の学習ループおよび損失関数のカスタマイズ

タスクに必要な学習オプションが関数 trainingOptions に用意されていない場合、または必要な損失関数をカスタム出力層がサポートしていない場合、カスタム学習ループを定義できます。層グラフを使用して作成できないネットワークの場合、カスタム ネットワークを関数として定義できます。詳細については、カスタム学習ループ、損失関数、およびネットワークの定義を参照してください。

関数

すべて展開する

dlnetworkカスタム学習ループ向けの深層学習ネットワーク
resetStateニューラル ネットワークの状態パラメーターのリセット
plotニューラル ネットワーク アーキテクチャのプロット
addInputLayerAdd input layer to network
addLayersAdd layers to layer graph or network
removeLayers層グラフまたはネットワークからの層の削除
connectLayers層グラフまたはネットワークの層の結合
disconnectLayers層グラフまたはネットワークの層の切り離し
replaceLayer層グラフまたはネットワークの層の置き換え
summaryPrint network summary
initializedlnetwork の学習可能なパラメーターと状態パラメーターの初期化
networkDataLayoutDeep learning network data layout for learnable parameter initialization
forward学習用の深層学習ネットワーク出力の計算
predict推論用の深層学習ネットワーク出力の計算
adamupdate適応モーメント推定 (Adam) を使用してパラメーターを更新する
rmspropupdate Update parameters using root mean squared propagation (RMSProp)
sgdmupdate モーメンタム項付き確率的勾配降下法 (SGDM) を使用してパラメーターを更新する
dlupdate Update parameters using custom function
minibatchqueue深層学習用のミニバッチの作成
onehotencodeone-hot ベクトルへのデータ ラベルの符号化
onehotdecodeクラス ラベルへの確率ベクトルの復号化
padsequencesPad or truncate sequence data to same length
trainingProgressMonitorMonitor and plot training progress for deep learning custom training loops
dlarrayカスタム学習ループ用の深層学習配列
dlgradient自動微分を使用したカスタム学習ループの勾配の計算
dlfevalカスタム学習ループ用の深層学習モデルの評価
dimsdlarray の次元ラベル
finddim指定されたラベルをもつ次元の検索
stripdimsdlarray データ形式の削除
extractdatadlarray からのデータの抽出
isdlarrayCheck if object is dlarray
functionToLayerGraphConvert deep learning model function to a layer graph
dlconvDeep learning convolution
dltranspconvDeep learning transposed convolution
lstm長短期記憶
gruゲート付き回帰型ユニット
attentionDot-product attention
embedEmbed discrete data
fullyconnectすべての重み付き入力データの加算とバイアスの適用
dlode45Deep learning solution of nonstiff ordinary differential equation (ODE)
relu正規化線形ユニット活性化の適用
leakyrelu漏洩 (leaky) 正規化線形ユニット活性化の適用
geluApply Gaussian error linear unit (GELU) activation
batchnormNormalize data across all observations for each channel independently
crosschannelnormCross channel square-normalize using local responses
groupnormNormalize data across grouped subsets of channels for each observation independently
instancenormNormalize across each channel for each observation independently
layernormNormalize data across all channels for each observation independently
avgpoolPool data to average values over spatial dimensions
maxpoolPool data to maximum value
maxunpool最大プーリング演算の出力の逆プーリング
softmaxチャネル次元へのソフトマックス活性化の適用
sigmoidシグモイド活性化の適用
sigmoidシグモイド活性化の適用
crossentropy分類タスク用の交差エントロピー損失
l1lossL1 loss for regression tasks
l2lossL2 loss for regression tasks
huberHuber loss for regression tasks
mse半平均二乗誤差
ctcConnectionist temporal classification (CTC) loss for unaligned sequence classification
dlaccelerateAccelerate deep learning function for custom training loops
AcceleratedFunctionAccelerated deep learning function
clearCacheClear accelerated deep learning function trace cache

トピック

カスタム学習ループ

モデル関数

自動微分

深層学習関数の高速化