Main Content

操作

カスタム深層学習関数の開発

ほとんどのタスクでは、組み込み層を使用できます。目的のタスクに必要な組み込み層が用意されていない場合、独自のカスタム層を定義できます。カスタム出力層を使用してカスタム損失関数を指定できます。また、学習可能なパラメーターと状態パラメーターを含むカスタム層を定義できます。カスタム層を定義した後、その層の有効性、GPU 互換性、定義した勾配の出力の正しさをチェックできます。詳細については、カスタム深層学習層の定義を参照してください。サポートされている層の一覧については、深層学習層の一覧を参照してください。

タスクに必要な学習オプションが関数 trainingOptions に用意されていない場合、または必要な損失関数をカスタム出力層がサポートしていない場合、カスタム学習ループを定義できます。層グラフによってサポートされていないモデルの場合、カスタム モデルを関数として定義できます。詳細については、カスタム学習ループ、損失関数、およびネットワークの定義を参照してください。

深層学習の操作を使用して、カスタム層、学習ループ、およびモデル関数のための MATLAB® コードを開発します。

関数

すべて展開する

dlarrayカスタマイズ用の深層学習配列
dimsdlarray の次元ラベル
finddim指定されたラベルをもつ次元の検索
stripdimsdlarray データ形式の削除
extractdatadlarray からのデータの抽出
isdlarrayCheck if object is dlarray
dlconvDeep learning convolution
dltranspconvDeep learning transposed convolution
lstm長短期記憶
gruゲート付き回帰型ユニット
attentionDot-product attention
embedEmbed discrete data
fullyconnectすべての重み付き入力データの加算とバイアスの適用
dlode45Deep learning solution of nonstiff ordinary differential equation (ODE)
batchnormNormalize data across all observations for each channel independently
crosschannelnormCross channel square-normalize using local responses
groupnormNormalize data across grouped subsets of channels for each observation independently
instancenormNormalize across each channel for each observation independently
layernormNormalize data across all channels for each observation independently
avgpoolPool data to average values over spatial dimensions
maxpoolPool data to maximum value
maxunpool最大プーリング演算の出力の逆プーリング
relu正規化線形ユニット活性化の適用
leakyrelu漏洩 (leaky) 正規化線形ユニット活性化の適用
geluApply Gaussian error linear unit (GELU) activation
softmaxチャネル次元へのソフトマックス活性化の適用
sigmoidシグモイド活性化の適用
crossentropy分類タスク用の交差エントロピー損失
l1lossL1 loss for regression tasks
l2lossL2 loss for regression tasks
huberHuber loss for regression tasks
mse半平均二乗誤差
ctcConnectionist temporal classification (CTC) loss for unaligned sequence classification
dlaccelerateAccelerate deep learning function for custom training loops
AcceleratedFunctionAccelerated deep learning function
clearCacheClear accelerated deep learning function trace cache

トピック

自動微分

モデル関数

深層学習関数の高速化