Main Content

このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。

深層学習のカスタム学習ループ

深層学習の学習ループおよび損失関数のカスタマイズ

タスクに必要な学習オプションが関数 trainingOptions に用意されていない場合、または必要な損失関数をカスタム出力層がサポートしていない場合、カスタム学習ループを定義できます。層グラフを使用して作成できないネットワークの場合、カスタム ネットワークを関数として定義できます。詳細については、カスタム学習ループ、損失関数、およびネットワークの定義を参照してください。

関数

すべて展開する

dlnetworkDeep learning network for custom training loops
forwardCompute deep learning network output for training
predictCompute deep learning network output for inference
adamupdateUpdate parameters using adaptive moment estimation (Adam)
rmspropupdate Update parameters using root mean squared propagation (RMSProp)
sgdmupdate Update parameters using stochastic gradient descent with momentum (SGDM)
dlupdate Update parameters using custom function
minibatchqueueCreate mini-batches for deep learning
onehotencodeEncode data labels into one-hot vectors
onehotdecodeDecode probability vectors into class labels
dlarrayDeep learning array for custom training loops
dlgradientCompute gradients for custom training loops using automatic differentiation
dlfevalEvaluate deep learning model for custom training loops
dimsDimension labels of dlarray
finddimFind dimensions with specified label
stripdimsRemove dlarray labels
extractdataExtract data from dlarray
isdlarrayDetermine whether input is dlarray
functionToLayerGraphConvert deep learning model function to a layer graph
dlconvDeep learning convolution
dltranspconvDeep learning transposed convolution
lstmLong short-term memory
gruGated recurrent unit
embedEmbed discrete data
fullyconnectSum all weighted input data and apply a bias
reluApply rectified linear unit activation
leakyreluApply leaky rectified linear unit activation
batchnormNormalize across all observations for each channel independently
crosschannelnormCross channel square-normalize using local responses
groupnormNormalize across grouped subsets of channels for each observation independently
avgpoolPool data to average values over spatial dimensions
maxpoolPool data to maximum value
maxunpoolUnpool the output of a maximum pooling operation
softmaxApply softmax activation to channel dimension
crossentropyCross-entropy loss for classification tasks
sigmoidシグモイド活性化の適用
mseHalf mean squared error

トピック

カスタム学習ループ

MATLAB による深層学習モデルの学習

MATLAB® で深層学習モデルを学習させる方法を学習する。

カスタム学習ループ、損失関数、およびネットワークの定義

自動微分を使用して深層学習の学習ループ、損失関数、およびネットワークを定義する方法を学びます。

カスタム学習ループを使用したネットワークの学習

この例では、カスタム学習率スケジュールで手書きの数字を分類するネットワークに学習させる方法を示します。

カスタム学習ループでの学習オプションの指定

カスタム学習ループで一般的な学習オプションを指定する方法を学びます。

カスタム学習ループのモデル勾配関数の定義

カスタム学習ループのモデル勾配関数を定義する方法を学ぶ。

カスタム学習ループでのバッチ正規化統計量の更新

この例では、カスタム学習ループでネットワークの状態を更新する方法を示します。

dlnetwork オブジェクトを使用した予測の実行

この例では、データをミニバッチに分割することにより、dlnetwork オブジェクトを使用して予測を行う方法を示します。

イメージ データおよび特徴データにおけるネットワークの学習

この例では、イメージと特徴の両方の入力データを使用して、手書きの数字を分類するネットワークの学習を行う方法について説明します。

複数の出力をもつネットワークの学習

この例では、手書きの数字のラベルと回転角度の両方を予測する、複数の出力をもつ深層学習ネットワークに学習させる方法を説明します。

モデル関数

モデル関数を使用したネットワークの学習

この例では、層グラフまたは dlnetwork ではなく関数を使用して深層学習ネットワークを作成し、学習させる方法を説明します。

モデル関数を使用したバッチ正規化統計量の更新

この例では、関数として定義されたネットワークにおいて、ネットワークの状態を更新する方法を示します。

モデル関数を使用した予測の実行

この例では、データをミニバッチに分割することにより、モデル関数を使用して予測を行う方法を示します。

モデル関数の学習可能なパラメーターの初期化

モデル関数を使用して、カスタム学習ループの学習可能なパラメーターを初期化する方法を学ぶ。

自動微分

dlarray をサポートする関数の一覧

dlarray オブジェクトをサポートする関数の一覧を表示します。

自動微分の背景

自動微分の機能を学びます。

Deep Learning Toolbox での自動微分の使用

深層学習での自動微分の使用方法を示します。

注目の例