メインコンテンツ

自動微分を使用したカスタム学習

カスタム学習ループを使用した深層学習ネットワークの学習

タスクに必要な学習オプションが関数 trainingOptions に用意されていない場合、または関数 trainnet がサポートしていない損失関数がある場合は、カスタム学習ループを定義できます。層のネットワークとして指定できないモデルの場合は、モデルを関数として定義できます。詳細については、Custom Training Loopsを参照してください。

関数

すべて展開する

dlnetwork深層学習ニューラル ネットワーク
imagePretrainedNetworkイメージ用の事前学習済みニューラル ネットワーク (R2024a 以降)
resnetNetwork2-D residual neural network (R2024a 以降)
resnet3dNetwork3-D residual neural network (R2024a 以降)
addLayersニューラル ネットワークへの層の追加
removeLayersニューラル ネットワークからの層の削除
replaceLayerニューラル ネットワークの層の置き換え
connectLayersニューラル ネットワークの層の結合
disconnectLayersニューラル ネットワークの層の切り離し
addInputLayerネットワークに入力層を追加する (R2022b 以降)
initializeニューラル ネットワークの学習可能なパラメーターと状態パラメーターを初期化する
networkDataLayout学習可能なパラメーターを初期化するための深層学習ネットワーク データ レイアウト (R2022b 以降)
setL2Factor層の学習可能なパラメーターの L2 正則化係数の設定
getL2Factor層の学習可能なパラメーターの L2 正則化係数の取得
setLearnRateFactor層の学習可能なパラメーターの学習率係数を設定します。
getLearnRateFactor層の学習可能なパラメーターの学習率係数の取得
plotニューラル ネットワーク アーキテクチャのプロット
summaryネットワークの概要の出力 (R2022b 以降)
analyzeNetwork深層学習ネットワーク アーキテクチャの解析
checkLayerカスタム層または関数層の有効性のチェック
isequalCheck equality of neural networks
isequalnCheck equality of neural networks ignoring NaN values
forward学習用の深層学習ネットワーク出力の計算
predict推論用の深層学習ネットワーク出力の計算
adamupdate適応モーメント推定 (Adam) を使用してパラメーターを更新する
rmspropupdate 平方根平均二乗伝播 (RMSProp) を使用してパラメーターを更新する
sgdmupdate モーメンタム項付き確率的勾配降下法 (SGDM) を使用してパラメーターを更新する
lbfgsupdateメモリ制限 BFGS (L-BFGS) を使用してパラメーターを更新する (R2023a 以降)
lbfgsStateState of limited-memory BFGS (L-BFGS) solver (R2023a 以降)
dlupdate カスタム関数を使用してパラメーターを更新する
trainingProgressMonitor深層学習カスタム学習ループの学習進行状況の監視およびプロット (R2022b 以降)
updateInfoカスタム学習ループの情報値の更新 (R2022b 以降)
recordMetricsカスタム学習ループのメトリクス値の記録 (R2022b 以降)
groupSubPlot学習プロットへのメトリクスのグループ化 (R2022b 以降)
exportPlotAsImageWrite training progress monitor to image file (R2026a 以降)
padsequencesPad or truncate sequence data to same length
minibatchqueue深層学習用のミニバッチの作成
onehotencodeone-hot ベクトルへのデータ ラベルの符号化
onehotdecodeクラス ラベルへの確率ベクトルの復号化
nextミニバッチキューからの次のデータ ミニバッチの取得
resetReset minibatchqueue to start of data
shuffleminibatchqueue のデータのシャッフル
hasdataDetermine if minibatchqueue can return mini-batch
partitionPartition minibatchqueue
dlarrayカスタマイズ用の深層学習配列
dlgradient自動微分を使用したカスタム学習ループの勾配の計算
dljacobianヤコビ行列深層学習演算 (R2024b 以降)
dldivergence深層学習データの発散 (R2024b 以降)
dllaplacian深層学習データのラプラシアン (R2024b 以降)
dlfevalカスタム学習ループ用の深層学習モデルの評価
dimsdlarray オブジェクトのデータ形式
finddim指定されたラベルをもつ次元の検索
stripdimsdlarray データ形式の削除
extractdatadlarray オブジェクトからのデータの抽出
isdlarrayCheck if object is dlarray
crossentropy分類タスク用のクロスエントロピー損失
indexcrossentropyIndex cross-entropy loss for classification tasks (R2024b 以降)
l1loss回帰タスクの L1 損失 (R2021b 以降)
l2loss回帰タスクの L2 損失 (R2021b 以降)
huber回帰タスクの Huber 損失
ctcConnectionist temporal classification (CTC) loss for unaligned sequence classification
mse半平均二乗誤差
dlaccelerateAccelerate deep learning function
AcceleratedFunctionAccelerated deep learning function
clearCacheClear accelerated deep learning function trace cache

トピック

カスタム学習ループ

自動微分

敵対的生成ネットワーク

グラフ ニューラル ネットワーク

深層学習関数の高速化

関連情報

注目の例