Main Content

深層ニューラル ネットワークの構築

ネットワークは、コマンド ライン関数を使用して構築するか、ディープ ネットワーク デザイナー アプリを使用して対話的に構築する

ネットワークのゼロからの構築は、MATLAB® コードを使用して行うか、ディープ ネットワーク デザイナー アプリを使用して対話的に行います。分類や回帰などのタスクのためのネットワークを構築するには、組み込み層を使用します。組み込み層の一覧については、深層学習層の一覧を参照してください。その後、ネットワークを解析してネットワーク アーキテクチャを理解することで、学習の前に問題をチェックすることができます。

目的のタスクに必要な層が組み込み層に用意されていない場合、独自のカスタム深層学習層を定義できます。学習可能なパラメーターと状態パラメーターを使用してカスタム層を定義できます。カスタム層を定義した後、その層の有効性、GPU 互換性、定義した勾配の出力の正しさをチェックできます。

層のネットワークとして指定できないモデルの場合は、モデルを関数として定義できます。関数として定義される深層学習モデルの学習を行う方法を示す例については、モデル関数を使用したネットワークの学習を参照してください。

アプリ

ディープ ネットワーク デザイナー深層学習ネットワークの設計と可視化

関数

すべて展開する

入力層

inputLayerInput layer (R2023b 以降)
imageInputLayerイメージ入力層
image3dInputLayer3 次元イメージ入力層
sequenceInputLayerシーケンス入力層
featureInputLayer特徴入力層 (R2020b 以降)

畳み込み層と全結合層

convolution2dLayer2 次元畳み込み層
convolution3dLayer3-D convolutional layer
groupedConvolution2dLayerグループ化された 2 次元畳み込み層
transposedConv2dLayer2 次元転置畳み込み層
transposedConv3dLayerTransposed 3-D convolution layer
fullyConnectedLayer全結合層

再帰層

lstmLayer再帰型ニューラル ネットワーク (RNN) 用の長短期記憶 (LSTM) 層
bilstmLayer再帰型ニューラル ネットワーク (RNN) 用の双方向長短期記憶 (BiLSTM) 層
gruLayer再帰型ニューラル ネットワーク (RNN) 用のゲート付き回帰型ユニット (GRU) 層 (R2020a 以降)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN) (R2022b 以降)
gruProjectedLayerGated recurrent unit (GRU) projected layer for recurrent neural network (RNN) (R2023b 以降)

トランスフォーマー層

selfAttentionLayerSelf-attention layer (R2023a 以降)
attentionLayerDot-product attention layer (R2024a 以降)
positionEmbeddingLayerPosition embedding layer (R2023b 以降)
sinusoidalPositionEncodingLayerSinusoidal position encoding layer (R2023b 以降)
embeddingConcatenationLayerEmbedding concatenation layer (R2023b 以降)
indexing1dLayer1-D indexing layer (R2023b 以降)

ニューラル ODE 層

neuralODELayerNeural ODE layer (R2023b 以降)

活性化層

reluLayer正規化線形ユニット (ReLU) 層
leakyReluLayer漏洩 (leaky) 正規化線形ユニット (ReLU) 層
preluLayerParametrized Rectified Linear Unit (PReLU) layer (R2024a 以降)
clippedReluLayerクリップされた正規化線形ユニット (ReLU) 層
eluLayer指数線形ユニット (ELU) 層
tanhLayer双曲線正接 (tanh) 層
swishLayerSwish 層 (R2021a 以降)
geluLayerGaussian error linear unit (GELU) layer (R2022b 以降)
softmaxLayerソフトマックス層
sigmoidLayerシグモイド層 (R2020b 以降)
functionLayer関数層 (R2021b 以降)

正規化層

batchNormalizationLayerバッチ正規化層
groupNormalizationLayerGroup normalization layer (R2020b 以降)
instanceNormalizationLayerインスタンス正規化層 (R2021a 以降)
layerNormalizationLayerレイヤー正規化層 (R2021a 以降)
crossChannelNormalizationLayer チャネル単位の局所応答正規化層

ユーティリティ層

dropoutLayerドロップアウト層
spatialDropoutLayerSpatial dropout layer (R2024a 以降)
flattenLayerフラット化層
crop2dLayer2 次元トリミング層
crop3dLayer3-D crop layer (R2019b 以降)
networkLayerNetwork Layer (R2024a 以降)

プーリング層と逆プーリング層

averagePooling2dLayer平均プーリング層
averagePooling3dLayer3-D average pooling layer
adaptiveAveragePooling2dLayerAdaptive average pooling 2-D layer (R2024a 以降)
globalAveragePooling2dLayer2 次元グローバル平均プーリング層 (R2019b 以降)
globalAveragePooling3dLayer3 次元グローバル平均プーリング層 (R2019b 以降)
globalMaxPooling2dLayerグローバル最大プーリング層 (R2020a 以降)
globalMaxPooling3dLayer3 次元グローバル最大プーリング層 (R2020a 以降)
maxPooling2dLayer最大プーリング層
maxPooling3dLayer3-D max pooling layer
maxUnpooling2dLayer最大逆プーリング層

結合層

additionLayer加算層
multiplicationLayer乗算層 (R2020b 以降)
concatenationLayer連結層
depthConcatenationLayer深さ連結層
dlnetwork深層学習ニューラル ネットワーク (R2019b 以降)
imagePretrainedNetworkPretrained neural network for images (R2024a 以降)
resnetNetwork2-D residual neural network (R2024a 以降)
resnet3dNetwork3-D residual neural network (R2024a 以降)
addLayersニューラル ネットワークへの層の追加
removeLayersニューラル ネットワークからの層の削除
replaceLayerニューラル ネットワークの層の置き換え
getLayerLook up a layer by name or path (R2024a 以降)
connectLayersニューラル ネットワークの層の結合
disconnectLayersニューラル ネットワークの層の切り離し
expandLayersExpand network layers (R2024a 以降)
groupLayersGroup layers into network layers (R2024a 以降)
analyzeNetwork深層学習ネットワーク アーキテクチャの解析
addInputLayerAdd input layer to network (R2022b 以降)
initializedlnetwork の学習可能なパラメーターと状態パラメーターの初期化 (R2021a 以降)
networkDataLayoutDeep learning network data layout for learnable parameter initialization (R2022b 以降)
setL2Factor層の学習可能なパラメーターの L2 正則化係数の設定
getL2Factor層の学習可能なパラメーターの L2 正則化係数の取得
setLearnRateFactor層の学習可能なパラメーターの学習率係数を設定します。
getLearnRateFactor層の学習可能なパラメーターの学習率係数の取得
dag2dlnetworkConvert SeriesNetwork and DAGNetwork to dlnetwork (R2024a 以降)
plotニューラル ネットワーク アーキテクチャのプロット
summaryネットワークの概要の出力 (R2022b 以降)
analyzeNetwork深層学習ネットワーク アーキテクチャの解析
checkLayerCheck validity of custom or function layer
isequalCheck equality of neural networks (R2021a 以降)
isequalnCheck equality of neural networks ignoring NaN values (R2021a 以降)

トピック

組み込み層

カスタム層