Main Content

深層ニューラル ネットワークの構築

シーケンス データと表形式データのためのネットワークは、MATLAB® コードを使用して構築するか、ディープ ネットワーク デザイナーを使用して対話的に構築する

ネットワーク アーキテクチャをゼロから定義し、分類、回帰、予測といったタスクのための深いネットワークを新しく作成します。ネットワークは、MATLAB を使用して構築するか、ディープ ネットワーク デザイナーを使用して対話的に構築します。

ほとんどのタスクでは、組み込み層を使用できます。目的のタスクに必要な組み込み層が用意されていない場合、独自のカスタム層を定義できます。学習可能なパラメーターと状態パラメーターを使用してカスタム層を定義できます。カスタム層を定義した後、その層の有効性、GPU 互換性、定義した勾配の出力の正しさをチェックできます。サポートされている層の一覧については、深層学習層の一覧を参照してください。

層のネットワークとして指定できないモデルの場合は、モデルを関数として定義できます。詳細については、カスタム学習ループ、損失関数、およびネットワークの定義を参照してください。

アプリ

ディープ ネットワーク デザイナー深層学習ネットワークの設計と可視化

関数

すべて展開する

入力層

sequenceInputLayerシーケンス入力層
featureInputLayer特徴入力層 (R2020b 以降)

再帰層

lstmLayer再帰型ニューラル ネットワーク (RNN) 用の長短期記憶 (LSTM) 層
bilstmLayer再帰型ニューラル ネットワーク (RNN) 用の双方向長短期記憶 (BiLSTM) 層
gruLayer再帰型ニューラル ネットワーク (RNN) 用のゲート付き回帰型ユニット (GRU) 層 (R2020a 以降)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN) (R2022b 以降)
gruProjectedLayerGated recurrent unit (GRU) projected layer for recurrent neural network (RNN) (R2023b 以降)

トランスフォーマー層

selfAttentionLayerSelf-attention layer (R2023a 以降)
attentionLayerDot-product attention layer (R2024a 以降)
positionEmbeddingLayerPosition embedding layer (R2023b 以降)
sinusoidalPositionEncodingLayerSinusoidal position encoding layer (R2023b 以降)
embeddingConcatenationLayerEmbedding concatenation layer (R2023b 以降)
indexing1dLayer1-D indexing layer (R2023b 以降)

ニューラル ODE 層

neuralODELayerNeural ODE layer (R2023b 以降)

畳み込み層と全結合層

convolution1dLayer1 次元畳み込み層 (R2021b 以降)
transposedConv1dLayer1 次元転置畳み込み層 (R2022a 以降)
fullyConnectedLayer全結合層

活性化層とドロップアウト層

reluLayer正規化線形ユニット (ReLU) 層
leakyReluLayer漏洩 (leaky) 正規化線形ユニット (ReLU) 層
preluLayerParametrized Rectified Linear Unit (PReLU) layer (R2024a 以降)
clippedReluLayerクリップされた正規化線形ユニット (ReLU) 層
eluLayer指数線形ユニット (ELU) 層
tanhLayer双曲線正接 (tanh) 層
swishLayerSwish 層 (R2021a 以降)
geluLayerGaussian error linear unit (GELU) layer (R2022b 以降)
sigmoidLayerシグモイド層 (R2020b 以降)
softmaxLayerソフトマックス層
dropoutLayerドロップアウト層
spatialDropoutLayerSpatial dropout layer (R2024a 以降)
functionLayer関数層 (R2021b 以降)

正規化層

batchNormalizationLayerバッチ正規化層
groupNormalizationLayerGroup normalization layer (R2020b 以降)
instanceNormalizationLayerインスタンス正規化層 (R2021a 以降)
layerNormalizationLayerレイヤー正規化層 (R2021a 以降)
crossChannelNormalizationLayer チャネル単位の局所応答正規化層

プーリング層

maxPooling1dLayer1 次元最大プーリング層 (R2021b 以降)
averagePooling1dLayer1 次元平均プーリング層 (R2021b 以降)
globalMaxPooling1dLayer1 次元グローバル最大プーリング層 (R2021b 以降)
globalAveragePooling1dLayer1 次元グローバル平均プーリング層 (R2021b 以降)
adaptiveAveragePooling2dLayerAdaptive average pooling 2-D layer (R2024a 以降)

結合層

additionLayer加算層
multiplicationLayer乗算層 (R2020b 以降)
concatenationLayer連結層
depthConcatenationLayer深さ連結層
dlnetwork深層学習ニューラル ネットワーク (R2019b 以降)
addLayersニューラル ネットワークへの層の追加
removeLayersニューラル ネットワークからの層の削除
replaceLayerニューラル ネットワークの層の置き換え
connectLayersニューラル ネットワークの層の結合
disconnectLayersニューラル ネットワークの層の切り離し
addInputLayerAdd input layer to network (R2022b 以降)
initializedlnetwork の学習可能なパラメーターと状態パラメーターの初期化 (R2021a 以降)
networkLayerNetwork Layer (R2024a 以降)
expandLayersExpand network layers (R2024a 以降)
groupLayersGroup layers into network layers (R2024a 以降)
networkDataLayoutDeep learning network data layout for learnable parameter initialization (R2022b 以降)
setL2Factor層の学習可能なパラメーターの L2 正則化係数の設定
getL2Factor層の学習可能なパラメーターの L2 正則化係数の取得
setLearnRateFactor層の学習可能なパラメーターの学習率係数を設定します。
getLearnRateFactor層の学習可能なパラメーターの学習率係数の取得
plotニューラル ネットワーク アーキテクチャのプロット
summaryネットワークの概要の出力 (R2022b 以降)
analyzeNetwork深層学習ネットワーク アーキテクチャの解析
checkLayerCheck validity of custom or function layer
isequalCheck equality of neural networks (R2021a 以降)
isequalnCheck equality of neural networks ignoring NaN values (R2021a 以降)

トピック

組み込み層

カスタム層