Main Content

このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。

深層ニューラル ネットワークの構築

シーケンス データと表形式データのためのネットワークは、MATLAB® コードを使用して構築するか、ディープ ネットワーク デザイナーを使用して対話的に構築する

ネットワーク アーキテクチャをゼロから定義し、分類、回帰、予測といったタスクのための深いネットワークを新しく作成します。ネットワークは、MATLAB を使用して構築するか、ディープ ネットワーク デザイナーを使用して対話的に構築します。

ほとんどのタスクでは、組み込み層を使用できます。目的のタスクに必要な組み込み層が用意されていない場合、独自のカスタム層を定義できます。カスタム出力層を使用してカスタム損失関数を指定できます。また、学習可能なパラメーターと状態パラメーターを含むカスタム層を定義できます。カスタム層を定義した後、その層の有効性、GPU 互換性、定義した勾配の出力の正しさをチェックできます。サポートされている層の一覧については、深層学習層の一覧を参照してください。

層グラフによってサポートされていないモデルの場合、カスタム モデルを関数として定義できます。詳細については、カスタム学習ループ、損失関数、およびネットワークの定義を参照してください。

アプリ

ディープ ネットワーク デザイナー深層学習ネットワークの設計、可視化、および学習

関数

すべて展開する

入力層

sequenceInputLayerシーケンス入力層
featureInputLayer特徴入力層 (R2020b 以降)

再帰層

lstmLayer再帰型ニューラル ネットワーク (RNN) 用の長短期記憶 (LSTM) 層
bilstmLayer再帰型ニューラル ネットワーク (RNN) 用の双方向長短期記憶 (BiLSTM) 層
gruLayer再帰型ニューラル ネットワーク (RNN) 用のゲート付き回帰型ユニット (GRU) 層 (R2020a 以降)
lstmProjectedLayerLong short-term memory (LSTM) projected layer for recurrent neural network (RNN) (R2022b 以降)
gruProjectedLayerGated recurrent unit (GRU) projected layer for recurrent neural network (RNN) (R2023b 以降)

トランスフォーマー層

selfAttentionLayerSelf-attention layer (R2023a 以降)
positionEmbeddingLayerPosition embedding layer (R2023b 以降)
sinusoidalPositionEncodingLayerSinusoidal position encoding layer (R2023b 以降)
embeddingConcatenationLayerEmbedding concatenation layer (R2023b 以降)
indexing1dLayer1-D indexing layer (R2023b 以降)

ニューラル ODE 層

neuralODELayerNeural ODE layer (R2023b 以降)

畳み込み層、注意層、および全結合層

convolution1dLayer1 次元畳み込み層 (R2021b 以降)
transposedConv1dLayer1 次元転置畳み込み層 (R2022a 以降)
selfAttentionLayerSelf-attention layer (R2023a 以降)
fullyConnectedLayer全結合層

活性化層とドロップアウト層

reluLayer正規化線形ユニット (ReLU) 層
leakyReluLayer漏洩 (leaky) 正規化線形ユニット (ReLU) 層
clippedReluLayerクリップされた正規化線形ユニット (ReLU) 層
eluLayer指数線形ユニット (ELU) 層
tanhLayer双曲線正接 (tanh) 層
swishLayerSwish 層 (R2021a 以降)
geluLayerGaussian error linear unit (GELU) layer (R2022b 以降)
sigmoidLayerシグモイド層 (R2020b 以降)
softmaxLayerソフトマックス層
dropoutLayerドロップアウト層
functionLayer関数層 (R2021b 以降)

正規化層

batchNormalizationLayerバッチ正規化層
groupNormalizationLayerGroup normalization layer (R2020b 以降)
instanceNormalizationLayerインスタンス正規化層 (R2021a 以降)
layerNormalizationLayerレイヤー正規化層 (R2021a 以降)
crossChannelNormalizationLayer チャネル単位の局所応答正規化層

プーリング層

maxPooling1dLayer1 次元最大プーリング層 (R2021b 以降)
averagePooling1dLayer1 次元平均プーリング層 (R2021b 以降)
globalMaxPooling1dLayer1 次元グローバル最大プーリング層 (R2021b 以降)
globalAveragePooling1dLayer1 次元グローバル平均プーリング層 (R2021b 以降)

結合層

additionLayer加算層
multiplicationLayer乗算層 (R2020b 以降)
concatenationLayer連結層
depthConcatenationLayer深さ連結層

データ操作

sequenceFoldingLayerシーケンス折りたたみ層
sequenceUnfoldingLayerシーケンス展開層
flattenLayerフラット化層

出力層

classificationLayer分類出力層
regressionLayer回帰出力層
layerGraph深層学習用のネットワーク層のグラフ
plotニューラル ネットワーク アーキテクチャのプロット
addLayers層グラフまたはネットワークへの層の追加
removeLayers層グラフまたはネットワークからの層の削除
replaceLayer層グラフまたはネットワークの層の置き換え
connectLayers層グラフまたはネットワークの層の結合
disconnectLayers層グラフまたはネットワークの層の切り離し
DAGNetwork深層学習用の有向非循環グラフ (DAG) ネットワーク
isequalCheck equality of neural networks (R2021a 以降)
isequalnCheck equality of neural networks ignoring NaN values (R2021a 以降)
analyzeNetwork深層学習ネットワーク アーキテクチャの解析
dlnetworkカスタム学習ループ向けの深層学習ネットワーク (R2019b 以降)
addInputLayerAdd input layer to network (R2022b 以降)
summaryネットワークの概要の出力 (R2022b 以降)
initializedlnetwork の学習可能なパラメーターと状態パラメーターの初期化 (R2021a 以降)
networkDataLayoutDeep learning network data layout for learnable parameter initialization (R2022b 以降)
checkLayerCheck validity of custom or function layer

トピック

組み込み層

カスタム層