ドキュメンテーション

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

深層学習層の一覧

このページは、MATLAB® にあるすべての深層学習層の一覧を提供します。

さまざまなタスクで層からネットワークを作成する方法については、以下の例を参照してください。

タスク詳細
イメージの分類または回帰用の深層学習ネットワークを作成する

分類用のシンプルな深層学習ネットワークの作成

回帰用の畳み込みニューラル ネットワークの学習

イメージ分類用の残差ネットワークの学習

シーケンスおよび時系列データ用の深層学習ネットワークを作成する

深層学習を使用したシーケンスの分類

深層学習を使用した時系列予測

オーディオ データ用の深層学習ネットワークを作成する深層学習を使用した音声コマンド認識
テキスト データ用の深層学習ネットワークを作成する

深層学習を使用したテキスト データの分類

深層学習を使用したテキストの生成

層関数

さまざまな層のタイプを作成するには、以下の関数を使用します。または、独自のカスタム層を定義できます。独自のカスタム層を定義する方法については、カスタム深層学習層の定義を参照してください。

入力層

関数説明

imageInputLayer

イメージ入力層は、ネットワークに 2 次元イメージを入力し、データ正規化を適用します。

image3dInputLayer

3 次元イメージ入力層は、ネットワークに 3 次元イメージまたは 3 次元ボリュームを入力し、データ正規化を適用します。

sequenceInputLayer

シーケンス入力層は、ネットワークにシーケンス データを入力します。

roiInputLayer (Computer Vision Toolbox™)

ROI 入力層は、Fast R-CNN オブジェクト検出ネットワークにイメージを入力します。

畳み込み層と全結合層

関数説明

convolution2dLayer

2 次元畳み込み層は、入力にスライディング畳み込みフィルターを適用します。

convolution3dLayer

3 次元畳み込み層は、3 次元入力にスライディング直方体畳み込みフィルターを適用します。

groupedConvolution2dLayer

グループ化された 2 次元畳み込み層は、入力チャネルをグループに分けて、スライディング畳み込みフィルターを適用します。チャネル方向に分離可能な (深さ方向に分離可能とも呼ばれる) 畳み込みには、グループ化された畳み込み層を使用します。

transposedConv2dLayer

2 次元転置畳み込み層では特徴マップがアップサンプリングされます。

transposedConv3dLayer

3 次元転置畳み込み層では 3 次元の特徴マップがアップサンプリングされます。

fullyConnectedLayer

全結合層は、入力に重み行列を乗算し、バイアス ベクトルを加算します。

シーケンス層

関数説明

sequenceInputLayer

シーケンス入力層は、ネットワークにシーケンス データを入力します。

lstmLayer

LSTM 層は、時系列データおよびシーケンス データのタイム ステップ間の長期的な依存関係を学習します。

bilstmLayer

双方向 LSTM (BiLSTM) 層は、時系列データまたはシーケンス データのタイム ステップ間の双方向の長期的な依存関係を学習します。これらの依存関係は、各タイム ステップで時系列全体からネットワークに学習させる場合に役立ちます。

sequenceFoldingLayer

シーケンス折りたたみ層は、イメージ シーケンスのバッチをイメージのバッチに変換します。シーケンス折りたたみ層を使用して、畳み込み演算をイメージ シーケンスのタイム ステップごとに個別に実行します。

sequenceUnfoldingLayer

シーケンス展開層は、シーケンスの折りたたみ後に入力データのシーケンス構造を復元します。

flattenLayer

フラット化層は、入力の空間次元を折りたたんでチャネルの次元にします。

wordEmbeddingLayer (Text Analytics Toolbox™)

単語埋め込み層は、単語インデックスをベクトルにマッピングします。

活性化層

関数説明

reluLayer

ReLU 層は、入力の各要素に対してしきい値処理を実行し、値がゼロよりも小さい場合はゼロに設定します。

leakyReluLayer

漏洩 ReLU 層は、しきい値処理を実行し、入力値がゼロよりも小さい場合は固定のスカラーによって乗算されます。

clippedReluLayer

クリップされた ReLU 層は、しきい値処理を実行し、入力値がゼロよりも小さい場合はゼロに設定して、値が "クリップ上限" を超える場合はそのクリップ上限に設定します。

eluLayer

ELU 活性化層は、正の入力に対して恒等演算を実行し、負の入力に対して非線形となる指数演算を実行します。

tanhLayer

双曲線正接 (tanh) 活性化層は、層の入力に対して tanh 関数を適用します。

preluLayer (カスタム層の例)

PReLU 層は、しきい値処理を実行し、各チャネルで、入力値がゼロよりも小さい場合は、学習時に得られたスカラーによって乗算されます。

正規化層、ドロップアウト層、および切り取り層

関数説明

batchNormalizationLayer

バッチ正規化層は、ミニバッチ全体で各入力チャネルを正規化します。畳み込みニューラル ネットワークの学習速度を上げ、ネットワークの初期化に対する感度を下げるには、畳み込み層の間にあるバッチ正規化層と、ReLU 層などの非線形性を使用します。

crossChannelNormalizationLayer

チャネル単位の局所応答 (クロス チャネル) 正規化層は、チャネル単位の正規化を行います。

dropoutLayer

ドロップアウト層は、与えられた確率でランダムに、入力要素をゼロに設定します。

crop2dLayer (Computer Vision Toolbox)

2 次元切り取り層は、入力に 2 次元切り取りを適用します。

プーリング層と逆プーリング層

関数説明

averagePooling2dLayer

平均プーリング層は、入力を四角形のプーリング領域に分割し、各領域の平均値を計算することによって、ダウンサンプリングを実行します。

averagePooling3dLayer

3 次元平均プーリング層は、3 次元入力を直方体のプーリング領域に分割し、各領域の平均値を計算することによって、ダウンサンプリングを実行します。

maxPooling2dLayer

最大プーリング層は、入力を四角形のプーリング領域に分割し、各領域の最大値を計算することによって、ダウンサンプリングを実行します。

maxPooling3dLayer

3 次元最大プーリング層は、3 次元入力を直方体のプーリング領域に分割し、各領域の最大値を計算することによって、ダウンサンプリングを実行します。

maxUnpooling2dLayer

最大逆プーリング層は、最大プーリング層の出力を逆プーリングします。

結合層

関数説明

additionLayer

加算層は、複数のニューラル ネットワーク層からの入力を要素単位で加算します。

depthConcatenationLayer

深さ連結層は、高さと幅が同じ入力を取り、3 番目の次元 (チャネルの次元) に沿ってこれらを連結します。

concatenationLayer

連結層は入力を取り、指定された次元に沿って入力を連結します。入力のサイズは、連結の次元を除き、すべての次元で同じでなければなりません。

weightedAdditionLayer (カスタム層の例)

重み付き加算層は、複数のニューラル ネットワーク層からの入力を要素単位でスケーリングして加算します。

オブジェクト検出層

関数説明

roiInputLayer (Computer Vision Toolbox)

ROI 入力層は、Fast R-CNN オブジェクト検出ネットワークにイメージを入力します。

roiMaxPooling2dLayer (Computer Vision Toolbox)

ROI 最大プーリング層は、入力の特徴マップ内のすべての四角形 ROI に対して固定サイズの特徴マップを出力します。Fast R-CNN オブジェクトまたは Faster R-CNN オブジェクト検出ネットワークを作成するには、この層を使用します。

regionProposalLayer (Computer Vision Toolbox)

領域提案層は、Faster R-CNN 内の領域提案ネットワーク (RPN) の一部として、イメージの有力なオブジェクトの周囲に境界ボックスを出力します。

rpnSoftmaxLayer (Computer Vision Toolbox)

領域提案ネットワーク (RPN) ソフトマックス層は、入力にソフトマックス活性化関数を適用します。Faster R-CNN オブジェクト検出ネットワークを作成するには、この層を使用します。

rpnClassificationLayer (Computer Vision Toolbox)

領域提案ネットワーク (RPN) 分類層は、交差エントロピー損失関数を使用して、イメージ領域を "オブジェクト" または "背景" として分類します。Faster R-CNN オブジェクト検出ネットワークを作成するには、この層を使用します。

rcnnBoxRegressionLayer (Computer Vision Toolbox)

ボックス回帰層は、スムーズ L1 損失関数を使用して、境界ボックスの位置を調整します。Fast R-CNN オブジェクトまたは Faster R-CNN オブジェクト検出ネットワークを作成するには、この層を使用します。

出力層

関数説明

softmaxLayer

ソフトマックス層は、入力にソフトマックス関数を適用します。

classificationLayer

分類層は、互いに排他的なクラスを含むマルチクラス分類問題の交差エントロピー損失を計算します。

regressionLayer

回帰層は、回帰問題の半平均二乗誤差損失を計算します。

pixelClassificationLayer (Computer Vision Toolbox)

ピクセル分類層は、各イメージ ピクセルまたはボクセルの categorical ラベルを提供します。

rpnSoftmaxLayer (Computer Vision Toolbox)

領域提案ネットワーク (RPN) ソフトマックス層は、入力にソフトマックス活性化関数を適用します。Faster R-CNN オブジェクト検出ネットワークを作成するには、この層を使用します。

rpnClassificationLayer (Computer Vision Toolbox)

領域提案ネットワーク (RPN) 分類層は、交差エントロピー損失関数を使用して、イメージ領域を "オブジェクト" または "背景" として分類します。Faster R-CNN オブジェクト検出ネットワークを作成するには、この層を使用します。

rcnnBoxRegressionLayer (Computer Vision Toolbox)

ボックス回帰層は、スムーズ L1 損失関数を使用して、境界ボックスの位置を調整します。Fast R-CNN オブジェクトまたは Faster R-CNN オブジェクト検出ネットワークを作成するには、この層を使用します。

weightedClassificationLayer (カスタム層の例)

重み付き分類層は、分類問題の重み付き交差エントロピー損失を計算します。

dicePixelClassificationLayer (カスタム層の例)

Dice ピクセル分類層は、セマンティック セグメンテーション問題の Dice 損失を計算します。

sseClassificationLayer (カスタム層の例)

分類 SSE 層は、分類問題の残差平方和損失を計算します。

maeRegressionLayer (カスタム層の例)

回帰 MAE 層は、回帰問題の平均絶対誤差損失を計算します。

参考

|

関連するトピック