ドキュメンテーション

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

カスタム深層学習層の定義

ヒント

このトピックでは、問題に合わせてカスタム深層学習層を定義する方法を説明します。Deep Learning Toolbox™ に組み込まれている層の一覧については、深層学習層の一覧を参照してください。

このトピックでは、深層学習層のアーキテクチャと、問題に使用するカスタム層を定義する方法を説明します。

タイプ説明

カスタム深層学習層を定義し、オプションの学習可能なパラメーター、順方向関数、および逆方向関数を指定します。

学習可能なパラメーターを含むカスタム層の定義方法の例については、学習可能なパラメーターを含むカスタム深層学習層の定義を参照してください。

分類出力層

カスタム分類出力層を定義し、損失関数を指定します。

カスタム分類出力層を定義し、損失関数を指定する方法を示す例については、カスタム分類出力層の定義を参照してください。

回帰出力層

カスタム回帰出力層を定義し、損失関数を指定します。

カスタム回帰出力層を定義し、損失関数を指定する方法を示す例については、カスタム回帰出力層の定義を参照してください。

層テンプレート

以下のテンプレートを使用して、新しい層を定義できます。

 中間層テンプレート

 分類出力層テンプレート

 回帰出力層テンプレート

中間層のアーキテクチャ

中間層には、順方向パスと逆方向パスという 2 つの主要なコンポーネントがあります。

ネットワークの順方向パスでは、層は前の層の出力 x を取り、関数を適用し、結果 z を次の層に出力 (順伝播) します。

順方向パスの最後に、ネットワークは予測 Y と真のターゲット T の間の損失 L を計算します。

ネットワークの逆方向パスでは、それぞれの層は、z についての損失の微分を取り、x についての損失 L の微分を計算し、その結果を前の層に出力 (逆伝播) します。層に学習可能なパラメーターがある場合、層は層の重み (学習可能なパラメーター) W の微分も計算します。層は、重みの微分を使用して学習可能なパラメーターを更新します。

次の図は、深層ニューラル ネットワークにおけるデータのフローを説明するもので、層経由のデータ フローを強調しています。

中間層のプロパティ

層のプロパティはクラス定義の properties セクションで宣言します。

既定では、カスタム中間層には次の 3 つのプロパティがあります。

  • Name層の名前。文字ベクトルまたは string スカラーとして指定します。層グラフに層を含めるには、空ではない一意の層の名前を指定しなければなりません。この層が含まれる系列ネットワークに学習させて Name'' に設定すると、学習時に層に名前が自動的に割り当てられます。

  • Description – 層についての 1 行の説明。文字ベクトルまたは string スカラーとして指定します。この説明は、層が Layer 配列に表示されるときに表示されます。層の説明を指定しない場合、層のクラス名が表示されます。

  • Type – 層のタイプ。文字ベクトルまたは string スカラーとして指定します。Type の値は、層が Layer 配列に表示されるときに表示されます。層のタイプを指定しない場合、層のクラス名が表示されます。

層にその他のプロパティがない場合は、properties セクションを省略できます。

学習可能なパラメーター

層の学習可能なパラメーターはクラス定義の properties (Learnable) セクションで宣言します。層に学習可能なパラメーターがない場合は、properties (Learnable) セクションを省略できます。

オプションで、学習可能なパラメーターの学習率係数および L2 係数を指定できます。既定では、それぞれの学習可能なパラメーターの学習率係数と L2 係数は 1 に設定されています。

組み込みの層とユーザー定義の層のどちらの場合も、以下の関数を使用して、学習率係数と L2 正則化係数を設定および取得できます。

関数説明
setLearnRateFactor学習可能なパラメーターの学習率係数を設定します。
setL2Factor学習可能なパラメーターの L2 正則化係数を設定します。
getLearnRateFactor学習可能なパラメーターの学習率係数を取得します。
getL2Factor学習可能なパラメーターの L2 正則化係数を取得します。

学習可能なパラメーターの学習率係数および L2 係数を指定するには、構文 layer = setLearnRateFactor(layer,'MyParameterName',value) および layer = setL2Factor(layer,'MyParameterName',value) をそれぞれ使用します。

学習可能なパラメーターの学習率係数および L2 係数の値を取得するには、構文 getLearnRateFactor(layer,'MyParameterName') および getL2Factor(layer,'MyParameterName') をそれぞれ使用します。

たとえば、この構文は、学習可能なパラメーター Alpha の学習率係数を 0.1 に設定します。

layer = setLearnRateFactor(layer,'Alpha',0.1);

順方向関数

層は、順方向パスを実行するために 2 つの関数 predictforward のいずれかを使用します。順方向パスが予測時に発生する場合、層は関数 predict を使用します。順方向パスが学習時に発生する場合、層は関数 forward を使用します。関数 forward には、逆伝播時に使用できる追加の出力引数 memory があります。

予測時と学習時で異なる 2 つの関数を必要としない場合は、関数 forward の作成は必要ありません。既定では、学習時に層は predict を使用します。

predict の構文は Z = predict(layer,X) で、X は層の順方向関数の入力データ、Z は出力です。

forward の構文は [Z,memory] = forward(layer,X) です。ここで、X は層の順方向関数の入力、Z は層の順方向関数の出力、memory は逆伝播で使用するメモリ値です。memory は必須の出力引数で、値を返さなければなりません。層にメモリ値が必要ない場合、空の値 [] を返します。

X の次元は前の層の出力によって異なります。同様に、出力 Z は次の層に適した形状でなければなりません。

組み込みの層は、サイズ h x w x c x N の 4 次元配列を出力します。ただし、LSTM 層およびシーケンス入力層は、D x N x S の 3 次元配列を出力します。

全結合層、ReLU 層、ドロップアウト層、およびソフトマックス層は、3 次元入力も受け取ります。これらの層は、この形状の入力を取得すると、サイズ D x N x S の 3 次元配列を出力します。

これらの次元は以下に対応します。

  • h – 出力の高さ

  • w – 出力の幅

  • c – 出力内のチャネル数

  • N – 観測値の数 (ミニバッチ サイズ)

  • D – シーケンスの特徴次元

  • S – シーケンス長

逆方向関数

層は、逆方向パスで 1 つの関数 backward を使用します。関数 backward は、入力データについての損失の微分を計算し、結果を前の層に出力 (逆伝播) します。層に学習可能なパラメーターがある場合、backward は層の重み (学習可能なパラメーター) の微分も計算します。逆方向パスの間に、層は、これらの微分を使用して学習可能なパラメーターを自動的に更新します。

損失の微分の計算には次の連鎖律が使用できます。

LX(i)=jLzjzjX(i)

LWi=jLZjZjWi

backward の構文は、[dLdX,dLdW1,…,dLdWn] = backward(layer,X,Z,dLdZ,memory) です。入力において、X は層の入力データ、Zforward の出力、dLdZ は次の層から逆伝播された勾配、memoryforward のメモリ出力です。出力において、dLdX は層の入力データについての損失の微分で、dLdW1,…,dLdWn は学習可能なパラメーターについての損失の微分です。

XZ の値は順方向関数の場合と同じです。dLdZ の次元は Z の次元と同じです。

dLdX の次元およびデータ型は X の次元およびデータ型と同じです。dLdW1、...、dLdWn の次元およびデータ型はそれぞれ W1、...、Wn の次元およびデータ型と同じです。ここで、Wi は i 番目の学習可能なパラメーターです。

逆方向パスの間に、層は、微分 dLdW1、...、dLdWn を使用して学習可能なパラメーターを自動的に更新します。

GPU 互換性

GPU 互換性のために、層関数は gpuArray 型の入力をサポートし、この型の出力を返さなければなりません。層が使用する他の関数も同じ動作をしなければなりません。多くの MATLAB® 組み込み関数が gpuArray 入力引数をサポートしています。これらの関数のいずれかを、1 つ以上の gpuArray 入力を指定して呼び出した場合、その関数は GPU で実行され、gpuArray 出力を返します。GPU で実行される関数の一覧については、GPU での MATLAB 関数の実行 (Parallel Computing Toolbox)を参照してください。深層学習に GPU を使用するには、Compute Capability 3.0 以上の CUDA® 対応 NVIDIA® GPU も必要です。 MATLAB での GPU の使用の詳細は、MATLAB での GPU 計算 (Parallel Computing Toolbox)を参照してください。

層の有効性のチェック

カスタム深層学習層を作成する場合、関数 checkLayer を使用して、層が有効であることをチェックできます。この関数は、層について有効性、GPU 互換性、勾配定義の正しさをチェックします。層が有効であることをチェックするには、次のコマンドを実行します。

checkLayer(layer,validInputSize,'ObservationDimension',dim)
ここで、layer は層のインスタンス、validInputSize は層に有効な入力サイズを指定するベクトルであり、dim は層の入力データにおける観測値の次元を指定します。入力サイズが大きい場合、勾配チェックの実行に時間がかかります。テストを高速化するには、指定する有効な入力サイズを小さくします。

詳細は、カスタム層の有効性のチェックを参照してください。

checkLayer を使用した層の有効性のチェック

カスタム層 preluLayer について層の有効性をチェックします。

カスタム PReLU 層を定義します。この層を作成するには、ファイル preluLayer.m を現在のフォルダーに保存します。

層のインスタンスを作成し、checkLayer を使用してその有効性をチェックします。層への典型的な入力における 1 つの観測値のサイズになるように有効な入力サイズを指定します。層には 4 次元配列を入力する必要があり、最初の 3 つの次元は前の層の出力における高さ、幅、およびチャネル数に対応し、4 番目の次元は観測値に対応します。

観測値の入力の典型的なサイズを指定し、'ObservationDimension' を 4 に設定します。

layer = preluLayer(20,'prelu');
validInputSize = [24 24 20];
checkLayer(layer,validInputSize,'ObservationDimension',4)
Skipping GPU tests. No compatible GPU device found.
 
Running nnet.checklayer.TestCase
.......... .....
Done nnet.checklayer.TestCase
__________

Test Summary:
	 15 Passed, 0 Failed, 0 Incomplete, 6 Skipped.
	 Time elapsed: 93.8451 seconds.

ここでは、関数で層に関する問題はまったく検出されていません。

ネットワークに層を含める

Deep Learning Toolbox では、カスタム層を他の層と同じように使用できます。

カスタム PReLU 層を定義します。この層を作成するには、ファイル preluLayer.m を現在のフォルダーに保存します。

カスタム層 preluLayer を含む層配列を作成します。

layers = [
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    batchNormalizationLayer
    preluLayer(20,'prelu')
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer];

出力層のアーキテクチャ

学習時の順方向パスの最後で、出力層は前の層の予測 (出力) y を取り、これらの予測と学習ターゲットの間の損失 L を計算します。出力層は、予測 y について損失 L の微分を計算し、結果を前の層に出力 (逆伝播) します。

次の図は、畳み込みニューラル ネットワークおよび出力層におけるデータのフローを示しています。

出力層のプロパティ

層のプロパティはクラス定義の properties セクションで宣言します。

既定では、カスタム出力層には次のプロパティがあります。

  • Name層の名前。文字ベクトルまたは string スカラーとして指定します。層グラフに層を含めるには、空ではない一意の層の名前を指定しなければなりません。この層が含まれる系列ネットワークに学習させて Name'' に設定すると、学習時に層に名前が自動的に割り当てられます。

  • Description – 層についての 1 行の説明。文字ベクトルまたは string スカラーとして指定します。この説明は、層が Layer 配列に表示されるときに表示されます。層の説明を指定しない場合、"Classification Output" または "Regression Output" が表示されます。

  • Type – 層のタイプ。文字ベクトルまたは string スカラーとして指定します。Type の値は、層が Layer 配列に表示されるときに表示されます。層のタイプを指定しない場合、層のクラス名が表示されます。

カスタム分類層には次のプロパティもあります。

  • Classes出力層のクラス。categorical ベクトル、string 配列、文字ベクトルの cell 配列、または 'auto' として指定します。Classes'auto' の場合、学習時にクラスが自動的に設定されます。string 配列または文字ベクトルの cell 配列 str を指定すると、出力層のクラスが categorical(str,str) に設定されます。既定値は 'auto' です。

カスタム回帰層には次のプロパティもあります。

  • ResponseNames応答の名前。文字ベクトルの cell 配列または string 配列として指定します。学習時に、学習データに従って応答名が自動的に設定されます。既定値は {} です。

層にその他のプロパティがない場合は、properties セクションを省略できます。

損失関数

出力層では、2 つの関数 forwardLoss および backwardLoss を使用して、損失および微分を計算します。関数 forwardLoss は損失 L を計算します。関数 backwardLoss は、予測について損失の微分を計算します。

forwardLoss の構文は、loss = forwardLoss(layer, Y, T) です。入力 Y は、ネットワークで行った予測に対応します。これらの予測は前の層の出力です。入力 T は学習ターゲットに対応します。出力 loss は、指定された損失関数に従った YT の間の損失です。出力 loss はスカラーでなければなりません。

backwardLoss の構文は、dLdY = backwardLoss(layer, Y, T) です。入力 Y はネットワークで行った予測であり、T は学習ターゲットです。出力 dLdY は予測 Y についての損失の微分です。出力 dLdY は、層入力 Y と同じサイズでなければなりません。

分類問題の場合、T の次元は問題のタイプによって異なります。

分類タスク層入力の次元
イメージ分類サイズ 1 x 1 x K x N の 4 次元配列。K はクラスの数、N はミニバッチ サイズです。
sequence-to-label 分類サイズ K 行 N 列の行列。K はクラスの数、N はミニバッチ サイズです。
sequence-to-sequence 分類サイズ K x N x S の 3 次元配列。K はクラスの数、N はミニバッチ サイズ、S はシーケンス長です。

Y のサイズは前の層の出力によって異なります。YT と同じサイズになるように、正しいサイズを出力する層を出力層の前に含めなければなりません。たとえば、Y を必ず K 個のクラスの予測スコアを持つ 4 次元配列にするために、サイズが K の全結合層を含め、その後にソフトマックス層、出力層の順に配置することができます。

回帰問題の場合、T の次元も問題のタイプによって異なります。

回帰タスク層入力の次元
イメージ回帰サイズ 1 x 1 x R x N の 4 次元配列。R は応答の数、N はミニバッチ サイズです。
image-to-image 回帰サイズ h x w x c x N の 4 次元配列。h、w、および c は、それぞれ出力の高さ、幅、チャネル数を表し、N はミニバッチ サイズです。
sequence-to-one 回帰サイズ R 行 N 列の行列。R は応答の数、N はミニバッチ サイズです。
sequence-to-sequence 回帰サイズ R x N x S の 3 次元配列。R は応答の数、N はミニバッチ サイズ、S はシーケンス長です。

たとえば、ネットワークで応答が 1 つのイメージ回帰ネットワークを定義していてミニバッチのサイズが 50 の場合、T はサイズ 1 x 1 x 1 x 50 の 4 次元配列です。

Y のサイズは前の層の出力によって異なります。YT と同じサイズになるように、正しいサイズを出力する層を出力層の前に含めなければなりません。たとえば、R 個の応答があるイメージ回帰の場合、Y を必ず正しいサイズの 4 次元配列にするために、出力層の前にサイズが R の全結合層を含めることができます。

関数 forwardLoss および backwardLoss には次の出力引数があります。

出力引数説明
loss (forwardLoss のみ)予測 Y と真のターゲット T の間で計算された損失
dLdY (backwardLoss のみ)予測 Y についての損失の微分

ユーザー定義の出力層を組み込みの層の後に含める必要がある場合、backwardLoss は、前の層で想定されるサイズの dLdY を出力しなければなりません。組み込みの層は dLdYY と同じサイズであると想定します。

GPU 互換性-  GPU 互換性のために、層関数は gpuArray 型の入力をサポートし、この型の出力を返さなければなりません。層が使用する他の関数も同じ動作をしなければなりません。多くの MATLAB 組み込み関数が gpuArray 入力引数をサポートしています。これらの関数のいずれかを、1 つ以上の gpuArray 入力を指定して呼び出した場合、その関数は GPU で実行され、gpuArray 出力を返します。GPU で実行される関数の一覧については、GPU での MATLAB 関数の実行 (Parallel Computing Toolbox)を参照してください。深層学習に GPU を使用するには、Compute Capability 3.0 以上の CUDA 対応 NVIDIA GPU も必要です。 MATLAB での GPU の使用の詳細は、MATLAB での GPU 計算 (Parallel Computing Toolbox)を参照してください。

ネットワークにカスタム回帰出力層を含める

Deep Learning Toolbox では、カスタム出力層を他の出力層と同じように使用できます。この節では、カスタム出力層を使用した回帰用ネットワークを作成し、学習させる方法を説明します。

この例では、畳み込みニューラル ネットワーク アーキテクチャを構築し、ネットワークの学習を行い、学習済みネットワークを使用して手書きの数字の回転角度を予測します。このような予測は、光学式文字認識に役立ちます。

カスタム平均絶対誤差回帰層を定義します。この層を作成するには、ファイル maeRegressionLayer.m を現在のフォルダーに保存します。

例の学習データを読み込みます。

[XTrain,~,YTrain] = digitTrain4DArrayData;

層配列を作成し、カスタム回帰出力層 maeRegressionLayer を含めます。

layers = [
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    batchNormalizationLayer
    reluLayer
    fullyConnectedLayer(1)
    maeRegressionLayer('mae')]
layers = 
  6x1 Layer array with layers:

     1   ''      Image Input           28x28x1 images with 'zerocenter' normalization
     2   ''      Convolution           20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''      Batch Normalization   Batch normalization
     4   ''      ReLU                  ReLU
     5   ''      Fully Connected       1 fully connected layer
     6   'mae'   Regression Output     Mean absolute error

学習オプションを設定し、ネットワークに学習させます。

options = trainingOptions('sgdm');
net = trainNetwork(XTrain,YTrain,layers,options);
Training on single CPU.
Initializing image normalization.
|========================================================================================|
|  Epoch  |  Iteration  |  Time Elapsed  |  Mini-batch  |  Mini-batch  |  Base Learning  |
|         |             |   (hh:mm:ss)   |     RMSE     |     Loss     |      Rate       |
|========================================================================================|
|       1 |           1 |       00:00:00 |        25.52 |         22.0 |          0.0100 |
|       2 |          50 |       00:00:03 |        12.67 |         10.2 |          0.0100 |
|       3 |         100 |       00:00:07 |        12.23 |          9.9 |          0.0100 |
|       4 |         150 |       00:00:14 |        11.56 |          8.9 |          0.0100 |
|       6 |         200 |       00:00:23 |        11.72 |          8.7 |          0.0100 |
|       7 |         250 |       00:00:31 |        11.63 |          7.8 |          0.0100 |
|       8 |         300 |       00:00:39 |        11.09 |          8.3 |          0.0100 |
|       9 |         350 |       00:00:47 |         9.48 |          6.9 |          0.0100 |
|      11 |         400 |       00:00:54 |         9.86 |          7.4 |          0.0100 |
|      12 |         450 |       00:01:02 |         8.14 |          6.0 |          0.0100 |
|      13 |         500 |       00:01:08 |         8.46 |          6.6 |          0.0100 |
|      15 |         550 |       00:01:13 |         7.76 |          5.1 |          0.0100 |
|      16 |         600 |       00:01:18 |        10.24 |          7.8 |          0.0100 |
|      17 |         650 |       00:01:23 |         8.24 |          6.1 |          0.0100 |
|      18 |         700 |       00:01:30 |         7.93 |          5.9 |          0.0100 |
|      20 |         750 |       00:01:38 |         7.94 |          5.6 |          0.0100 |
|      21 |         800 |       00:01:46 |         7.51 |          5.2 |          0.0100 |
|      22 |         850 |       00:01:54 |         7.94 |          6.4 |          0.0100 |
|      24 |         900 |       00:02:01 |         7.16 |          5.3 |          0.0100 |
|      25 |         950 |       00:02:07 |         8.71 |          6.7 |          0.0100 |
|      26 |        1000 |       00:02:12 |         9.56 |          8.0 |          0.0100 |
|      27 |        1050 |       00:02:20 |         7.65 |          5.8 |          0.0100 |
|      29 |        1100 |       00:02:28 |         5.88 |          4.3 |          0.0100 |
|      30 |        1150 |       00:02:37 |         7.19 |          5.4 |          0.0100 |
|      30 |        1170 |       00:02:40 |         7.73 |          6.0 |          0.0100 |
|========================================================================================|

回転角度の予測値と実際の値との間の予測誤差を計算することによって、ネットワーク性能を評価します。

[XTest,~,YTest] = digitTest4DArrayData;
YPred = predict(net,XTest);
predictionError = YTest - YPred;

真の角度から許容誤差限界内にある予測の数を計算します。しきい値を 10 度に設定し、このしきい値の範囲内にある予測の比率を計算します。

thr = 10;
numCorrect = sum(abs(predictionError) < thr);
numTestImages = size(XTest,4);
accuracy = numCorrect/numTestImages
accuracy = 0.7840

参考

| | | | |

関連するトピック