Main Content

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

Layer

深層学習用のネットワーク層

説明

深層学習用のニューラル ネットワークのアーキテクチャを定義する層。

作成

MATLAB® の深層学習層の一覧については、深層学習層の一覧を参照してください。すべての層が順に結合されたニューラル ネットワークのアーキテクチャを指定するには、層の配列を直接作成します。層に複数の入力または出力がある可能性があるネットワークのアーキテクチャを指定するには、LayerGraph オブジェクトを使用します。

または、それぞれ importCaffeLayersimportKerasLayers、および importONNXLayers を使用して、Caffe、Keras、および ONNX から層をインポートできます。

独自のカスタム層を作成する方法については、カスタム深層学習層の定義を参照してください。

オブジェクト関数

trainNetwork深層学習用のニューラル ネットワークの学習

すべて折りたたむ

1 つの畳み込み層、ReLU 層、全結合層がある分類用の畳み込みニューラル ネットワーク アーキテクチャを定義します。

layers = [ ...
    imageInputLayer([28 28 3])
    convolution2dLayer([5 5],10)
    reluLayer
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer]
layers = 
  6x1 Layer array with layers:

     1   ''   Image Input             28x28x3 images with 'zerocenter' normalization
     2   ''   Convolution             10 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU                    ReLU
     4   ''   Fully Connected         10 fully connected layer
     5   ''   Softmax                 softmax
     6   ''   Classification Output   crossentropyex

layersLayer オブジェクトです。

または、層を個別に作成してから連結することもできます。

input = imageInputLayer([28 28 3]);
conv = convolution2dLayer([5 5],10);
relu = reluLayer;
fc = fullyConnectedLayer(10);
sm = softmaxLayer;
co = classificationLayer;

layers = [ ...
    input
    conv
    relu
    fc
    sm
    co]
layers = 
  6x1 Layer array with layers:

     1   ''   Image Input             28x28x3 images with 'zerocenter' normalization
     2   ''   Convolution             10 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU                    ReLU
     4   ''   Fully Connected         10 fully connected layer
     5   ''   Softmax                 softmax
     6   ''   Classification Output   crossentropyex

1 つの畳み込み層、ReLU 層、全結合層がある分類用の畳み込みニューラル ネットワーク アーキテクチャを定義します。

layers = [ ...
    imageInputLayer([28 28 3])
    convolution2dLayer([5 5],10)
    reluLayer
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer];

最初の層を選択して、イメージ入力層を表示します。

layers(1)
ans = 
  ImageInputLayer with properties:

                      Name: ''
                 InputSize: [28 28 3]

   Hyperparameters
          DataAugmentation: 'none'
             Normalization: 'zerocenter'
    NormalizationDimension: 'auto'
                      Mean: []

イメージ入力層の入力サイズを表示します。

layers(1).InputSize
ans = 1×3

    28    28     3

畳み込み層のストライドを表示します。

layers(2).Stride
ans = 1×2

     1     1

全結合層のバイアス学習率係数にアクセスします。

layers(4).BiasLearnRateFactor
ans = 1

深層学習用のシンプルな有向非循環グラフ (DAG) ネットワークを作成します。数字のイメージを分類するようネットワークに学習させます。この例のシンプルなネットワークは、以下から構成されます。

  • 逐次結合層による主分岐。

  • 単一の 1 x 1 畳み込み層を含む "ショートカット結合"。ショートカット結合は、パラメーターの勾配がネットワークの出力層からより初期の層へとよりスムーズに流れるようにします。

ネットワークの主分岐を層配列として作成します。加算層では複数の入力が要素単位で合計されます。加算層で合計する入力数を指定します。すべての層に名前があり、すべての名前が一意でなければなりません。

layers = [
    imageInputLayer([28 28 1],'Name','input')
    
    convolution2dLayer(5,16,'Padding','same','Name','conv_1')
    batchNormalizationLayer('Name','BN_1')
    reluLayer('Name','relu_1')
    
    convolution2dLayer(3,32,'Padding','same','Stride',2,'Name','conv_2')
    batchNormalizationLayer('Name','BN_2')
    reluLayer('Name','relu_2')
    convolution2dLayer(3,32,'Padding','same','Name','conv_3')
    batchNormalizationLayer('Name','BN_3')
    reluLayer('Name','relu_3')
    
    additionLayer(2,'Name','add')
    
    averagePooling2dLayer(2,'Stride',2,'Name','avpool')
    fullyConnectedLayer(10,'Name','fc')
    softmaxLayer('Name','softmax')
    classificationLayer('Name','classOutput')];

層配列から層グラフを作成します。layerGraphlayers のすべての層を順に結合します。層グラフをプロットします。

lgraph = layerGraph(layers);
figure
plot(lgraph)

1 x 1 畳み込み層を作成し、層グラフに追加します。活性化のサイズが 'relu_3' 層の活性化のサイズと一致するように、畳み込みフィルターの数とストライドを指定します。この方法により、加算層で 'skipConv' 層と 'relu_3' 層の出力を加算できます。層がグラフに含まれることを確認するには、層グラフをプロットします。

skipConv = convolution2dLayer(1,32,'Stride',2,'Name','skipConv');
lgraph = addLayers(lgraph,skipConv);
figure
plot(lgraph)

'relu_1' 層から 'add' 層へのショートカット結合を作成します。層の作成時に加算層への入力数を 2 に指定しているため、層には 'in1' および 'in2' という名前の 2 つの入力があります。'relu_3' 層は既に 'in1' 入力に結合されています。'relu_1' 層を 'skipConv' 層に結合し、'skipConv' 層を 'add' 層の 'in2' 入力に結合します。ここで加算層は 'relu_3' 層と 'skipConv' 層の出力を合計します。層が正しく結合されていることを確認するには、層グラフをプロットします。

lgraph = connectLayers(lgraph,'relu_1','skipConv');
lgraph = connectLayers(lgraph,'skipConv','add/in2');
figure
plot(lgraph);

数字の 28 x 28 のグレースケール イメージで構成される学習データと検証データを読み込みます。

[XTrain,YTrain] = digitTrain4DArrayData;
[XValidation,YValidation] = digitTest4DArrayData;

学習オプションを指定してネットワークに学習させます。trainNetwork は、ValidationFrequency 回の反復ごとに検証データを使用してネットワークを検証します。

options = trainingOptions('sgdm', ...
    'MaxEpochs',8, ...
    'Shuffle','every-epoch', ...
    'ValidationData',{XValidation,YValidation}, ...
    'ValidationFrequency',30, ...
    'Verbose',false, ...
    'Plots','training-progress');
net = trainNetwork(XTrain,YTrain,lgraph,options);

学習済みネットワークのプロパティを表示します。ネットワークは DAGNetwork オブジェクトになります。

net
net = 
  DAGNetwork with properties:

         Layers: [16×1 nnet.cnn.layer.Layer]
    Connections: [16×2 table]

検証イメージを分類し、精度を計算します。ネットワークは非常に正確になっています。

YPredicted = classify(net,XValidation);
accuracy = mean(YPredicted == YValidation)
accuracy = 0.9968
R2016a で導入