Layer
深層学習用のネットワーク層
説明
深層学習用のニューラル ネットワークのアーキテクチャを定義する層。
作成
MATLAB® の深層学習層の一覧については、深層学習層の一覧を参照してください。すべての層が順に結合されたニューラル ネットワークのアーキテクチャを指定するには、層の配列を直接作成します。層に複数の入力または出力がある可能性があるネットワークのアーキテクチャを指定するには、LayerGraph
オブジェクトを使用します。
または、それぞれ importCaffeLayers
、importKerasLayers
、および importONNXLayers
を使用して、Caffe、Keras、および ONNX から層をインポートできます。
独自のカスタム層を作成する方法については、カスタム深層学習層の定義を参照してください。
オブジェクト関数
trainNetwork | 深層学習ニューラル ネットワークの学習 |
例
ネットワーク アーキテクチャの構築
1 つの畳み込み層、ReLU 層、全結合層がある分類用の畳み込みニューラル ネットワーク アーキテクチャを定義します。
layers = [ ...
imageInputLayer([28 28 3])
convolution2dLayer([5 5],10)
reluLayer
fullyConnectedLayer(10)
softmaxLayer
classificationLayer]
layers = 6x1 Layer array with layers: 1 '' Image Input 28x28x3 images with 'zerocenter' normalization 2 '' 2-D Convolution 10 5x5 convolutions with stride [1 1] and padding [0 0 0 0] 3 '' ReLU ReLU 4 '' Fully Connected 10 fully connected layer 5 '' Softmax softmax 6 '' Classification Output crossentropyex
layers
は Layer
オブジェクトです。
または、層を個別に作成してから連結することもできます。
input = imageInputLayer([28 28 3]);
conv = convolution2dLayer([5 5],10);
relu = reluLayer;
fc = fullyConnectedLayer(10);
sm = softmaxLayer;
co = classificationLayer;
layers = [ ...
input
conv
relu
fc
sm
co]
layers = 6x1 Layer array with layers: 1 '' Image Input 28x28x3 images with 'zerocenter' normalization 2 '' 2-D Convolution 10 5x5 convolutions with stride [1 1] and padding [0 0 0 0] 3 '' ReLU ReLU 4 '' Fully Connected 10 fully connected layer 5 '' Softmax softmax 6 '' Classification Output crossentropyex
層配列の層およびプロパティへのアクセス
1 つの畳み込み層、ReLU 層、全結合層がある分類用の畳み込みニューラル ネットワーク アーキテクチャを定義します。
layers = [ ...
imageInputLayer([28 28 3])
convolution2dLayer([5 5],10)
reluLayer
fullyConnectedLayer(10)
softmaxLayer
classificationLayer];
最初の層を選択して、イメージ入力層を表示します。
layers(1)
ans = ImageInputLayer with properties: Name: '' InputSize: [28 28 3] SplitComplexInputs: 0 Hyperparameters DataAugmentation: 'none' Normalization: 'zerocenter' NormalizationDimension: 'auto' Mean: []
イメージ入力層の入力サイズを表示します。
layers(1).InputSize
ans = 1×3
28 28 3
畳み込み層のストライドを表示します。
layers(2).Stride
ans = 1×2
1 1
全結合層のバイアス学習率係数にアクセスします。
layers(4).BiasLearnRateFactor
ans = 1
シンプルな DAG ネットワークの作成
深層学習用のシンプルな有向非循環グラフ (DAG) ネットワークを作成します。数字のイメージを分類するようネットワークに学習させます。この例のシンプルなネットワークは、以下から構成されます。
逐次結合層による主分岐。
単一の 1 x 1 畳み込み層を含む "ショートカット結合"。ショートカット結合は、パラメーターの勾配がネットワークの出力層からより初期の層へとよりスムーズに流れるようにします。
ネットワークの主分岐を層配列として作成します。加算層では複数の入力が要素単位で合計されます。加算層で合計する入力数を指定します。後で簡単に結合を追加できるように、最初の ReLU 層と加算層の名前を指定します。
layers = [ imageInputLayer([28 28 1]) convolution2dLayer(5,16,'Padding','same') batchNormalizationLayer reluLayer('Name','relu_1') convolution2dLayer(3,32,'Padding','same','Stride',2) batchNormalizationLayer reluLayer convolution2dLayer(3,32,'Padding','same') batchNormalizationLayer reluLayer additionLayer(2,'Name','add') averagePooling2dLayer(2,'Stride',2) fullyConnectedLayer(10) softmaxLayer classificationLayer];
層配列から層グラフを作成します。layerGraph
は layers
のすべての層を順に結合します。層グラフをプロットします。
lgraph = layerGraph(layers); figure plot(lgraph)
1 x 1 畳み込み層を作成し、層グラフに追加します。活性化のサイズが 3 番目の ReLU 層の活性化のサイズと一致するように、畳み込みフィルターの数とストライドを指定します。この方法により、加算層で 3 番目の ReLU 層と 1 x 1 畳み込み層の出力を加算できます。層がグラフに含まれることを確認するには、層グラフをプロットします。
skipConv = convolution2dLayer(1,32,'Stride',2,'Name','skipConv'); lgraph = addLayers(lgraph,skipConv); figure plot(lgraph)
'relu_1'
層から 'add'
層へのショートカット結合を作成します。層の作成時に加算層への入力数を 2 に指定しているため、層には 'in1'
および 'in2'
という名前の 2 つの入力があります。3 番目の ReLU 層は既に 'in1'
入力に結合されています。'relu_1'
層を 'skipConv'
層に結合し、'skipConv'
層を 'add'
層の 'in2'
入力に結合します。ここで加算層は 3 番目の ReLU 層と 'skipConv'
層の出力を合計します。層が正しく結合されていることを確認するには、層グラフをプロットします。
lgraph = connectLayers(lgraph,'relu_1','skipConv'); lgraph = connectLayers(lgraph,'skipConv','add/in2'); figure plot(lgraph);
数字の 28 x 28 のグレースケール イメージで構成される学習データと検証データを読み込みます。
[XTrain,YTrain] = digitTrain4DArrayData; [XValidation,YValidation] = digitTest4DArrayData;
学習オプションを指定してネットワークに学習させます。trainNetwork
は、ValidationFrequency
回の反復ごとに検証データを使用してネットワークを検証します。
options = trainingOptions('sgdm', ... 'MaxEpochs',8, ... 'Shuffle','every-epoch', ... 'ValidationData',{XValidation,YValidation}, ... 'ValidationFrequency',30, ... 'Verbose',false, ... 'Plots','training-progress'); net = trainNetwork(XTrain,YTrain,lgraph,options);
学習済みネットワークのプロパティを表示します。ネットワークは DAGNetwork
オブジェクトになります。
net
net = DAGNetwork with properties: Layers: [16x1 nnet.cnn.layer.Layer] Connections: [16x2 table] InputNames: {'imageinput'} OutputNames: {'classoutput'}
検証イメージを分類し、精度を計算します。ネットワークは非常に正確になっています。
YPredicted = classify(net,XValidation); accuracy = mean(YPredicted == YValidation)
accuracy = 0.9934
バージョン履歴
R2016a で導入
MATLAB コマンド
次の MATLAB コマンドに対応するリンクがクリックされました。
コマンドを MATLAB コマンド ウィンドウに入力して実行してください。Web ブラウザーは MATLAB コマンドをサポートしていません。
Select a Web Site
Choose a web site to get translated content where available and see local events and offers. Based on your location, we recommend that you select: .
You can also select a web site from the following list:
How to Get Best Site Performance
Select the China site (in Chinese or English) for best site performance. Other MathWorks country sites are not optimized for visits from your location.
Americas
- América Latina (Español)
- Canada (English)
- United States (English)
Europe
- Belgium (English)
- Denmark (English)
- Deutschland (Deutsch)
- España (Español)
- Finland (English)
- France (Français)
- Ireland (English)
- Italia (Italiano)
- Luxembourg (English)
- Netherlands (English)
- Norway (English)
- Österreich (Deutsch)
- Portugal (English)
- Sweden (English)
- Switzerland
- United Kingdom (English)