ドキュメンテーション

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

regressionLayer

回帰層は、回帰問題の半平均二乗誤差損失を計算します。

構文

layer = regressionLayer
layer = regressionLayer(Name,Value)

説明

layer = regressionLayer は、ニューラル ネットワークの回帰出力層を RegressionOutputLayer オブジェクトとして返します。

predict を使用して、学習済み回帰ネットワークの応答を予測します。応答の正規化は、回帰用のニューラル ネットワークの学習の安定化と高速化に役立つことがよくあります。詳細は、回帰用の畳み込みニューラル ネットワークの学習を参照してください。

layer = regressionLayer(Name,Value) は、名前と値のペアを使用して、オプションの Name および ResponseNames プロパティを設定します。たとえば、regressionLayer('Name','output') は、'output' という名前の回帰層を作成します。各プロパティを、一重引用符で囲みます。

すべて折りたたむ

'routput' という名前の回帰出力層を作成します。

layer = regressionLayer('Name','routput')
layer = 
  RegressionOutputLayer with properties:

             Name: 'routput'
    ResponseNames: {}

   Hyperparameters
     LossFunction: 'mean-squared-error'

回帰用の既定の損失関数は、平均二乗誤差です。

Layer 配列に回帰出力層を含めます。

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(12,25)
    reluLayer
    fullyConnectedLayer(1)
    regressionLayer]
layers = 
  5x1 Layer array with layers:

     1   ''   Image Input         28x28x1 images with 'zerocenter' normalization
     2   ''   Convolution         25 12x12 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   ReLU                ReLU
     4   ''   Fully Connected     1 fully connected layer
     5   ''   Regression Output   mean-squared-error

入力引数

すべて折りたたむ

名前と値のペアの引数

オプションの引数 Name,Value のコンマ区切りペアを指定します。Name は引数名で、Value は対応する値です。Name は引用符で囲まなければなりません。Name1,Value1,...,NameN,ValueN のように、複数の名前と値のペアの引数を、任意の順番で指定できます。

例: regressionLayer('Name','output') は、'output' という名前の回帰層を作成します。

層の名前。文字ベクトルまたは string スカラーとして指定します。層グラフに層を含めるには、空ではない一意の層の名前を指定しなければなりません。この層が含まれる系列ネットワークに学習させて Name'' に設定すると、学習時に層に名前が自動的に割り当てられます。

データ型: char | string

応答の名前。文字ベクトルの cell 配列または string 配列として指定します。学習時に、学習データに従って応答名が自動的に設定されます。既定値は {} です。

データ型: cell

出力引数

すべて折りたたむ

回帰出力層。RegressionOutputLayer オブジェクトとして返されます。

詳細

すべて折りたたむ

回帰出力層

回帰層は、回帰問題の半平均二乗誤差損失を計算します。 一般的な回帰問題の場合、回帰層が最後の全結合層の後に続かなければなりません。

平均二乗誤差は次で求められます。

MSE=i=1R(tiyi)2R,

ここで、R は応答の数、ti はターゲット出力、yi は観察値 i に対応する応答変数に対するネットワークの予測値です。

回帰層の損失関数は、半平均二乗誤差です。

R2017a で導入