ドキュメンテーション

最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。

clippedReluLayer

クリップされた正規化線形ユニット (ReLU) 層

説明

クリップされた ReLU 層は、しきい値処理を実行し、入力値がゼロよりも小さい場合はゼロに設定して、値が "クリップ上限" を超える場合はそのクリップ上限に設定します。

この処理は次の式と同等です。

f(x)={0,x<0x,0x<ceilingceiling,xceiling.

このクリップにより、出力が大きくなりすぎるのを防ぎます。

作成

構文

layer = clippedReluLayer(ceiling)
layer = clippedReluLayer(ceiling,'Name',Name)

説明

layer = clippedReluLayer(ceiling) は、クリップ上限が ceiling に等しい、クリップされた ReLU 層を返します。

layer = clippedReluLayer(ceiling,'Name',Name) は、オプションの Name プロパティを設定します。

プロパティ

すべて展開する

入力のクリップ上限。正のスカラーとして指定します。

例: 10

層の名前。文字ベクトルまたは string スカラーとして指定します。層グラフに層を含めるには、空ではない一意の層の名前を指定しなければなりません。この層が含まれる系列ネットワークに学習させて Name'' に設定すると、学習時に層に名前が自動的に割り当てられます。

データ型: char | string

すべて折りたたむ

名前が 'clip1' で、クリップ上限が 10 に等しい、クリップされた ReLU 層を作成します。

layer = clippedReluLayer(10,'Name','clip1')
layer = 
  ClippedReLULayer with properties:

       Name: 'clip1'

   Hyperparameters
    Ceiling: 10

Layer 配列にクリップされた ReLU 層を含めます。

layers = [ ...
    imageInputLayer([28 28 1])
    convolution2dLayer(5,20)
    clippedReluLayer(10)
    maxPooling2dLayer(2,'Stride',2)
    fullyConnectedLayer(10)
    softmaxLayer
    classificationLayer]
layers = 
  7x1 Layer array with layers:

     1   ''   Image Input             28x28x1 images with 'zerocenter' normalization
     2   ''   Convolution             20 5x5 convolutions with stride [1  1] and padding [0  0  0  0]
     3   ''   Clipped ReLU            Clipped ReLU with ceiling 10
     4   ''   Max Pooling             2x2 max pooling with stride [2  2] and padding [0  0  0  0]
     5   ''   Fully Connected         10 fully connected layer
     6   ''   Softmax                 softmax
     7   ''   Classification Output   crossentropyex

参照

[1] Hannun, Awni, Carl Case, Jared Casper, Bryan Catanzaro, Greg Diamos, Erich Elsen, Ryan Prenger, et al. "Deep speech: Scaling up end-to-end speech recognition." Preprint, submitted 17 Dec 2014. http://arxiv.org/abs/1412.5567

R2017b で導入