Main Content

このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。

leakyrelu

漏洩 (leaky) 正規化線形ユニット活性化の適用

説明

漏洩 (leaky) 正規化線形ユニット (ReLU) 活性化演算は、非線形のしきい値処理を実行し、ゼロよりも小さい入力値を固定スケール係数で乗算します。

この処理は次の式と同等です。

f(x)={x,x0scale*x,x<0.

メモ

この関数は、leaky ReLU 演算を dlarray データに適用します。layerGraph オブジェクトまたは Layer 配列内に leaky ReLU 活性化を適用する場合は、次の層を使用します。

dlY = leakyrelu(dlX) は、しきい値処理を適用することにより、入力 dlX の leaky ReLU 活性化を計算します。dlX に含まれる 0 未満のすべての値には、既定のスケール係数 0.01 が乗算されます。

dlY = leakyrelu(dlX,scaleFactor) は、leaky ReLU 演算のスケール係数を指定します。

すべて折りたたむ

関数 leakyrelu を使用して、入力データに含まれる負の値をスケーリングします。

入力データを、高さと幅が 12、チャネル数が 32 の乱数値による単一の観測値として作成します。

height = 12;
width = 12;
channels = 32;
observations = 1;

X = randn(height,width,channels,observations);
dlX = dlarray(X,'SSCB');

入力に含まれる負の値に対し、スケール係数 0.05 を使用して leaky ReLU 活性化を計算します。

dlY = leakyrelu(dlX,0.05);

入力引数

すべて折りたたむ

入力データ。次元ラベル付きまたはラベルなしの dlarray として指定します。

データ型: single | double

負の入力に対するスケール係数。数値スカラーとして指定します。既定値は 0.01 です。

データ型: single | double

出力引数

すべて折りたたむ

leaky ReLU 活性化。dlarray として返されます。出力 dlY の元となるデータ型は、入力 dlX と同じです。

入力データ dlX が書式化された dlarray である場合、dlY の次元のラベルは dlX と同じになります。入力データが書式化された dlarray でない場合、dlY は、入力データと同じ次元の順序をもつ書式化されていない dlarray になります。

拡張機能

R2019b で導入