Main Content

このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。

relu

正規化線形ユニット活性化の適用

説明

正規化線形ユニット (ReLU) 活性化演算は、非線形のしきい値処理を実行し、ゼロよりも小さい入力値をゼロに設定します。

この演算は次の式と同等です。

f(x)={x,x>00,x0.

メモ

この関数は、ReLU 演算を dlarray データに適用します。layerGraph オブジェクト内または Layer 配列内に ReLU 活性化を適用する場合は、次の層を使用します。

Y = relu(X) は、しきい値処理を適用することにより、入力 X の ReLU 活性化を計算します。X に含まれる 0 未満のすべての値は 0 に設定されます。

すべて折りたたむ

関数 relu を使用して、入力データに含まれる負の値を 0 に設定します。

入力データを、高さと幅が 12、チャネル数が 32 の乱数値による単一の観測値として作成します。

height = 12;
width = 12;
channels = 32;
observations = 1;

X = randn(height,width,channels,observations);
X = dlarray(X,'SSCB');

leaky ReLU 活性化を計算します。

Y = relu(X);

X に含まれるすべての負の値が 0 に設定されました。

入力引数

すべて折りたたむ

入力データ。書式化された dlarray、書式化されていない dlarray、または数値配列として指定します。

データ型: single | double

出力引数

すべて折りたたむ

ReLU 活性化。dlarray として返されます。出力 Y の基となるデータ型は、入力 X と同じです。

入力データ X が書式化された dlarray である場合、Y の次元形式は X と同じになります。入力データが書式化された dlarray でない場合、Y は、入力データと同じ次元の順序をもつ書式化されていない dlarray になります。

拡張機能

バージョン履歴

R2019b で導入