このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。
leakyrelu
説明
漏洩 (leaky) 正規化線形ユニット (ReLU) 活性化演算は、非線形のしきい値処理を実行し、ゼロよりも小さい入力値を固定スケール係数で乗算します。
この処理は次の式と同等です。
メモ
この関数は、leaky ReLU 演算を dlarray
データに適用します。layerGraph
オブジェクトまたは Layer
配列内に leaky ReLU 活性化を適用する場合は、次の層を使用します。
例
入力引数
出力引数
拡張機能
バージョン履歴
R2019b で導入