このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。
leakyReluLayer
漏洩 (leaky) 正規化線形ユニット (ReLU) 層
説明
leaky ReLU 層は、しきい値処理を実行し、入力値がゼロよりも小さい場合は固定のスカラーによって乗算します。
この処理は次の式と同等です。
作成
プロパティ
例
アルゴリズム
参照
[1] Maas, Andrew L., Awni Y. Hannun, and Andrew Y. Ng. "Rectifier nonlinearities improve neural network acoustic models." In Proc. ICML, vol. 30, no. 1. 2013.
拡張機能
バージョン履歴
R2017b で導入