このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。
reluLayer
正規化線形ユニット (ReLU) 層
説明
ReLU 層は、入力の各要素に対してしきい値処理を実行し、値がゼロよりも小さい場合はゼロに設定します。
この処理は次の式と同等です。
作成
プロパティ
例
詳細
参照
[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.
拡張機能
バージョン履歴
R2016a で導入