このページの翻訳は最新ではありません。ここをクリックして、英語の最新版を参照してください。
reluLayer
正規化線形ユニット (ReLU) 層
説明
ReLU 層は、入力の各要素に対してしきい値処理を実行し、値がゼロよりも小さい場合はゼロに設定します。
この処理は次の式と同等です。
作成
プロパティ
例
詳細
参照
[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.
拡張機能
バージョン履歴
R2016a で導入