最新のリリースでは、このページがまだ翻訳されていません。 このページの最新版は英語でご覧になれます。
正規化線形ユニット (ReLU) 層
ReLU 層は、入力の各要素に対してしきい値処理を実行し、値がゼロよりも小さい場合はゼロに設定します。
この処理は次の式と同等です。
[1] Nair, Vinod, and Geoffrey E. Hinton. "Rectified linear units improve restricted boltzmann machines." In Proceedings of the 27th international conference on machine learning (ICML-10), pp. 807-814. 2010.