このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。
clippedReluLayer
クリップされた正規化線形ユニット (ReLU) 層
説明
クリップされた ReLU 層は、しきい値処理を実行し、入力値がゼロよりも小さい場合はゼロに設定して、値が "クリップ上限" を超える場合はそのクリップ上限に設定します。
この処理は次の式と同等です。
このクリップにより、出力が大きくなりすぎるのを防ぎます。
作成
プロパティ
例
アルゴリズム
参照
[1] Hannun, Awni, Carl Case, Jared Casper, Bryan Catanzaro, Greg Diamos, Erich Elsen, Ryan Prenger, et al. "Deep speech: Scaling up end-to-end speech recognition." Preprint, submitted 17 Dec 2014. http://arxiv.org/abs/1412.5567
拡張機能
バージョン履歴
R2017b で導入