誤差逆伝搬型ニューラルネットワークの伝達関数として ReLU (Rectified Linear Unit) は対応していますか?
3 ビュー (過去 30 日間)
古いコメントを表示
MathWorks Support Team
2017 年 3 月 24 日
回答済み: MathWorks Support Team
2017 年 3 月 24 日
現在、誤差逆伝搬型型ニューラルネットの出力関数にシグモイド関数を使用していますが、これを「ReLU(Rectified Linear Unit)」に変更したいと考えておりますがToolboxとして対応していますか?
採用された回答
MathWorks Support Team
2017 年 3 月 24 日
ReLU(Rectified Linear Unit) 関数は、 poslin() としてご利用頂く事が可能です。
>> doc poslin
にて、伝達関数の形を確認することが可能です。
0 件のコメント
その他の回答 (0 件)
参考
カテゴリ
Help Center および File Exchange で Deep Learning Toolbox についてさらに検索
Community Treasure Hunt
Find the treasures in MATLAB Central and discover how the community can help you!
Start Hunting!