softplusLayer
説明
ソフトプラス層は、出力が必ず常に正であるようにするソフトプラス活性化関数 Y = log(1 + eX) を適用します。この活性化関数は、reluLayer
の滑らかで連続的なバージョンです。ユーザーが定義した深層ニューラル ネットワークにこの層を組み込んで、強化学習エージェントのアクターとして使用できます。この層は、標準偏差出力が正でなければならない連続ガウス方策深層ニューラル ネットワークを作成する場合に役立ちます。
作成
プロパティ
例
拡張機能
バージョン履歴
R2020a で導入