このページの内容は最新ではありません。最新版の英語を参照するには、ここをクリックします。
gru
構文
説明
ゲート付き回帰型ユニット (GRU) 演算では、時系列データとシーケンス データのタイム ステップ間の依存関係をネットワークに学習させることができます。
は、初期隠れ状態 Y
= gru(X
,H0
,weights
,recurrentWeights
,bias
)H0
、およびパラメーター weights
、recurrentWeights
、bias
を使用して、入力 X
にゲート付き回帰型ユニット (GRU) 演算を適用します。入力 X
は、書式化された dlarray
でなければなりません。出力 Y
は、X
と同じ次元形式をもつ書式化された dlarray
になります ("S"
次元を除く)。
関数 gru
は、双曲線正接関数 (tanh) を状態活性化関数として使用し、隠れ状態を更新します。関数 gru
は、 で与えられるシグモイド関数をゲート活性化関数として使用します。
[
は、GRU 演算を行った後に隠れ状態も返します。Y
,hiddenState
] = gru(X
,H0
,weights
,recurrentWeights
,bias
)
X
が書式化されていない dlarray
である場合、___ = gru(
は、次元形式 X
,H0
,weights
,recurrentWeights
,bias
,DataFormat=FMT)FMT
も指定します。出力 Y
は、X
と同じ順序で次元が並べられた、書式化されていない dlarray
になります ("S"
次元を除く)。
___ = gru(
は、1 つ以上の名前と値の引数を使用して追加のオプションを指定します。X
,H0
,weights
,recurrentWeights
,bias
,Name=Value)
例
入力引数
出力引数
詳細
参照
[1] Cho, Kyunghyun, Bart Van Merriënboer, Caglar Gulcehre, Dzmitry Bahdanau, Fethi Bougares, Holger Schwenk, and Yoshua Bengio. "Learning phrase representations using RNN encoder-decoder for statistical machine translation." arXiv preprint arXiv:1406.1078 (2014).