attention
構文
説明
attention 演算は、重み付き乗算を使用して入力の一部に焦点を当てます。
例
入力引数
名前と値の引数
出力引数
アルゴリズム
参照
[1] Vaswani, Ashish, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Łukasz Kaiser, and Illia Polosukhin. "Attention is all you need." Advances in neural information processing systems 30 (December 2017): 6000-6010. https://papers.nips.cc/paper/7181-attention-is-all-you-need.
[2] Luong, Minh-Thang, Hieu Pham, and Christopher D. Manning. "Effective approaches to attention-based neural machine translation." arXiv preprint arXiv:1508.04025 (2015).
拡張機能
バージョン履歴
R2022b で導入
参考
padsequences | dlarray | dlgradient | dlfeval | lstm | gru | embed