Gate により弱い similarity の影響を過剰に強く見積もることを防ぐ Attention on Attention 12 similarity softmax Query Key Value matmul Value’ concat linear linear sigmoid multiply Information Gate
感想 シンプルなアイデアで大きな効果を挙げていてよいと思いました。 まだ不勉強なので実際に優れているかどうかは他の文献の内容も読んで から判断したいです。 Attention 機構の拡張は色々提案されていますが、今回の Attention on Attention は他のアイデアとの組み合わせも容易なので可能性を感じまし た。Image Captioning 以外のタスクへも適用できそうです。 感想・次に読みたい文献 次に読みたい文献 Anderson et al. Bottom-up and top-down attention for image captioning and visual question answering. In CVPR, 2018. (Up-Down) Yang et al. Auto-encoding scene graphs for image captioning. In CVPR, June 2019. (SGAE) 19