Slide 18
Slide 18 text
∞-former:無限メモリー・トランスフォーマー
(原文:∞-former: Infinite Memory Transformer)
http://arxiv.org/abs/2109.00301v2
トランスフォーマーは長い文脈を扱う場合、文脈の長さに応じて計算量が増加するため、長期記憶を効果的にモデル化すること
ができません。この問題を解決するためにいくつかのバリエーションが提案されてきたが、いずれも記憶容量に限界があり、古
い情報を削除せざるを得ない。本論文では、
∞-formerを提案する。これは、バニラ変換器を拡張し、
無制限の長期記憶を持
つようにしたものである。本論文では、
∞-formerを長期記憶を持つように拡張した。これにより、任意の長さの文脈をモデル化
し、一定の計算量を維持しながら「粘着性のある記憶」を維持することが可能となる。合成ソートタスクの実験では、
∞-former
が長いシーケンスからの情報を保持する能力を実証しています。また、言語モデリングの実験では、ゼロからモデルを学習した
り、事前に学習した言語モデルを微調整したりすることで、拘束力のない長期記憶の利点を示しています。
Top recent #1
● 目的:Transformer の扱う文脈の長さに依存する計算量の削減、既存の改善案に残る長さ制限の解決
● 成果:ソートタスクの精度と言語モデルの評価指標において、本手法の導入が有効であることを提示
● 方法:Continuous Attention を用いた無限長期記憶の追加
● 固有名:∞-former
● 著者所属:Instituto de Telecomunicações (ポルトガルのリスボン大学系列の研究所)
, DeepMind, 等