JavaScriptを有効にしてください

【論文メモ】cosFormer

 ·  ☕ 1 min read
  • ICLR 2022

  • 普通のTransformer
    Attention(Q,K,V)i=j=1nexp(qiTkj)vjj=1nexp(qiTkj)

  • expが括り出せれば, iとjとで分離できる

  • Attentionにおけるsoftmaxの重要な特性

      1. Attention Matrix Aが非負であること
      • ReLUの場合を考えてみると, 負の値を0とすることで, 不要な値・誤った情報を掻き消すことができる
      1. 非線形な重み付け
      • ReLUよりもsoftmaxのほうが関数近似の速度が速いので, softmaxのほうが良いらしい
  • 上記の議論より, ϕ()ReLUを採用 (上のやつの場合はELU)

  • cos-Baesd Re-weighting Mecnism

    • softmaxはattentionの分散を抑え (=attentionを集中させ), 局所性を高めると言われている
    • なので, 局所性を高めるような重み付けがあると良い
      • つまり, 距離に対して単調に減少するような重み付けを掛けてあげればよい
      • cos(π2×distM)=cos(π2×ijM) を重みにする
共有

YuWd (Yuiga Wada)
著者
YuWd (Yuiga Wada)
機械学習・競プロ・iOS・Web