Posts
Efficient Transformer
· ☕ 1 min read
サーベイ→ https://arxiv.org/abs/2009.06732 Fixed Patterns Blockwise Patterns シーケンスを局所的なサイズにクロップ Strided Patterns ストライドで計算 Compressed Patterns poolingなどでダウンサンプリング Combination of Patterns Learnable Patterns ReformerやRouting Transformer など 重要度が高いもののみ使用 Memory Set Transformerなど Low-Rank Methods Kernels Recurrence ...


GeLU
· ☕ 1 min read
シグモイド関数よりも,高速で収束性能の良い,ReLU型関数による活性化. Dropout(活性値のランダムな0化)による,モデルの正則化効果. RNN向け正則化手法の Zoneout のような「入力へランダムに1を掛けることによる正則化」の効果. アイデア [* 決定論的なReLUを確率論的な「0 or x 選択」に差し替える] ⇒ ランダム正則化 入力 $x$ ...


RANSAC
· ☕ 1 min read
RANSAC(RANdom SAmple Consensus) → 外れ値を含むデータから、外れ値の影響を除外して数学モデルのパラメータを学習する手法。 Method 適当にサンプリングしてきたサンプル点だけで回帰を行う 回帰された関数 $f$ を全サンプル点で評価する (SVM のマージンみたいに) 一番評価の高い関数 $f$ を最終的に採用する https://gyazo.com/d6d40b0d117f16724f69dcc04da868a8 https://en.wikipedia.org/wiki/Random_sample_consensus ...


Feature Pyramid Networks
· ☕ 2 min read
Feature Pyramid Networks とは Feature Pyramid Networks (FPN) は,前段のボトムアップなCNNの後段に,deepな層とshallowな層をトップダウンに接続した上で,更に各スケール階層同士をスキップ接続でつないで,砂時計型Encoder-Decoderを構成するの特徴集約のCNNバックボーンを拡張する構造である.FAIRの物体検出が得意な有名チームから提案されたこ ...


二重確率行列
· ☕ 1 min read
正方行列 すべての行和とすべての列和が1 行列の全成分が0以上 こいつを確率推移行列とするような確率推移は全要素が均一な状態に収束 ...

N-Shot Learning
· ☕ 1 min read
https://ananas1845.hatenablog.com/entry/2019/12/22/022405 ...

【論文メモ】Supervised Contrastive Learning
· ☕ 1 min read
Prototypical Contrastive Learning of Unsupervised Representations と同じ動機 本来類似度が高くても負例ペアは負例ペアとして認識してしまうので, よくないよね → ラベル情報を使いましょう → [* 教師あり対照学習] こうじゃなくて (一番下の犬がtarget) こうしたい ...


問題を如何に見つけるか
· ☕ 3 min read
はじめに モデルを取っ替えるだけが"“研究"“なら, 研究はただの博打に過ぎない 重要なのは分析と評価である しかし, わかりやすい分析だけでは研究にならない(気がする) したがって, まずは分析手法を徹底的にカテゴライズする必要がある できればこれらのメトリクスを常に表示できるようにしたい ...


ウェーブレット変換
· ☕ 1 min read
フーリエの場合は無限に続く正弦波を元に波形を復元する 一方, ウェーブレットの場合は, ウェーブレットと呼ばれる波の断片を寄せ集めて波形を復元する したがって, ウェーブレットの場合は当該箇所を探しに行かなくてはならない だが, これが逆にメリットであり, 時系列情報を保持したまま周波数領域に持っていくようなことができる 例えば下のよう ...