OOD 📅 May 31, 2022 · ☕ 1 min read Out of Distribution todo そもそもOODって何よ どう定義すれば良い? 例えば, 平行移動はOOD? ... #post
【論文メモ】Less complexity one-class classification approach using construction error of convolutional image transformation network 📅 May 29, 2022 · ☕ 1 min read 如何に異常検知を行うか? 例えば, りんご以外を弾くようなモデルはどのように作れば良いのか 本論文では, AutoEncoder と同じ格好で, りんごだけをすべてLennaに変換するように学習する なので, りんごでない部分が入力された際は変な画像が生成されてしまうことになる ... #論文 #異常検知
【論文メモ】IA-RED2 📅 May 28, 2022 · ☕ 1 min read AdaViTから引用されている パッチを途中でdropさせることができる めちゃくちゃ速い 強化学習っぽく学習 ... #論文 #説明性
Stochastic Depth 📅 May 28, 2022 · ☕ 1 min read SwinTransformerでは有効活用されてるらしい DeiTなどにも Dropoutがネットワークの幅を調整するのに対して, Stochastic Depth ではネットワークの深さを調節する 層のとても深いResNetといったモデルはBackpropagation時の勾配消失や,各パラメータが有効に学習しない,学習時間の増大などが問題点として上げら ... #機械学習 #post
【論文メモ】MixFormer 📅 May 28, 2022 · ☕ 1 min read SwinTransformer の Local-window と, DwConv (PointWise・Depthwise) を並列に接続 なぜ? ... #論文
MobileFormer 📅 May 28, 2022 · ☕ 1 min read TransformerとMobileNetを並列に接続 これって, MixFormer と同じ理由でうまく行ってる? → MixFormer参照 ... #post
【論文メモ】CycleMLP 📅 May 28, 2022 · ☕ 1 min read 従来のMLPモデルの問題点を克服 (Channel FC:性能が不十分、Spatial FC:計算量が多い) 任意の画像サイズに対応可能なCycle FCを提案 SwinTransformerよりも受容野が広いらしい ... #論文
【論文メモ】Pix2seq 📅 May 23, 2022 · ☕ 1 min read 入力 : 画像 出力 : $(y_{\text{min}},x_{\text{min}},y_{\text{max}},x_{\text{max}},c)$ 普通のMLMと同じ感じで, 学習. $$\text{maximize}\sum_{j=1}^{L}\bm{w}_{j}\log P(\tilde{\bm{y}}_{j}|{\bm{x}},{\bm {y}}_{1:j-1})~{},$$ ... #論文 #物体検出
【論文メモ】ROAR 📅 May 20, 2022 · ☕ 1 min read 何らかの基準でマスクして, 説明指標を評価 マスクした画像がOODにならないように, マスクした画像を使って更に学習 マスク方法 → 比較対象は Random / Sobel 比較されている手法は grad / Guided Backprop / Integrated Gradients / SmoothGrad / SG-SQ / VarGrad 最も良い結果が得られたのはSG-SQとVarGrad ... #論文 #説明性
Mask RCNN 📅 May 19, 2022 · ☕ 1 min read roi をencodeしたものをfeature map に投影する際, shapeが合わないので工夫する必要がある → ROI pooling と ROI Align (Mask RCNNはコッチ) mask-branchでmaskを生成 各画素ごとにクラス確率を計算 ROI pooling ROI Align bilinear補完を行う ... #CV #post
【論文メモ】FullGrad 📅 May 18, 2022 · ☕ 1 min read Saliency Map は Weak dependenceとCompletenessを満たす必要がある Weak dependence Saliency Map $S(x)$ と入力 $x$ に弱い依存関係がある状態 ここでは, $x$ がどの集合に属しているかで $f(x)$ が定まる状態と定義 Completeness Saliency Map $S(x)$ と入力 $x$ から元のモデル $f(x)$が復元できる状態 例えば, バイアス $\boldsymbol{b}$を使わずに生成した $S(x)$では復元でき ... #論文 #説明性