論文
【論文メモ】Maximum Classifier Discrepancy for Unsupervised Domain Adaptation
· ☕ 1 min read
Domain Adaptation 従来手法 : sourceとtargetとで分布が違うはずなのに, ドメイン同士の境界(赤線)を基準に近づけようとしている → 分布の違いを考慮しつつ決定境界を修正する必要がある → GAN GAN風に学習する 2つのclassifierとそれらを生成するgenerator ...


【論文メモ】Manifold Mixup: Better Representations by Interpolating Hidden States
· ☕ 1 min read
どういうの? 無作為に選んだ層までは普通に計算して,その層の出力の複数をランダムに選んでMixup そのままその値を使って最終層まで計算&lossを計算し, 逆伝播 決定境界が滑らかになるらしい 簡単に説明すると, まず特徴量空間上で特徴量がflattenな状態に収束していくらしい flatten=小さい部分空間で表現できるというこ ...


【論文メモ】Un-Mix
· ☕ 1 min read
IA にCutMixとMixup を掛ける ( Mixup: IAM=λI1+(1λ)I2) 画像の混合比率 λ に応じて, 正例間の意味的距離を調節 Lfinal!=!Lori+λLm!(IAM(),I^A)normal order of mixtures!+!(1!!λ)Lm!(IAM(),I^A)reverse order of mixtures Mix方法は, 単純にミニバッチを反転させて, indexごとにmixするだけ Mixup が効いて, より決定境界が明瞭に ...


【論文メモ】Supervised Contrastive Learning
· ☕ 1 min read
Prototypical Contrastive Learning of Unsupervised Representations と同じ動機 本来類似度が高くても負例ペアは負例ペアとして認識してしまうので, よくないよね → ラベル情報を使いましょう → [* 教師あり対照学習] こうじゃなくて (一番下の犬がtarget) こうしたい ...


【論文メモ】Affinity loss
· ☕ 1 min read
ソフトマックスにクラスタリングの要素を持ち込んで、不均衡を是正するアルゴリズム. サポートベクターマシンのようなマージン最大化問題を考える ...

【論文メモ】Stop Explaining Black Box Machine Learning Models for High Stakes Decisions and Use Interpretable Models Instead
· ☕ 1 min read
事後的な説明性は必ず近似を含むので, モデルの説明にはならない なので近似を含ませずに直接解釈可能なモデルを作らねばならない ステークホルダーは解釈可能性よりも, とりあえず「説明」がほしいということがよくある なので, 決定木ベースであったり, スコアリングベースの手法がビジネスで使われてしまう またステークホルダーは説明性を出力し ...

【論文メモ】Less complexity one-class classification approach using construction error of convolutional image transformation network
· ☕ 1 min read
如何に異常検知を行うか? 例えば, りんご以外を弾くようなモデルはどのように作れば良いのか 本論文では, AutoEncoder と同じ格好で, りんごだけをすべてLennaに変換するように学習する なので, りんごでない部分が入力された際は変な画像が生成されてしまうことになる ...


【論文メモ】IA-RED2
· ☕ 1 min read
AdaViTから引用されている パッチを途中でdropさせることができる めちゃくちゃ速い 強化学習っぽく学習 ...