<?xml version="1.0" encoding="utf-8" standalone="yes" ?>
<rss version="2.0" 
  xmlns:content="http://purl.org/rss/1.0/modules/content/" 
  xmlns:dc="http://purl.org/dc/elements/1.1/" 
  xmlns:atom="http://www.w3.org/2005/Atom" 
  xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" 
  xmlns:media="http://search.yahoo.com/mrss/">
  <channel>
    <title>自己教師あり学習 on 行李の底に収めたり[YuWd]</title>
    <link>https://yuiga.dev/blog/en/tags/%E8%87%AA%E5%B7%B1%E6%95%99%E5%B8%AB%E3%81%82%E3%82%8A%E5%AD%A6%E7%BF%92/</link>
    <description>Recent content in 自己教師あり学習 on 行李の底に収めたり[YuWd]</description>
    <generator>Hugo -- gohugo.io</generator>
    <language>en</language>
    <copyright>©2026, All Rights Reserved</copyright>
    <lastBuildDate>Tue, 18 Oct 2022 19:34:11 +0900</lastBuildDate>
    
        <atom:link href="https://yuiga.dev/blog/en/tags/%E8%87%AA%E5%B7%B1%E6%95%99%E5%B8%AB%E3%81%82%E3%82%8A%E5%AD%A6%E7%BF%92/index.xml" rel="self" type="application/rss+xml" />
    

      
      <item>
        <title>【論文メモ】SimCSE</title>
        <link>https://yuiga.dev/blog/en/ja/posts/simcse/</link>
        <pubDate>Tue, 18 Oct 2022 19:34:11 +0900</pubDate>
        
        <atom:modified>Tue, 18 Oct 2022 19:34:11 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/simcse/</guid>
        <description>ENMLP21 Supervised SimCSE 含意関係にある文を正例として対照学習 NLIデータセット Unsupervised SimCSE 同じ文を二回埋め込んで対照学習 dropoutの影響で微かに異なる二つのベクトルに対して対照学習 引用: https://www.slideshare.net/DeepLearningJP2016/dlsimcse-simple-contrastive-learning-of-sentence-embeddings-emnlp-2021</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/54da476b5c4176cec254b0759b90b569.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>論文</category>
            
          
            
              <category>自己教師あり学習</category>
            
          
            
              <category>NLP</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>【論文メモ】Prototypical Contrastive Learning of Unsupervised Representations</title>
        <link>https://yuiga.dev/blog/en/ja/posts/prototypical_contrastive_learning_of_unsupervised_representations/</link>
        <pubDate>Mon, 01 Aug 2022 20:17:52 +0900</pubDate>
        
        <atom:modified>Mon, 01 Aug 2022 20:17:52 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/prototypical_contrastive_learning_of_unsupervised_representations/</guid>
        <description>輪講スライド 背景 Instance-wiseな教師なし表現学習 : 加⼯された画像(instance)のペアが同じ元画像に由来するかを識別 MoCo SimCLR SimSiam など Instance-wiseな⼿法における２つの問題点 1- 低次元の特徴だけで識別できるため, 識別はNNにとって簡単なタスク → **⾼密度な情報をエンコードしているとは⾔い難い ** 2- ペア間</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/bced9edbf537ec3979092f1a139160a0.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>論文</category>
            
          
            
              <category>対照学習</category>
            
          
            
              <category>自己教師あり学習</category>
            
          
            
              <category>EMアルゴリズム</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>【論文メモ】Un-Mix</title>
        <link>https://yuiga.dev/blog/en/ja/posts/un-mix/</link>
        <pubDate>Tue, 14 Jun 2022 22:30:40 +0900</pubDate>
        
        <atom:modified>Tue, 14 Jun 2022 22:30:40 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/un-mix/</guid>
        <description>$I_A$ にCutMixとMixup を掛ける ( Mixup: $I_{A}^{M}=\lambda I_{1}+(1-\lambda) I_{2}$) 画像の混合比率 $\lambda$ に応じて, 正例間の意味的距離を調節 $$\mathcal{L}_{final}!=!\mathcal{L}_{ori}+\underbrace{\lambda \mathcal{L}_{m}!(I_A^{M} (\downarrow), \hat I_A)}_{\text {normal order of mixtures}}!+!\underbrace{(1!-!\lambda) \mathcal{L}_{m}!(I_A^{M} (\uparrow), \hat I_A)}_{\text {reverse order of mixtures}} $$ Mix方法は, 単純にミニバッチを反転させて, indexごとにmixするだけ Mixup が効いて, より決定境界が明瞭に</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/d076b01f7540dca404730130e4db361f.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>自己教師あり学習</category>
            
          
            
              <category>論文</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>【論文メモ】SwAV</title>
        <link>https://yuiga.dev/blog/en/ja/posts/swav/</link>
        <pubDate>Mon, 13 Jun 2022 22:46:58 +0900</pubDate>
        
        <atom:modified>Mon, 13 Jun 2022 22:46:58 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/swav/</guid>
        <description>Unsupervised Learning of Visual Features by Contrasting Cluster Assignments Prototypical Contrastive Learning of Unsupervised Representations より複雑なことしてる Sinkhorn-Knoppアルゴリズムを用いてクラスの割当を最適化</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/66826199e2a620889f5064fc778716c4.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>自己教師あり学習</category>
            
          
            
              <category>クラスタリング</category>
            
          
            
              <category>論文</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>【論文メモ】Supervised Contrastive Learning</title>
        <link>https://yuiga.dev/blog/en/ja/posts/supervised_contrastive_learning/</link>
        <pubDate>Sun, 12 Jun 2022 19:19:07 +0900</pubDate>
        
        <atom:modified>Sun, 12 Jun 2022 19:19:07 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/supervised_contrastive_learning/</guid>
        <description>Prototypical Contrastive Learning of Unsupervised Representations と同じ動機 本来類似度が高くても負例ペアは負例ペアとして認識してしまうので, よくないよね → ラベル情報を使いましょう → [* 教師あり対照学習] こうじゃなくて (一番下の犬がtarget) こうしたい</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/97e064e93b19391edf56f2f7b89d24bc.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>論文</category>
            
          
            
              <category>自己教師あり学習</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>【論文メモ】Rethinking the Value of Labels for Improving Class-Imbalanced Learning</title>
        <link>https://yuiga.dev/blog/en/ja/posts/rethinking_the_value_of_labels_for_improving_class-imbalanced_learning/</link>
        <pubDate>Tue, 10 May 2022 20:32:05 +0900</pubDate>
        
        <atom:modified>Tue, 10 May 2022 20:32:05 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/rethinking_the_value_of_labels_for_improving_class-imbalanced_learning/</guid>
        <description>不均衡データには正と負の両方の側面がある 正の側面 性能に寄与する → 負の側面 サンプル数が多いクラスに引っ張られて決定境界が歪む → https://arxiv.org/abs/2006.07529</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        
        
        
        
          
            
              <category>論文</category>
            
          
            
              <category>todo</category>
            
          
            
              <category>自己教師あり学習</category>
            
          
        
        
        
          
            
          
        
      </item>
      

    
  </channel>
</rss>
