<?xml version="1.0" encoding="utf-8" standalone="yes" ?>
<rss version="2.0" 
  xmlns:content="http://purl.org/rss/1.0/modules/content/" 
  xmlns:dc="http://purl.org/dc/elements/1.1/" 
  xmlns:atom="http://www.w3.org/2005/Atom" 
  xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" 
  xmlns:media="http://search.yahoo.com/mrss/">
  <channel>
    <title>Graph on 行李の底に収めたり[YuWd]</title>
    <link>https://yuiga.dev/blog/en/tags/graph/</link>
    <description>Recent content in Graph on 行李の底に収めたり[YuWd]</description>
    <generator>Hugo -- gohugo.io</generator>
    <language>en</language>
    <copyright>©2026, All Rights Reserved</copyright>
    <lastBuildDate>Mon, 19 Sep 2022 00:57:50 +0900</lastBuildDate>
    
        <atom:link href="https://yuiga.dev/blog/en/tags/graph/index.xml" rel="self" type="application/rss+xml" />
    

      
      <item>
        <title>【論文メモ】Energy-Based Learning for Scene Graph Generation</title>
        <link>https://yuiga.dev/blog/en/ja/posts/energy-based_learning_for_scene_graph_generation/</link>
        <pubDate>Mon, 19 Sep 2022 00:57:50 +0900</pubDate>
        
        <atom:modified>Mon, 19 Sep 2022 00:57:50 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/energy-based_learning_for_scene_graph_generation/</guid>
        <description>はじめに Energy Based Modelを用いて画像からscene graphを生成する手法(フレームワーク)を提案 既存手法は次のようにクロスエントロピーでscene graphを生成する $$\log p(SG|I) = \sum_{i \in O} \log p(o_i| I) + \sum_{j \in R} \log p(r_j | I).$$ このとき, object $O$とrelation $R$が互いに独立に計算されている ここが問題で, 本来なら互いに弱い依存性があるはず し</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/b6fd8fd063fe798fec0b02015c31b045.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>論文</category>
            
          
            
              <category>Graph</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>【論文メモ】Generating Semantically Precise Scene Graphs from Textual Descriptions for Improved Image Retrieval</title>
        <link>https://yuiga.dev/blog/en/ja/posts/generating_semantically_precise_scene_graphs_from_textual_descriptions_for_improved_image_retrieval/</link>
        <pubDate>Wed, 24 Aug 2022 02:21:50 +0900</pubDate>
        
        <atom:modified>Wed, 24 Aug 2022 02:21:50 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/generating_semantically_precise_scene_graphs_from_textual_descriptions_for_improved_image_retrieval/</guid>
        <description>Stanford Scene Graph Parserの論文 (ACL 2015) 一応, scene graphを自動化してimage retrievalできるようにしようという趣旨 https://nlp.stanford.edu/software/scenegraph-parser.shtml 流れ ①Universal Dependenciesを一部修正したものをsemantic graphとして生成 a lot of 等のquantificational modifiersの修正 代名詞の解釈 複数名詞への対応 → ノー</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        
        
        
        
          
            
              <category>論文</category>
            
          
            
              <category>NLP</category>
            
          
            
              <category>Vision-and-Language</category>
            
          
            
              <category>Graph</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>【論文メモ】Graphormer: Do Transformers Really Perform Bad for Graph Representation?</title>
        <link>https://yuiga.dev/blog/en/ja/posts/graphormer_do_transformers_really_perform_bad_for_graph_representation/</link>
        <pubDate>Tue, 16 Aug 2022 20:46:37 +0900</pubDate>
        
        <atom:modified>Tue, 16 Aug 2022 20:46:37 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/graphormer_do_transformers_really_perform_bad_for_graph_representation/</guid>
        <description>はじめに Transformerをベースとしたグラフ学習手法 (NeurIPS 2021) 構成要素は三つ Centrality Encoding Spatial Encoding Edge Encoding (in the Attention) 特筆すべき点として, この手法はGINやGCN, それからGraphSAGEといったGNN手法を一般化したものとなっているらしい Do Transformers Really Perform Bad for Graph Representation? 論文メモ 構成要素1. Centrality Encoding モチベーション Node Centrality, つまりノードがどれほど別のノードとつながって</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/78a900d78ecdefbbad1d5b4c1609f9be.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>論文</category>
            
          
            
              <category>Graph</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>【論文メモ】SPICE: Semantic Propositional Image Caption Evaluation</title>
        <link>https://yuiga.dev/blog/en/ja/posts/spice_semantic_propositional_image_caption_evaluation/</link>
        <pubDate>Tue, 16 Aug 2022 20:46:30 +0900</pubDate>
        
        <atom:modified>Tue, 16 Aug 2022 20:46:30 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/spice_semantic_propositional_image_caption_evaluation/</guid>
        <description>評価指標SPICEの論文 (ECCV 2016) BLEUなどはn-gramの重なりにsensitiveで, 真の意味でsemanticsを評価しているとは言えない そこで, scene graphを用いた評価指標SPICEを提案 実際, 画像キャプショニングモデルではよく見かける指標となってきた 流れ ① 複数キャプションからscene graphを生成 scene graph</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/86b2eefc57b88f16f77dc26d56a26094.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>論文</category>
            
          
            
              <category>NLP</category>
            
          
            
              <category>Vision-and-Language</category>
            
          
            
              <category>Graph</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>【論文メモ】TokenGT: Pure Transformers are Powerful Graph Learners</title>
        <link>https://yuiga.dev/blog/en/ja/posts/tokengt_pure_transformers_are_powerful_graph_learners/</link>
        <pubDate>Tue, 02 Aug 2022 18:58:30 +0900</pubDate>
        
        <atom:modified>Tue, 02 Aug 2022 18:58:30 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/tokengt_pure_transformers_are_powerful_graph_learners/</guid>
        <description>グラフをそのままTransformerにブチこむ手法 GNNより帰納バイアスが少ないが, GNNよりも良い精度を達成 入力について まず, ノードとエッジをそれぞれ独立なものとして捉え, それぞれを同等にトークン $X$とする そのトークンに, ノードなのかエッジなのかを判別するType Identifiersをconcatして入力 トーク</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/cfa68a924d0c584ebaa51ff8f6500c78.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>論文</category>
            
          
            
              <category>Graph</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>WL test</title>
        <link>https://yuiga.dev/blog/en/ja/posts/wl_test/</link>
        <pubDate>Thu, 28 Jul 2022 23:38:47 +0900</pubDate>
        
        <atom:modified>Thu, 28 Jul 2022 23:38:47 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/wl_test/</guid>
        <description>引用: https://davidbieber.com/post/2019-05-10-weisfeiler-lehman-isomorphism-test/ 正式名称: The Weisfeiler-Lehman Isomorphism Test グラフが同型であるかチェックするアルゴリズム 各ノード $i$に適当なラベル $C_i = 1$を割り当てる 隣接するノードの多重集合 $L_i$をノードに記録する 多重集合 $L_i$をハッシュに通して新たな $C_i$を得る ( $C_i \leftarrow hash(L_i)$) 以上を繰り返して, ノードの分割 ${C_i}$が収束したら停止 ２つのグラフが[* 同じ $</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/5386b3c91440a8742269364ea7e071f2.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>Graph</category>
            
          
            
              <category>数学</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>【論文メモ】Representation Learning on Graphs with Jumping Knowledge Networks</title>
        <link>https://yuiga.dev/blog/en/ja/posts/representation_learning_on_graphs_with_jumping_knowledge_networks/</link>
        <pubDate>Tue, 12 Jul 2022 18:10:21 +0900</pubDate>
        
        <atom:modified>Tue, 12 Jul 2022 18:10:21 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/en/ja/posts/representation_learning_on_graphs_with_jumping_knowledge_networks/</guid>
        <description>概要 隣接ノードからのaggregationだけでは, k層のGCNはただのrandom-walkと変わらない r.w = random-walk 濃い色のノードはInfluence Probabilityの高いもの 各ノードの影響範囲が大きくてもダメだし, 小さくてもダメ なので, 各層の出力をすべて使用し, モデルに適切な影響半径を決めさせるJumping Knowledge Ne</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/b96faebf90a2a74f5d8bc23078a86bd5.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>論文</category>
            
          
            
              <category>GNN</category>
            
          
            
              <category>Graph</category>
            
          
        
        
        
          
            
          
        
      </item>
      

    
  </channel>
</rss>
