<?xml version="1.0" encoding="utf-8" standalone="yes" ?>
<rss version="2.0" 
  xmlns:content="http://purl.org/rss/1.0/modules/content/" 
  xmlns:dc="http://purl.org/dc/elements/1.1/" 
  xmlns:atom="http://www.w3.org/2005/Atom" 
  xmlns:sy="http://purl.org/rss/1.0/modules/syndication/" 
  xmlns:media="http://search.yahoo.com/mrss/">
  <channel>
    <title>数学 on 行李の底に収めたり[YuWd]</title>
    <link>https://yuiga.dev/blog/tags/%E6%95%B0%E5%AD%A6/</link>
    <description>Recent content in 数学 on 行李の底に収めたり[YuWd]</description>
    <generator>Hugo -- gohugo.io</generator>
    <language>ja</language>
    <copyright>©2023, All Rights Reserved</copyright>
    <lastBuildDate>Sun, 11 Dec 2022 20:25:51 +0900</lastBuildDate>
    
        <atom:link href="https://yuiga.dev/blog/tags/%E6%95%B0%E5%AD%A6/index.xml" rel="self" type="application/rss+xml" />
    

      
      <item>
        <title>Distance CorrelationとPartial Distance Correlation について</title>
        <link>https://yuiga.dev/blog/posts/distance_correlation%E3%81%A8partial_distance_correlation_%E3%81%AB%E3%81%A4%E3%81%84%E3%81%A6/</link>
        <pubDate>Sun, 11 Dec 2022 20:25:51 +0900</pubDate>
        
        <atom:modified>Sun, 11 Dec 2022 20:25:51 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/distance_correlation%E3%81%A8partial_distance_correlation_%E3%81%AB%E3%81%A4%E3%81%84%E3%81%A6/</guid>
        <description>概要 pearsonの相関係数は線形な関係しか捉えることが出来ない. そこで, 点同士の距離を用いたDistance Correlationという相関係数が提案された. さらに, Distance Correlationを拡張し, 内積の期待値が共分散の二乗となるようなヒルベルト空間を定義したPartial Distance Correlationが提案されている.</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/bfee8d89b6ee336d532e9d61e209f66d.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>数学</category>
            
          
            
              <category>機械学習</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>【論文メモ】Deep Learning without Shortcuts: Shaping the Kernel with Tailored Rectifiers</title>
        <link>https://yuiga.dev/blog/posts/deep_learning_without_shortcuts_shaping_the_kernel_with_tailored_rectifiers/</link>
        <pubDate>Wed, 02 Nov 2022 10:16:11 +0900</pubDate>
        
        <atom:modified>Wed, 02 Nov 2022 10:16:11 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/deep_learning_without_shortcuts_shaping_the_kernel_with_tailored_rectifiers/</guid>
        <description>はじめに ICLR22 [paper] 深層学習において, 残差接続は不可欠な存在となりつつある 残差接続により, より深い層数のNNを実現できるようになった 残差接続に対する解釈の矛盾 昨今の研究により残差接続は比較的浅い層をアンサンブルするような効果があるとの見方が強まっている しかし, 「深層」学習という名が体を表す通り, 一般には「層を増やす」ことがモデ</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/34780be6ef367905dbf7d1ea9ee4c41f.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>論文</category>
            
          
            
              <category>機械学習</category>
            
          
            
              <category>数学</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>【相関係数】Pearson・Spearman・Kendallの使い分け</title>
        <link>https://yuiga.dev/blog/posts/%E7%9B%B8%E9%96%A2%E4%BF%82%E6%95%B0pearsonspearmankendall%E3%81%AE%E4%BD%BF%E3%81%84%E5%88%86%E3%81%91/</link>
        <pubDate>Sat, 24 Sep 2022 02:25:01 +0900</pubDate>
        
        <atom:modified>Sat, 24 Sep 2022 02:25:01 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/%E7%9B%B8%E9%96%A2%E4%BF%82%E6%95%B0pearsonspearmankendall%E3%81%AE%E4%BD%BF%E3%81%84%E5%88%86%E3%81%91/</guid>
        <description>ピアソン $$ r_{xy} = \frac{{\displaystyle \sum_{i = 1}^n (x_i - \overline{x}) (y_i - \overline{y})}}{\sqrt{{\displaystyle \sum_{i = 1}^n (x_i - \overline{x})^2}} \sqrt{{\displaystyle \sum_{i = 1}^n (y_i - \overline{y})^2}}} = \frac{s_{xy}}{s_xs_y} $$ データ(X,Y)が連続で正規分布に従っていることが前提 なので外れ値に弱い スピアマン $$ \rho_{xy} = \frac{\sum_{i=1}^{n}(R(x_i) - \overline{R(x)})(R(y_i) - \overline{R(y)})} {\sqrt{\sum_{i=1}^{n}(R(x_i) - \overline{R(x)})^{2}\cdot\sum_{i=1}^{n}(R(y_i)-\overline{R(y)})^{2}}} = 1 - \frac{6\sum_{i=1}^{n}(R(x_i) - R(y_i))^{2}}{n(n^{2} - 1)} $$ $R(x)$は $x$の順位 順位をそのままピアソンの式に当てはめるイメージ 正規分布・連続という仮定がない分使い勝手が良い ケンドール $$ \tau_{xy}</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        
        
        
        
          
            
              <category>数学</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>Stochastic Gradient Langevin Dynamicsを理解する</title>
        <link>https://yuiga.dev/blog/posts/stochastic_gradient_langevine_dynamics/</link>
        <pubDate>Mon, 05 Sep 2022 01:18:47 +0900</pubDate>
        
        <atom:modified>Mon, 05 Sep 2022 01:18:47 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/stochastic_gradient_langevine_dynamics/</guid>
        <description>はじめに MCMCの一種 目標: ある分布 $\pi(x)$からのサンプリングを行いたい Metropolis-Hastingsアルゴリズム (MH) Hamiltonian Monte Carlo (HMC) Langevin Dynamics (Metropolis-adjusted Langevin Algorithm) Stochastic Gradient Langevin Dynamics (SGLD) の順に見ていくと理解しやすい Metropolis-Hastings Metropolis-Hastingsについては既知のもとする 提案分布 $q(z)$を元に判定関数を用いて受容・棄却を行うMCMC cf.</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        
        
        
        
          
            
              <category>数学</category>
            
          
            
              <category>機械学習</category>
            
          
            
              <category>MCMC</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>ハミルトニアン</title>
        <link>https://yuiga.dev/blog/posts/%E3%83%8F%E3%83%9F%E3%83%AB%E3%83%88%E3%83%8B%E3%82%A2%E3%83%B3/</link>
        <pubDate>Mon, 05 Sep 2022 01:18:09 +0900</pubDate>
        
        <atom:modified>Mon, 05 Sep 2022 01:18:09 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/%E3%83%8F%E3%83%9F%E3%83%AB%E3%83%88%E3%83%8B%E3%82%A2%E3%83%B3/</guid>
        <description>解析力学において, ハミルトニアンとは「系のエネルギーを座標と運動量で表したもの」 系のエネルギー自体を表すため, 時間変化せず時間 $t$に依存しない $\mathcal{K}$を運動エネルギー、 $\mathcal{U}$をポテンシャルエネルギーとして $$H := H(q,p;t) =\mathcal{K}(p)+\mathcal{U}(q)$$ ハミルトニアンの正準方程式 運動ベクトル $p_r$と座標ベクトル $q_</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        
        
        
        
          
            
              <category>数学</category>
            
          
            
              <category>物理</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>Energy Based Model</title>
        <link>https://yuiga.dev/blog/posts/energy_based_model/</link>
        <pubDate>Sat, 27 Aug 2022 17:39:54 +0900</pubDate>
        
        <atom:modified>Sat, 27 Aug 2022 17:39:54 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/energy_based_model/</guid>
        <description>Energy Based Model 生成モデルによく用いられる 拡散モデルとも関係が深い 分類回帰問題についてはYour classifier is secretly an energy based model and you should treat it like oneを参照 GANやVAE同様, データ $x$は何らかの高次元確率分布 $p(x)$からサンプリングされたものと仮定する EBMでは以下のように確率分布 $p(x)$を仮定し, $E_{\theta}(\boldsym</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/865325b0fdeb431be1a92effc0f158c3.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>機械学習</category>
            
          
            
              <category>MCMC</category>
            
          
            
              <category>数学</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>Monkey saddle</title>
        <link>https://yuiga.dev/blog/posts/monkey_saddle/</link>
        <pubDate>Tue, 02 Aug 2022 18:20:49 +0900</pubDate>
        
        <atom:modified>Tue, 02 Aug 2022 18:20:49 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/monkey_saddle/</guid>
        <description>$z=x^3-3xy^2$をMonkey saddleと呼ぶらしい https://en.wikipedia.org/wiki/Monkey_saddle Monkey saddleは退化臨界点である (cf. Morse関数)</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/63628f546ad55fd31091e23c623cb9f5.gif" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>数学</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>Morse関数</title>
        <link>https://yuiga.dev/blog/posts/morse%E9%96%A2%E6%95%B0/</link>
        <pubDate>Tue, 02 Aug 2022 00:48:17 +0900</pubDate>
        
        <atom:modified>Tue, 02 Aug 2022 00:48:17 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/morse%E9%96%A2%E6%95%B0/</guid>
        <description>M を n 次元可微分多様体とする． M 上の $C^∞$ 関数 $f : M → R$の臨界点 $p$が非退化であるとは， $f$ の $p$における Hessian $H_p(f)$ が正則行列となることである．すべての臨界点が非退化であるような関数を Morse 関数とよぶ． https://www.ms.u-tokyo.ac.jp/~kohno/lectures/g1-7.pdf</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        
        
        
        
          
            
              <category>数学</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>WL test</title>
        <link>https://yuiga.dev/blog/posts/wl_test/</link>
        <pubDate>Thu, 28 Jul 2022 23:38:47 +0900</pubDate>
        
        <atom:modified>Thu, 28 Jul 2022 23:38:47 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/wl_test/</guid>
        <description>引用: https://davidbieber.com/post/2019-05-10-weisfeiler-lehman-isomorphism-test/ 正式名称: The Weisfeiler-Lehman Isomorphism Test グラフが同型であるかチェックするアルゴリズム 各ノード $i$に適当なラベル $C_i = 1$を割り当てる 隣接するノードの多重集合 $L_i$をノードに記録する 多重集合 $L_i$をハッシュに通して新たな $C_i$を得る ( $C_i \leftarrow hash(L_i)$) 以上を繰り返して, ノードの分割 ${C_i}$が収束したら停止 ２つのグラフが[* 同じ $</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/5386b3c91440a8742269364ea7e071f2.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>Graph</category>
            
          
            
              <category>数学</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>NTK</title>
        <link>https://yuiga.dev/blog/posts/ntk/</link>
        <pubDate>Sun, 17 Jul 2022 23:41:03 +0900</pubDate>
        
        <atom:modified>Sun, 17 Jul 2022 23:41:03 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/ntk/</guid>
        <description>Neural Tangent Kernel 以下に示すようなカーネル $$k_{\mathrm{NTK}}(x_i, x_j) = E_{\theta \sim \N} \left\langle \frac{\partial f(x_i; \theta)}{\partial \theta}, \frac{\partial f(x_j; \theta)}{\partial \theta} \right\rangle$$ 特に, 入力をhypersphereに限定すると, MLPのNTKは $h_{\mathrm{NTK}}(\mathbf x_i^\top \mathbf x_j)$と内積の形で書ける 幅が無限にデカイ全結合層を考えると, 重みはほとんど初期値の近くしか動かず, このモデルはNTKによるカーネル回帰と同じ挙動をする(らしい) なので, NNの解析がかな</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        
        
        
        
          
            
              <category>機械学習</category>
            
          
            
              <category>数学</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>ヒルベルト空間</title>
        <link>https://yuiga.dev/blog/posts/%E3%83%92%E3%83%AB%E3%83%99%E3%83%AB%E3%83%88%E7%A9%BA%E9%96%93/</link>
        <pubDate>Tue, 12 Jul 2022 18:01:45 +0900</pubDate>
        
        <atom:modified>Tue, 12 Jul 2022 18:01:45 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/%E3%83%92%E3%83%AB%E3%83%99%E3%83%AB%E3%83%88%E7%A9%BA%E9%96%93/</guid>
        <description>ベクトル空間 $\supset$ 内積空間 $\supset$ ヒルベルト空間 まず「ベクトル空間」について ベクトル空間の公理 (群論を想起すれば自然と思い出せる) 加法について閉じており, 零元, 逆元が存在 / 結合則・交換則が成立 スカラー積について閉じており, 零元, 逆元が存在 / 結合則が成立 スカラー積と加法の間で分配法則が成立 $$\lambda (a+b)=\lambda a + \lambda b$$ こいつらが成り立てばまずはベク</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        
        
        
        
          
            
              <category>数学</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>リプシッツ連続</title>
        <link>https://yuiga.dev/blog/posts/%E3%83%AA%E3%83%97%E3%82%B7%E3%83%83%E3%83%84%E9%80%A3%E7%B6%9A/</link>
        <pubDate>Mon, 04 Jul 2022 12:16:49 +0900</pubDate>
        
        <atom:modified>Mon, 04 Jul 2022 12:16:49 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/%E3%83%AA%E3%83%97%E3%82%B7%E3%83%83%E3%83%84%E9%80%A3%E7%B6%9A/</guid>
        <description>関数 $f(x)$ がリプシッツ連続である $\Leftrightarrow \exist k, \forall x_1, x_2 , |f(x_1)-f(x_2)|\leq k|x_1-x_2|$ 機械学習において, 摂動 $e$を与えた場合の解析に良く用いられるword (ホントか？) すなわち, リプシッツ連続であれば, $|f(x+e)-f(x)|\leq k|e|$ が成り立つので, 摂動に強い分類器であると言える.</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        
        
        
        
          
            
              <category>数学</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      
      <item>
        <title>Hessianの固有値とフラットさ</title>
        <link>https://yuiga.dev/blog/posts/hessian%E3%81%AE%E5%9B%BA%E6%9C%89%E5%80%A4%E3%81%A8%E3%83%95%E3%83%A9%E3%83%83%E3%83%88%E3%81%95/</link>
        <pubDate>Thu, 30 Jun 2022 17:40:21 +0900</pubDate>
        
        <atom:modified>Thu, 30 Jun 2022 17:40:21 +0900</atom:modified>
        <guid>https://yuiga.dev/blog/posts/hessian%E3%81%AE%E5%9B%BA%E6%9C%89%E5%80%A4%E3%81%A8%E3%83%95%E3%83%A9%E3%83%83%E3%83%88%E3%81%95/</guid>
        <description>Hessianの固有値は等高線の密度を表現する どの方向に勾配が, どの程度早く移動するか なので, 最大固有値が小さいと損失平面はフラットになる (等高線の密度がどの方向にも低い)</description>
        
        <dc:creator>YuWd (Yuiga Wada)</dc:creator>
        <media:content url="https://yuiga.dev/bloghttps://gyazo.com/879d603a823929cc260d455feddad37b.png" medium="image"><media:title type="html">featured image</media:title></media:content>
        
        
        
          
            
              <category>数学</category>
            
          
            
              <category>post</category>
            
          
        
        
        
          
            
          
        
      </item>
      

    
  </channel>
</rss>
