データから“学習”することによって理想的な関数 に近似する → 連続関数を表現できればNNを構築できるのでは? 普遍性定理 Kolmogorov-Arnold表現定理 MLP KAN • 線形変換 𝐰 と特定の⾮線形変換 𝜎 を組み合わせ ることで任意の連続関数を近似できるという定理 • 𝐰 はエッジの線形変換、 𝜎 はノードの活性化関数 に相当 • 1変数連続関数 Φ, 𝜙 の重ね合わせによって任意の 多変数連続関数を完全に表現できるという定理 • Φ, 𝜙 はエッジの⾮線形変換、Σはノードの加算操作 に相当 (従来のNN)