Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Principled AI ~深層学習時代における課題解決の方法論~

Principled AI ~深層学習時代における課題解決の方法論~

2025年3月27日
電子情報通信学会 総合大会 企画セッション
「パターン認識・メディア理解(PRMU)技術の産業応用」

深層学習を用いたAI技術は、2012年に音声認識や画像認識で成功を収めて以来、目覚ましい進化を遂げています。私は、深層学習が台頭する以前の2011年頃からコンピュータビジョン分野で画像セグメンテーションや奥行推定などの課題に取り組み、特に2012年から2017年の深層学習の黎明期から過渡期にかけては、修士・博士課程の大学院生として、この技術が従来の手法を刷新していく様子を最前線で目の当たりにしました。現在も自立制御や材料科学の分野を中心に、AI技術の研究に取り組んでいます。本講演では、こうした経験をもとに、AI技術の進展を振り返りつつ、私が近年追求する課題解決の方法論「Principled AI」を紹介します。Principled AIは、ニューラルネットワークをブラックボックス型ツールとして扱うのではなく、古典的アプローチで培われた知見を統合し、性能やデータ効率、信頼性を追求する設計思想です。Principled AIの材料科学分野への応用例として、ICLR 2024で発表したCrystalformerを取り上げ、物性予測やセンシングといった物理法則が支配する問題領域における深層学習の可能性を議論します。

Tatsunori Taniai

March 27, 2025
Tweet

More Decks by Tatsunori Taniai

Other Decks in Research

Transcript

  1. 谷合 竜典 OMRON SINIC X / Senior Researcher 深層学習時代における 課題解決の方法論

    Principled AI 電子情報通信学会 総合大会 企画セッション パターン認識・メディア理解(PRMU)技術の産業応用 2025年3月27日 東京都市大学世⽥谷キャンパス
  2. 今日 話したいこと 1 • Transformerを用いた3次元結晶構造解析の研究の紹介 [ICLR 24 & 25] の前に・・・

    • 根底にある “Principled AI” と呼んでいる考え方の紹介 の前に・・・ • “Principled AI” に至るまでの研究経緯
  3. 略歴 改 2 世の中の出来事 -2012 人々はモデルや特徴量を手作りしていた 2012末 ILSVRC2012にてAlexNetが圧勝 → 深層学習時代の幕開け

    2014 NLPにてSeq2Seqモデル が登場 2015 CVにてResNetやYOLOが登場 2017 NLPにてTransformerが登場 2022 ChatGPTが登場 深層学習の黎明期から発展期にかけて 大学院 修士・博士の学生としてコンピュータビジョン(CV)の研究 2012-2014 東京大学 情報理工学系 修士 最適化ベースのCV手法の研究 2014-2017 東京大学 情報理工学系 博士 最適化ベースのCV手法の研究 2017-2019 理化学研究所 革新知能統合センター 古典CV手法と深層学習の融合 2019-現在 OMRON SINIC X Corporation センシング、CV、材料情報学など 2009-2012 東京大学 工学部 画像セグメンテーションの研究
  4. 略歴 改 3 2012-2014 東京大学 情報理工学系 修士 最適化ベースのCV手法の研究 2014-2017 東京大学

    情報理工学系 博士 最適化ベースのCV手法の研究 2017-2019 理化学研究所 革新知能統合センター 古典CV手法と深層学習の融合 2019-現在 OMRON SINIC X Corporation センシング、CV、材料情報学など 機械学習は一切使わずに学位取得 • 当初 CV分野はモデルベース勢と学習ベース勢で二分 • 修士のとき深層学習の夜明け → 博士3年間で 分野が激変 → どうにか “No Deep” で逃げ切る ML CV 学習 モデル 2012年以前 自分の 研究領域 ML CV 深層学習 2012年以降 深層学習との自分なりの「折り合い方」の探究 • 古典手法との融合の試み と 失敗 • 後々登場した論文との “答え合わせ” と 反省 • Principled AI という考え方 と 実践 2009-2012 東京大学 工学部 画像セグメンテーションの研究
  5. 発表の流れ 4 深層学習以前の研究 2011 (B4) ~ 2016 (D3) • モデルベースCV

    • ステレオマッチング [CVPR 14 & TPAMI 18] 深層学習の研究 • 進展の振り返り:CV分野・ステレオマッチングを中心に • 自身の取り組み 2017 (PD) ~:失敗例 と 成功例 [ICML 18 & 21] Principled AI : 深層学習と古典的知見の融合 Transformer を用いた結晶構造解析 [ICLR 24 & 25] 次ココ
  6. CVとの出会い 2011年3月 5 • 画像セグメンテーション(B4研究室配属時のD3の先輩のテーマ) “GraphCut” [Rother+, SIGGRAPH 04] 𝐸

    𝑿 = ෍ 𝑝∈V −log 𝑃(𝐼𝑝 |𝑋𝑝 ) + ෍ 𝑝,𝑞 ∈𝐸 𝑤𝑝𝑞 𝑋𝑝 − 𝑋𝑞 「数理モデルを立ててその最小解を見つける」という 数理的原理に基づいたアプローチ と 画像を扱う華やかさ とのギャップに魅力 画素色に基づく負の対数尤度 隣接画素間の結合強度 𝐸 𝑿 𝑿 𝑿∗
  7. 学生時代の研究 2011 (B4) ~ 2016 (D3) 6 動画のステレオ、フロー、 モーションセグメンテーション [CVPR

    17] セマンティック対応点推定 と同時セグメンテーション [CVPR 16] 画像ペアに対する ステレオ奥行推定 [CVPR 14] 前景背景セグメンテーションと 2値最適化 [BMVC 12, CVPR 15] 𝐸 𝑿 = σ𝑝∈V 𝑓𝑝 (𝑋𝑝 ) + σ 𝑝,𝑞 ∈𝐸 𝑓𝑝𝑞 (𝑋𝑝 , 𝑋𝑞 ) + σ𝐶⊂𝑉 𝑓𝐶 (𝑿𝐶 ) 画像平面上のラベリング 𝑿 についてのコスト関数 𝐸 𝑿 の最適化問題 画素ごとの項 2画素間の項 より高階の項 モデルベースアプローチ = コスト関数 + 最適化アルゴリズム
  8. モデルベースCVの研究 7 モデルを立てる • 観測データの生成過程を考える (撮像モデル、カメラモーション、光源、etc.) • 求めたい変数と観測データとの関係をひも解きながら、目的変数の「正解らし さ」を式に落とし込む (観測データとの適合性、隣接画素間の“滑らかさ”、etc.)

    研究の「しどころ」 大原則:複雑な現実世界を厳密にモデル化するほど、最適化が困難に。なので・・・ ① 解きやすい形だが、正解の性質をよくとらえたモデルの考案 ② 問題の性質を利用し、特化した最適化アルゴリズムの考案 (←自分はほぼこれ) ③ 問題を解きやすくする 新たな問題設定や観測システムの考案 (例えば、2視点ステレオ→多視点ステレオや、カメラを改造するComputational Photography)
  9. 傾きパッチによるステレオ [Bleyer+, BMVC 11] 9 𝑥 𝑦 𝑧 𝑝′ 左画像

    右画像 パッチの傾きも推定して高精度化 → 探索空間が1次元から3次元に 傾きを考慮した 局所接平面
  10. 提案した最適化手法 [Taniai+, CVPR 14 & TPAMI 18] Local α-expansion法 (提案手法)

    グラフカット法 による融合操作 現在の解 α 候補ラベルを巡回しながら融合 → 広いラベル空間で困難  提案解 Many α’s 提案解 従来の α-expansion 法 [Boykov+, TPAMI 02] ラベル探索を局所化しながら 良いラベルが見つかったら 近接領域に伝搬して効率化 10
  11. 発表の流れ 12 深層学習以前の研究 2011 (B4) ~ 2016 (D3) • モデルベースCV

    • ステレオマッチング [CVPR 14 & TPAMI 18] 深層学習の研究 • 進展の振り返り:CV分野・ステレオマッチングを中心に • 自身の取り組み 2017 (PD) ~:失敗例 と 成功例 [ICML 18 & 21] Principled AI : 深層学習と古典的知見の融合 Transformer を用いた結晶構造解析 [ICLR 24 & 25] 次ココ
  12. それから5~10年程かけてCV分野全体を書き換え 画像認識 Computer Vision 物体検出 ステレオ / オプティカルフロー セグメンテーション 光反射系

    High-level Low-level 14 AlexNet (2012.10) R-CNN (2013.11) Fully CNN (2014.11) Mask R-CNN (2017.03) ResNet (2015.12) YOLO (2015.06) MC-CNN (2014.09) Deep PS (2017.10) IRPS (2018.02) FlowNet (2015.04) FlowNet 2.0 (2016.12) GCNet (2017.03) U-Net (2015.05) RAFT (2020.03) GA-Net (2019.04) DenseNet (2016.08) RAFT-Stereo (2021.09) 太字: CVPR/ICCV/ECCVなどでの受賞論文 ↑物理ベース 自己教師あり学習 [Taniai & Maehara, ICML 18] 当時の自分の研究領域 修 士 ≀ 博 士 時 間 YOLOv2 (2016.12) ViT (2020.10) (フォトメトリック・ステレオ) 深層学習時代の幕開け
  13. ステレオ/フロー問題における深層学習の発展 画像認識 Computer Vision ステレオ / オプティカルフロー High-level Low-level 15

    AlexNet (2012.10) MC-CNN (2014.09) FlowNet (2015.04) FlowNet 2.0 (2016.12) GCNet (2017.03) RAFT (2020.03) GA-Net (2019.04) RAFT-Stereo (2021.09) 画像パッチ間の類似度(マッチングコスト関数)の学習 End-to-endフロー手法 (画像2枚重ねて2D CNN。古典に劣る) ステレオ & オプティカルフローの学習用 大規模CGデータセット 現在の end-to-end ステレオネットワークの原型となる3D CNN 古典ステレオ手法 SGM法のend-to-end 組込み 古典フロー手法 Lucas-Kanade法 (1981) の模倣 Middleburyベンチで初めて深層学習が古典手法*に勝つ *[Taniai+ TPAMI 18] 深層学習時代の幕開け
  14. 発表の流れ 16 深層学習以前の研究 2011 (B4) ~ 2016 (D3) • モデルベースCV

    • ステレオマッチング [CVPR 14 & TPAMI 18] 深層学習の研究 • 進展の振り返り:CV分野・ステレオマッチングを中心に • 自身の取り組み 2017 (PD) ~:失敗例 と 成功例 [ICML 18 & 21] Principled AI : 深層学習と古典的知見の融合 Transformer を用いた結晶構造解析 [ICLR 24 & 25] 次ココ
  15. モデルベースの良し悪し 再考(個人の見解) 良いところ • テストシーンに直接 “最適化” された解 (≠ 学習データから予測される “平均的”

    な ぼやけた解) • 学習不要 で 比較的高い汎化性能 • 美しい。自身の専門性の深化(≠ ネットワーク芸人) 悪いところ • 柔軟性の低さ(モデルに従わないシーンに対する性能低下) • モデル と 最適化アルゴリズム をhandcraftする必要 • すべてをモデル化は不可能(最適化しやすさとのトレードオフ) 深層学習をやるにしても ネットワークに丸投げせずに モデルベースの良さを活かすような何かをしたい欲求が沸々 モデル違反が小さいときは 非常に高いピーク性能 精 度 学習データ密度 シーンのモデル従属性 モデルベース 学習ベース 精 度 シーン シーン 17
  16. 失敗例① ステレオ最適化のend-to-end組込み 2017 @ RIKEN 18 𝑊 左 特徴マップ (W’×H’×C’)

    入力 (W×H×C) コスト特徴ボリューム (W’×H’×D’×C’’) 視差マップ (W×H×1) コストボリューム (W×H×D) 右 soft-argminで 視差値を回帰 3D CNN GCNet [Kendall+ 2017] 0 マッチングコスト D-1
  17. 失敗例① ステレオ最適化のend-to-end組込み 2017 @ RIKEN 19 Semi-global matching (SGM) 最適化レイヤー

    𝑊 左 特徴マップ (W’×H’×C’) 入力 (W×H×C) コスト特徴ボリューム (W’×H’×D’×C’’) 視差マップ (W×H×1) コストボリューム (W×H×D) 右 3D CNN SGM最適化 [Hirschmuller, TPAMI 07] GA-Net [Zhang+ CVPR19 準Best Paper] 隣の画素のコストを伝搬 (平滑化効果) minではなく重み付き平均 (softmin) しかし あまり性能が出ず頓挫・・・。2年後のCVPRで類似手法が注目 反省と教訓 • 古典手法の忠実な再現にこだわりすぎた(古典手法への愛が強すぎた) • むしろニューラルネットでは 勾配が疎にならないような改変が大事(min → softmin など) • 深層学習に慣れていなかったため、CUDA実装最適化をせず、学習や動作が遅かった
  18. 成功例① フォトメト逆レンダリング自己教師学習 2018 @ RIKEN 20 Photometric stereo • ステレオマッチングと異なり

    表面の微細形状の復元に強い • 光が拡散する材質なら線形問題に なり解析的に解ける • 一般の反射特性 (BRDF) だと難しい • 固定視点からの複数の観測画像 • 光源位置が変動 • 表面の傾き (法線マップ) を推定 • CVの古典問題 [Woodham, 1980] 観測画像 法線マップ
  19. 成功例① フォトメト逆レンダリング自己教師学習 2018 @ RIKEN 21 Deep PS Net [Santo+

    ICCVW 17] 観測画像 法線マップ予測 学習ラベル 人工データによる教師あり事前学習 • 深層学習を用いた初めてのphotometric stereo手法 • ただし 学習時とテスト時で同じ光源条件を仮定 法線推定 CNN Concat
  20. 成功例① フォトメト逆レンダリング自己教師学習 2018 @ RIKEN 22 [Taniai & Maehara, ICML

    18] Neural inverse rendering方式 の提案 観測画像 法線マップ予測 Concat 法線推定 CNN 反射率推定 CNN 𝝆𝑝 max(𝒏𝑝 𝑇 𝒍) レンダリング式 (物理モデル) レンダリング画像 反射率画像 画像再構成誤差を最小化することで学習し、中間表現として法線マップを推定 光源ベクトル 観 測 画 像 教訓 • 古典的枠組み(再構成誤差の最適化)を利用しつつ、ニューラルネットで 複雑な反射特性を柔軟に表現 • “物理法則” は 学習のための教師信号として活用可能(物理ベース 自己教師学習) • ただし、モデルが想定しない現象はうまく扱えない(例:相互反射効果など) • ICML 2018に採択 • 後のNeRFの2D版 とも解釈可能
  21. 失敗例② 深層RLステレオ StereoAgents 2019 @ OSX 入社直後 23 入力 出力

    普通のニューラルネット(1 パス) 反復的フィードバック 左 右 4次元テンソルに対する3D CNN ← ベース解像度を下げないと動かない 古典手法では ボリュー ムを作らずに 解を反復 更新することで解決 • ネットワーク を 1回 “forward” して終わり • 古典手法のように 現在の予測結果の妥当性を フィードバックする仕組み が必要では? 既存深層手法の不満① コストボリューム処理が重い 既存深層手法の不満② 予測が正しいかの検証ループがない
  22. 失敗例② 深層RLステレオ StereoAgents 2019 @ OSX 入社直後 24 古典手法を強化学習の枠組みで再解釈 Agent

    Env 現在の解 𝑠𝑡 (状態) 解の提案 𝑎𝑡 (行動) 解の更新 𝑠𝑡+1 (状態) 学習用の報酬 𝑟𝑡 正解ラベルと 比較しての 誤差の改善量 ねらい • 重いコストボリュームを作らず → 2D CNNで高解像度も軽量動作 • 解候補の生成をpolicy学習で賢く (古典手法では単純な乱択など) 結果うまくいかず・・・ (RL沼) 翌年・・・ • 反復更新を取り入れたオプティカルフロー 手法 RAFT が ECCV 2020 Best Paper 反省と教訓 • 旧概念を新概念で再解釈する という概念的審美性にとらわれすぎた(古典手法への愛が強すぎた) • 強化学習 でなく 教師あり学習 (RAFT) でよかった(微分不可能な古典手法の原型を保とうとしすぎた) [US Patent 11,222,237]
  23. 成功例② 微分可能経路探索 Neural A* 2020-2021 @ OSX 25 [Yonetani &

    Taniai+, ICML 21] Cooperative Optimization というアイディア (谷合 発案) 最適化問題 インスタンス Solver Encoder 解の出力 最適化問題をSolverにとって 解きやすい形に変換 最適化Solverを微分可能な ニューラルネットとして実装 ねらい:深層学習のパワーと最適化アルゴリズムのパワーを両立 経路探索問題への適用 (米谷 発案) 最短経路問題 CNN ガイドマップ 微分可能A* アルゴリズム 探索履歴 正解経路
  24. 成功例② 微分可能経路探索 Neural A* 2020-2021 @ OSX [Yonetani & Taniai+,

    ICML 21] 最短経路問題 CNN ガイドマップ 微分可能A* アルゴリズム 2つのユースケース 26 経路探索の 高速化 生画像上の 経路探索 教訓 • 最適化アルゴリズムをネットワークに組み込むことで、性能向上 や 応用範囲の広がり • ネットワークの挙動の解釈性の向上(→ 障害物の手動指定も可能) • 最適化問題に落とし込むことの弊害:問題定式由来のバイアス(意図せぬショートカットなど) ICML 2021 採択 Neural A* A*
  25. 発表の流れ 27 深層学習以前の研究 2011 (B4) ~ 2016 (D3) • モデルベースCV

    • ステレオマッチング [CVPR 14 & TPAMI 18] 深層学習の研究 • 進展の振り返り:CV分野・ステレオマッチングを中心に • 自身の取り組み 2017 (PD) ~:失敗例 と 成功例 [ICML 18 & 21] Principled AI : 深層学習と古典的知見の融合 Transformer を用いた結晶構造解析 [ICLR 24 & 25] 次ココ
  26. 成功と失敗からの教訓 28 物理的原理 や アルゴリズム的原理 を ニューラルネットに組み込む効果 予測性能向上、学習高速化 モデルパラメータ減少、汎化性能向上 自己教師学習、解釈性向上、etc.

    © 丸山くがね・KADOKAWA刊 /オーバーロード製作委員会 一方で、弊害も・・・ 物理モデルを陽に仮定すると・・・ • モデルにそぐわないシーンに対する性能低下 • 深層学習 本来の柔軟性の足かせに 最適化アルゴリズムをそのまま取り入れると・・・ • 高次特徴量から “コスト” という低次概念に • 問題定式由来の好ましくないバイアス発生 • 勾配の疎化で学習しにくくなる ことも 物理モデルやアルゴリズムをそのまま組み込むのではなく エッセンスを抽出して neural-net-friendly な形で再解釈・表現することが大事 バフ効果
  27. Principled AI: 深層学習と古典的知見の融合 • ニューラルネットは物理法則やアルゴリズムなどの原理に基づいた “バック ボーン” を内包し、予測をソフトに制約したり、学習・推論過程を誘導する • バックボーンは

    柔軟な “ニューラル表現”(抽象特徴量や操作)で覆われてお り、実世界の複雑な現象やシーンにも適応する 古典的モデルベース Principled AI 単純なニューラルネット 29
  28. 発表の流れ 31 深層学習以前の研究 2011 (B4) ~ 2016 (D3) • モデルベースCV

    • ステレオマッチング [CVPR 14 & TPAMI 18] 深層学習の研究 • 進展の振り返り:CV分野・ステレオマッチングを中心に • 自身の取り組み 2017 (PD) ~:失敗例 と 成功例 [ICML 18 & 21] Principled AI : 深層学習と古典的知見の融合 Transformer を用いた結晶構造解析 [ICLR 24 & 25] 次ココ
  29. Crystalformer: Infinitely Connected Attention for Periodic Structure Encoding Tatsunori Taniai

    OMRON SINIC X Corporation Ryo Igarashi OMRON SINIC X Corporation Yuta Suzuki Toyota Motor Corporation Naoya Chiba Tohoku University Kotaro Saito Randeft Inc. Osaka University Yoshitaka Ushiku OMRON SINIC X Corporation Kanta Ono Osaka University The Twelfth International Conference on Learning Representations May 7th through 11th, 2024 at Messe Wien Exhibition and Congress Center Vienna, Austria
  30. 材料科学 と 結晶構造 材料科学 • 有益な性質を持つ新たな材料の探索 と開発 • 超電導体、バッテリー材料、etc. 結晶構造

    • 材料の “設計図” • 原子の規則的な3次元配置 • ユニットセル という基本繰り返し パターンにより記述 NaCl(塩) の結晶構造 ユニットセル 33
  31. 結晶構造の物性予測 結晶構造 材料物性 • 形成エネルギー • 総エネルギー • バンドギャップ •

    安定性 • etc. ニューラルネット • グラフニューラルネットで原子間相互作用をモデル化 • 第一原理計算(物理シミュレーション)と比べて非常に高速 • 試行錯誤の伴う材料探索と開発プロセスの加速 (ユニットセル) 34
  32. Self-attentionによる原子間相互作用 分子 有限個の原子に対するフル接続 Self-attention • 原子 の状態(特徴ベクトル)に、周辺原子 の状態が作用 • ,

    , and : 入力原子状態ベクトル の線形射影 • : 出力原子状態ベクトル • と :原子 と の間の相対位置情報 を埋め込み 37 𝑗
  33. “ニューラル・ポテンシャル和” としての解釈 40 where 距離減衰 attention 原子間エネルギー計算を高次の特徴空間で抽象的に表現 • 𝑟 ─

    原子 と ( ) の間の抽象的なポテンシャル関数 • ── 原子 に対する原子 ( ) からの抽象的な作用ベクトル 物理シミュレーションにおけるポテンシャル和とのアナロジー • 電荷 を持つ粒子間に生じる静電ポテンシャルエネルギー 𝐽𝑖 = ෍ 1 4 0 −
  34. 高い物性予測性能 と モデル効率性 を両立 一 貫 し て 勝 る

    Arch. type Train/Epoch Total train Test/Mater. # Params # Params/Block PotNet [Lin+, 2023] Matformer [Yan+, 2022] Crystalformer GNN Transformer Transformer 43 s 60 s 32 s 5.9 h 8.3 h 7.2 h 313 ms 20.4 ms 6.6 ms 1.8 M 2.9 M 853 K 527 K 544 K 206 K Form E. Total E. Bandgap (OPT) Bandgap (MBJ) E hull Train/Val/Test 44578/5572/5572 44578/5572/5572 44578/5572/5572 14537/1817/1817 44296/5537/5537 MEA unit eV/atom eV/atom eV eV eV CGCNN [Xie & Grossman, 2018] SchNet [Schütt+, 2018] MEGNet [Chen+, 2019] GATGNN [Louis+, 2020] M3GNet [Chen & Ong, 2022] ALIGNN [Choudhary & DeCost, 2021] Matformer [Yan+, 2022] PotNet [Lin+, 2023] Crystalformer 0.063 0.045 0.047 0.047 0.039 0.0331 0.0325 0.0294 0.0319 0.078 0.047 0.058 0.056 0.041 0.037 0.035 0.032 0.0342 0.2 0.19 0.145 0.17 0.145 0.142 0.137 0.127 0.131 0.41 0.43 0.34 0.51 0.362 0.31 0.3 0.27 0.275 0.17 0.14 0.084 0.12 0.095 0.076 0.064 0.055 0.0482 42
  35. CrystalFramer では さらに精度向上 [Ito & Taniai+, ICLR 25] Form E.

    Total E. Bandgap (OPT) Bandgap (MBJ) E hull Train/Val/Test 44578/5572/5572 44578/5572/5572 44578/5572/5572 14537/1817/1817 44296/5537/5537 MEA unit eV/atom eV/atom eV eV eV Crystalformer [ICLR 24] CrystalFramer [ICLR 25] 0.0319 0.0263 0.0342 0.0279 0.131 0.117 0.275 0.242 0.0482 0.0471 (𝒏) = 𝝍dist 𝒑𝑗 𝑛 − 𝒑𝑖 + 𝝍angle 𝐹𝑖 𝒑𝑗 𝑛 − 𝒑𝑖 𝒑𝑗 𝑛 − 𝒑𝑖 相対位置表現の拡張 3次元方向ベクトルの項 従来の原子間距離の項 各原子 𝑖 周辺の局所構造をもとに局所座標系 𝑭𝒊 を構築することで 3次元的構造情報を取り込みつつ 回転不変性を維持 43
  36. まとめ 48 Principled AI : 深層学習と古典的知見の融合 • 原点:過去のモデルベースCVの研究 • 動機:深層学習時代においても

    原理的アプローチ(=自分の好き)を追求 • 成功と失敗を経ての現時点での考え: 謝辞(紹介した研究の共著者の皆様. 敬称略) • 苗村 健(卒論・修論 指導教員) • 高橋 佳太(卒論指導) • Viet-Quoc Pham(卒論指導D3先輩) • 佐藤 洋一(博論 指導教員) • 松下 康之(2011年MSRAインターン時メンター) • Sudipta Sinha (2015,2016年MSRインターン時メンター) • 前原 貴憲 (RIKEN AIP所属時ユニットリーダー) • 米谷 竜 (OSX 元同僚) • 西村 真衣 (OSX 同僚) • Mohammadamin Barekatain (OSX 元インターン) • 金崎 朝子 (OSX 元アドバイザ) • 五十嵐 亮 (OSX 同僚) • 鈴木 雄太 (OSX 元インターン/現共同研究者) • 千葉 直也 (OSX 元同僚/現共同研究者) • 斉藤 耕太郎 (現共同研究者) • 牛久 祥孝 (OSX 同僚) • 小野 寛太 (現共同研究者) • 伊藤 優成 (元OSXインターン) 「物理モデルやアルゴリズムをそのまま 組み込むのではなく、エッセンスを抽出し neural-net-friendly な形で再解釈・表現 」 することが大事 ご清聴ありがとうございました