Upgrade to Pro — share decks privately, control downloads, hide ads and more …

深層学習を用いた三次元点群処理入門

Sponsored · Your Podcast. Everywhere. Effortlessly. Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.

 深層学習を用いた三次元点群処理入門

第230回CVIM研究発表会 チュートリアルでの「深層学習を用いた三次元点群処理入門」のスライド資料です
図などは各論文から引用しています

Avatar for Naoya Chiba

Naoya Chiba

May 13, 2022
Tweet

More Decks by Naoya Chiba

Other Decks in Research

Transcript

  1. アウトライン • 三次元形状のデータ形式と計測 • さまざまなデータ形式 • 三次元計測 • 点群を扱うニューラルネットワーク •

    点群を扱う難しさ • 典型的なタスク・ネットワーク構成 • PointNetの紹介 • 点群の畳み込み・Backbone • タスクに合わせたHead • 三次元形状の出力 • 事前学習 • アプリケーションの例 • 典型的なアプリケーション • 点群位置合わせ • ライブラリなど 3
  2. アウトライン • 三次元形状のデータ形式と計測 • さまざまなデータ形式 • 三次元計測 • 点群を扱うニューラルネットワーク •

    点群を扱う難しさ • 典型的なタスク・ネットワーク構成 • PointNetの紹介 • 点群の畳み込み・Backbone • タスクに合わせたHead • 三次元形状の出力 • 事前学習 • アプリケーションの例 • 典型的なアプリケーション • 点群位置合わせ • ライブラリなど 4
  3. 三次元形状を記述するデータ形式 •ボクセル • 密なボクセル • スパースボクセル •メッシュ •多視点画像 •深度画像 •点群

    • 片面点群 • 全周点群 5 E. Ahmed+. A survey on Deep Learning Advances on Different 3D Data Representations. arXiv, 2018. 様々な形式が存在,今回は三次元点群に着目
  4. 三次元データの形式(1/2) •ボクセル • 画像に近いアイデアで記述 • 〇: シンプルなデータ形式.3D CNNで処理しやすい • △:

    解像度に応じて急速にデータ量が大きくなるため, 扱える解像度が低い.スパースボクセルで対応 •メッシュ • 頂点(・辺)・面によって三次元形状を記述 • 〇: 省データで高解像度なデータを表せる. レンダリングとの相性が良い • △: 頂点・辺・面をうまく扱うのが難しい. 辺や面はセンサから得られない 6
  5. 三次元データの形式(2/2) •深度画像 • 2D画像の各画素に紐付いた奥行きを記述 • 〇: シンプルでセンサとの相性も良い. 2D CNNのテクニックが使いやすい •

    △: 全周形状が扱いにくい •多視点画像 • 多点のカメラ画像によって一つの三次元シーンを記述 • 〇: 全周が扱える.2D CNNのテクニックが使いやすい • △: 実環境では計測しにくい. 実スケール性を活用しにくい 7
  6. 三次元点群とは 三次元点 (x, y, z) の集合として表現された 三次元形状の記述方法 データによってはカラー,反射強度などの付加情報が 点ごとに与えられる (𝑥𝑥1

    , 𝑦𝑦1 , 𝑧𝑧1 ) (𝑥𝑥2 , 𝑦𝑦2 , 𝑧𝑧2 ) (𝑥𝑥3 , 𝑦𝑦3 , 𝑧𝑧3 ) (𝑥𝑥𝑁𝑁 , 𝑦𝑦𝑁𝑁 , 𝑧𝑧𝑁𝑁 ) ・・・ (𝑥𝑥𝑖𝑖 , 𝑦𝑦𝑖𝑖 , 𝑧𝑧𝑖𝑖 ) (𝑥𝑥𝑗𝑗 , 𝑦𝑦𝑗𝑗 , 𝑧𝑧𝑗𝑗 ) ・・・ ・・・ 三次元点群の表す形状 三次元点群データ 8
  7. 3Dデータの種類 (主観ですが)各種3Dデータの特徴を まとめてみました 点群は実スケール性がありシンプルな形式 10 実スケール 扱いやすさ メモリ 空間効率 CNNとの

    相性 計測 しやすさ 別視点の レンダリング ボクセル ◎ ◎ ✕ ◎ △ ◎ スパース ボクセル ◎ ◦ ◦ ◦ △ ◎ メッシュ ◎ △ ◎ △ △ ◎ 多視点画像 △ ◦ △ ◎ ◦~◎ △~◦ 深度画像 ◦ ◎ ◦ ◎ ◎ △ 点群 ◎ ◦ ◎ ◦ ◎ △ 全周点群 ◎ ◦ ◎ ◦ △ ◦
  8. 3Dデータの取得 •基本的には三次元計測 • 次以降のスライドで簡単に紹介 • 全周形状・360度形状の計測には貼り合わせが必要 •MVS, SfM, SLAM等による多視点計測データ •

    計測原理は三角測量.NeRFに期待 •CADや3Dモデルなど • 工業用途・CG等で利用されているデータ • 一から計算機の中で製作される 11 MVSで再構成された3Dデータ (COLMAP) CADデータ(ABC Dataset)
  9. 三次元センサの種類 ステレオ法 • 2つの光学系の間の視差から奥行きを計算 • ステレオカメラシステムを用いる手法 (パッシブステレオ法)と, プロジェクタ・カメラシステムを用いる手法 (アクティブステレオ法)に大別 Time-of-Flight

    (ToF) • 光を投影し,反射した光線が返ってくるまでの 時間から奥行きを計算 • 時間差を用いる方式(direct ToF)と 位相差を用いる方式(indirect ToF)に大別 12
  10. アウトライン • 三次元形状のデータ形式と計測 • さまざまなデータ形式 • 三次元計測 • 点群を扱うニューラルネットワーク •

    点群を扱う難しさ • 典型的なタスク・ネットワーク構成 • PointNetの紹介 • 点群の畳み込み・Backbone • タスクに合わせたHead • 三次元形状の出力 • 事前学習 • アプリケーションの例 • 典型的なアプリケーション • 点群位置合わせ • ライブラリなど 19
  11. 三次元点群を取り扱う難しさ 要因: 集合データであること • 順不同である(後述)ため,それに対応した ネットワーク構造が必要 • 非グリッドなので近傍が自明ではなく, 畳み込みにも工夫が必要 (余談:

    グラフNNとの比較) • グラフNNでも同様の課題があり,ほぼ同じ アプローチが取られている • 点群の場合には三次元空間に張り付いている& 接続関係は入力されない,という違いがある 20
  12. 三次元点群を取り扱う難しさ 順不同なデータ構造 点群は点の集合=データの順序が変わっても同じ形状 → 点の順序に不変であることが必要 三次元点群の表す形状 三次元点群データ (𝑥𝑥1 , 𝑦𝑦1

    , 𝑧𝑧1 ) (𝑥𝑥2 , 𝑦𝑦2 , 𝑧𝑧2 ) (𝑥𝑥3 , 𝑦𝑦3 , 𝑧𝑧3 ) (𝑥𝑥𝑁𝑁 , 𝑦𝑦𝑁𝑁 , 𝑧𝑧𝑁𝑁 ) ・・・ (𝑥𝑥𝑖𝑖 , 𝑦𝑦𝑖𝑖 , 𝑧𝑧𝑖𝑖 ) (𝑥𝑥𝑗𝑗 , 𝑦𝑦𝑗𝑗 , 𝑧𝑧𝑗𝑗 ) ・・・ ・・・ 21 あくまで便宜上一列にして扱う
  13. 三次元点群を取り扱う難しさ 順不同なデータ構造 点群は点の集合=データの順序が変わっても同じ形状 → 点の順序に不変であることが必要 三次元点群の表す形状 三次元点群データ (𝑥𝑥1 , 𝑦𝑦1

    , 𝑧𝑧1 ) (𝑥𝑥2 , 𝑦𝑦2 , 𝑧𝑧2 ) (𝑥𝑥3 , 𝑦𝑦3 , 𝑧𝑧3 ) (𝑥𝑥𝑁𝑁 , 𝑦𝑦𝑁𝑁 , 𝑧𝑧𝑁𝑁 ) ・・・ (𝑥𝑥𝑖𝑖 , 𝑦𝑦𝑖𝑖 , 𝑧𝑧𝑖𝑖 ) (𝑥𝑥𝑗𝑗 , 𝑦𝑦𝑗𝑗 , 𝑧𝑧𝑗𝑗 ) ・・・ ・・・ 入れ替える 22
  14. 三次元点群を取り扱う難しさ 順不同なデータ構造 点群は点の集合=データの順序が変わっても同じ形状 → 点の順序に不変であることが必要 三次元点群の表す形状 三次元点群データ (𝑥𝑥1 , 𝑦𝑦1

    , 𝑧𝑧1 ) (𝑥𝑥2 , 𝑦𝑦2 , 𝑧𝑧2 ) (𝑥𝑥3 , 𝑦𝑦3 , 𝑧𝑧3 ) (𝑥𝑥𝑁𝑁 , 𝑦𝑦𝑁𝑁 , 𝑧𝑧𝑁𝑁 ) ・・・ (𝑥𝑥𝑖𝑖 , 𝑦𝑦𝑖𝑖 , 𝑧𝑧𝑖𝑖 ) (𝑥𝑥𝑗𝑗 , 𝑦𝑦𝑗𝑗 , 𝑧𝑧𝑗𝑗 ) ・・・ ・・・ 入れ替える 順序を入れ替えても点群としての形状は全く同じ 23
  15. 三次元点群を取り扱う難しさ 非グリッド=非自明な隣接関係 畳み込みによる局所特徴の抽出には工夫が必要 三次元点群の表す形状 三次元点群データ (𝑥𝑥1 , 𝑦𝑦1 , 𝑧𝑧1

    ) (𝑥𝑥2 , 𝑦𝑦2 , 𝑧𝑧2 ) (𝑥𝑥3 , 𝑦𝑦3 , 𝑧𝑧3 ) (𝑥𝑥𝑁𝑁 , 𝑦𝑦𝑁𝑁 , 𝑧𝑧𝑁𝑁 ) ・・・ (𝑥𝑥𝑖𝑖 , 𝑦𝑦𝑖𝑖 , 𝑧𝑧𝑖𝑖 ) (𝑥𝑥𝑗𝑗 , 𝑦𝑦𝑗𝑗 , 𝑧𝑧𝑗𝑗 ) ・・・ ・・・ この点に 対する 近傍は? 24
  16. 三次元点群を取り扱う難しさ 非グリッド=非自明な隣接関係 畳み込みによる局所特徴の抽出には工夫が必要 三次元点群の表す形状 三次元点群データ (𝑥𝑥1 , 𝑦𝑦1 , 𝑧𝑧1

    ) (𝑥𝑥2 , 𝑦𝑦2 , 𝑧𝑧2 ) (𝑥𝑥3 , 𝑦𝑦3 , 𝑧𝑧3 ) (𝑥𝑥𝑁𝑁 , 𝑦𝑦𝑁𝑁 , 𝑧𝑧𝑁𝑁 ) ・・・ (𝑥𝑥𝑖𝑖 , 𝑦𝑦𝑖𝑖 , 𝑧𝑧𝑖𝑖 ) (𝑥𝑥𝑗𝑗 , 𝑦𝑦𝑗𝑗 , 𝑧𝑧𝑗𝑗 ) ・・・ ・・・ この点に 対する 近傍は? データ上の隣接関係は当然関係ない 25
  17. アウトライン • 三次元形状のデータ形式と計測 • さまざまなデータ形式 • 三次元計測 • 点群を扱うニューラルネットワーク •

    点群を扱う難しさ • 典型的なタスク・ネットワーク構成 • PointNetの紹介 • 点群の畳み込み・Backbone • タスクに合わせたHead • 三次元形状の出力 • 事前学習 • アプリケーションの例 • 典型的なアプリケーション • 点群位置合わせ • ライブラリなど 26
  18. 典型的なタスク例の分類 •点群全体について推定 • クラス分類 • 位置・姿勢推定 • 変形推定 • 全周点群補完

    • 点群(など,3D形状)を出力 •インスタンスについて推定 • 物体検出 •各点について推定 • セマンティックセグメンテーション • デノイジング 27
  19. アウトライン • 三次元形状のデータ形式と計測 • さまざまなデータ形式 • 三次元計測 • 点群を扱うニューラルネットワーク •

    点群を扱う難しさ • 典型的なタスク・ネットワーク構成 • PointNetの紹介 • 点群の畳み込み・Backbone • タスクに合わせたHead • 三次元形状の出力 • 事前学習 • アプリケーションの例 • 典型的なアプリケーション • 点群位置合わせ • ライブラリなど 29
  20. PointNetの紹介 Symmetric Functionを使うアイデア PointNet [Qi+, CVPR2017], Deep Sets [Zaheer+, NIPS2017]

    ポイント1: 点ごとの変換であれば順序に依存しない ポイント2: グローバルプーリングであれば順序に依存しない 30
  21. PointNetの紹介 Symmetric Functionを使うアイデア ポイント1: 点ごとの変換であれば順序に依存しない 𝑥𝑥1 𝑥𝑥2 𝑥𝑥3 𝑥𝑥𝑁𝑁 ・・・

    𝑥𝑥𝑖𝑖 ・・・ ℎ(𝑥𝑥1 ) ℎ(𝑥𝑥2 ) ℎ(𝑥𝑥3 ) ℎ(𝑥𝑥𝑁𝑁 ) ・・・ ・・・ ℎ(⋅) ℎ(⋅) ℎ(⋅) ℎ(⋅) ℎ(⋅) ℎ(𝑥𝑥𝑖𝑖 ) 入力点群 点ごとに変換された特徴量 順序に依存しない変換になっている 31
  22. PointNetの紹介 Symmetric Functionを使うアイデア ポイント2: グローバルプーリングであれば順序に依存しない ℎ(𝑥𝑥1 ) ℎ(𝑥𝑥2 ) ℎ(𝑥𝑥3

    ) ℎ(𝑥𝑥𝑁𝑁 ) ・・・ 𝑔𝑔 ℎ 𝑥𝑥1 , ℎ 𝑥𝑥2 , ⋯ , ℎ 𝑥𝑥𝑁𝑁 ・・・ 𝑔𝑔(⋅) ℎ(𝑥𝑥𝑖𝑖 ) 点ごとに変換された特徴量 点群全体から集約した特徴量 𝑔𝑔 ⋅ : 特徴量ベクトルの要素(チャンネル)ごとに,最大値・平均値などを計算 32
  23. PointNetの紹介 Symmetric Functionを使うアイデア ポイント1: 点ごとの変換 → PointNetではShared MLP (1x1 Convolution,

    Pointwise Convolutionと同義) ポイント2: グローバルプーリング → PointNetではMax Pooling 𝑥𝑥1 𝑥𝑥2 𝑥𝑥3 𝑥𝑥𝑁𝑁 ・・・ 𝑥𝑥𝑖𝑖 ・・・ ℎ(𝑥𝑥1 ) ℎ(𝑥𝑥2 ) ℎ(𝑥𝑥3 ) ℎ(𝑥𝑥𝑁𝑁 ) ・・・ 𝑔𝑔 ℎ 𝑥𝑥1 , ℎ 𝑥𝑥2 , ⋯ , ℎ 𝑥𝑥𝑁𝑁 ・・・ ℎ(⋅) ℎ(⋅) ℎ(⋅) ℎ(⋅) ℎ(⋅) 𝑔𝑔(⋅) ℎ(𝑥𝑥𝑖𝑖 ) Shared MLP Max Pooling 33
  24. PointNetの紹介 Spatial Transformer Networks (STN)を導入 Spatial Transformer Networks [Jaderberg+, NIPS2015]

    幾何変換のパラメータを推定し正規化する構造を持つ 入力 幾何変換の パラメータを推定 出力 入力 幾何変換の パラメータを推定 出力 パラメータ 34
  25. PointNetの紹介 Spatial Transformer Networks (STN)を導入 Spatial Transformer Networks [Jaderberg+, NIPS2015]

    幾何変換のパラメータを推定し正規化する構造を持つ PointNetでの利用法 • Symmetric Functionによって点の順序に不変な グローバル特徴量を入力し剛体変換のパラメータを推定 • (剛体変換ではないが)特徴空間でもSTNを適用, 特徴量空間での変換を行う 35
  26. PointNetの紹介 T-Net = STN Max Pooling 点ごとの特徴量と グローバルな特徴量を結合 • グローバルな特徴量を使ってクラス分類を実現

    • 点ごとの特徴量とグローバルな特徴量を結合してから Shared MLPすることで,セマンティックセグメンテーションも実現 36
  27. アウトライン • 三次元形状のデータ形式と計測 • さまざまなデータ形式 • 三次元計測 • 点群を扱うニューラルネットワーク •

    点群を扱う難しさ • 典型的なタスク・ネットワーク構成 • PointNetの紹介 • 点群の畳み込み・Backbone • タスクに合わせたHead • 三次元形状の出力 • 事前学習 • アプリケーションの例 • 典型的なアプリケーション • 点群位置合わせ • ライブラリなど 38
  28. 二次元での畳み込み カーネルを重畳,それぞれ掛けて足し合わせる 41 ⊗ ∑ � Δ𝒙𝒙∈𝐴𝐴 𝒇𝒇 𝒙𝒙 +

    Δ𝒙𝒙 ⊤𝒌𝒌 Δ𝒙𝒙 𝒙𝒙: 着目点 𝒇𝒇 𝒙𝒙 : 着目点の入力特徴量 𝐴𝐴: 着目点周辺の領域 Δ𝒙𝒙: カーネル内での 相対座標 𝒌𝒌 Δ𝒙𝒙 : Δ𝒙𝒙での カーネルの値 カーネル
  29. 点群における畳み込み 基本方針は二次元での畳み込みを拡張 • 𝒇𝒇 𝒙𝒙 : 入力特徴量, 𝒇𝒇 𝒙𝒙 +

    Δ𝒙𝒙 でそれぞれ定義されている • 𝒌𝒌 Δ𝒙𝒙 : カーネル(一般にはΔ𝒙𝒙による関数) • 𝛥𝛥𝒙𝒙 ∈ 𝐴𝐴 𝒙𝒙 : 近傍点と近傍領域(一般には𝒙𝒙による集合) • Agg: 集約関数 42 AggΔ𝒙𝒙∈𝐴𝐴 𝒙𝒙 𝒇𝒇 𝒙𝒙 + Δ𝒙𝒙 ⊤𝒌𝒌 Δ𝒙𝒙 入力特徴量 カーネル 各点で掛け合わせる 局所領域について集約
  30. 点群における畳み込み 基本方針は二次元での畳み込みを拡張 • 𝒇𝒇 𝒙𝒙 : 入力特徴量, 𝒇𝒇 𝒙𝒙 +

    Δ𝒙𝒙 でそれぞれ定義されている • 𝒌𝒌 Δ𝒙𝒙 : カーネル(一般にはΔ𝒙𝒙による関数) • 𝛥𝛥𝒙𝒙 ∈ 𝐴𝐴 𝒙𝒙 : 近傍点と近傍領域(一般には𝒙𝒙による集合) • Agg: 集約関数 手法ごとに違うのは • 近傍をどう決めるか • カーネルをどう決めるか(≒どう学習可能にするか) • どう集約するか 43
  31. 近傍をどう決めるか 各手法の特徴 • kNN: シンプル・近傍が同じ点数なので扱いやすい • rNN: 形状に伴った近傍領域の設定ができるが 各点の近傍の点数がバラバラになるので扱いにくい 典型的な計算方法

    • kNN: 距離行列を計算しTop-kを選択 • rNN: 距離行列を計算しスレッショルド 真にrNNで近傍を設定すると、最悪ケースで全点が半径r内に 入ってしまい計算コスト大 → 予めkNNで近傍を切ってからrNNとする例が多い 45
  32. 集約をどうするか 順不同な関数であればOK PointNetでMax-poolingを使うのと同じ • Sum: 元の畳み込みに近い構造になる • Max, Mean: 個数が変化しても対応できる

    46 ℎ(𝑥𝑥1 ) ℎ(𝑥𝑥2 ) ℎ(𝑥𝑥3 ) ℎ(𝑥𝑥𝑁𝑁 ) ・・・ 𝑔𝑔 ℎ 𝑥𝑥1 , ℎ 𝑥𝑥2 , ⋯ , ℎ 𝑥𝑥𝑁𝑁 ・・・ 𝑔𝑔(⋅) ℎ(𝑥𝑥𝑖𝑖 ) 局所点群の点ごとの特徴量 集約した特徴量
  33. 畳み込みの手法の紹介 Parametric Continuous Convolutions [S. Wang+, CVPR2018] 非グリッドな環境でのカーネルを MLPで学習 1.

    kNNやrNNで 局所領域を選択 2. 注目点との相対 座標→その点での 重みを出力 Grid Convolution Continuous Convolution 48
  34. Flex-convolution [F. Groh+, ACCV2018] 1. 畳み込む点周りで近傍点を選択 2. 相対位置をアフィン変換してカーネルの各要素に 割り当てる 3.

    カーネルで畳み込み 二次元画像での畳み込み 三次元点群でのFlex-convolution 中心点との相対位置によって重みを変える 畳み込みの手法の紹介 49
  35. 畳み込みの手法の紹介 SpiderCNN [Y. Xu+, ECCV2019] 相対関係を入力, 重みを出力する 関数𝑔𝑔𝑤𝑤 𝑥𝑥, 𝑦𝑦,

    𝑧𝑧 を学習 一定半径の球の内部にあるかの指示関数 連続関数に対する𝑥𝑥, 𝑦𝑦, 𝑧𝑧の3次までのテイラー展開 50
  36. Tangent Convolution [M. Tatarchenko+, CVPR2018] 1. 各点の接平面を求める 2. 接平面上に近傍点を投影 3.

    接平面を埋めるように補間 4. 2D CNNで畳み込み 三次元点の投影 Full Gaussian Mixture Nearest Neighbor Top-3 Neighbors Gaussian Mixture 畳み込みの手法の紹介 51
  37. 畳み込みの手法の紹介 PointNet++ [C. R. Qi+, NIPS2017] PointNet著者らによる点群畳み込み手法 • Sampling Layer:

    重心位置を選択 • Grouping Layer: 近傍点群を抽出 • PointNet Layer: 局所特徴量を計算 52
  38. 畳み込みの手法の紹介 Dynamic Graph CNN (DGCNN) のEdgeConv [Y. Wang+, ACM ToG,

    2019] 1. エッジごとに点ペアから特徴量をShared MLPで計算 2. ノードごとにエッジの特徴量を集約 2点の特徴量から, それらを繋ぐエッジの 特徴量を計算 エッジの特徴量を集約 53
  39. 畳み込みの手法の紹介 PointPillars [A. H. Lang+, CVPR2019] • PointPillar Networkで3D→2D Bird’s

    Eye View (BEV)に変換 (地面方向が既知,という強い仮定が必要) • 2D CNNで処理し2DでDetection (3D BBを推定) • 高速で高精度な物体検出を実現 点群から柱状領域を抽出→特徴量を2Dにマップ 54
  40. 試すには? •PointNet++/EdgeConv/SpiderConvを試す •2Dに変換できる場合は2D CNNも検討 • BEW • Front View •

    (Depth Image, Multi-view, etc...) •目的に応じた畳み込みを検討 • 無理に最新手法を追いかける必要があるかは微妙 • TransformerやMLP Mixerの研究進展が割とそのまま 流用できる問題設定 59
  41. グラフNNとの関係 グラフ畳み込みネットワーク(Graph Convolutional Networks, GCN)の文脈では,Message Passing として整理されることが多い • 基本的な発想は同じ •

    近傍領域が自明・グラフは固定(1-hopで接続) • 近傍点との関係による特徴量がエッジに乗る, それを各点に集約する,という発想 60 𝒇𝒇𝑣𝑣 ← 𝜓𝜓 𝒇𝒇𝑣𝑣 𝑣𝑣𝑖𝑖 , Agg𝑒𝑒𝑖𝑖𝑖𝑖∈𝐸𝐸 𝑣𝑣𝑖𝑖 𝜙𝜙 𝒇𝒇𝑣𝑣 𝑣𝑣𝑖𝑖 , 𝒇𝒇𝑣𝑣 𝑣𝑣𝑗𝑗 , 𝒇𝒇𝑒𝑒 𝑒𝑒𝑖𝑖𝑖𝑖 • 𝑣𝑣𝑖𝑖 : 各頂点 • 𝒇𝒇𝑣𝑣 𝑣𝑣𝑖𝑖 : 各頂点の特徴量 • 𝑒𝑒𝑖𝑖𝑖𝑖 : 各辺 • 𝒇𝒇𝑒𝑒 𝑒𝑒𝑖𝑖𝑖𝑖 : 各辺の特徴量
  42. グラフNNとの関係 グラフ畳み込みネットワーク(Graph Convolutional Networks, GCN)の文脈では,Message Passing として整理されることが多い 61 𝒇𝒇𝑣𝑣 ←

    𝜓𝜓 𝒇𝒇𝑣𝑣 𝑣𝑣𝑖𝑖 , Agg𝑒𝑒𝑖𝑖𝑖𝑖∈𝐸𝐸 𝑣𝑣𝑖𝑖 𝜙𝜙 𝒇𝒇𝑣𝑣 𝑣𝑣𝑖𝑖 , 𝒇𝒇𝑣𝑣 𝑣𝑣𝑗𝑗 , 𝒇𝒇𝑒𝑒 𝑒𝑒𝑖𝑖𝑖𝑖 𝑣𝑣𝑖𝑖 : 各頂点 𝒇𝒇𝑣𝑣 𝑣𝑣𝑖𝑖 : 各頂点の特徴量 𝒇𝒇𝑒𝑒 𝑒𝑒𝑖𝑖𝑖𝑖 : 各辺の特徴量 𝑒𝑒𝑖𝑖𝑖𝑖 : 各辺の特徴量 𝜙𝜙 𝒇𝒇𝑣𝑣 𝑣𝑣𝑖𝑖 , 𝒇𝒇𝑣𝑣 𝑣𝑣𝑗𝑗 , 𝒇𝒇𝑒𝑒 𝑒𝑒𝑖𝑖𝑗𝑗 𝜙𝜙 𝒇𝒇𝑣𝑣 𝑣𝑣𝑖𝑖 , 𝒇𝒇𝑣𝑣 𝑣𝑣𝑗𝑗′ , 𝒇𝒇𝑒𝑒 𝑒𝑒𝑖𝑖𝑗𝑗′ 𝜙𝜙 ⋯ 𝜙𝜙 ⋯
  43. MLP Mixerとの関係 •こちらもおそらく相性は良い 順不同にするか順序を入れる工夫が必要 •PointMixer [J. Choe+, arXiv, 2021]などの利用例 •

    この論文中の図がわかりやすい. • 広く解釈するとTransformerもMLP Mixerも点群畳み込み に近い枠組みで整理できる. このあたりは集合データ処理として今後整理が進むと期待 63
  44. サブサンプリング手法 サブサンプリングの必要性 • 2D CNN同様に,点群も階層的に処理したい • 点群にグリッド構造はないためサブサンプリングが必要 よく使われる手法: Furthest Point

    Sampling (FPS) • PointNet/PointNet++で採用,それ以降の手法でも 広く利用されている • 選ばれている点群から最も遠い点を逐次選択していく ・・・ 64
  45. サブサンプリング手法の紹介 Flex-convolution [F. Groh+, ACCV2018] サンプリング手法: Inverse Density Importance Sub-Sampling

    (IDISS) IDISSは点数に比例する計算量 (FPSは点数の二乗に比例する計算量なので効率が良い) 元の点群 ランダム IDISS 66
  46. サブサンプリング手法の紹介 USIP [J. Li+, ICCV2019] サンプリング手法: FPS + 補正 (位置合わせのための特徴点検出手法)

    1. FPSでサンプリング,その近傍で局所領域を設定 2. 局所領域内・局所領域同士の関係から代表点を再設定 FPS 局所領域内ごとの特徴量計算 近い局所領域同士で特徴量計算 再設定 67
  47. サブサンプリング手法の紹介 Modeling Point Clouds with Self-Attention and Gumbel Subset Sampling

    [J. Yang+, CVPR2019] サンプリング方法: Score + Gumbel-Max 1. 局所点群から各点ごとの Selection Scoreを計算 2. Gumbel-Maxで確率的に サンプリング 68
  48. アウトライン • 三次元形状のデータ形式と計測 • さまざまなデータ形式 • 三次元計測 • 点群を扱うニューラルネットワーク •

    点群を扱う難しさ • 典型的なタスク・ネットワーク構成 • PointNetの紹介 • 点群の畳み込み・Backbone • タスクに合わせたHead • 三次元形状の出力 • 事前学習 • アプリケーションの例 • 典型的なアプリケーション • 点群位置合わせ • ライブラリなど 70
  49. アウトライン • 三次元形状のデータ形式と計測 • さまざまなデータ形式 • 三次元計測 • 点群を扱うニューラルネットワーク •

    点群を扱う難しさ • 典型的なタスク・ネットワーク構成 • PointNetの紹介 • 点群の畳み込み・Backbone • タスクに合わせたHead • 三次元形状の出力 • 事前学習 • アプリケーションの例 • 典型的なアプリケーション • 点群位置合わせ • ライブラリなど 73
  50. 点群の出力 三次元形状を出力する手法 • 順不同・非グリッドな点群をどうやって出力するか • どう比較してロスを計算するか • Chamfer Distance, Earth

    Mover’s Distanceが主流 • それ以外も提案されつつあるが普及はまだ,という印象 三次元点群以外での形状記述・出力が流行 • Implicit Functionによる表現 • NeRFでは3Dの教師信号が不要(今日の発表では割愛) 74
  51. 点群の出力手法の紹介 Data-driven Upsampling [W. Zhang+, Elsevier CAD, 2019] など •

    点群をアップサンプリングして出力 • Shared MLP+Max-pooling → MLPで点群を直接生成 Shared MLP Max Pooling MLP 75
  52. Implicit Functionによる表現 三次元形状を陽には記述せず,NNでモデル化 された関数で陰的に記述 ※ 今回NeRFについては割愛(3DでのSupervisionではないため) 基本的なアイデア 形状をパラメータで表現して表面形状を記述, 各点をスキャンして復元 •

    𝑃𝑃 = 𝒑𝒑𝑖𝑖 : 三次元点群(などの,形状に対応した入力) • 𝜽𝜽𝑃𝑃 = 𝑔𝑔 𝑃𝑃 : 形状をLatent Vectorで表す • 𝑓𝑓 𝒙𝒙|𝜽𝜽𝑃𝑃 : 𝑃𝑃の表す形状のImplicit Function 80
  53. Implicit Functionによる表現 Occupancy Networks [L. Mescheder+, CVPR2019] • エンコーダーは様々なものが使える •

    2D画像 • PointNet • 3D CNN (ボクセルベース) • 陰的な表現なので出力手法が必要 • 標準的にはMarching Cubes法が用いられる • この論文では Multiresolution IsoSurface Extractionを提案 82
  54. Implicit Functionによる表現 DeepSDF [J. J. Park+, CVPR2019] 形状をコード化して形状ごとのSigned Distance Function

    (SDF)を直接学習 シンプルなモデルで三次元形状が記述できる DeepSDFによる全周形状の補完の例 Signed Distance Function 𝑓𝑓 𝒙𝒙 � > 0(物体の外側) = 0(物体の表面) < 0(物体の内側) 83
  55. Implicit Functionによる表現 DeepSDF [J. J. Park+, CVPR2019] 三次元形状をコードで表現し,そのモデルに対するSDFの 値を各点について直接学習 Auto-decoder

    • エンコーダーを置かず,直接コードを学習 • 推論時はMAP推定で形状からコードに変換できる 形状を表現する コード 三次元点の座標 形状・座標に対応する SDFの出力値 形状を表現する コード SDF 85
  56. 表面点群のみから学習 Implicit Geometric Regularization [A.Gropp+, ICML2020] • 表面点群(=Implicit Functionのゼロ面上の点)から Implicit

    FunctionによりSDFを学習 • 適切な初期化と空間中での勾配に関する制約(SDFの 勾配があらゆる点で1になる)を用いて学習 86
  57. アウトライン • 三次元形状のデータ形式と計測 • さまざまなデータ形式 • 三次元計測 • 点群を扱うニューラルネットワーク •

    点群を扱う難しさ • 典型的なタスク・ネットワーク構成 • PointNetの紹介 • 点群の畳み込み・Backbone • タスクに合わせたHead • 三次元形状の出力 • 事前学習 • アプリケーションの例 • 典型的なアプリケーション • 点群位置合わせ • ライブラリなど 88
  58. 事前学習 点群は大規模データセットの用意が難しいため 事前学習が効く可能性が高い 大規模なラベル付きデータセットを必要としない 自己教師による手法や自動生成可能な手法に期待 まだ発展途上,組み合わせて使うことも可能なはず • Natural 3D Structures

    [R. Yamada+, CVPR2022] フラクタルを利用したモデル生成&配置を自動生成し物体検出を事前学習 • Implicit Autoencoder [S. Yan+, arXiv, 2022] Implicit Functionによるデコーダーと組み合わせてオートエンコーダー • DepthContrast [Z. Zhang+, ICCV2021] モーダルの異なる3Dデータを利用して対照学習 89
  59. 事前学習 •Natural 3D Structures [R. Yamada+, CVPR2022] 1. 3D Iterated

    Function System (IFS) でモデル生成 2. 分散に基づいてカテゴリ定義 3. 複数モデルを重ね合わせてデータ拡張 4. 3Dで配置しシーン作成 90
  60. アウトライン • 三次元形状のデータ形式と計測 • さまざまなデータ形式 • 三次元計測 • 点群を扱うニューラルネットワーク •

    点群を扱う難しさ • 典型的なタスク・ネットワーク構成 • PointNetの紹介 • 点群の畳み込み・Backbone • タスクに合わせたHead • 三次元形状の出力 • 事前学習 • アプリケーションの例 • 典型的なアプリケーション • 点群位置合わせ • ライブラリなど 91
  61. アプリケーションの例 ベンチマーク的なアプリケーション • クラス分類 • (セマンティック/インスタンス)セグメンテーション 実利用寄りなアプリケーション • 物体検出・物体認識 VoxelNet

    [Y. Zhou+, CVPR2018],Frustum PointNet [C. R. Qi+, CVPR2018]など • 点群の位置合わせ(マッチングベース) 3DMatch [A. Zeng+, CVPR2017],3D Feat-Net [Z. J. Yew+, ECCV2018]など • 点群の位置合わせ(剛体変換推定) IT-Net [W. Yuan+, arXiv, 2018],PointNetLK [Y. Aoki+, CVPR2019]など • 点群の位置合わせ(教師なし非剛体) • CorrNet3D [Y. Zeng+, CVPR2021],ESFW [Y. Rintato+, arXiv, 2022] • アップサンプリング PU-Net [L. Yu+, CVPR2018],Progressive Upsampling [Yuan+, 3DV2018]など • 形状補完 Under Weak Supervision [D. Stutz+, CVPR2018],Latent Optimization [S. Gurumurthy+, arXiv, 2018]など • その他 ノイズ除去 [M. J. Rakotosaona+, arXiv, 2019],手の姿勢推定 [L. Ge+, ECCV2018], 把持姿勢の評価 [H. Liang+, ICRA2019] など 92
  62. アプリケーションの例 物体検出 VoteNet [C. R. Qi+, ICCV2019] Votingを用いて三次元点群から 物体中心を推定,クラスタリングし 物体検出・BB推定

    形状補完 GRNet [H. Xie+, ECCV2020] ボクセル畳み込み&Refineで 全周点群の補完 アップサンプリング Progressive Upsampling [W. Yifan+, CVPR2019] パッチベースのアップサンプリング 93
  63. アプリケーションの例 点群の位置合わせ • マッチングベース 3DMatch [A. Zeng+, CVPR2017] 位置合わせのための 局所点群を記述する特徴量を学習

    • 剛体変換推定 PointNetLK [Y. Aoki+, CVPR2019] Lucas-Kanade法とPointNetを 組み合わせて点群同士の位置合わせ • 教師なし非剛体位置合わせ CorrNet3D [Y. Zeng+, CVPR2021] ESFW [R. Yanagi+, arXiv] 94
  64. アウトライン • 三次元形状のデータ形式と計測 • さまざまなデータ形式 • 三次元計測 • 点群を扱うニューラルネットワーク •

    点群を扱う難しさ • 典型的なタスク・ネットワーク構成 • PointNetの紹介 • 点群の畳み込み・Backbone • タスクに合わせたHead • 三次元形状の出力 • 事前学習 • アプリケーションの例 • 典型的なアプリケーション • 点群位置合わせ • ライブラリなど 95
  65. 点群位置合わせ(剛体変換) IT-Net [W. Yuan+, arXiv:1811.11209] 3D剛体変換を学習,回転をそろえるための Iterative Transformer Network (IT-Net)を提案

    96 入力点群 推定された 変換 入力点群に 変換を適用 一度変換した点群 変換の差分を推定・適用 全ての変換を合わせて最終的に出力する変換を得る
  66. 点群位置合わせ(剛体変換) PointNetLK [Y. Aoki+, CVPR2019] Lucas-Kanade法に PointNetを組み合わせ, 点群位置合わせ 位置合わせの例 剛体変換:

    三次元ユークリッド空間でのSE(3)の要素 6次元のTwist Parametersを用いる SE(3)の指数写像のGeneratorの重み付け和を求め,指数関数で 変換した行列として剛体変換を記述 剛体変換 SE(3)についてのGenerator パラメータベクトル 98
  67. 点群位置合わせ(剛体変換) PointNetLK [Y. Aoki+, CVPR2019] パラメータに対するPointNetの微分を考えるのは 非常に難しい → 数値的にヤコビアンを計算 ヤコビアン𝐉𝐉の各列𝐉𝐉𝑖𝑖

    をパラメータの微小変動で近似 ヤコビアンの疑似逆行列によりパラメータを更新 𝐓𝐓に沿った 微小な剛体変換 微小な剛体変換後の点群に 対するPointNetの出力 元の点群に対する 点群のPointNetの出力 上で求めた近似ヤコビアンの疑似逆行列 100
  68. 点群位置合わせ(非剛体変換) CorrNet3D [Y. Zeng+, CVPR2021] • 非剛体な変形をする点群間の対応を教師なしで学習 • 局所点群の特徴から形状の対応を推定 •

    変形した点群を入力し 対応を推定,並べ替え 変形してみて比較 102 局所特徴量のSimilarityから対応推定
  69. アウトライン • 三次元形状のデータ形式と計測 • さまざまなデータ形式 • 三次元計測 • 点群を扱うニューラルネットワーク •

    点群を扱う難しさ • 典型的なタスク・ネットワーク構成 • PointNetの紹介 • 点群の畳み込み・Backbone • タスクに合わせたHead • 三次元形状の出力 • 事前学習 • アプリケーションの例 • 典型的なアプリケーション • 点群位置合わせ • ライブラリなど 103
  70. ライブラリなど 現状でのオススメ:PyTorch Geometric • グラフNN的な枠組みで点群処理が書ける • 有名なネットワーク・よく使われる手法が実装済み その他のライブラリ • PyTorch3D,

    TensorFlow Graphics • メッシュの最適化・微分可能レンダリング等に強い • Kaolin • 3D全般・Omniverseに組み込まれるらしい? • Minkowski Engine, TorchSparse • スパーステンソルの扱いに強い • MATLABも対応しつつあるらしい 104
  71. PyTorch Geometricの紹介 PyTorch Geometricにおけるミニバッチ • Tensorとしてはすべて結合している • どの点群(グラフ)に属するかをbatchで指定 (PyTorch Scatterを利用している)

    • Shared MLP等の要素ごとの処理はそのまま動く • 集約やkNN等をグラフ単位で処理できる関数を用意 105 1個目の点群 2個目の点群 N個目の点群
  72. 参考文献 (1/3) • Eman Ahmed, Alexandre Saint, Abd El Rahman

    Shabayek, Kseniya Cherenkova, Rig Das, Gleb Gusev, Djamila Aouada, Bjorn Ottersten. A survey on Deep Learning Advances on Different 3D Data Representations. arXiv:1808.01462. • Johannes L. Schönberger, Enliang Zheng, Jan-Michael Frahm & Marc Pollefeys. Pixelwise View Selection for Unstructured Multi-View Stereo, ECCV2016. • Sebastian Koch, Albert Matveev, Zhongshi Jiang, Francis Williams, Alexey Artemov, Evgeny Burnaev, Marc Alexa, Denis Zorin, Daniele Panozzo. ABC: A Big CAD Model Dataset For Geometric Deep Learning, CVPR2019. • Charles R. Qi, Hao Su, Kaichun Mo, Leonidas J. Guibas. PointNet: Deep Learning on Point Sets for 3D Classification and Segmentation. CVPR2017. • Charles R. Qi, Or Litany, Kaiming He, Leonidas Guibas. Deep Hough Voting for 3D Object Detection in Point Clouds. ICCV2019. • Manzil Zaheer, Satwik Kottur, Siamak Ravanbakhsh, Barnabas Poczos, Ruslan Salakhutdinov, Alexander Smola. Deep Sets. NIPS2017. • Max Jaderberg, Karen Simonyan, Andrew Zisserman, Koray Kavukcuoglu. Spatial Transformer Networks. NIPS2015. • Hongxin Lin, Zelin Xiao, Yang Tan, Hongyang Chao, Shengyong Ding. Justlookup: One Millisecond Deep Feature Extraction for Point Clouds By Lookup Tables. ICME2019. • Shenlong Wang, Simon Suo, Wei-Chiu Ma, Andrei Pokrovsky, Raquel Urtasun. Deep Parametric Continuous Convolutional Neural Networks. CVPR2018. • Binh-Son Hua, Minh-Khoi Tran, Sai-Kit Yeung. Pointwise Convolutional Neural Networks. CVPR2018. • Fabian Groh, Patrick Wieschollek, Hendrik P.A. Lensch. Flex-Convolution (Million-Scale Point-Cloud Learning Beyond Grid-Worlds). ACCV2018. • Maxim Tatarchenko, Jaesik Park, Vladlen Koltun, Qian-Yi Zhou. Tangent Convolutions for Dense Prediction in 3D. CVPR2018. • Alex H. Lang, Sourabh Vora, Holger Caesar, Lubing Zhou, Jiong Yang, Oscar Beijbom. PointPillars: Fast Encoders for Object Detection from Point Clouds. CVPR2019. • Charles Ruizhongtai Qi, Li Yi, Hao Su, Leonidas J. Guibas. PointNet++: Deep Hierarchical Feature Learning on Point Sets in a Metric Space. NIPS2017. • Yue Wang, Yongbin Sun, Ziwei Liu, Sanjay E. Sarma, Michael M. Bronstein, Justin M. Solomon. Dynamic Graph CNN for Learning on Point Clouds. ACM ToG, 2019. • Yifan Xu, Tianqi Fan, Mingye Xu, Long Zeng, Yu Qiao. SpiderCNN: Deep Learning on Point Sets with Parameterized Convolutional Filters. ECCV2019. • Hengshuang Zhao, Li Jiang, Chi-Wing Fu, Jiaya Jia. PointWeb: Enhancing Local Neighborhood Features for Point Cloud Processing. CVPR2019. • Artem Komarichev, Zichun Zhong, Jing Hua. A-CNN: Annularly Convolutional Neural Networks on Point Clouds. CVPR2019. • Zhiyuan Zhang, Binh-Son Hua, Sai-Kit Yeung. ShellNet: Efficient Point Cloud Convolutional Neural Networks Using Concentric Shells Statistics. ICCV2019. • Xu Ma, Can Qin, Haoxuan You, Haoxi Ran, Yun Fu. Rethinking Network Design and Local Geometry in Point Cloud: A Simple Residual MLP Framework. ICLR2022. • Ashish Vaswani, Noam Shazeer, Niki Parmar, Jakob Uszkoreit, Llion Jones, Aidan N. Gomez, Lukasz Kaiser, Illia Polosukhin. Attention Is All You Need. NIPS2017. 107
  73. 参考文献 (2/3) • Hengshuang Zhao, Li Jiang, Jiaya Jia, Philip

    H.S. Torr, Vladlen Koltun. Point Transformer. ICCV2021. • Xuran Pan, Zhuofan Xia, Shiji Song, Li Erran Li, Gao Huang. 3D Object Detection With Pointformer. CVPR2021. • Ilya Tolstikhin, Neil Houlsby, Alexander Kolesnikov, Lucas Beyer, Xiaohua Zhai, Thomas Unterthiner, Jessica Yung, Andreas Steiner, Daniel Keysers, Jakob Uszkoreit, Mario Lucic, Alexey Dosovitskiy. MLP-Mixer: An all-MLP Architecture for Vision. NeurIPS2021. • Jaesung Choe, Chunghyun Park, Francois Rameau, Jaesik Park, In So Kweon. PointMixer: MLP-Mixer for Point Cloud Understanding. arXiv:2111.11187. • Jiaxin Li, Gim Hee Lee. USIP: Unsupervised Stable Interest Point Detection From 3D Point Clouds. ICCV2019. • Jiancheng Yang, Qiang Zhang, Bingbing Ni, Linguo Li, Jinxian Liu, Mengdie Zhou, Qi Tian. Modeling Point Clouds with Self-Attention and Gumbel Subset Sampling. CVPR2019. • Wentai Zhang, Haoliang Jiang, Zhangsihao Yang, Soji Yamakawa, Kenji Shimada, Levent Burak Kara. Data-driven Upsampling of Point Clouds. Elsevier CAD, 2019. • Yaoqing Yang, Chen Feng, Yiru Shen, Dong Tian. FoldingNet: Point Cloud Auto-Encoder via Deep Grid Deformation. CVPR2018. • Thibault Groueix, Matthew Fisher, Vladimir G. Kim, Bryan C. Russell, Mathieu Aubry. AtlasNet: A Papier-Mâché Approach to Learning 3D Surface Generation. CVPR2018. • Ben Mildenhall, Pratul P. Srinivasan, Matthew Tancik, Jonathan T. Barron, Ravi Ramamoorthi, Ren Ng. NeRF: Representing Scenes as Neural Radiance Fields for View Synthesis. ECCV2020. • Lars Mescheder, Michael Oechsle, Michael Niemeyer, Sebastian Nowozin, Andreas Geiger. Occupancy Networks: Learning 3D Reconstruction in Function Space. CVPR2019. • Jeong Joon Park, Peter Florence, Julian Straub, Richard Newcombe, Steven Lovegrove. DeepSDF: Learning Continuous Signed Distance Functions for Shape Representation. CVPR2019. • Amos Gropp, Lior Yariv, Niv Haim, Matan Atzmon, Yaron Lipman. Implicit Geometric Regularization for Learning Shapes. ICML2020. • Ryosuke Yamada, Hirokatsu Kataoka, Naoya Chiba, Yukiyasu Domae, Tetsuya Ogata. Point Cloud Pre-training with Natural 3D Structures. CVPR2022. • Siming Yan, Zhenpei Yang, Haoxiang Li, Li Guan, Hao Kang, Gang Hua, Qixing Huang. Implicit Autoencoder for Point Cloud Self-supervised Representation Learning. arXiv:2201.00785. • Zaiwei Zhang, Rohit Girdhar, Armand Joulin, Ishan Misra. Self-Supervised Pretraining of 3D Features on Any Point-Cloud. ICCV2021. • Yin Zhou, Oncel Tuzel. VoxelNet: End-to-End Learning for Point Cloud Based 3D Object Detection. CVPR2018. • Charles R. Qi, Wei Liu, Chenxia Wu, Hao Su, Leonidas J. Guibas. Frustum PointNets for 3D Object Detection from RGB-D Data. CVPR2018. • Andy Zeng, Shuran Song, Matthias Nießner, Matthew Fisher, Jianxiong Xiao, Thomas Funkhouser. 3DMatch: Learning Local Geometric Descriptors from RGB-D Reconstructions. CVPR2017. 108
  74. 参考文献 (3/3) • Zi Jian Yew, Gim Hee Lee. 3DFeat-Net:

    Weakly Supervised Local 3D Features for Point Cloud Registration. ECCV2018. • Wentao Yuan, David Held, Christoph Mertz, Martial Hebert. Iterative Transformer Network for 3D Point Cloud. arXiv:1811.11209. • Yasuhiro Aoki, Hunter Goforth, Rangaprasad Arun Srivatsan, Simon Lucey. PointNetLK: Robust & Efficient Point Cloud Registration using PointNet. CVPR2019. • Yiming Zeng, Yue Qian, Zhiyu Zhu, Junhui Hou, Hui Yuan, Ying He. CorrNet3D: Unsupervised End-to-End Learning of Dense Correspondence for 3D Point Clouds. CVPR2021. • Rintaro Yanagi, Atsushi Hashimoto, Shusaku Sone, Naoya Chiba, Jiaxin Ma, Yoshitaka Ushiku. Edge-Selective Feature Weaving for Point Cloud Matching. arXiv:2202.02149. • Lequan Yu, Xianzhi Li, Chi-Wing Fu, Daniel Cohen-Or, Pheng-Ann Heng. PU-Net: Point Cloud Upsampling Network. CVPR2018. • Wang Yifan, Shihao Wu, Hui Huang, Daniel Cohen-Or, Olga Sorkine-Hornung. Patch-based Progressive 3D Point Set Upsampling. CVPR2019. • David Stutz, Andreas Geiger. Learning 3D Shape Completion From Laser Scan Data With Weak Supervision. CVPR2018. • Swaminathan Gurumurthy, Shubham Agrawal. High Fidelity Semantic Shape Completion for Point Clouds using Latent Optimization. arXiv:1807.03407. • Marie-Julie Rakotosaona, Vittorio La Barbera, Paul Guerrero, Niloy J. Mitra, Maks Ovsjanikov. PointCleanNet: Learning to Denoise and Remove Outliers from Dense Point Clouds. arXiv:1901.01060. • L. Ge, Z. Ren, J. Yuan. Point-to-Point Regression PointNet for 3D Hand Pose Estimation. ECCV2018. • Hongzhuo Liang, Xiaojian Ma, Shuang Li, Michael Görner, Song Tang, Bin Fang, Fuchun Sun, Jianwei Zhang. PointNetGPD: Detecting Grasp Configurations from Point Sets. ICRA2019. • Haozhe Xie, Hongxun Yao, Shangchen Zhou, Jiageng Mao, Shengping Zhang, Wenxiu Sun. GRNet: Gridding Residual Network for Dense Point Cloud Completion. ECCV2020. • Yiming Zeng, Yue Qian, Zhiyu Zhu, Junhui Hou, Hui Yuan, Ying He. CorrNet3D: Unsupervised End-to-End Learning of Dense Correspondence for 3D Point Clouds. CVPR2021. 109