Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Pulsar2 を雰囲気で使ってみよう

anoken
February 04, 2025

Pulsar2 を雰囲気で使ってみよう

M5Stack LLM 座談会 #02
https://stack-boards-enthusiasts.connpass.com/event/342944/

LT:Pulsar2 を雰囲気で使ってみよう

anoken

February 04, 2025
Tweet

More Decks by anoken

Other Decks in Programming

Transcript

  1. M5Stack 2019 StickV(K210) 2021 UnitV2(SSD202D ) UnitV3(AX620A ) 2024 ModuleLLM

    (AX630C ) M5StickV/UnitVを遊び倒し、後継のUnitV3で搭載されたAXERAのチップに興味を持って、 発売を心待 ちにしていました。いつの間にかUnitV3は消え、 Module LLMが発売されました。 Module LLM 発売前 2024 LLM630ComputeKIT (AX630C ) AXERA Gen1:AX630A → Gen2:AX620A/620U →Gen3:AX650A/AX650N→Gen4:AX630C/AX620Q 2023/1~2024/6 2024/6~2024/10
  2. 〇C++: AX620E BSP SDKライブラリ+ aarch64-linux-gnu(arm用のクロスコンパイラ) https://github.com/AXERA-TECH/ax-samples https://github.com/AXERA-TECH/ax620e_bsp_sdk 〇Python: pyaxengine https://github.com/AXERA-TECH/pyaxengine

    Pulsar2: AxeraのチップのNPUで 機械学習のモデルが動くように、 onnxモデルをaxmodelに変換するツール ・Module-LLMでNPUモデルを使ったアプリを作るには?: ( M5Stack LLM 座談会 #01で@AirpocketさんがAXERAに依頼した結果、リリースされました!感謝!!) 量子化して コンパイルして ONNXモデルを axmodelが完成
  3. どれくらい早くなるのか? 252x252 NPU(quentized) 518x518 NPU(quentized) 518x518 CPU 252x252 CPU このモデルは80~180倍速い。

    モデル変換することでNPUを使った推論になり、モ デル構成によっては処理速度が圧倒的に早くなり ます。但し、NPU推論は、主に量子化誤差が発生し ます。
  4. 𝑥′ 𝑦′ 𝑧′ 𝑤′ = 𝑚ଵଵ 𝑚ଶଵ 𝑚ଷଵ 𝑚ସଵ 𝑚ଵଶ

    𝑚ଶଶ 𝑚ଷଶ 𝑚ସଶ 𝑚ଷଵ 𝑚ଷଶ 𝑚ଷଷ 𝑚ଷସ 𝑚ସଵ 𝑚ସଶ 𝑚ସଷ 𝑚ସସ 𝑥 𝑦 𝑧 1 ②.Pythonでプログラミングします。 ①.ディープじゃないシンプルな 幾何学変換のモデルを作ってみます。 𝑚ଵଵ 𝑚ଶଵ 𝑚ଷଵ 𝑚ସଵ 𝑚ଵଶ 𝑚ଶଶ 𝑚ଷଶ 𝑚ସଶ 𝑚ଷଵ 𝑚ଷଶ 𝑚ଷଷ 𝑚ଷସ 𝑚ସଵ 𝑚ସଶ 𝑚ସଷ 𝑚ସସ 𝑥 𝑦 𝑧 1 𝑥′ 𝑦′ 𝑧′ 𝑤′ ←行列と行列の乗算 ③. Nectronでonnxを開きます。
  5. # Pulsar2(docker)を起動 user@ubuntu$ sudo docker run -it --net host -v

    $PWD:/data pulsar2:3.3 # pulsar2 buildでモデル変換(量子化&コンパイル) root@:/data# pulsar2 build --config matmul_model.json 量子化onnxモデル