Upgrade to Pro — share decks privately, control downloads, hide ads and more …

20250614_LT_走れメロスの個人情報マスク処理をMacStudio 512GBメモリマ...

20250614_LT_走れメロスの個人情報マスク処理をMacStudio 512GBメモリマシンで試してみた

Avatar for NobuakiOshiro

NobuakiOshiro

June 13, 2025
Tweet

More Decks by NobuakiOshiro

Other Decks in Technology

Transcript

  1. 閑話休題:⾛れメロス • ⻘空⽂庫で全⽂公開されてます • https://www.aozora.gr.jp/cards/000035/files/1567_14913.html • ローカルLLMで「メロス」や「セリヌンティウス」などの名称をマス クしたい -> これができれば、社内でいろんなデータをLLMに⾷わせて処理できる

    -> また、マスク後データを外部のさらに性能の良いAPIに投げて分析させるとか もできて良さげ • 現時点での結論 • Mac Studio 512GBならいけそう • 128GBメモリのMac Boop Proだと厳しいかも?
  2. 実⾏結果② ( Llama-4 scout-17b-16e ) • やや、いい感じです ( アレキスが⾜りない )

    • 動作中のメモリ使⽤量は 116GBくらい • 15token/sec、くらいのス ピードは出てそうです
  3. 実⾏結果③ ( Llama-3.3-70b ) • 少し間違えているものの、概ねOK ( 太宰治を⼈物2、とかたまに間 違えている )

    • 動作中のメモリ使⽤量は87GBくら い • 5token/sec、くらいのスピードな のでやや遅めですが許容範囲
  4. 実⾏結果④ ( Llama-4 dolphin-8B ) • 全然ダメでした ( そもそも指⽰を聞いて おらず、おうむ返し

    ) ・トークン⻑も8000トー クンくらいが上限だった ので2000⽂字まで縮⼩し て実験
  5. その他所感等 • Llama-4 mavericでようやく及第点。ただ、⼗分ではない ( ChatGPT-4と4oの中間くらいの感覚 ) • 個⼈情報マスクは⼗分だが、バイブコーディングで分析させる にはまだ弱い印象(

    複雑な分析は失敗する ) • ⼀⽅で「どんなデータでもローカルで安全に扱える」という点 はやはりデカい • ローカルLLM活⽤も引き続き⾊々検証していきたいと思います