Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Ollama の Structured outputs を IBM Granite などローカ...

Ollama の Structured outputs を IBM Granite などローカル LLM で試してみる

20250409_AIミーティング「Ollama の Structured outputs を IBM Granite などローカル LLM で試してみる」の登壇資料です。

◆スライド内の素材は以下を使用させていただいております。ありがとうございます!

・シルエットデザイン http://kage-design.com/
・human pictogram 2.0 http://pictogram2.com
・ICOOON MONO http://icooon-mono.com/
・Adobe Stock https://stock.adobe.com/jp

1ft-seabass

April 09, 2025
Tweet

More Decks by 1ft-seabass

Other Decks in Technology

Transcript

  1. Ollama API で Structure outputs する様子 format 要素に JSON スキーマを与えればできる

    OpenAI API の Function calling っぽい https://ollama.com/blog/structured-outputs
  2. ➔ 今日はまだ整わなかったですが画像認識 Vision 系の LLM もローカル PC であれば動いて、さらに Structure outputs

    が効きそうな片鱗が見えたのでまた話したいです ➔ 今回の CSV のようなデータ変換系は結構小さな LLM でも いいかんじ、SQL コード例のようなコードを出す系もな かなかによい。 ➔ 一方、ウォンバット知ってる的な知識系については小さい LLM だと、いまいちなことがある。圧縮のため、どの方 向性で削っているかとかいろいろな背景が見える。 エクストラ
  3. ➔ Ollama で Structure outputs が使えるようになって JSON データが取得できて他の仕組みに組み込みやすい。 ➔ OpenAI

    の Function calling の良さがローカル LLM でも 使えるのはすばらしい。色々使えそう。 ➔ GitHub Codespaces でもレスポンスもそれなりによく構 築しやすく手元 PC パワーがあれば実用もできそう。 ➔ 生成 AI を使うときにもクラウドでの良さ、ローカルでの 良さを気軽に楽しめてとても楽しみになってきました! まとめ