Upgrade to Pro — share decks privately, control downloads, hide ads and more …

非情報系研究者へ送る Transformer入門

非情報系研究者へ送る Transformer入門

第2回植物異分野勉強会@総研大にて「WET研究者のためのTransformer入門」 で用いた資料を改変.ニューラルネットワークの基礎からTransformerおよびアテンションの概念について概説.

Avatar for Ryo Ishiyama

Ryo Ishiyama

March 08, 2026
Tweet

Other Decks in Technology

Transcript

  1. 本勉強会の目標 • 目標 ◦ 多くのAIの中身で用いられている「Transformer」がわかるようになる • やること ◦ AIの中身,ニューラルネットワーク,Transformerの概要を掴む ◦

    Transformerを実際に動かしてみる ◦ 遺伝子データをTransformerで解析してみる • やらないこと ◦ 数理的に厳密な説明 ◦ 自分でLLM(大規模言語モデル)を作る 2/119
  2. そもそも AI って... Artificial Intelligence ( 人工知能 ) John McCarthy

    推論 認識 学習 14/119 人間の脳の働きをコンピュータで再現 1. 人間の思考を記号・ルール化    初期に盛んに行われていた 2. 人間の脳を模倣      ニューラルネットワークの源流
  3. まとめ 1. ニューラルネットワークとは  - 行列 + 非線形関数を多層に積み重ねたもの 2. モデルの学習とは -

    行列のパラメータを調整すること  - ゴール:誤差関数を最小化する  - 方法 :勾配を使って少しずつ更新 40/119
  4. 付録:モデルは何を出力するの?  例:3クラス分類 (e.g. 画像  犬 or 猫 or 鳥) 42/119 0.8

    0.1 0.1 「犬」の確率 「猫」の確率 「鳥」の確率 1番確率が高いもの = モデルの予測
  5. Transformerの処理の概要:英→日翻訳の例 Encoder (符号化) Transformer X: I like apples Decoder (復号化)

    <START> 私は リンゴが 好き 私は リンゴが 好き <END> 変換完了! 71/119
  6. “空/が/明るい” 0.2 0.5 0.1 0.1 0.9 0.8 0.9 0.8 80/119

    AIのやりたいこと: 意味の近い言葉は ベクトル表現においても 近く設計したい =意味を数値で表現 言語処理で問題意識 なぜアテンションが必要なのか?
  7. “空/が/明るい” 0.2 0.5 0.1 0.1 0.9 0.8 0.9 0.8 81/119

    AIのやりたいこと: 意味の近い言葉は ベクトル表現においても 近く設計したい =意味を数値で表現 “輝き” “眩しい” 言語処理で問題意識 なぜアテンションが必要なのか?
  8. “空/が/明るい” 0.2 0.5 0.1 0.1 0.9 0.8 0.9 0.8 82/119

    言語処理で問題意識 なぜアテンションが必要なのか?
  9. “空/が/明るい” 0.2 0.5 0.1 0.1 0.9 0.8 0.9 0.8 “空/が/明るい”

    0.9 0.7 0.9 0.7 83/119 言語処理で問題意識 なぜアテンションが必要なのか?
  10. “空/が/明るい” 0.2 0.5 0.1 0.1 0.9 0.8 0.9 0.8 “空/が/明るい”

    0.9 0.7 0.9 0.7 84/119 言語処理で問題意識 なぜアテンションが必要なのか?
  11. “空/が/明るい” 0.2 0.5 0.1 0.1 0.9 0.8 0.9 0.8 “空/が/明るい”

    0.9 0.7 0.9 0.7 “輝き” “眩しい” 85/119 言語処理で問題意識 なぜアテンションが必要なのか?
  12. “生物/に/明るい” 0.3 0.7 0.2 0.2 0.9 0.8 0.9 0.8 86/119

    言語処理で問題意識 なぜアテンションが必要なのか?
  13. “生物/に/明るい” 0.3 0.7 0.2 0.2 0.9 0.8 0.9 0.8 0.4

    0.3 0.4 “生物/に/明るい” 0.3 “詳しい” 87/119 “熟知” 言語処理で問題意識 なぜアテンションが必要なのか?
  14. 88/119 “空/が/明るい” 0.9 0.7 0.9 0.7 “輝き” “眩しい” 0.4 0.3

    0.4 “生物/に/明るい” 0.3 “詳しい” “熟知” 言語処理で問題意識 なぜアテンションが必要なのか?
  15. 89/119 “空/が/明るい” 0.9 0.7 0.9 0.7 “輝き” “眩しい” 0.4 0.3

    0.4 “生物/に/明るい” 0.3 “詳しい” “熟知” 同じ「語」だが 文脈が違えば意味が異なる! 言語処理で問題意識 なぜアテンションが必要なのか?
  16. アテンションの処理 94/119 W W W 生物 に 明るい 各語句について 独立に変換

    各語句について 独立に変換 各語句について 独立に変換
  17. アテンションの処理 4 5 1 2 6 3 103/119 W W

    W 生物 に 明るい 1 2 3 4 5 6
  18. アテンションの処理 7 8 4 5 1 2 9 6 3

    104/119 W W W 生物 に 明るい 1 2 3 4 5 6 7 8 9
  19. アテンションの処理 7 8 4 5 1 2 9 6 3

    105/119 W W W 生物 に 明るい 1 2 3 4 5 6 7 8 9
  20. Transformerのまとめ • Transformerは汎用的なデータの変換器である • Transformerはアテンションを用いて効率的計算を実証 • 余力がある方へ ◦ 大規模言語モデルは新たな知能か(書籍,岩波科学ライブラリ,読み物として◎) https://www.iwanami.co.jp/book/b625941.html

    ◦ 東京大学工学部電子情報工学科・電気電子工学科の3年生向け後期実験 「大規模言語モデル演習」(授業資料,よりテクニカルに話題) https://eeic-llm.github.io/2025/index.html ◦ 原論文から解き明かす生成AI (書籍,技術評論社,Transformerの数理を詳説) https://gihyo.jp/book/2025/978-4-297-15078-5 113/119