Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
TAID: Temporally Adaptive Interpolated Distilla...
Search
Sponsored
·
Your Podcast. Everywhere. Effortlessly.
Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
→
ほき
March 22, 2025
Research
0
19
TAID: Temporally Adaptive Interpolated Distillation for Efficient Knowledge Transfer in Language Models
ほき
March 22, 2025
Tweet
Share
More Decks by ほき
See All by ほき
Expert-Level Detection of Epilepsy Markers in EEG on Short and Long Timescales
hokkey621
0
20
MMaDA: Multimodal Large Diffusion Language Models
hokkey621
0
13
脳波を用いた嗜好マッチングシステム
hokkey621
0
480
DeepSeek-R1: Incentivizing Reasoning Capability in LLMs via Reinforcement Learning
hokkey621
0
83
Learning to Model the World with Language
hokkey621
0
24
GeminiとUnityで実現するインタラクティブアート
hokkey621
0
1.6k
LT - Gemma Developer Time
hokkey621
0
17
wav2vec 2.0: A Framework for Self-Supervised Learning of Speech Representations
hokkey621
0
30
イベントを主催してわかった運営のノウハウ
hokkey621
0
81
Other Decks in Research
See All in Research
討議:RACDA設立30周年記念都市交通フォーラム2026
trafficbrain
0
530
A History of Approximate Nearest Neighbor Search from an Applications Perspective
matsui_528
1
190
FUSE-RSVLM: Feature Fusion Vision-Language Model for Remote Sensing
satai
3
170
AIスパコン「さくらONE」の オブザーバビリティ / Observability for AI Supercomputer SAKURAONE
yuukit
2
1.2k
2026 東京科学大 情報通信系 研究室紹介 (大岡山)
icttitech
0
420
ローテーション別のサイドアウト戦略 ~なぜあのローテは回らないのか?~
vball_panda
0
300
Agentic AI フレームワーク戦略白書 (2025年度版)
mickey_kubo
1
130
Ankylosing Spondylitis
ankh2054
0
140
生成AI による論文執筆サポート・ワークショップ ─ サーベイ/リサーチクエスチョン編 / Workshop on AI-Assisted Paper Writing Support: Survey/Research Question Edition
ks91
PRO
0
160
競合や要望に流されない─B2B SaaSでミニマム要件を決めるリアルな取り組み / Don't be swayed by competitors or requests - A real effort to determine minimum requirements for B2B SaaS
kaminashi
0
950
Multi-Agent Large Language Models for Code Intelligence: Opportunities, Challenges, and Research Directions
fatemeh_fard
0
130
IEEE AIxVR 2026 Keynote Talk: "Beyond Visibility: Understanding Scenes and Humans under Challenging Conditions with Diverse Sensing"
miso2024
0
110
Featured
See All Featured
From Legacy to Launchpad: Building Startup-Ready Communities
dugsong
0
170
Designing Dashboards & Data Visualisations in Web Apps
destraynor
231
54k
Agile Leadership in an Agile Organization
kimpetersen
PRO
0
97
Paper Plane
katiecoart
PRO
0
47k
Neural Spatial Audio Processing for Sound Field Analysis and Control
skoyamalab
0
200
Design in an AI World
tapps
0
160
Reflections from 52 weeks, 52 projects
jeffersonlam
356
21k
How to build a perfect <img>
jonoalderson
1
5.2k
Digital Ethics as a Driver of Design Innovation
axbom
PRO
1
200
AI: The stuff that nobody shows you
jnunemaker
PRO
3
350
It's Worth the Effort
3n
188
29k
jQuery: Nuts, Bolts and Bling
dougneiner
65
8.4k
Transcript
https://www.academix.jp/ AcademiX 論文輪読会 TAID: Temporally Adaptive Interpolated Distillation for Efficient
Knowledge Transfer in Language Models ほき 2025/03/22
書誌情報 • TAID: Temporally Adaptive Interpolated Distillation for Efficient Knowledge
Transfer in Language Models • Makoto Shing, Kou Misaki, Han Bao, Sho Yokoi, Takuya Akiba • ICLR 2025 • https://doi.org/10.48550/arXiv.2501.16937 ※本スライドの図は本論文またはSakana AIのテックブログより引用 2
LMsの活用と課題 • LMsは様々な分野で重要なツール • LMsは広く導入するには課題有り ◦ モデルサイズが大きすぎる ◦ デコード時間が長すぎる ◦
学習や推論に必要なエネルギー多すぎる • 大規模モデルを圧縮して小規模なモデルにしたい 3
知識蒸留 • 高性能なLLM(教師モデル)が自身の知識をSLM(生徒モデル)に移転 • 教師モデルの考え方も教示可能 4
知識蒸留の課題 • キャパシティギャップ ◦ 大規模モデルと生徒モデル間の性能差が大 • モードアベレージング ◦ 教師モデルの出力モードを過剰に平均化 ◦
教師モデルの特徴が欠損 • モードコラプス ◦ 教師モデルの特定のパターンに過剰集中 ◦ 教師モデルの多様性が欠損 5
TAIDの提案 • 生徒モデルの学習進度に合わせて教師モデルを段階的に変えることで効果的 な知識転移を実現 • 生徒ラベル(self-distillation)と教師ラベルを内挿系数を線形補完し内挿系数を 学習の進行状況とともに増加 6
(前提)言語モデル蒸留の問題設定 • トークン列全体(𝑦)の確率は 7 • 各トークン(𝑦𝑠 )の条件付き確率は
(前提)従来の蒸留手法 • 十分に学習された教師モデル𝑝と𝑞𝜃 の出力分布間の差を最小化 8
TAIDの概要 • 中間分布の導入 • 時間依存的な補間パラメータ • モードアベレージングとモードコラプスの緩和 9
TEMPORALLY INTERPOLATED DISTRIBUTION • 中間分布𝑝𝑡 と生徒分布𝑞𝜃 間のKL情報量を最小化 10 • 補完パラメータt
についてTAID補完分布𝑝𝑡 は次のように定義 • 初期学習(t≈0): 自身のモードを強調,自己蒸留に近い学習(効果:一般化能力の向上) • 中間学習(0<t<1): 生徒モデルの特徴と教師モデルの知識が融合(効果:安定した知識移転) • 最終学習(t≈1):教師モデルの知識を強く反映 (効果:高度な知識の獲得と性能向上)
ADAPTIVE INTERPOLATION PARAMETER UPDATE • より効率的な更新メカニズムを提案 • 目的関数を次の式で定義 11 •
𝛿𝑛 :目的関数の相対的な変化量(学習進捗を示す指標) ◦ 大きい場合(トレーニング初期段階) ▪ 学習が順調に進んでいるため、補完パラメータtを積極的に増加 ◦ 小さい場合(生徒モデルが教師モデルに近づいた段階) ▪ 学習が停滞しているため、慎重にtを調整し安定した学習を維持
TAIDの訓練アルゴリズム 12
モード崩壊についての理論的分析 • ごめんなさいよくわからなかったので論文を見てください 13
指示チューニングの実験 • 目的:モデルの性能を評価 • ベンチマーク:MT-Bench [Zheng, 2023] • 使用モデル 14
教師モデル 生徒モデル Phi-3-mini-4k-instruct TinyLlama Llama-2-7b-chat TinyLlama StableLM Zephyr 3B Pythia-410M
結果 • TAIDは他のモデルを上回る • 適応メカニズムは重要 15
事前学習実験 • 目的:知識蒸留の効果を評価 • ベンチマーク:6つの異なるタスクを含む評価セット • 方法:Few-shot 評価に基づきモデルの基礎能力をテスト • 使用モデル
◦ 教師モデル:Phi-3-medium-4k-instruct ◦ 生徒モデル:TinyLlama 16
結果 • 平均スコアで他のモデルを上回る 17
モデルサイズと性能 • 従来手法 ◦ 教師モデルが大きくなると性能が低下 • TAID ◦ 大きさに比例して生徒モデルの性能は単調 増加
TAIDが教師と生徒の能力差を効果的に克服で きていることを示唆 18
応用 • 日本語SLM「TinySwallow-1.5B」を開発 ◦ 320億パラメータのLLMから約1/20の大きさの15億パラメータのSLMへTAIDによる知識蒸留 を行うことで構築 • 日本語での言語モデルベンチマークにおいて、同規模のモデルの中で最高性 能を達成 19
まとめ • 大規模言語モデルの課題を知識蒸留を使って解決 • 中間分布を活用することによって蒸留の課題に対処 • ほかモデルを上回る結果を達成 20