$30 off During Our Annual Pro Sale. View Details »
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
フロントエンドエンジニアもGPTの裏側を理解したい
Search
つちのこ
June 29, 2025
Research
0
67
フロントエンドエンジニアもGPTの裏側を理解したい
チームの勉強会で使用した資料になります。
急いで作成した資料のため、内容として説明不足や間違った解釈をしている箇所があるかもしれません。もしお気づきの方は、ご連絡いただけますと幸いです。
つちのこ
June 29, 2025
Tweet
Share
More Decks by つちのこ
See All by つちのこ
Reactの歴史を振り返る
tutinoko
1
270
React version 19 追加機能をまとめる
tutinoko
0
97
TypeScriptでライブラリとの依存を限定的にする方法
tutinoko
3
1.8k
Other Decks in Research
See All in Research
Learning to (Learn at Test Time): RNNs with Expressive Hidden States
kurita
1
290
離散凸解析に基づく予測付き離散最適化手法 (IBIS '25)
taihei_oki
PRO
1
610
国際論文を出そう!ICRA / IROS / RA-L への論文投稿の心構えとノウハウ / RSJ2025 Luncheon Seminar
koide3
10
6.2k
[RSJ25] Enhancing VLA Performance in Understanding and Executing Free-form Instructions via Visual Prompt-based Paraphrasing
keio_smilab
PRO
0
180
SREのためのテレメトリー技術の探究 / Telemetry for SRE
yuukit
12
2.3k
Time to Cash: The Full Stack Breakdown of Modern ATM Attacks
ratatata
0
170
AIスパコン「さくらONE」の オブザーバビリティ / Observability for AI Supercomputer SAKURAONE
yuukit
2
960
令和最新技術で伝統掲示板を再構築: HonoX で作る型安全なスレッドフロート型掲示板 / かろっく@calloc134 - Hono Conference 2025
calloc134
0
440
Sat2City:3D City Generation from A Single Satellite Image with Cascaded Latent Diffusion
satai
4
310
Language Models Are Implicitly Continuous
eumesy
PRO
0
340
湯村研究室の紹介2025 / yumulab2025
yumulab
0
210
超高速データサイエンス
matsui_528
1
230
Featured
See All Featured
RailsConf & Balkan Ruby 2019: The Past, Present, and Future of Rails at GitHub
eileencodes
140
34k
Measuring & Analyzing Core Web Vitals
bluesmoon
9
700
Put a Button on it: Removing Barriers to Going Fast.
kastner
60
4.1k
A Tale of Four Properties
chriscoyier
162
23k
Context Engineering - Making Every Token Count
addyosmani
9
480
The MySQL Ecosystem @ GitHub 2015
samlambert
251
13k
Design and Strategy: How to Deal with People Who Don’t "Get" Design
morganepeng
132
19k
Scaling GitHub
holman
464
140k
How to Ace a Technical Interview
jacobian
280
24k
Distributed Sagas: A Protocol for Coordinating Microservices
caitiem20
333
22k
Sharpening the Axe: The Primacy of Toolmaking
bcantrill
46
2.6k
GitHub's CSS Performance
jonrohan
1032
470k
Transcript
フロントエンドエンジニアも GPTの裏側を理解したい
- 前提 - GPTの意味 - Transformerの詳細 - Transformerの裏側 - Chat系GPTの全容
- まとめ - 参考 目次
前提
前提というか予防線を張っておきます... - 機械学習やMLの分野に対してゼロ知識のフロントエンドエンジニアが書 いています。 - 書籍や学習動画、記事から学び、引用しながら作成しています。 - 作成に際して引用したものは最後にまとめています。 - ゼロ知識からなので間違っているところや誤解を生む表現などがあった
りするかもしれません。 - もしあれば指摘いただけると嬉しいです。 前提
GPTの意味
GPT = Generative Pre-trained Transformer GPTの意味
GPT = Generative Pre-trained Transformer 直訳すると、、、 - Generative … 生成する
- Pre-trained … 事前学習済み - Transformer … トランスフォーマー(技術の名称) 事前学習済みのTransformerで生成する。 GPTの意味
GPT = Generative Pre-trained Transformer 直訳すると、、、 - Generative … 生成する
- Pre-trained … 事前学習済み - Transformer … トランスフォーマー(技術の名称) 事前学習済みのTransformerで生成する。 → 事前に大量のデータで学習されたTransformerというモデルを使って、 テキストを理解・生成できるAI GPTの意味
GPT = Generative Pre-trained Transformer 直訳すると、、、 - Generative … 生成する
- Pre-trained … 事前学習済み - Transformer … トランスフォーマー(技術の名称) 事前学習済みのTransformerで生成する。 → 事前に大量のデータで学習されたTransformerというモデルを使って、 テキストを理解・生成できるAI GPTの意味 重要
Transformerの詳細
Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 Transformerの詳細
Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 Transformerの詳細 わからない わからない
Transformerの詳細 Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 自然言語処理... 話し言葉や書き言葉など、日常的に話したり書いたりする言語をコンピュータに処理させる技術。 ニューラルネットワーク... 人間の脳の神経細胞を模したモデルで、パターンを学習して判断や予測を行う技術。
Transformerの詳細 Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 テキストの文脈(意味のつながり)を効率的に理解する構造を持ち、入力さ れた文章内の単語同士の関係性(どの単語がどれに注目すべきか)を計算す ることで、より正確な言語理解と生成を可能にします。 自然言語処理... 話し言葉や書き言葉など、日常的に話したり書いたりする言語をコンピュータに処理させる技術。 ニューラルネットワーク...
人間の脳の神経細胞を模したモデルで、パターンを学習して判断や予測を行う技術。 難しい日本語
文章内の単語同士の関係性を計算とは? Transformerの詳細
Transformerの詳細 文章内の単語同士の関係性を計算とは? - Apple … りんご、(企業名の)アップル - Model … モデル
- Mouse … ネズミ、(パソコンの)マウス - Train … 列車、訓練する
Transformerの詳細 文章内の単語同士の関係性を計算とは? - Apple … りんごを食べたい / アップルに就職する - Model
… ファッションモデル / 機械学習モデル - Mouse … ネズミを駆除する / マウスを買う - Train … 列車が走っている / 何かを訓練する
文章内の単語同士の関係性を計算とは? - Apple … りんごを食べたい / アップルに就職する - Model …
ファッションモデル / 機械学習モデル - Mouse … ネズミを駆除する / マウスを買う - Train … 列車が走っている / 何かを訓練する 文章の繋がり(Appleだと食べたいなのか、就職するなのか)で複数の意味 から本来目的としている意味を計算する。 Transformerの詳細
テキストの文脈(意味のつながり)を効率的に理解する構造を持ち、入力さ れた文章内の単語同士の関係性(どの単語がどれに注目すべきか)を計算す ることで、より正確な言語理解と生成を可能にします。 Transformerの詳細 難しい日本語
テキストの文脈(意味のつながり)を効率的に理解する構造を持ち、入力さ れた文章内の単語同士の関係性(どの単語がどれに注目すべきか)を計算す ることで、より正確な言語理解と生成を可能にします。 わかりやすくいうと... 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。 Transformerの詳細 難しい日本語
Transformerの裏側
Transformerの裏側 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。
Transformerの裏側 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。 日々の生活の中で私たちは、知らず 知らずのうちに多くの選択をしてい ます。朝起きてから_____ Transformer 夜 5% 何か 25% 仕事 30%
一日 10% 誰 3% テレビ 15% すぐに 12%
Transformerの裏側 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。 Transformer 夜 5% 何か 25% 仕事 30% 一日 10% 誰 3% テレビ 15%
すぐに 12% 受け取った情報をもとに、次に続くものが何か予測するよう学習されていま す。そして、最も確率の高いものを選択肢し、選択されたテキストを加えた 上で、文章が終わるまで同じ予測の処理を繰り返します。 日々の生活の中で私たちは、知らず 知らずのうちに多くの選択をしてい ます。朝起きてから_____
Transformerの裏側 Transformerの裏側 https://www.youtube.com/watch?v=KlZ-QmPteqM
Chat系GPTの全容
Chat系のGPTでは、裏側のやり取りはどのように行なっているのか? Chat系GPTの全容
Chat系のGPTでは、裏側のやり取りはどのように行なっているのか? → 先ほどのTransformerに対して、以下の要素を渡してあげています。 1. システムプロンプト 2. ユーザーの入力したテキスト 3. Transformerの出力途中のテキスト* *
「Transformerの裏側」で説明を行なった繰り返し予測をさせるテキストを指します。 Chat系GPTの全容
Chat系のGPTでは、裏側のやり取りはどのように行なっているのか? → 先ほどのTransformerに対して、以下の要素を渡してあげています。 1. システムプロンプト 2. ユーザーの入力したテキスト 3. Transformerの出力途中のテキスト* システムプロンプトを用いてどのように回答すべきかという情報を与えつ
つ、ユーザーのテキストを渡してあげることで回答を生成します。 * 「Transformerの裏側」で説明を行なった繰り返し予測をさせるテキストを指します。 Chat系GPTの全容
Chat系GPTの全容 何でも良いので文章を考えてください。 ChatGPT 日々の生活の中で私たちは、知らず知らず のうちに多くの選択をしています。朝起き てから仕事に取りかかるまでの間にも、無 数の小さな決断が積み重なっています。
Chat系GPTの全容 何でも良いので文章を考えてください。 ChatGPT Transformer 夜 5% 何か 25% 仕事 30% 一日 10% 誰 3% テレビ 15%
すぐに 12% 1. システムプロンプト 以下はユーザーと、親切で非常に知識の 豊富なAIアシスタントとの会話です。 2. ユーザーのテキスト 何でも良いので文章を考えてください。 3. Transformerの出力途中のテキスト 日々の生活の中で私たちは、知らず... 日々の生活の中で私たちは、知らず知らず のうちに多くの選択をしています。朝起き てから仕事に取りかかるまでの間にも、無 数の小さな決断が積み重なっています。
まとめ
[GPT] 事前に大量のデータで学習されたTransformerというモデルを使って、テキ ストを理解・生成できるAIです。 [Transformer] 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われるモデルです。 裏側では、受け取った情報をもとに、次に続くものが何か予測するよう学習 されており、文章が完成するまで同じ予測の処理を繰り返します。 まとめ
参考
YouTube - GPTとは何か Transformerの視覚化 書籍 - 図解即戦力 AIのしくみと活用がこれ一冊でしっかりわかる教科書 記事 -
GPTのしくみ入門:AIはどのように言葉を「理解」し、「生み出してい る」のか? 参考