Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
フロントエンドエンジニアもGPTの裏側を理解したい
Search
つちのこ
June 29, 2025
Research
83
0
Share
フロントエンドエンジニアもGPTの裏側を理解したい
チームの勉強会で使用した資料になります。
急いで作成した資料のため、内容として説明不足や間違った解釈をしている箇所があるかもしれません。もしお気づきの方は、ご連絡いただけますと幸いです。
つちのこ
June 29, 2025
More Decks by つちのこ
See All by つちのこ
Reactの歴史を振り返る
tutinoko
1
340
React version 19 追加機能をまとめる
tutinoko
0
120
TypeScriptでライブラリとの依存を限定的にする方法
tutinoko
3
1.9k
Other Decks in Research
See All in Research
Self-Hosted WebAssembly Runtime for Runtime-Neutral Checkpoint/Restore in Edge–Cloud Continuum
chikuwait
0
490
"主観で終わらせない"定性データ活用 ― プロダクトディスカバリーを加速させるインサイトマネジメント / Utilizing qualitative data that "doesn't end with subjectivity" - Insight management that accelerates product discovery
kaminashi
16
24k
AIエージェント時代のLLM-jpモデルのあるべき姿
k141303
0
290
「行ける・行けない表」による地域公共交通の性能評価
bansousha
0
140
Dwangoでの漫画データ活用〜漫画理解と動画作成〜@コミック工学シンポジウム2025
kzmssk
0
220
Any-Optical-Model: A Universal Foundation Model for Optical Remote Sensing
satai
3
490
「車1割削減、渋滞半減、公共交通2倍」を 熊本から岡山へ@RACDA設立30周年記念都市交通フォーラム2026
trafficbrain
1
990
討議:RACDA設立30周年記念都市交通フォーラム2026
trafficbrain
0
810
YOLO26_ Key Architectural Enhancements and Performance Benchmarking for Real-Time Object Detection
satai
3
440
LLMアプリケーションの透明性について
fufufukakaka
0
210
SREはサイバネティクスの夢をみるか? / Do SREs Dream of Cybernetics?
yuukit
3
480
生成的情報検索時代におけるAI利用と認知バイアス
trycycle
PRO
0
510
Featured
See All Featured
Easily Structure & Communicate Ideas using Wireframe
afnizarnur
194
17k
Crafting Experiences
bethany
1
120
Game over? The fight for quality and originality in the time of robots
wayneb77
1
160
The untapped power of vector embeddings
frankvandijk
2
1.7k
How STYLIGHT went responsive
nonsquared
100
6.1k
職位にかかわらず全員がリーダーシップを発揮するチーム作り / Building a team where everyone can demonstrate leadership regardless of position
madoxten
62
53k
From π to Pie charts
rasagy
0
170
Effective software design: The role of men in debugging patriarchy in IT @ Voxxed Days AMS
baasie
0
300
The Straight Up "How To Draw Better" Workshop
denniskardys
239
140k
Bridging the Design Gap: How Collaborative Modelling removes blockers to flow between stakeholders and teams @FastFlow conf
baasie
0
520
For a Future-Friendly Web
brad_frost
183
10k
SEO in 2025: How to Prepare for the Future of Search
ipullrank
3
3.4k
Transcript
フロントエンドエンジニアも GPTの裏側を理解したい
- 前提 - GPTの意味 - Transformerの詳細 - Transformerの裏側 - Chat系GPTの全容
- まとめ - 参考 目次
前提
前提というか予防線を張っておきます... - 機械学習やMLの分野に対してゼロ知識のフロントエンドエンジニアが書 いています。 - 書籍や学習動画、記事から学び、引用しながら作成しています。 - 作成に際して引用したものは最後にまとめています。 - ゼロ知識からなので間違っているところや誤解を生む表現などがあった
りするかもしれません。 - もしあれば指摘いただけると嬉しいです。 前提
GPTの意味
GPT = Generative Pre-trained Transformer GPTの意味
GPT = Generative Pre-trained Transformer 直訳すると、、、 - Generative … 生成する
- Pre-trained … 事前学習済み - Transformer … トランスフォーマー(技術の名称) 事前学習済みのTransformerで生成する。 GPTの意味
GPT = Generative Pre-trained Transformer 直訳すると、、、 - Generative … 生成する
- Pre-trained … 事前学習済み - Transformer … トランスフォーマー(技術の名称) 事前学習済みのTransformerで生成する。 → 事前に大量のデータで学習されたTransformerというモデルを使って、 テキストを理解・生成できるAI GPTの意味
GPT = Generative Pre-trained Transformer 直訳すると、、、 - Generative … 生成する
- Pre-trained … 事前学習済み - Transformer … トランスフォーマー(技術の名称) 事前学習済みのTransformerで生成する。 → 事前に大量のデータで学習されたTransformerというモデルを使って、 テキストを理解・生成できるAI GPTの意味 重要
Transformerの詳細
Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 Transformerの詳細
Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 Transformerの詳細 わからない わからない
Transformerの詳細 Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 自然言語処理... 話し言葉や書き言葉など、日常的に話したり書いたりする言語をコンピュータに処理させる技術。 ニューラルネットワーク... 人間の脳の神経細胞を模したモデルで、パターンを学習して判断や予測を行う技術。
Transformerの詳細 Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 テキストの文脈(意味のつながり)を効率的に理解する構造を持ち、入力さ れた文章内の単語同士の関係性(どの単語がどれに注目すべきか)を計算す ることで、より正確な言語理解と生成を可能にします。 自然言語処理... 話し言葉や書き言葉など、日常的に話したり書いたりする言語をコンピュータに処理させる技術。 ニューラルネットワーク...
人間の脳の神経細胞を模したモデルで、パターンを学習して判断や予測を行う技術。 難しい日本語
文章内の単語同士の関係性を計算とは? Transformerの詳細
Transformerの詳細 文章内の単語同士の関係性を計算とは? - Apple … りんご、(企業名の)アップル - Model … モデル
- Mouse … ネズミ、(パソコンの)マウス - Train … 列車、訓練する
Transformerの詳細 文章内の単語同士の関係性を計算とは? - Apple … りんごを食べたい / アップルに就職する - Model
… ファッションモデル / 機械学習モデル - Mouse … ネズミを駆除する / マウスを買う - Train … 列車が走っている / 何かを訓練する
文章内の単語同士の関係性を計算とは? - Apple … りんごを食べたい / アップルに就職する - Model …
ファッションモデル / 機械学習モデル - Mouse … ネズミを駆除する / マウスを買う - Train … 列車が走っている / 何かを訓練する 文章の繋がり(Appleだと食べたいなのか、就職するなのか)で複数の意味 から本来目的としている意味を計算する。 Transformerの詳細
テキストの文脈(意味のつながり)を効率的に理解する構造を持ち、入力さ れた文章内の単語同士の関係性(どの単語がどれに注目すべきか)を計算す ることで、より正確な言語理解と生成を可能にします。 Transformerの詳細 難しい日本語
テキストの文脈(意味のつながり)を効率的に理解する構造を持ち、入力さ れた文章内の単語同士の関係性(どの単語がどれに注目すべきか)を計算す ることで、より正確な言語理解と生成を可能にします。 わかりやすくいうと... 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。 Transformerの詳細 難しい日本語
Transformerの裏側
Transformerの裏側 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。
Transformerの裏側 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。 日々の生活の中で私たちは、知らず 知らずのうちに多くの選択をしてい ます。朝起きてから_____ Transformer 夜 5% 何か 25% 仕事 30%
一日 10% 誰 3% テレビ 15% すぐに 12%
Transformerの裏側 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。 Transformer 夜 5% 何か 25% 仕事 30% 一日 10% 誰 3% テレビ 15%
すぐに 12% 受け取った情報をもとに、次に続くものが何か予測するよう学習されていま す。そして、最も確率の高いものを選択肢し、選択されたテキストを加えた 上で、文章が終わるまで同じ予測の処理を繰り返します。 日々の生活の中で私たちは、知らず 知らずのうちに多くの選択をしてい ます。朝起きてから_____
Transformerの裏側 Transformerの裏側 https://www.youtube.com/watch?v=KlZ-QmPteqM
Chat系GPTの全容
Chat系のGPTでは、裏側のやり取りはどのように行なっているのか? Chat系GPTの全容
Chat系のGPTでは、裏側のやり取りはどのように行なっているのか? → 先ほどのTransformerに対して、以下の要素を渡してあげています。 1. システムプロンプト 2. ユーザーの入力したテキスト 3. Transformerの出力途中のテキスト* *
「Transformerの裏側」で説明を行なった繰り返し予測をさせるテキストを指します。 Chat系GPTの全容
Chat系のGPTでは、裏側のやり取りはどのように行なっているのか? → 先ほどのTransformerに対して、以下の要素を渡してあげています。 1. システムプロンプト 2. ユーザーの入力したテキスト 3. Transformerの出力途中のテキスト* システムプロンプトを用いてどのように回答すべきかという情報を与えつ
つ、ユーザーのテキストを渡してあげることで回答を生成します。 * 「Transformerの裏側」で説明を行なった繰り返し予測をさせるテキストを指します。 Chat系GPTの全容
Chat系GPTの全容 何でも良いので文章を考えてください。 ChatGPT 日々の生活の中で私たちは、知らず知らず のうちに多くの選択をしています。朝起き てから仕事に取りかかるまでの間にも、無 数の小さな決断が積み重なっています。
Chat系GPTの全容 何でも良いので文章を考えてください。 ChatGPT Transformer 夜 5% 何か 25% 仕事 30% 一日 10% 誰 3% テレビ 15%
すぐに 12% 1. システムプロンプト 以下はユーザーと、親切で非常に知識の 豊富なAIアシスタントとの会話です。 2. ユーザーのテキスト 何でも良いので文章を考えてください。 3. Transformerの出力途中のテキスト 日々の生活の中で私たちは、知らず... 日々の生活の中で私たちは、知らず知らず のうちに多くの選択をしています。朝起き てから仕事に取りかかるまでの間にも、無 数の小さな決断が積み重なっています。
まとめ
[GPT] 事前に大量のデータで学習されたTransformerというモデルを使って、テキ ストを理解・生成できるAIです。 [Transformer] 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われるモデルです。 裏側では、受け取った情報をもとに、次に続くものが何か予測するよう学習 されており、文章が完成するまで同じ予測の処理を繰り返します。 まとめ
参考
YouTube - GPTとは何か Transformerの視覚化 書籍 - 図解即戦力 AIのしくみと活用がこれ一冊でしっかりわかる教科書 記事 -
GPTのしくみ入門:AIはどのように言葉を「理解」し、「生み出してい る」のか? 参考