Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
フロントエンドエンジニアもGPTの裏側を理解したい
Search
つちのこ
June 29, 2025
Research
0
61
フロントエンドエンジニアもGPTの裏側を理解したい
チームの勉強会で使用した資料になります。
急いで作成した資料のため、内容として説明不足や間違った解釈をしている箇所があるかもしれません。もしお気づきの方は、ご連絡いただけますと幸いです。
つちのこ
June 29, 2025
Tweet
Share
More Decks by つちのこ
See All by つちのこ
Reactの歴史を振り返る
tutinoko
1
210
React version 19 追加機能をまとめる
tutinoko
0
88
TypeScriptでライブラリとの依存を限定的にする方法
tutinoko
3
1.7k
Other Decks in Research
See All in Research
AI エージェントを活用した研究再現性の自動定量評価 / scisci2025
upura
1
160
cvpaper.challenge 10年の軌跡 / cvpaper.challenge a decade-long journey
gatheluck
3
330
機械学習と数理最適化の融合 (MOAI) による革新
mickey_kubo
1
380
Learning to (Learn at Test Time): RNNs with Expressive Hidden States
kurita
0
190
[RSJ25] Enhancing VLA Performance in Understanding and Executing Free-form Instructions via Visual Prompt-based Paraphrasing
keio_smilab
PRO
0
140
MIRU2025 チュートリアル講演「ロボット基盤モデルの最前線」
haraduka
15
8.5k
AI in Enterprises - Java and Open Source to the Rescue
ivargrimstad
0
390
論文紹介:Not All Tokens Are What You Need for Pretraining
kosuken
0
190
引力・斥力を制御可能なランダム部分集合の確率分布
wasyro
0
260
SNLP2025:Can Language Models Reason about Individualistic Human Values and Preferences?
yukizenimoto
0
180
最適決定木を用いた処方的価格最適化
mickey_kubo
4
1.9k
Unsupervised Domain Adaptation Architecture Search with Self-Training for Land Cover Mapping
satai
3
180
Featured
See All Featured
Designing Experiences People Love
moore
142
24k
Save Time (by Creating Custom Rails Generators)
garrettdimon
PRO
32
1.6k
Six Lessons from altMBA
skipperchong
28
4k
The Success of Rails: Ensuring Growth for the Next 100 Years
eileencodes
46
7.6k
Optimizing for Happiness
mojombo
379
70k
Documentation Writing (for coders)
carmenintech
75
5k
How to Think Like a Performance Engineer
csswizardry
27
2k
How to Create Impact in a Changing Tech Landscape [PerfNow 2023]
tammyeverts
54
3k
Facilitating Awesome Meetings
lara
56
6.6k
Being A Developer After 40
akosma
91
590k
Reflections from 52 weeks, 52 projects
jeffersonlam
352
21k
Helping Users Find Their Own Way: Creating Modern Search Experiences
danielanewman
30
2.9k
Transcript
フロントエンドエンジニアも GPTの裏側を理解したい
- 前提 - GPTの意味 - Transformerの詳細 - Transformerの裏側 - Chat系GPTの全容
- まとめ - 参考 目次
前提
前提というか予防線を張っておきます... - 機械学習やMLの分野に対してゼロ知識のフロントエンドエンジニアが書 いています。 - 書籍や学習動画、記事から学び、引用しながら作成しています。 - 作成に際して引用したものは最後にまとめています。 - ゼロ知識からなので間違っているところや誤解を生む表現などがあった
りするかもしれません。 - もしあれば指摘いただけると嬉しいです。 前提
GPTの意味
GPT = Generative Pre-trained Transformer GPTの意味
GPT = Generative Pre-trained Transformer 直訳すると、、、 - Generative … 生成する
- Pre-trained … 事前学習済み - Transformer … トランスフォーマー(技術の名称) 事前学習済みのTransformerで生成する。 GPTの意味
GPT = Generative Pre-trained Transformer 直訳すると、、、 - Generative … 生成する
- Pre-trained … 事前学習済み - Transformer … トランスフォーマー(技術の名称) 事前学習済みのTransformerで生成する。 → 事前に大量のデータで学習されたTransformerというモデルを使って、 テキストを理解・生成できるAI GPTの意味
GPT = Generative Pre-trained Transformer 直訳すると、、、 - Generative … 生成する
- Pre-trained … 事前学習済み - Transformer … トランスフォーマー(技術の名称) 事前学習済みのTransformerで生成する。 → 事前に大量のデータで学習されたTransformerというモデルを使って、 テキストを理解・生成できるAI GPTの意味 重要
Transformerの詳細
Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 Transformerの詳細
Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 Transformerの詳細 わからない わからない
Transformerの詳細 Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 自然言語処理... 話し言葉や書き言葉など、日常的に話したり書いたりする言語をコンピュータに処理させる技術。 ニューラルネットワーク... 人間の脳の神経細胞を模したモデルで、パターンを学習して判断や予測を行う技術。
Transformerの詳細 Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 テキストの文脈(意味のつながり)を効率的に理解する構造を持ち、入力さ れた文章内の単語同士の関係性(どの単語がどれに注目すべきか)を計算す ることで、より正確な言語理解と生成を可能にします。 自然言語処理... 話し言葉や書き言葉など、日常的に話したり書いたりする言語をコンピュータに処理させる技術。 ニューラルネットワーク...
人間の脳の神経細胞を模したモデルで、パターンを学習して判断や予測を行う技術。 難しい日本語
文章内の単語同士の関係性を計算とは? Transformerの詳細
Transformerの詳細 文章内の単語同士の関係性を計算とは? - Apple … りんご、(企業名の)アップル - Model … モデル
- Mouse … ネズミ、(パソコンの)マウス - Train … 列車、訓練する
Transformerの詳細 文章内の単語同士の関係性を計算とは? - Apple … りんごを食べたい / アップルに就職する - Model
… ファッションモデル / 機械学習モデル - Mouse … ネズミを駆除する / マウスを買う - Train … 列車が走っている / 何かを訓練する
文章内の単語同士の関係性を計算とは? - Apple … りんごを食べたい / アップルに就職する - Model …
ファッションモデル / 機械学習モデル - Mouse … ネズミを駆除する / マウスを買う - Train … 列車が走っている / 何かを訓練する 文章の繋がり(Appleだと食べたいなのか、就職するなのか)で複数の意味 から本来目的としている意味を計算する。 Transformerの詳細
テキストの文脈(意味のつながり)を効率的に理解する構造を持ち、入力さ れた文章内の単語同士の関係性(どの単語がどれに注目すべきか)を計算す ることで、より正確な言語理解と生成を可能にします。 Transformerの詳細 難しい日本語
テキストの文脈(意味のつながり)を効率的に理解する構造を持ち、入力さ れた文章内の単語同士の関係性(どの単語がどれに注目すべきか)を計算す ることで、より正確な言語理解と生成を可能にします。 わかりやすくいうと... 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。 Transformerの詳細 難しい日本語
Transformerの裏側
Transformerの裏側 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。
Transformerの裏側 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。 日々の生活の中で私たちは、知らず 知らずのうちに多くの選択をしてい ます。朝起きてから_____ Transformer 夜 5% 何か 25% 仕事 30%
一日 10% 誰 3% テレビ 15% すぐに 12%
Transformerの裏側 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。 Transformer 夜 5% 何か 25% 仕事 30% 一日 10% 誰 3% テレビ 15%
すぐに 12% 受け取った情報をもとに、次に続くものが何か予測するよう学習されていま す。そして、最も確率の高いものを選択肢し、選択されたテキストを加えた 上で、文章が終わるまで同じ予測の処理を繰り返します。 日々の生活の中で私たちは、知らず 知らずのうちに多くの選択をしてい ます。朝起きてから_____
Transformerの裏側 Transformerの裏側 https://www.youtube.com/watch?v=KlZ-QmPteqM
Chat系GPTの全容
Chat系のGPTでは、裏側のやり取りはどのように行なっているのか? Chat系GPTの全容
Chat系のGPTでは、裏側のやり取りはどのように行なっているのか? → 先ほどのTransformerに対して、以下の要素を渡してあげています。 1. システムプロンプト 2. ユーザーの入力したテキスト 3. Transformerの出力途中のテキスト* *
「Transformerの裏側」で説明を行なった繰り返し予測をさせるテキストを指します。 Chat系GPTの全容
Chat系のGPTでは、裏側のやり取りはどのように行なっているのか? → 先ほどのTransformerに対して、以下の要素を渡してあげています。 1. システムプロンプト 2. ユーザーの入力したテキスト 3. Transformerの出力途中のテキスト* システムプロンプトを用いてどのように回答すべきかという情報を与えつ
つ、ユーザーのテキストを渡してあげることで回答を生成します。 * 「Transformerの裏側」で説明を行なった繰り返し予測をさせるテキストを指します。 Chat系GPTの全容
Chat系GPTの全容 何でも良いので文章を考えてください。 ChatGPT 日々の生活の中で私たちは、知らず知らず のうちに多くの選択をしています。朝起き てから仕事に取りかかるまでの間にも、無 数の小さな決断が積み重なっています。
Chat系GPTの全容 何でも良いので文章を考えてください。 ChatGPT Transformer 夜 5% 何か 25% 仕事 30% 一日 10% 誰 3% テレビ 15%
すぐに 12% 1. システムプロンプト 以下はユーザーと、親切で非常に知識の 豊富なAIアシスタントとの会話です。 2. ユーザーのテキスト 何でも良いので文章を考えてください。 3. Transformerの出力途中のテキスト 日々の生活の中で私たちは、知らず... 日々の生活の中で私たちは、知らず知らず のうちに多くの選択をしています。朝起き てから仕事に取りかかるまでの間にも、無 数の小さな決断が積み重なっています。
まとめ
[GPT] 事前に大量のデータで学習されたTransformerというモデルを使って、テキ ストを理解・生成できるAIです。 [Transformer] 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われるモデルです。 裏側では、受け取った情報をもとに、次に続くものが何か予測するよう学習 されており、文章が完成するまで同じ予測の処理を繰り返します。 まとめ
参考
YouTube - GPTとは何か Transformerの視覚化 書籍 - 図解即戦力 AIのしくみと活用がこれ一冊でしっかりわかる教科書 記事 -
GPTのしくみ入門:AIはどのように言葉を「理解」し、「生み出してい る」のか? 参考