Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
フロントエンドエンジニアもGPTの裏側を理解したい
Search
つちのこ
June 29, 2025
Research
0
74
フロントエンドエンジニアもGPTの裏側を理解したい
チームの勉強会で使用した資料になります。
急いで作成した資料のため、内容として説明不足や間違った解釈をしている箇所があるかもしれません。もしお気づきの方は、ご連絡いただけますと幸いです。
つちのこ
June 29, 2025
Tweet
Share
More Decks by つちのこ
See All by つちのこ
Reactの歴史を振り返る
tutinoko
1
300
React version 19 追加機能をまとめる
tutinoko
0
110
TypeScriptでライブラリとの依存を限定的にする方法
tutinoko
3
1.8k
Other Decks in Research
See All in Research
CyberAgent AI Lab研修 / Social Implementation Anti-Patterns in AI Lab
chck
6
4k
病院向け生成AIプロダクト開発の実践と課題
hagino3000
0
570
製造業主導型経済からサービス経済化における中間層形成メカニズムのパラダイムシフト
yamotty
0
510
生成AI による論文執筆サポート・ワークショップ 論文執筆・推敲編 / Generative AI-Assisted Paper Writing Support Workshop: Drafting and Revision Edition
ks91
PRO
0
140
その推薦システムの評価指標、ユーザーの感覚とズレてるかも
kuri8ive
1
330
量子コンピュータの紹介
oqtopus
0
230
A History of Approximate Nearest Neighbor Search from an Applications Perspective
matsui_528
1
190
Dwangoでの漫画データ活用〜漫画理解と動画作成〜@コミック工学シンポジウム2025
kzmssk
0
150
LiDARセキュリティ最前線(2025年)
kentaroy47
0
230
[IBIS 2025] 深層基盤モデルのための強化学習驚きから理論にもとづく納得へ
akifumi_wachi
20
9.8k
Self-Hosted WebAssembly Runtime for Runtime-Neutral Checkpoint/Restore in Edge–Cloud Continuum
chikuwait
0
380
Thirty Years of Progress in Speech Synthesis: A Personal Perspective on the Past, Present, and Future
ktokuda
0
180
Featured
See All Featured
Improving Core Web Vitals using Speculation Rules API
sergeychernyshev
21
1.4k
Navigating the Design Leadership Dip - Product Design Week Design Leaders+ Conference 2024
apolaine
0
220
Organizational Design Perspectives: An Ontology of Organizational Design Elements
kimpetersen
PRO
1
630
JAMstack: Web Apps at Ludicrous Speed - All Things Open 2022
reverentgeek
1
380
Ethics towards AI in product and experience design
skipperchong
2
220
Rails Girls Zürich Keynote
gr2m
96
14k
Hiding What from Whom? A Critical Review of the History of Programming languages for Music
tomoyanonymous
2
500
Avoiding the “Bad Training, Faster” Trap in the Age of AI
tmiket
0
97
The Cult of Friendly URLs
andyhume
79
6.8k
Test your architecture with Archunit
thirion
1
2.2k
Design in an AI World
tapps
0
160
Keith and Marios Guide to Fast Websites
keithpitt
413
23k
Transcript
フロントエンドエンジニアも GPTの裏側を理解したい
- 前提 - GPTの意味 - Transformerの詳細 - Transformerの裏側 - Chat系GPTの全容
- まとめ - 参考 目次
前提
前提というか予防線を張っておきます... - 機械学習やMLの分野に対してゼロ知識のフロントエンドエンジニアが書 いています。 - 書籍や学習動画、記事から学び、引用しながら作成しています。 - 作成に際して引用したものは最後にまとめています。 - ゼロ知識からなので間違っているところや誤解を生む表現などがあった
りするかもしれません。 - もしあれば指摘いただけると嬉しいです。 前提
GPTの意味
GPT = Generative Pre-trained Transformer GPTの意味
GPT = Generative Pre-trained Transformer 直訳すると、、、 - Generative … 生成する
- Pre-trained … 事前学習済み - Transformer … トランスフォーマー(技術の名称) 事前学習済みのTransformerで生成する。 GPTの意味
GPT = Generative Pre-trained Transformer 直訳すると、、、 - Generative … 生成する
- Pre-trained … 事前学習済み - Transformer … トランスフォーマー(技術の名称) 事前学習済みのTransformerで生成する。 → 事前に大量のデータで学習されたTransformerというモデルを使って、 テキストを理解・生成できるAI GPTの意味
GPT = Generative Pre-trained Transformer 直訳すると、、、 - Generative … 生成する
- Pre-trained … 事前学習済み - Transformer … トランスフォーマー(技術の名称) 事前学習済みのTransformerで生成する。 → 事前に大量のデータで学習されたTransformerというモデルを使って、 テキストを理解・生成できるAI GPTの意味 重要
Transformerの詳細
Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 Transformerの詳細
Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 Transformerの詳細 わからない わからない
Transformerの詳細 Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 自然言語処理... 話し言葉や書き言葉など、日常的に話したり書いたりする言語をコンピュータに処理させる技術。 ニューラルネットワーク... 人間の脳の神経細胞を模したモデルで、パターンを学習して判断や予測を行う技術。
Transformerの詳細 Transformerは、2017年にGoogleの研究チームが発表した論文で初めて提 案されたモデルで、自然言語処理(NLP)におけるニューラルネットワーク のアーキテクチャの一種です。 テキストの文脈(意味のつながり)を効率的に理解する構造を持ち、入力さ れた文章内の単語同士の関係性(どの単語がどれに注目すべきか)を計算す ることで、より正確な言語理解と生成を可能にします。 自然言語処理... 話し言葉や書き言葉など、日常的に話したり書いたりする言語をコンピュータに処理させる技術。 ニューラルネットワーク...
人間の脳の神経細胞を模したモデルで、パターンを学習して判断や予測を行う技術。 難しい日本語
文章内の単語同士の関係性を計算とは? Transformerの詳細
Transformerの詳細 文章内の単語同士の関係性を計算とは? - Apple … りんご、(企業名の)アップル - Model … モデル
- Mouse … ネズミ、(パソコンの)マウス - Train … 列車、訓練する
Transformerの詳細 文章内の単語同士の関係性を計算とは? - Apple … りんごを食べたい / アップルに就職する - Model
… ファッションモデル / 機械学習モデル - Mouse … ネズミを駆除する / マウスを買う - Train … 列車が走っている / 何かを訓練する
文章内の単語同士の関係性を計算とは? - Apple … りんごを食べたい / アップルに就職する - Model …
ファッションモデル / 機械学習モデル - Mouse … ネズミを駆除する / マウスを買う - Train … 列車が走っている / 何かを訓練する 文章の繋がり(Appleだと食べたいなのか、就職するなのか)で複数の意味 から本来目的としている意味を計算する。 Transformerの詳細
テキストの文脈(意味のつながり)を効率的に理解する構造を持ち、入力さ れた文章内の単語同士の関係性(どの単語がどれに注目すべきか)を計算す ることで、より正確な言語理解と生成を可能にします。 Transformerの詳細 難しい日本語
テキストの文脈(意味のつながり)を効率的に理解する構造を持ち、入力さ れた文章内の単語同士の関係性(どの単語がどれに注目すべきか)を計算す ることで、より正確な言語理解と生成を可能にします。 わかりやすくいうと... 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。 Transformerの詳細 難しい日本語
Transformerの裏側
Transformerの裏側 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。
Transformerの裏側 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。 日々の生活の中で私たちは、知らず 知らずのうちに多くの選択をしてい ます。朝起きてから_____ Transformer 夜 5% 何か 25% 仕事 30%
一日 10% 誰 3% テレビ 15% すぐに 12%
Transformerの裏側 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われます。 Transformer 夜 5% 何か 25% 仕事 30% 一日 10% 誰 3% テレビ 15%
すぐに 12% 受け取った情報をもとに、次に続くものが何か予測するよう学習されていま す。そして、最も確率の高いものを選択肢し、選択されたテキストを加えた 上で、文章が終わるまで同じ予測の処理を繰り返します。 日々の生活の中で私たちは、知らず 知らずのうちに多くの選択をしてい ます。朝起きてから_____
Transformerの裏側 Transformerの裏側 https://www.youtube.com/watch?v=KlZ-QmPteqM
Chat系GPTの全容
Chat系のGPTでは、裏側のやり取りはどのように行なっているのか? Chat系GPTの全容
Chat系のGPTでは、裏側のやり取りはどのように行なっているのか? → 先ほどのTransformerに対して、以下の要素を渡してあげています。 1. システムプロンプト 2. ユーザーの入力したテキスト 3. Transformerの出力途中のテキスト* *
「Transformerの裏側」で説明を行なった繰り返し予測をさせるテキストを指します。 Chat系GPTの全容
Chat系のGPTでは、裏側のやり取りはどのように行なっているのか? → 先ほどのTransformerに対して、以下の要素を渡してあげています。 1. システムプロンプト 2. ユーザーの入力したテキスト 3. Transformerの出力途中のテキスト* システムプロンプトを用いてどのように回答すべきかという情報を与えつ
つ、ユーザーのテキストを渡してあげることで回答を生成します。 * 「Transformerの裏側」で説明を行なった繰り返し予測をさせるテキストを指します。 Chat系GPTの全容
Chat系GPTの全容 何でも良いので文章を考えてください。 ChatGPT 日々の生活の中で私たちは、知らず知らず のうちに多くの選択をしています。朝起き てから仕事に取りかかるまでの間にも、無 数の小さな決断が積み重なっています。
Chat系GPTの全容 何でも良いので文章を考えてください。 ChatGPT Transformer 夜 5% 何か 25% 仕事 30% 一日 10% 誰 3% テレビ 15%
すぐに 12% 1. システムプロンプト 以下はユーザーと、親切で非常に知識の 豊富なAIアシスタントとの会話です。 2. ユーザーのテキスト 何でも良いので文章を考えてください。 3. Transformerの出力途中のテキスト 日々の生活の中で私たちは、知らず... 日々の生活の中で私たちは、知らず知らず のうちに多くの選択をしています。朝起き てから仕事に取りかかるまでの間にも、無 数の小さな決断が積み重なっています。
まとめ
[GPT] 事前に大量のデータで学習されたTransformerというモデルを使って、テキ ストを理解・生成できるAIです。 [Transformer] 文章の中の単語同士がどのようにつながっているかを自動で見つけ、文脈を 理解したり自然な文を作ったりするのに使われるモデルです。 裏側では、受け取った情報をもとに、次に続くものが何か予測するよう学習 されており、文章が完成するまで同じ予測の処理を繰り返します。 まとめ
参考
YouTube - GPTとは何か Transformerの視覚化 書籍 - 図解即戦力 AIのしくみと活用がこれ一冊でしっかりわかる教科書 記事 -
GPTのしくみ入門:AIはどのように言葉を「理解」し、「生み出してい る」のか? 参考