Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
AI講座資料
Search
Sponsored
·
Ship Features Fearlessly
Turn features on and off without deploys. Used by thousands of Ruby developers.
→
yusuke
February 02, 2023
Technology
0
130
AI講座資料
yusuke
February 02, 2023
Tweet
Share
Other Decks in Technology
See All in Technology
ファインディの横断SREがTakumi byGMOと取り組む、セキュリティと開発スピードの両立
rvirus0817
1
1.6k
仕様書駆動AI開発の実践: Issue→Skill→PRテンプレで 再現性を作る
knishioka
2
680
SREじゃなかった僕らがenablingを通じて「SRE実践者」になるまでのリアル / SRE Kaigi 2026
aeonpeople
6
2.5k
StrandsとNeptuneを使ってナレッジグラフを構築する
yakumo
1
120
会社紹介資料 / Sansan Company Profile
sansan33
PRO
15
400k
【Oracle Cloud ウェビナー】[Oracle AI Database + AWS] Oracle Database@AWSで広がるクラウドの新たな選択肢とAI時代のデータ戦略
oracle4engineer
PRO
2
180
10Xにおける品質保証活動の全体像と改善 #no_more_wait_for_test
nihonbuson
PRO
2
330
SRE Enabling戦記 - 急成長する組織にSREを浸透させる戦いの歴史
markie1009
0
160
クレジットカード決済基盤を支えるSRE - 厳格な監査とSRE運用の両立 (SRE Kaigi 2026)
capytan
6
2.8k
マーケットプレイス版Oracle WebCenter Content For OCI
oracle4engineer
PRO
5
1.6k
Bill One急成長の舞台裏 開発組織が直面した失敗と教訓
sansantech
PRO
2
400
配列に見る bash と zsh の違い
kazzpapa3
3
170
Featured
See All Featured
We Analyzed 250 Million AI Search Results: Here's What I Found
joshbly
1
750
Paper Plane (Part 1)
katiecoart
PRO
0
4.3k
Darren the Foodie - Storyboard
khoart
PRO
2
2.4k
How to Get Subject Matter Experts Bought In and Actively Contributing to SEO & PR Initiatives.
livdayseo
0
67
The SEO identity crisis: Don't let AI make you average
varn
0
330
Leveraging Curiosity to Care for An Aging Population
cassininazir
1
170
The Art of Delivering Value - GDevCon NA Keynote
reverentgeek
16
1.8k
HU Berlin: Industrial-Strength Natural Language Processing with spaCy and Prodigy
inesmontani
PRO
0
230
Game over? The fight for quality and originality in the time of robots
wayneb77
1
120
No one is an island. Learnings from fostering a developers community.
thoeni
21
3.6k
Building a Scalable Design System with Sketch
lauravandoore
463
34k
Into the Great Unknown - MozCon
thekraken
40
2.3k
Transcript
AI講座
1. AI(⼈⼯知能)の基礎や仕組み 2. 安⼼してAIサービスを利⽤していただく 講義の⽬的
本⽇の流れ 1. 前半 10:00~11:00 2. 休憩&質問 11:00~11:10 3. 後半 11:10~
AI(⼈⼯知能)の基礎
⼈⼯知能の定義は︖
『「知性」や「知能」⾃体の定義がない』 松原仁 ⼈⼯知能学会会⻑「第3次⼈⼯知能ブームが拓く未来」 ( https://www.jbgroup.jp/link/special/222-1.html) ⼈⼯知能の定義は︖
『「知性」や「知能」⾃体の定義がない』 松原仁 ⼈⼯知能学会会⻑「第3次⼈⼯知能ブームが拓く未来」 ( https://www.jbgroup.jp/link/special/222-1.html) ⼈⼯知能の定義は︖ → ⼈⼯知能の定義は研究者で様々
⼈⼯知能の定義は︖ ⼈⼯知能の明確な定義はない
『知的な機械、 特に、知的なコンピュータプログラムを 作る科学と技術』 ⼈⼯知能学会ホームページ「⼈⼯知能のFAQ」 (http://www.ai-gakkai.or.jp/whatsai/AIfaq.html) ⼈⼯知能の定義は︖ ⼈⼯知能の明確な定義はない
⼈⼯知能の歴史
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 第⼆次⼈⼯知能ブーム (知識表現) 第三次⼈⼯知能ブーム (機械学習) 1960~70年代 1980~90年代 2000~現在
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 第⼆次⼈⼯知能ブーム (知識表現) 第三次⼈⼯知能ブーム (機械学習) 1960~70年代 1980~90年代 2000~現在
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 探索 →
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 探索 → ⽬的の状態、条件を、 パターンから場合分けして探し出すこと
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 探索 → ⽬的の状態、条件を、 パターンから場合分けして探し出すこと 3, 8,
10, 15, 7, 13
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 10 7 13 3 探索 →
⽬的の状態、条件を、 パターンから場合分けして探し出すこと 8 15 3, 8, 10, 15, 7, 13
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 推論 →
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 推論 → 既知の事柄から、新たな事柄を予想すること
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 推論 → 既知の事柄から、新たな事柄を予想すること 相⼿ ⾃分 1回⽬
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 推論 → 既知の事柄から、新たな事柄を予想すること 相⼿ ⾃分 2回⽬
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 推論 → 既知の事柄から、新たな事柄を予想すること 相⼿ 推論 次もパー出してくるはず︕
2回⽬ 1回⽬
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 推論 → 既知の事柄から、新たな事柄を予想すること 相⼿ ⾃分 3回⽬
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 迷路 例えば
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 迷路 例えば
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 迷路 例えば
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 ハノイの塔 例えば
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 ハノイの塔 例えば
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 ハノイの塔 例えば
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 ハノイの塔 例えば
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 ハノイの塔 例えば
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 共通すること
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 1960~70年代 答えが出る条件は、 明確なルールがある場合に限る 共通すること
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 第⼆次⼈⼯知能ブーム (知識表現) 第三次⼈⼯知能ブーム (機械学習) 1960~70年代 1980~90年代 2000~現在
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代 明確なルールがある場合に限る 第⼀次⼈⼯知能ブーム (探索と推論)
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代 ルールが明確ではない、 より複雑な問題を解く 明確なルールがある場合に限る 第⼆次⼈⼯知能ブーム (知識表現) 第⼀次⼈⼯知能ブーム
(探索と推論)
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代 エキスパートシステム
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代 膨⼤な「知識」をルールとして適⽤し、 専⾨化のような振る舞いをする エキスパートシステム
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代 膨⼤な「知識」をルールとして適⽤し、 専⾨化のような振る舞いをする エキスパートシステム
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代 膨⼤な「知識」をルールとして適⽤し、 専⾨化のような振る舞いをする エキスパートシステム AならばBである IF-THENルール
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代 エキスパートシステム “イカ”ならば“ IF-THENルール
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代 エキスパートシステム “イカ”ならば“⾜は10本”である IF-THENルール ⾜は10本
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代 パターンマッチングを⽤いて⽂章を⽣成する IF-THENルール
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代 パターンマッチングを⽤いて⽂章を⽣成する IF-THENルール どうしたのですか︖
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代 パターンマッチングを⽤いて⽂章を⽣成する IF-THENルール どうしたのですか︖ 仕事で疲れました 何の仕事をしているのですか︖
⼈⼯知能研究の歴史 第⼆次⼈⼯知能ブーム (知識表現) 1980~90年代 問題点 エキスパートシステム - 知識のデータ化とその量 - 経験則なものの⾔語化が困難
- 膨⼤な知識を持つと⽭盾が発⽣する - 知識の共有の難しさ
⼈⼯知能研究の歴史 第⼀次⼈⼯知能ブーム (探索と推論) 第⼆次⼈⼯知能ブーム (知識表現) 第三次⼈⼯知能ブーム (機械学習) 1960~70年代 1980~90年代 2000~現在
⼈⼯知能研究の歴史 第三次⼈⼯知能ブーム (機械学習) 2000~現在 従来︓⼈間が特徴量を定義
⼈⼯知能研究の歴史 第三次⼈⼯知能ブーム (機械学習) 2000~現在 りんご 梨 従来︓⼈間が特徴量を定義
⼈⼯知能研究の歴史 第三次⼈⼯知能ブーム (機械学習) 2000~現在 りんご ・形︓丸いふっくら ・⾊︓⾚い ・斑点の数︓200個 梨 りんご
従来︓⼈間が特徴量を定義
⼈⼯知能研究の歴史 第三次⼈⼯知能ブーム (機械学習) 2000~現在 ︖︖︖ ・形︓丸いふっくら ・⾊︓⾚い ・斑点の数︓200個 従来︓⼈間が特徴量を定義 りんごの特徴
予測、推論
⼈⼯知能研究の歴史 第三次⼈⼯知能ブーム (機械学習) 2000~現在 ︖︖︖ 梨 ・形︓丸いふっくら ・⾊︓⾚い ・斑点の数︓200個 従来︓⼈間が特徴量を定義
予測、推論 りんごの特徴
⼈⼯知能研究の歴史 第三次⼈⼯知能ブーム (機械学習) 2000~現在 ⼊⼒されたデータから⾃動で特微量を抽出
⼈⼯知能研究の歴史 第三次⼈⼯知能ブーム (機械学習) 2000~現在 りんご ・形 ・⾊ ・画素数 ・境界線 ⋮
⼊⼒されたデータから⾃動で特微量を抽出 機械学習
抽出した特微量を⽤いて予測、推論を⾏う ⼈⼯知能研究の歴史 第三次⼈⼯知能ブーム (機械学習) 2000~現在 ︖︖︖ りんご 予測、推論
⼈⼯知能研究の歴史 第三次⼈⼯知能ブーム (機械学習) 2000~現在 ・Google DeepMind社 囲碁対局ソフト「AlphaGo」 「2016年3⽉9⽇「AlphaGo」プロ棋⼠に勝つ」 他にも… ・将棋「Ponanza」
・チェス「Deep Blue」 出来事
機械学習 データから学習し、予測、識別を⾏う
教師あり学習 ⼈⼯知能 機械学習 ディープラーニング ニューラルネットワーク 教師なし学習 強化学習 機械学習
教師なし学習 機械学習 学習するときに、答えを与えない
教師なし学習 機械学習 学習するときに、答えを与えない ⼊⼒されたデータから予測する
教師なし学習 機械学習 学習するときに、答えを与えない ⼊⼒されたデータから予測する 柔軟性はあるが、正確性に乏しい
教師なし学習 機械学習 学習するときに、答えを与えない クラスタリング(グループ化)
教師あり学習 ⼈⼯知能 機械学習 ディープラーニング ニューラルネットワーク 教師なし学習 強化学習 機械学習
教師あり学習 機械学習 学習するときに、答えを与える ディープラーニング ニューラルネットワーク
教師あり学習 機械学習 学習するときに、答えを与える ディープラーニング ニューラルネットワーク ⼊⼒されたデータから予測する
教師あり学習 機械学習 学習するときに、答えを与える ディープラーニング ニューラルネットワーク ⼊⼒されたデータから予測する 答えと予測とを評価する
教師あり学習 機械学習 学習するときに、答えを与える ディープラーニング ニューラルネットワーク ⼊⼒されたデータから予測する 答えと予測とを評価する 正確性は⾼いが、学習データが必要
教師あり学習 ⼈⼯知能 機械学習 ディープラーニング ニューラルネットワーク 教師なし学習 強化学習 機械学習
強化学習 機械学習 AI⾃⾝が試⾏錯誤して、答えを出す
強化学習 機械学習 AI⾃⾝が試⾏錯誤して、答えを出す 環境がAIを監視して、報酬を与える
強化学習 機械学習 AI⾃⾝が試⾏錯誤して、答えを出す 環境がAIを監視して、報酬を与える
強化学習 機械学習 AI⾃⾝が試⾏錯誤して、答えを出す 環境がAIを監視して、報酬を与える 学習データはさほど不要だが、 計算量は⼤きくなる
強化学習 機械学習 AI⾃⾝が試⾏錯誤して、答えを出す パックマンでスコアをカンストに
教師あり学習 ⼈⼯知能 機械学習 ディープラーニング ニューラルネットワーク 教師なし学習 強化学習 機械学習
教師あり学習 ⼈⼯知能 機械学習 ディープラーニング ニューラルネットワーク 教師なし学習 強化学習 機械学習
⼈⼯ニューロン ⼈間の脳に存在する神経細胞をモデル化
ニューロン
ニューロン ⼈間の脳 百〜千億個の神経細胞(ニューロン) 電気信号
ニューロン ⼈間の脳 百〜千億個の神経細胞(ニューロン) シナプス 電気信号
ニューロン ⼈間の脳 百〜千億個の神経細胞(ニューロン) シナプス ⼀定以上の刺激 電気信号 電気信号
⼈⼯ニューロン ノード エッジ
⼈⼯ニューロン ⼊⼒ 𝑥 ノード エッジ
⼈⼯ニューロン ⼊⼒ 出⼒ 𝑥 𝑦 ノード エッジ
⼈⼯ニューロン ⼊⼒ 出⼒ 𝑤 𝑥 𝑤︓重み → ノード間での結びつきの強度 𝑦 ノード
エッジ
⼈⼯ニューロン ⼊⼒ 出⼒ 𝑤! 𝑥! 𝑤" ︓重み
⼈⼯ニューロン ⼊⼒ 出⼒ 𝑤! 𝑥! 𝑤" ︓重み 𝑤# 1
⼈⼯ニューロン ⼊⼒ 出⼒ 𝑤! 𝑥! 𝑥$ 𝑤$ 𝑤" ︓重み 𝑤#
1
⼈⼯ニューロン 出⼒ 細かく分解
出⼒ 全結合 活性化関数 線形 ⾮線形 0〜1 か −1〜1 𝑦 𝑧
⼈⼯ニューロン
出⼒ 全結合 活性化関数 線形 ⾮線形 0〜1 か −1〜1 𝑦 𝑧
⼈⼯ニューロン 線形 ⾮線形
出⼒ 全結合 活性化関数 線形 ⾮線形 0〜1 か −1〜1 𝑦 𝑧
⼈⼯ニューロン
⼊⼒ 出⼒ 𝑤! 𝑥! 𝑥$ 𝑤$ 𝑦 = 𝑥! 𝑤!
+ 𝑥$ 𝑤$ + 𝑤# 𝑤# 1 𝑦 全結合 線形 ⼈⼯ニューロン
出⼒ 活性化関数 ⾮線形 𝑦 𝑧 ⼈⼯ニューロン 𝑧 = 𝑓 𝑦
𝑦 = 𝑥! 𝑤! + 𝑥$ 𝑤$ + 𝑤#
出⼒ 活性化関数 ⾮線形変換 𝑦 𝑧 ⼈⼯ニューロン 𝑧 = 𝑓 𝑦
- STEP関数 - ReLU関数 - Sigmoid関数 - tanh関数 - Softmax関数 線形変換
出⼒ 活性化関数 ⾮線形変換 𝑦 𝑧 ⼈⼯ニューロン 𝑧 = 𝑓 𝑦
- STEP関数 - ReLU関数 - Sigmoid関数 - tanh関数 - Softmax関数 線形変換
出⼒ 𝑦 𝑧 ⼈⼯ニューロン 𝑓 𝑦 = + 1, 𝑦
≥ 0 0, 𝑦 < 0 STEP関数 𝑧 = 𝑓 𝑦 ⾮線形変換 線形変換
出⼒ 𝑦 𝑧 ⼈⼯ニューロン 𝑓 𝑦 = + 1, 𝑦
≥ 0 0, 𝑦 < 0 STEP関数 𝑧 = 𝑓 𝑦 ⾮線形変換 ⼊⼒︓1.2
出⼒ 𝑦 𝑧 ⼈⼯ニューロン 𝑓 𝑦 = + 1, 𝑦
≥ 0 0, 𝑦 < 0 STEP関数 𝑧 = 𝑓 𝑦 ⼊⼒︓1.2 𝑧 = 𝑓 1.2 1.2
出⼒ 𝑦 𝑧 ⼈⼯ニューロン 𝑓 𝑦 = + 1, 𝑦
≥ 0 0, 𝑦 < 0 STEP関数 𝑧 = 𝑓 𝑦 ⼊⼒︓1.2 𝑧 = 𝑓 1.2 1.2 1.0
出⼒ 𝑦 𝑧 ⼈⼯ニューロン 𝑓 𝑦 = + 1, 𝑦
≥ 0 0, 𝑦 < 0 STEP関数 𝑧 = 𝑓 𝑦 ⼊⼒︓1.2 𝑧 = 𝑓 1.2 1.2 1.0 1.0
出⼒ 活性化関数 ⾮線形変換 𝑦 𝑧 ⼈⼯ニューロン 𝑧 = 𝑓 𝑦
- STEP関数 - ReLU関数 - Sigmoid関数 - tanh関数 - Softmax関数 線形変換
出⼒ 𝑦 𝑧 ⼈⼯ニューロン 𝑓 𝑦 = 1 1 +
𝑒%& Sigmoid関数 𝑧 = 𝑓 𝑦 ⾮線形変換 線形変換
出⼒ 𝑦 𝑧 ⼈⼯ニューロン 𝑓 𝑦 = 1 1 +
𝑒%& Sigmoid関数 𝑧 = 𝑓 𝑦 ⼊⼒︓1.2 𝑧 = 𝑓 1.2 1.2
出⼒ 𝑦 𝑧 ⼈⼯ニューロン 𝑓 𝑦 = 1 1 +
𝑒%& Sigmoid関数 𝑧 = 𝑓 𝑦 ⼊⼒︓1.2 𝑧 = 𝑓 1.2 1.2 0.77 0.77
⼈⼯ニューロン 学習はどうやって⾏う︖
⼈⼯ニューロン 𝑤" ︓重み ⼊⼒ 出⼒ 𝑤! 𝑥! 𝑥" 𝑤" 𝑤#
1 個々の重みにより答えを出す
⼈⼯ニューロン 𝑤" ︓重み ⼊⼒ 出⼒ 𝑤! 𝑥! 𝑥" 𝑤" 𝑤#
1 個々の重みにより答えを出す 重みの値を変えると結果も変わる
⼈⼯ニューロン 𝑤" ︓重み ⼊⼒ 出⼒ 𝑤! 𝑥! 𝑥" 𝑤" 𝑤#
1 個々の重みにより答えを出す 重みの値を変えると結果も変わる 正解、不正解などを フィードバックすることで重みを調整する
⼈⼯ニューロン 𝑤" ︓重み ⼊⼒ 出⼒ 𝑤! 𝑥! 𝑥" 𝑤" 𝑤#
1 個々の重みにより答えを出す 重みの値を変えると結果も変わる 正解、不正解などを フィードバックすることで重みを調整する 誤差逆伝搬法 フィードバック
⼈⼯ニューロン 𝑤" ︓重み ⼊⼒ 出⼒ 𝑤! 𝑥! 𝑥" 𝑤" 𝑤#
1 個々の重みにより答えを出す 重みの値を変えると結果も変わる 正解、不正解などを フィードバックすることで重みを調整する 学習 フィードバック
⼈⼯ニューロン ⼊⼒ 出⼒ 𝑤! 𝑥! 𝑥$ 𝑤$ 𝑤" ︓重み 𝑤#
1
10分休憩
ニューラルネットワーク ⼈⼯ニューロンを⽤いて 信号のネットワークを形成したもの
ニューラルネットワーク ⼊⼒層 出⼒層 中間層 1~2層
ニューラルネットワーク ⼊⼒層 出⼒層 中間層 ⋮ 1~2層
ニューラルネットワーク ⼊⼒層 出⼒層 中間層 ⋮ ⋮ ⋮ 1~2層
ニューラルネットワーク ⼊⼒層 出⼒層 中間層 ⋮ ⋮ ⋮ 1~2層 先ほどの⼈⼯ニューロンと同じ︕
ニューラルネットワーク ⼊⼒層 出⼒層 中間層 ⋮ ⋮ 1~2層
ニューラルネットワーク ⼊⼒層 出⼒層 中間層 ⋮ ⋮ ⋮ 1~2層
ニューラルネットワーク ⼊⼒層 出⼒層 中間層 ⋮ ⋮ ⋮ 1~2層
本屋で本を買う時、 どうやって決めますか︖
帯紙 題名 レビュー 値段 量 表紙 好きな著者 ランキング サンプルコードの多さ 絵の多さ
⼈間の思考
⼈間の思考 ⼊⼒層 本を決める要素 値段 帯紙 表紙
⼈間の思考 ⼊⼒層 中間層 本を決める要素 値段 帯紙 表紙 感覚や経験等による調整 温度 時間
⾊
⼈間の思考 ⼊⼒層 出⼒層 中間層 本を決める要素 本の決定 値段 帯紙 表紙 感覚や経験等による調整
温度 時間 ⾊ コンビニ⼈間 檸檬 村⽥沙耶⾹ 梶井基次郎
⼈間の思考 ⼊⼒層 出⼒層 中間層 本を決める要素 本の決定 値段 帯紙 表紙 感覚や経験等による調整
温度 時間 ⾊ コンビニ⼈間 檸檬 村⽥沙耶⾹ 梶井基次郎
⼈間の思考 ⼊⼒層 出⼒層 中間層 本を決める要素 本の決定 値段 帯紙 表紙 感覚や経験等による調整
温度 時間 ⾊ コンビニ⼈間 檸檬 1.2 0.7 0.3 重み 村⽥沙耶⾹ 梶井基次郎
⼈間の思考 出⼒層 中間層 本を決める要素 本の決定 感覚や経験等による調整 温度 時間 ⾊ コンビニ⼈間
檸檬 ⼊⼒層 値段 帯紙 表紙 1.2 0.7 0.3 重み 0.5 0.1 村⽥沙耶⾹ 梶井基次郎
⼈間の思考 出⼒層 中間層 本を決める要素 本の決定 感覚や経験等による調整 温度 時間 ⾊ コンビニ⼈間
檸檬 ⼊⼒層 値段 帯紙 表紙 1.2 0.7 0.3 重み 0.5 0.1 村⽥沙耶⾹ 梶井基次郎
⼈間の思考 出⼒層 中間層 本を決める要素 本の決定 感覚や経験等による調整 温度 時間 ⾊ コンビニ⼈間
檸檬 ⼊⼒層 値段 帯紙 表紙 1.2 0.7 0.3 重み 0.5 0.1 1.1 0.4 村⽥沙耶⾹ 梶井基次郎
⼈間の思考 出⼒層 中間層 本を決める要素 本の決定 80 % 20 % 感覚や経験等による調整
温度 時間 ⾊ コンビニ⼈間 檸檬 ⼊⼒層 値段 帯紙 表紙 1.2 0.7 0.3 重み 0.5 0.1 1.1 0.4 村⽥沙耶⾹ 梶井基次郎
ディープラーニング(深層学習) ニューラルネットワークの 中間層の数がさらに増え、より複雑化したもの
教師あり学習 ⼈⼯知能 機械学習 ディープラーニング ニューラルネットワーク 教師なし学習 強化学習 機械学習
ディープラーニング(深層学習) ⼊⼒層 出⼒層 中間層 ⋮ ⋮ ⋮ ⋮
ディープラーニング(深層学習) ⼊⼒層 出⼒層 中間層 ⋯ ⋮ ⋮ ⋮ ⋮ ⋮
⋮
ディープラーニング(深層学習) ⼊⼒層 出⼒層 中間層 ⋯ ⋮ ⋮ ⋮ ⋮ ⋮
⋮ 中間層が増えたことで、 複雑な繋がりを持てるようになる。
ディープラーニング(深層学習) 中間層が増えたことで、 複雑な繋がりを持てるようになる。 ⼊⼒層 出⼒層 中間層 ⋯ ⋮ ⋮ ⋮
⋮ ⋮ ⋮ 複雑な表現ができる
ディープラーニング(深層学習) どういう研究をしているのか︖
ディープラーニング(深層学習) どういう研究をしているのか︖ 予測精度を上げる
ディープラーニング(深層学習) どういう研究をしているのか︖ 予測精度を上げる ・繋がりの組み合わせ⽅ ・ハイパーパラメータ ・新たな活性化関数
ディープラーニング(深層学習) どういう研究をしているのか︖ 予測精度を上げる ・繋がりの組み合わせ⽅ ・ハイパーパラメータ ・新たな活性化関数
ディープラーニング(深層学習) 繋がりの組み合わせ⽅ LSTMネットワークの概要(https://qiita.com/KojiOhki/items/89cd7b69a8a6239d67ca) RNN (Recurrent Neural Network)
ディープラーニング(深層学習) 繋がりの組み合わせ⽅ LSTMネットワークの概要 (https://qiita.com/KojiOhki/items/89cd7b69a8a6239d67ca) RNN (Recurrent Neural Network) 従来のニューラルネットワークでは、 過去の情報を参照できない
ディープラーニング(深層学習) 繋がりの組み合わせ⽅ LSTMネットワークの概要 (https://qiita.com/KojiOhki/items/89cd7b69a8a6239d67ca) RNN (Recurrent Neural Network) 従来のニューラルネットワークでは、 過去の情報を参照できない
情報をループ構造(再帰)にすることで、 過去の情報を維持する
ディープラーニング(深層学習) 繋がりの組み合わせ⽅ 過去の情報を保持し続けて、 最新の情報が⼊ってこない RNN (Recurrent Neural Network) 問題点
ディープラーニング(深層学習) 繋がりの組み合わせ⽅ 1. LSTM (Long Short-Term Memory)とは [概要](https://cvml-expertguide.net/terms/dl/rnn/lstm/) LSTM(Long Short-Term
Memory)
ディープラーニング(深層学習) 1. LSTM (Long Short-Term Memory)とは [概要] (https://cvml-expertguide.net/terms/dl/rnn/lstm/) 繋がりの組み合わせ⽅ LSTM(Long
Short-Term Memory) 過去の情報を保持し続けて、 最新の情報が⼊ってこない
ディープラーニング(深層学習) 1. LSTM (Long Short-Term Memory)とは [概要] (https://cvml-expertguide.net/terms/dl/rnn/lstm/) 繋がりの組み合わせ⽅ LSTM(Long
Short-Term Memory) ⻑期間保持し、 不要になった情報を忘れるようにする 過去の情報を保持し続けて、 最新の情報が⼊ってこない
ディープラーニング(深層学習) 1. LSTM (Long Short-Term Memory)とは [概要] (https://cvml-expertguide.net/terms/dl/rnn/lstm/) 繋がりの組み合わせ⽅ LSTM(Long
Short-Term Memory) - 時系列データの予測 - 株価の予想 - 地震の予測 - ⾃然⾔語処理 - AIチャットボット - ⾳声認識
ディープラーニング(深層学習) ディープラーニングでできること
⼊⼒層 出⼒層 中間層 ⋯ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
画像 物体検出 - 種類 - 位置 画像系 ディープラーニングでできること
ディープラーニングでできること ⽂章 画像 画像系 ⼊⼒層 出⼒層 中間層 ⋯ ⋮ ⋮
⋮ ⋮ ⋮ ⋮ 美味しそうなチキン
⽇本語 英語 ⾃然⾔語系 ディープラーニングでできること ⼊⼒層 出⼒層 中間層 ⋯ ⋮ ⋮
⋮ ⋮ ⋮ ⋮
⾃然⾔語系 ディープラーニングでできること ユーザからの⼊⼒ ⽂章 - 質問 - 答え ⽂章 -
質問 - 答え ChatGPT ⼊⼒層 出⼒層 中間層 ⋯ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
⼊⼒層 出⼒層 中間層 ⋯ ⋮ ⋮ ⋮ ⋮ ⋮ ⋮
⾳声系 ディープラーニングでできること ユーザからの⼊⼒ - ⾳声 ⽂章 - 質問 - 答え Siri Googleアシスタント
実演 Stable Diffusion
実演 ChatGPT
ディープラーニング(深層学習) ディープラーニングで できることには無限⼤の可能性がある
お疲れ様でした。