Upgrade to Pro — share decks privately, control downloads, hide ads and more …

今天開始我的 AI 人工智慧冒險之旅

今天開始我的 AI 人工智慧冒險之旅

這是在政治大學為同學介紹人工智慧入門的工作坊。

第 1 版是 2019 年 5 月 15 日, 應政治大學職涯中心邀請, 分享人工智慧基本原理。
第 2 版 (本版) 是 2019 年 9 月 4 日, 在新生書院「焦點工作坊」介紹人工智慧。

除了介紹最基本的 NN, CNN, RNN, 到進階的生成對抗網路、增強學習之外, 還有為政大同學介紹, 如果想要學習 AI, 可以有什麼樣的資源。

從今天起, 開始自己的 AI 專案!

[email protected]

May 15, 2019
Tweet

Other Decks in Technology

Transcript

  1. !3 吳恩達 (Andrew Ng) AI for Everyone AI 大師深信人人都可以做 AI

    蔡炎龍 人人都可參一咖 的人工智慧 Coursera 課程
  2. !31 台灣黑熊 豬 蠎蛇 1 2 3 [ 1 0

    0 ] [ 0 1 0 ] [ 0 0 1 ] 我們常把它做成 one-hot encoding
  3. ( , "台灣黑熊") ( , "蠎蛇") , , ... x

    k+1 , y k+1 x k , y k x1 , y1 x n , y n 訓練資料 測試資料 3 準備歷史資料
  4. !47 第 t-1 年資料
 
 [Age, G, PA, AB, R,

    H, 2B, 3B, HR, RBI, SB, BB, SO, OPS+, TB] 15 個 features! f 第 t 年全壘打數 RNN 結果不準!
  5. !49 Mike Trout (LAA) 預測 30-39 實際 33 Mookie Betts

    (BOS) 預測 20-29 實際 24 Jose Altuve (HOU) 預測 20-29 實際 24 Kris Bryant (CHC) 預測 30-39 (第⼆⾼ 20-29) 實際 29 Daniel Murphy (WSH) 預測 20-29 實際 23 Corey Seager (LAD) 預測 20-29 實際 22 2017 預測結果 (2017 年 6 月預測) !49
  6. !60 G 一小段曲子 靈感 D 一小段曲子 像 or 不像 首曲子

    這就是所謂的生成對抗網路 (GAN)! 結果是做了兩個神經網路
  7. !65 Q CNN + NN + 這就是強化學習 (reinforcement learning) 嚴格來說,

    是強化學習 中的 Q-Learning。 直接學哪個動作最好不容易。於是我們學習 給每個動作「評分」, 通常是計算做了這個 動作後「得分的期望值」。
  8. !66 Montezuma s Revenge StarCraft (星海爭霸) II Quake (雷神之鎚 )

    III Arena Capture the Flag 2019 AI 重大突破! 以前玩不好的, 再繼續玩...
  9. !85 Human-level control through deep reinforcement learning ” “ DeepMind

    2015-2-26 Deep Q- Learning letter 玩電動上《Nature》!
  10. !87 Mastering the game of Go with deep neural networks

    and tree search” “ DeepMind 2016-2-26 當然還有 AlphaGo!
  11. !91

  12. !108 f 6 還有兩件小事 這要「拉平」 * 這是因為我們要用標準 NN 才需要。 0

    0 0 0 0 0 1 0 0 0 One-hot encoding 反正老師會幫你做...
  13. !120 z1 z2 z3 z4 z5 z7 z8 z9 z0

    z6 α0 α1 α2 α3 α4 α5 α6 α7 α8 α9 有 10 個數字, 怎麼轉換, 可以變成加起來等於 1? 9 ∑ i=0 αi = 1
  14. !127 filter 1 filter 2 input 每個 filter 看⼀一個特徵, 掃過每

    ⼀一個點, 紀錄該點附近的「特 徵強度」。 Convolutional Neural Network (CNN)
  15. !130 2 5 5 2 5 2 0 1 2

    3 4 0 4 2 1 5 4 3 1 3 5 5 4 3 5 3 4 5 0 2 1 5 2 3 1 1 1 0 1 3 4 4 1 1 5 1 1 4 2 3 2 2 0 4 2 4 0 5 4 5 3 4 1 4 35 想成這是⼀張圖所成的矩陣 filter 內積 這學來的 W=
  16. !131 2 5 5 2 5 2 0 1 2

    3 4 0 4 2 1 5 4 3 1 3 5 5 4 3 5 3 4 5 0 2 1 5 2 3 1 1 1 0 1 3 4 4 1 1 5 1 1 4 2 3 2 2 0 4 2 4 0 5 4 5 3 4 1 4 35 27 filter 右移⼀一格 還是⼀樣的矩陣 W=
  17. !132 2 5 5 2 5 2 0 1 2

    3 4 0 4 2 1 5 4 3 1 3 5 5 4 3 5 3 4 5 0 2 1 5 2 3 1 1 1 0 1 3 4 4 1 1 5 1 1 4 2 3 2 2 0 4 2 4 0 5 4 5 3 4 1 4 35 27 44 32 36 38 36 36 37 36 36 43 37 37 23 26 17 35 29 25 22 18 14 27 27 25 24 21 24 32 31 38 27 34 25 40 filter 一路到最後 W=
  18. !133 35 27 44 32 36 38 36 36 37

    36 36 43 37 37 23 26 17 35 29 25 22 18 14 27 27 25 24 21 24 32 31 38 27 34 25 40 最後就是一個 6x6 的矩陣 有時我們會把它弄成還是 8x8 基本上和原矩陣一樣大 而且我們通常 filter 會很多!
  19. !135 2 5 5 2 5 2 0 1 2

    3 4 0 4 2 1 5 4 3 1 3 5 5 4 3 5 3 4 5 0 2 1 5 2 3 1 1 1 0 1 3 4 4 1 1 5 1 1 4 2 3 2 2 0 4 2 4 0 5 4 5 3 4 1 4 35 27 44 32 36 38 36 36 37 36 36 43 37 37 23 26 17 35 29 25 22 18 14 27 27 25 24 21 24 32 31 38 27 34 25 40 filter 圖片上的點是一個個輸 入層神經元
  20. !136 2 5 5 2 5 2 0 1 2

    3 4 0 4 2 1 5 4 3 1 3 5 5 4 3 5 3 4 5 0 2 1 5 2 3 1 1 1 0 1 3 4 4 1 1 5 1 1 4 2 3 2 2 0 4 2 4 0 5 4 5 3 4 1 4 35 27 44 32 36 38 36 36 37 36 36 43 37 37 23 26 17 35 29 25 22 18 14 27 27 25 24 21 24 32 31 38 27 34 25 40 filter Conv 層也是一個個神經元
  21. !137 2 5 5 2 5 2 0 1 2

    3 4 0 4 2 1 5 4 3 1 3 5 5 4 3 5 3 4 5 0 2 1 5 2 3 1 1 1 0 1 3 4 4 1 1 5 1 1 4 2 3 2 2 0 4 2 4 0 5 4 5 3 4 1 4 35 27 44 32 36 38 36 36 37 36 36 43 37 37 23 26 17 35 29 25 22 18 14 27 27 25 24 21 24 32 31 38 27 34 25 40 filter 兩層中沒有完全相連 W=
  22. !138 2 5 5 2 5 2 0 1 2

    3 4 0 4 2 1 5 4 3 1 3 5 5 4 3 5 3 4 5 0 2 1 5 2 3 1 1 1 0 1 3 4 4 1 1 5 1 1 4 2 3 2 2 0 4 2 4 0 5 4 5 3 4 1 4 35 27 44 32 36 38 36 36 37 36 36 43 37 37 23 26 17 35 29 25 22 18 14 27 27 25 24 21 24 32 31 38 27 34 25 40 filter 再來 share 同樣的 weights W=
  23. !139 35 27 44 32 36 38 36 36 37

    36 36 43 37 37 23 26 17 35 29 25 22 18 14 27 27 25 24 21 24 32 31 38 27 34 25 40 最後就是一個 6x6 的矩陣 有時我們會把它弄成還是 8x8 基本上和原矩陣一樣大 而且我們通常 filter 會很多!
  24. !142 35 27 44 32 36 38 36 36 37

    36 36 43 37 37 23 26 17 35 29 25 22 18 14 27 27 25 24 21 24 32 31 38 27 34 25 40 36 44 43 37 26 35 38 34 40 每區投出最大的!!
  25. !149 字1 字2 回1 EOS 回1 回2 回k EOS 注意這樣的模式,

    每次輸入和輸出都不是固定的長度!
  26. !158 Recurrent Neural Network (RNN) ht 1 = σ (w1

    xt 1 + w2 xt 2 + w3 h3 t−1 + w4 h4 t−1 + b1 ) 會加入上⼀一次的 outputs 當這次的 inputs。
  27. !165 LSTM GRU Long Short Term Memory Gated Recurrent Unit

    事實上現在⼤家說到 RNN 是想到...
  28. !175 編號 k 的
 LSTM LSTM 再一次 多出來的 cell state

    是屬於這個 cell 的 一個 cell 的 output 還是會和 同一層分享
  29. !184 重點 RNN 的名字 現在說到 RNN, 其實包括原始 RNN, LSTM, GRU

    等各種變形。 特別要叫原始的 RNN, 我們習慣叫它 Vanilla RNN, 在 Keras 中是 SimpleRNN。
  30. !186 第 t-1 年資料
 
 [Age, G, PA, AB, R,

    H, 2B, 3B, HR, RBI, SB, BB, SO, OPS+, TB] 15 個 features! f 第 t 年全壘打數 RNN 分五段: 0-9, 10-19, 20-29, 30-39, 40+ !186
  31. !187 1 3 2 4 5 10-19 One-Hot encoding 0

    1 0 0 0 ⎡ ⎣ ⎢ ⎢ ⎢ ⎢ ⎢ ⎢ ⎤ ⎦ ⎥ ⎥ ⎥ ⎥ ⎥ ⎥ 0-9 10-19 20-29 30-39 40+
  32. !189 Mike Trout (LAA) 預測 30-39 實際 33 Mookie Betts

    (BOS) 預測 20-29 實際 24 Jose Altuve (HOU) 預測 20-29 實際 24 Kris Bryant (CHC) 預測 30-39 (第⼆⾼ 20-29) 實際 29 Daniel Murphy (WSH) 預測 20-29 實際 23 Corey Seager (LAD) 預測 20-29 實際 22 2017 預測結果 (2017 年 6 ⽉預測)
  33. !200 There are many interesting recent development in deep learning…

    The most important one, in my opinion, is adversarial training (also called GAN for Generative Adversarial Networks). ” “ —Yan LeCun (楊立昆), 2016
  34. !202 生成器 generator Noise 鑑別器 discriminator 真的 or 假的 GAN

    是兩個神經網路, 一個生 成、一個判斷, 相互對抗! z x G D G(z)
  35. !204 朱俊彦等人 (ECCV 2016) “Generative Visual Manipulation on the Natural

    Image Manifold” iGAN https://arxiv.org/abs/1609.03552
  36. !206 Karras 等 NVIDIA 團隊 (ICLR 2018) “Progressive Growing of

    GANs for Improved Quality, Stability, and Variation” Progressive GAN https://arxiv.org/abs/1710.10196
  37. !207 Karras-Aila-Laine-Lehtinen NVIDIA 團隊最近很有名的⽂章 ⽤ Theano (不是快退出了), Python 2, 單

    GPU Progressive Growing of GANs for Improved Quality, Stability, and Variation
  38. !227 AlphaGo
 Lee AlphaGo
 Master AlphaGo
 Zero 中國烏鎮 圍棋會 4:1

    擊敗世界 棋王李世乭 神秘高手網路 60 連勝 與柯潔對奕, 人工智慧與人 的合作 完全自學的人 工智慧, 擊敗 之前版本 2016.3 2016.12.29
 —2017.1.4 2017.5 2017.10
  39. !231 選定一支 ETF 開始 20,000 美金 經過一年 (最後手上還有 ETF 就全賣)

    使用 reinforcement learning * ETF 資料由全球智能提供
  40. !232 過去 20 天的資料
 (20x6 的矩陣) f 1 2 3

    4 5 買 20 單位 買 10 單位 不做交易 賣 10 單位 賣 20 單位 五種 actions
  41. !233 CDQN 無腦法 CDQN 無腦法 ETF1 17.71% 10.89% ETF11 10.76%

    5.26% ETF2 16.53% 12.6% ETF12 10.19% 13.17% ETF3 16.3% 0.35% ETF13 7.8% 1.42% ETF4 14.4% 13.25% ETF14 6.23% 3.56% ETF5 14.3% 12.7% ETF15 5.73% 4.61% ETF6 13.91% 13.37% ETF16 3.78% -12.76% ETF7 13.17% 10.52% ETF17 2.85% 5.83% ETF8 12.35% 17.07% ETF18 1.59% -4.45% ETF9 11.68% 10.81% ETF19 1.07% -18.09% ETF10 11.09% 8.14% ETF20 -0.59% -0.75% 交易結果 * 「無腦法」正確的名稱是「買入持有策略」