Slide 1

Slide 1 text

Pythonで理解するディープラーニング⼊⾨ ⽇本アイ・ビー・エム データ & AI 事業部 ⾚⽯ 雅典 ✓ uk+1 vk+1 ◆ = ✓ uk vk ◆ ↵ ✓ Lu(uk, vk) Lv(uk, vk) ◆

Slide 2

Slide 2 text

【主な経歴】 1987年⽇本アイ・ビー・エムに⼊社。東京基礎研究所で数式処理システムの研究開発に従事する。 1993年にSE部⾨に異動し、主にオープン系システムのインフラ設計・構築を担当。 2013年よりスマーターシティ事業、2016年8⽉にワトソン事業部に異動し、今に⾄る。 現在は、Watson Studio / Watson OpenScaleなどデータサイエンス系製品の提案活動が主体。 いろいろな領域を幅広くやっているので、IT基盤系・アプリ開発・プログラム⾔語・SQLチューニン グはもとよりWatsonや機械学習、ディープラーニングまで⼀通り語れるのが⾃慢。 【社外講師】 ⾦沢⼯業⼤学⼤学院 ⻁ノ⾨キャンパス客員教授 「AI技術特論」講師 【著作】 「Watson Studioで始める機械学習・深層学習」 リックテレコム 「最短コースでわかるディープラーニングの数学」 ⽇経BP この他雑誌や qiita (https://qiita.com/makaishi2) 執筆多数 ⾚⽯ 雅典 ⽇本IBM Data & AI 事業部 Watsonテクニカルセールス Executive IT Specialist 講演者紹介

Slide 3

Slide 3 text

⽬次 第⼀部 AIと機械学習モデル ⼈⼯知能と機械学習モデル 機械学習モデルとは 機械学習モデルの種類 第⼆部 機械学習⼊⾨ 機械学習の実装⽅式 第三部 線形回帰モデル実習 問題設定 座標系の平⾏移動 前処理 予測関数 損失関数 勾配降下法 実装コード

Slide 4

Slide 4 text

第⼀部 AIと機械学習モデル 第⼀部では、AI、機械学習、教師あり学習、分類モデルなどAIに関連した⽤語を整理します。

Slide 5

Slide 5 text

AIと機械学習モデル ⼈⼯知能(AI) 範囲が広く、指し⽰す内容があいまいで、⼈によって定義がまちまちです。 機械学習モデルも含まれていますが、全く別のルールベースシステムも⼈⼯ 知能の⼀種となります。 機械学習モデル ・⼊⼒から出⼒を得る仕組み ・仕組み(モデル)は学習によって作られる の原理を満たすものです。ディープラーニングモデルも、本⽇の講演で詳し く解説する線形単回帰モデルも機械学習モデルの⼀種です。 ルールベースシステム 事前に蓄積したルール(知識ベース)とif then else のロジックで動くルール エンジンの組み合わせで、問題から解答を得る仕組みです。

Slide 6

Slide 6 text

機械学習モデルとは 次の2つの原則を満たすモデル(システム)のことです 原則1 ⼊⼒データから出⼒データを返す 原則2 モデルは学習により作られる モデル ⼊⼒ ⾎液検査 データ 出⼒ 慢性腎疾患 判定 横画素数 縦画素数 分類結果 200 300 縦⻑ 250 150 横⻑ 150 200 縦⻑ 右の学習データを観察して、⼈間が次のようなルールを作るのはNG if (横画素数) < (縦画素数) then (縦⻑)

Slide 7

Slide 7 text

機械学習モデルの種類 学習の⽅式により、次の3つの種類に分類されます。 このうち、本⽇の講演の対象は教師あり学習です。 教師あり学習 教師なし学習 強化学習 学習時は、常に正解データがわかっている。 学習により完成したモデルは正解に近い値を予測する。 正解データなしに、モデルはなんらかの判断をする。 教師あり学習と異なり「学習フェーズ」「予測フェーズ」の区別はない。 モデル出⼒は環境への働きかけになる。 働きかけの善悪はすぐにはわからないが、しばらくすると「報酬」とし てわかる。

Slide 8

Slide 8 text

教師あり学習 - 回帰モデル - 教師あり学習には、予測結果から次の2つの種類に⼤別されます。 回帰モデル: 数値を予測 分類モデル: クラス(グループ)を予測 回帰モデルの例 (売上げ予測システム) モデル 天気︓雪 気温: 3°C ⽉曜⽇ 天気︓晴れ 気温: 20°C ⽇曜⽇ 1万円 20万円 (数値を予測) 売上げ⾦額

Slide 9

Slide 9 text

教師あり学習 - 分類モデル - 分類モデルは、分類先のクラスの数が2つ(⼆値分類)なのか、 3個以上(多値分類)なのかで細分されます。 下記の例は多値分類です。 2値分類の例としては、正常メールとスパムメールを仕分けるモデルなどがあります。 分類モデルの例 (画像分類システム) モデル ウマ イヌ ネコ ⼊⼒データ

Slide 10

Slide 10 text

第⼆部 機械学習⼊⾨ 第⼀部では、「機械学習モデルとはどんな振る舞いをするか」つまりモデルをブラック ボックスとして⾒た時の外部の振る舞いで定義しました。 第⼆部は、このブラックボックスの中⾝に焦点を絞って説明します。

Slide 11

Slide 11 text

機械学習の実装⽅式 機械学習モデルには、様々な実装⽅式がありますが、その中の⼀部のグループはディープラー ニングと密接な関係があります。 具体的には、下記のモデルが該当します。 ニューラルネットワークの層の数を増やしてより複雑にしたのが、ディープラーニングという ことができます。 ・線形回帰 ・ロジスティック回帰 ・ニューラルネットワーク ・ディープラーニング : . C ,

Slide 12

Slide 12 text

機械学習の実装⽅式 下図で右になるほどモデルの構造は複雑になりますが、学習の⽅式はすべて共通です。 そこで、本講演では、この中で最も単純でわかりやすい「線形回帰モデル」を例に、機械学習 のアルゴリズムを理解していきます。 1 1 × 0 × 1 = ∙ 1 !" = %& + %( )( 1 1 × 2 () (1) (2) (3) = 0 + 1 1 + 2 2 = () 1 活性化関数 重み × × × 0 1 1 1 2 1 = () 0 2 0 2 = () × (隠れ層) u (出力層) 1 1 2 (入力層) × a 1 a 2 a f(u 1 ) f(u 2 ) = ( ) = = 線形回帰 ロジスティック回帰 ニューラルネットワーク

Slide 13

Slide 13 text

機械学習の実装⽅式 この図が線形回帰モデルからディープラーニングまで共通の学習⽅式です。 この中で、「損失関数」と「勾配降下法」の2つが重要な概念となります。 学習データ yt (正解データ) モデル (学習中) yp (予測値) 損失関数 学習(勾配降下法) x (入力データ) 重要概念1: 正解データと予測値の 近さを数値で表現する 関数 重要概念2: 「微分」を使って損失関数 が最⼩になるパラーメータ 値を決定する モデルの構造は決まっている。 パラメータの値が学習対象。

Slide 14

Slide 14 text

第三部 線形単回帰モデル 第三部では、簡単な線形単回帰の問題をPythonのコーディングで実際に解いてみること にします。 ここでご紹介しているコードは 下記URLからダウンロード可能です。 (Notebookをブラウザで確認する場合) https://github.com/makaishi2/sample-data/blob/master/notebooks/xpython-akaishi.ipynb 短縮URL http://bit.ly/2mIDmlc (Notebookをコードとしてダウンロードする場合) https://raw.githubusercontent.com/makaishi2/sample-data/master/notebooks/xpython-akaishi.ipynb 短縮URL http://bit.ly/2o9aOBT

Slide 15

Slide 15 text

Pythonと機械学習・ディープラーニングの関係 Pythonと数値演算ライブラリNumpyを利⽤すると、機械学習、ディープラーニングのコー ディングが⼤変簡単に実装できます。 それは、PythonとNumpyが以下のような特徴を持っているからです。 ・配列、ベクトル、⾏列の部分集合の抽出が簡単に⾏える。 ・Numpy関数は、ベクトル、⾏列の全要素に同時に演算を実⾏できる。 ・Numpyのブロードキャスト機能で、サイズの異なる変数間の演算も可能。 ・@演算⼦で変数間の内積がシンプルに表現可能。 →ループ処理のない、数式通りのコーディングで⾏列計算を実装可能 ※ 第三部では、機械学習のアルゴリズム(数式)とPythonコード実装を対⽐することで、このこと を実際に確認していきます。 ※ 場合によっては、数式よりPython実装の⽅がシンプルな式になることもあります。

Slide 16

Slide 16 text

問題設定 本⽇、例題で取りあげるのは線形単回帰モデルです。 x(⾝⻑)からy(体重)を予測するモデルを想定しています。 回帰モデル: 数値を予測 単回帰︓ ⼊⼒変数が1つ 線形: モデルの構造は1次関数 x ⾝⻑(cm) y 体重(kg) 166 58.7 176 75.7 171 62.1 173 70.4 169 60.1

Slide 17

Slide 17 text

データの散布図表⽰ 与えられたデータをNumpy配列(data)に⼊れ、散布図表⽰する実装は次の形になります。

Slide 18

Slide 18 text

座標系の平⾏移動 機械学習の⼊⼒データは平均0、分散1程度の値が適切です。 今回は、データを平⾏移動して平均が0になるように座標系を修正しました。 平均値の計算: Numpyのmean関数を利⽤します。 その際「axis=0」で向きを指定します。 166 58.7 176 75.7 171 62.1 173 70.4 169 60.1 171 65.4 122.35 125.85 116.55 121.7 114.55 mean(axis = 1) mean(axis = 0)

Slide 19

Slide 19 text

座標系の平⾏移動 Numpyのブロードキャスト機能で、次元の違う変数同⼠で引き算ができます。 166 58.7 176 75.7 171 62.1 173 70.4 169 60.1 171 65.4 - 166 58.7 176 75.7 171 62.1 173 70.4 169 60.1 - 171 65.4 171 65.4 171 65.4 171 65.4 171 65.4 ブロードキャスト機能で変数 のサイズが⾃動調整される (data) (mean)

Slide 20

Slide 20 text

座標系の平⾏移動 平⾏移動後は、x軸、y軸とも平均値が0になっていることがグラフから読み取れます。 平⾏移動前 平⾏移動後 (移動前) (移動前) (移動後) (移動後) 原点を移動

Slide 21

Slide 21 text

前処理 ⼊⼒データの抽出 学習データは、⼊⼒データ(⾝⻑)の列と、 正解データ(体重)の列が含まれています。 ここから⼊⼒データの列を抽出します。 data1[:,0:1] すべての⾏を取得 0番⽬の列をベクトルのままで取得 学習データ yt (正解データ) モデル (学習中) yp (予測値) 損失関数 学習(勾配降下法) x (入力データ) ┽ = ┻ ɾ ø + ┻ ┼ ͱॻ͖׵͑ͯΈ·͢ɻ͢Δͱɺ͜ͷࣜͷӈล͸ ┻ ┻ ͱ͍͏ϕΫ τ ϧͱɺ ┼ ┼ ͱ͍͏ϕΫ τ ϧ ಺ੵ┻ ɾ ┼ͱද͢͜ ͱ͕Ͱ͖ ·͢ɻ ɹ1ZUIPOͰ͸͔Βಋೖ͞Εͨ৽ػೳͱ ͯ͠ɺ ਤ˔ਖ਼ղσʔλZUͷઃఆ ਤ˔ֶशσʔλ͔Βೖྗσʔλྻநग़ ਤ˔ೖྗσʔλྻʹμϛ ʔม਺௥Ճ ਤ˔ֶशσʔ ਤ˔ֶशσʔλͷฏߦҠಈͱɺ /VN1Zͷϒϩʔ υΩϟε τػೳ ਤ˔ֶशσʔλ͔Βೖྗσʔλྻநग़ ਤ˔ೖྗσʔλྻʹμϛ ʔม਺௥Ճ ਤ˔ֶशσʔλͷฏߦҠಈͱɺ /VN1Zͷϒϩʔ υΩϟε τػೳ ɹ ɹ ɹ ɹ ɹ ɹ ɹ ɹ ɹ ɹ ベクトルでなく「5⾏1列」の ⾏列にする。 (後で⾏う列追加に備えて)

Slide 22

Slide 22 text

前処理 正解データの抽出 学習データは、⼊⼒データ(⾝⻑)の列と、 正解データ(体重)の列が含まれています。 ここから正解データの列を抽出します。 data1[:,1] すべての⾏を取得 1番⽬の列をスカラーとして取得 学習データ yt (正解データ) モデル (学習中) yp (予測値) 損失関数 学習(勾配降下法) x (入力データ) ┽ = ┻ ɾ ø + ┻ ┼ ͱॻ͖׵͑ͯΈ·͢ɻ͢Δͱɺ͜ͷࣜͷӈล͸┻ ਤ˔༧ଌؔ਺ͷఆٛ ਤ˔ਖ਼ղσʔλZUͷઃఆ ਤ˔༧ଌؔ਺ͷςε τ ਤ˔ֶशσʔ ਤ˔ֶशσʔλͷฏߦҠಈͱɺ /VN1Zͷϒϩʔ υΩϟε τػೳ ┽ = ┻ ɾ ø + ┻ ┼ ͱॻ͖׵͑ͯΈ·͢ɻ͢Δͱɺ͜ͷࣜͷӈล͸┻ ┻ ┻ ͱ͍͏ϕΫ τ ϧͱɺ ┼ ┼ ͱ͍͏ϕΫ τ ϧͷɺ ಺ੵ┻ ɾ ┼ͱද͢͜ ͱ͕Ͱ͖ ·͢ɻ ɹ1ZUIPOͰ͸͔Βಋೖ͞Εͨ৽ػೳͱ ͯ͠ɺ!ԋ ਤ˔༧ଌ ༧ଌ ਤ˔ਖ਼ղσʔλZUͷઃఆ ग़ Ճ ਤ˔༧ଌ 正解データは単なる5次元ベクトル

Slide 23

Slide 23 text

予測関数 (凡例) y については、予測値と実測値の両⽅があるので、以下の表記で区別します。 予測値: (predict) 実測値: (true) ⼀次関数を利⽤した予測関数の式は次のとおりです。 = & + ( ポイント ・モデルの構造は事前に決まっている。 ・パラメータの値のみ⾃由度がある ・学習とは最適なパラメータ値を決めるプロセス この原理はディープラーニングでも同じです 学習データ yt (正解データ) モデル (学習中) yp (予測値) 損失関数 学習(勾配降下法) x (入力データ)

Slide 24

Slide 24 text

予測関数と内積計算 線形回帰モデルは⼀次関数なので、 予測値を記号ypで表すと、予測値の式は yp = & + ( と書けます。この式を = (&, () 、 = &, ( = (1, )とすると、(& は常に1の値を持つダミー変数とする) yp = & 2 1 + ( = 2 と2つのベクトルの内積の形で表現できます。 学習データ yt (正解データ) モデル (学習中) yp (予測値) 損失関数 学習(勾配降下法) x (入力データ)

Slide 25

Slide 25 text

ダミー変数列の追加 予測値を単純な内積の形式で計算するため、 ⼊⼒変数に常に1の値を持つダミー変数列を追加します。 np.insert(x1, 0, 1.0, axis=1) 0番⽬に挿⼊ 値 1.0 を挿⼊ 列⽅向に挿⼊ 挿⼊されたダミー変数列 学習データ yt (正解データ) モデル (学習中) yp (予測値) 損失関数 学習(勾配降下法) x (入力データ)

Slide 26

Slide 26 text

予測関数と内積計算 Python3 では、内積は記号@で表記できます。 この記号を使って、予測関数を内積で表現します。 学習データ yt (正解データ) モデル (学習中) yp (予測値) 損失関数 学習(勾配降下法) x (入力データ) wに勝⼿な初期値を設定して、モデルの最初の予測値を計算してみます。 結果は全然間違っていますが、5つの点に対する予測値が同時に得られることがわかります。

Slide 27

Slide 27 text

損失関数 予測関数のグラフ(直線)を⻘で⽰しました。 このとき、実測値に対応した予測値の値は 実測値から直線に引いた垂線の⾜に相当します。 線形回帰の場合、損失関数は、 差が正負どちらでもいいように 「実測値-予測値」の⼆乗で計算されます。 絶対値を使わないのは、絶対値を使うとこの後の 微分計算がややこしくなってしまうためです。 学習データ yt (正解データ) モデル (学習中) yp (予測値) 損失関数 学習(勾配降下法) x (入力データ) ਤͰ͸ɺݩͷֶशσʔλ͔ΒɺೖྗσʔλYʹ͋ ΔྻͷΈΛநग़͍ͯ͠·͢ɻී௨ʹEBUB< >ͱ͍ ίʔσΟ ϯάʹ͢Δͱɺ݁Ռ͸ϕΫ τϧʹͳΔͷͰ͢ ɺ͜͜Ͱ͸ߦྻͷੑ࣭Λอͬͨ··ʹ͍ͨͨ͠Ίɺ ͑ͯEBUB< >ͱ͍͏ॻ͖ํʹ͍ͯ͠·͢ɻ/VN1Z ਺͸͢΂ͯTIBQFͱ͍͏ϓϩύςΟ Λ͍࣋ͬͯͯɺ ౰͢Δม਺͕Կ࣍ݩσʔλͰཁૉ਺͕͍ͭ͘ͳͷ ͕֬ೝͰ͖ ΔͷͰɺͦͷ͜ ͱ Λར༻ͯ͠Y഑ྻͷཁ ਺Λද͍ࣔͯ͠·͢ɻ ༧ଌؔ਺΁ͷ಺ੵͷར༻ͱ μϛʔม਺ͷ௥Ճ ઢܗ୯ճؼͷ৔߹ɺ༧ଌ஋Λܭࢉ͢Δࣜ͸ ┽ ━ ┻ ┼Ͱ͋Γɺ͜Ε͕͜ͷ··༧ଌؔ਺ͷࣜͱͳ ·͢ɻ͔͠͠ɺ1ZUIPOͰͷ࣮૷Λ؆୯ʹ͢ΔͨΊɺ ͷࣜΛ ͍ͯ·͢ɻ લॲཧ ʢਖ਼ղσʔλͷ෼཭ʣ ɹਤͰ͸ɺֶशσʔλ͔Βਖ਼ղσʔλZUͷઃఆΛ ͍ͯ͠·͢ɻ͜ͷ࣍ݩϕΫ τϧͷͦΕͧΕͷ஋͸ɺ ͜Ε͔Βߦ͏ػցֶशʹ͓͍ͯ࠷ऴతͳ໨ඪ஋ͱͳ Γ ·͢ɻ ਤ˔ଛࣦؔ਺ͷߟ͑ํ 9 : Z U rZ Q Z U ࣮ଌ஋ Z Q ༧ଌ஋ ͔͠͠ɺ ʹ͜ͷΑ ࢉͯ݁͠ ࣜΛX ͨɻ͜ͷ རͳͱ ͜ ɹ಺ੵ

Slide 28

Slide 28 text

損失関数 損失関数 L を数式で表現すると、 下のようになります。 数式の(m)の表記は「m番⽬のデータ」 (実習の例だと1から5)を意味しています。 Mはデータの個数(今の例だと5)です。 損失関数をMで割っているのは、損失関数値をデータの個数に関係ない値にするためです。 更に2で割っているのは、その後で⾏う微分計算の結果を簡単にするためです。 学習データ yt (正解データ) モデル (学習中) yp (予測値) 損失関数 学習(勾配降下法) x (入力データ) 予測値を内積で表現 予測値ypと実測値ytの差を誤差ydとして新たに定義 誤差ydを使って損失関数を定義

Slide 29

Slide 29 text

損失関数 学習データ yt (正解データ) モデル (学習中) yp (予測値) 損失関数 学習(勾配降下法) x (入力データ) 損失関数の数式は次のように書き換えることができます。 ⾚枠で囲んだ部分は(())の平均値なので、np.mean関数を利⽤できます。 結局、損失関数はPythonの場合、次のコーディングで実装できます。 現段階で予測値ypはパラメータ値は適当に決めて計算しているので、 損失関数の値は約50.4とかなり⼤きな値になっています。

Slide 30

Slide 30 text

勾配降下法 最後のステップの勾配降下法とは、 損失関数を微分した結果を利⽤したアルゴリズムです。 今回は、アルゴリズムの実装イメージを図で説明します。 数学的にきちんと理解したい場合は、最後に紹介する書籍を参照して下さい。 学習データ yt (正解データ) モデル (学習中) yp (予測値) 損失関数 学習(勾配降下法) x (入力データ) 微分すると ( 7 + 7 ′ = ( + ) と同じこと まず、損失関数の微分を計算します。

Slide 31

Slide 31 text

勾配降下法 2変数関数 (, )があるとき、Lを最⼩にする(u, v)の値を求めたい -> (1) Lの微分※の値が0になる(u, v)を求めればいい -> (2) Lの微分にマイナスを付けた結果は、斜⾯においたボールが斜⾯を降りる向きと同じ -> (3) 少しずつ斜⾯を降りると最後は底にたどり着く ※ 厳密にいうと「偏微分」です

Slide 32

Slide 32 text

勾配降下法 ✓ uk+1 vk+1 ◆ = ✓ uk vk ◆ ↵ ✓ Lu(uk, vk) Lv(uk, vk) ◆ (, ) ( , ) θ が最小値を取るとき の(, )の向き = 90°のとき、の値 は変化しない (の等高線の向き) 結論(重要) 前ページ(2)の詳細な説明 (イメージだけ持てればいいです) 斜⾯を⼀歩降りるための式。 この操作を繰り返すと斜⾯の底に達する! Lの微分結果 学習率 (2ページ前の微分計算結果)

Slide 33

Slide 33 text

勾配降下法 勾配降下法のPython実装は以下のとおりです。 下の式の中で alphaは学習率と呼ばれる 機械学習で最も重要なパラメータで通常は0.01や0.001といった値を利⽤します。 損失関数の微分計算がなぜこのコードになるかは、 右の図に概要を⽰しました。 学習データ yt (正解データ) モデル (学習中) yp (予測値) 損失関数 学習(勾配降下法) x (入力データ) 学習率 損失関数の微分結果 1 2 3 4 5 6 X = yd = 1 2 3 × × やりたいこと (Xに対して列方向の内積) X . T = 1 3 5 2 4 6 yd = 1 2 3 @ Xの転置行列をつくれば内積計算ができる × × ✓ uk+1 vk+1 ◆ = ✓ uk vk ◆ ↵ ✓ Lu(uk, vk) Lv(uk, vk) ◆

Slide 34

Slide 34 text

実装コード(初期化処理) 最後に実装コード全体を⽰します。まず、初期化処理部分です。 # 初期化処理 # データ系列総数 (=5) M = x.shape[0] # ⼊⼒データ次元数(ダミー変数を含む) (=2) D = x.shape[1] # 繰り返し回数 iters = 200 # 学習率 alpha = 0.01 # 重みベクトルの初期値 (勝⼿な値を設定) w = np.array([2, -1]) # 評価結果記録⽤ (損失関数値, w0, w1を記録) history = np.zeros((0,4)) データ系列数 M、⼊⼒データ次元数 Dを⼊⼒変数のshape から取得することで、汎⽤的な実装コードになっている。 繰り返し回数(iter)と学習率(alpha)は、案件毎に最適な値 に調整する必要がある。

Slide 35

Slide 35 text

実装コード(繰り返し処理) 次に繰り返し処理部分です。 # 繰り返しループ for k in range(iters): # 予測値の計算 yp = pred(x, w) # 誤差の計算 yd = yp - yt # 勾配降下法の実装 w = w - alpha * (x.T @ yd) / M # 学習曲線描画⽤データの計算、保存 # 重みベクトル値の取得 w0 = float(w[0]) w1 = float(w[1]) # 損失関数値の計算 L = np.mean(yd ** 2) / 2 # 計算結果の記録 line = np.array([k, L, w0, w1]) history = np.vstack((history, line)) # 画⾯表⽰ print( "iter = %d L = %f w0 = %f w1 = %f" % (k, L, w0, w1)) 勾配降下法の本質的な部分はこの3⾏だけ グラフ表⽰、途中経過表⽰のためのコード

Slide 36

Slide 36 text

実装コード(計算結果) 計算結果は次のようになりました。 左の画⾯から、損失関数値Lが最後は2.3程度の⼩さな値になっていることがわかります。 右の画⾯から、正解値と近い値を予測値が取っていることがわかります。 iter = 0 L = 50.416000 w0 = 1.980000 w1 = -0.672800 iter = 1 L = 40.291163 w0 = 1.960200 w1 = -0.383555 iter = 2 L = 32.371142 w0 = 1.940598 w1 = -0.127863 iter = 3 L = 26.174246 w0 = 1.921192 w1 = 0.098169 iter = 4 L = 21.324050 w0 = 1.901980 w1 = 0.297982 iter = 5 L = 17.526391 w0 = 1.882960 w1 = 0.474616 (途中略) iter = 195 L = 2.309214 w0 = 0.278951 w1 = 1.820690 iter = 196 L = 2.308424 w0 = 0.276162 w1 = 1.820690 iter = 197 L = 2.307650 w0 = 0.273400 w1 = 1.820690 iter = 198 L = 2.306891 w0 = 0.270666 w1 = 1.820690 iter = 199 L = 2.306147 w0 = 0.267959 w1 = 1.820690 ループ処理出⼒ 予測値と正解値

Slide 37

Slide 37 text

実装コード(計算結果) 機械学習において、横軸に繰り返し回数、縦軸に精度に関するなんらかの指標を取って書いた グラフを学習曲線と呼びます。左の図は今回の例題で、損失関数値を縦軸に取った学習曲線で す。繰り返し回数が増えるにつれて損失関数値が⼩さな値に収束していることがわかります。 右の図は、学習データと学習によって得られた回帰直線を重ねがきしたものです。正しく直線 近似できていることがわかります。 学習曲線 散布図と回帰直線 損失関数値 繰り返し回数

Slide 38

Slide 38 text

ディープラーニングに向けて 「予測関数」「損失関数」「勾配降下法」を⽤いて、線形回帰モデルの解を求められることが わかったと思います。実は、ロジスティック回帰モデル、ニューラルネットワークモデル、そ してディープラーニングモデルも上の3つの概念を使って解くことができます。 しかし、ロジスティック回帰モデルでは、予測関数と損失関数の数式は次のような複雑なもの となります。 f(u) = 1 1 + exp ( u) このような問題を解くためにはある程度まとまった数学の知識が必要です。

Slide 39

Slide 39 text

ディープラーニングの理解には⽋かせない数学を ⾼校1年⽣レベルから、やさしく解説します。 (微分、ベクトル、⾏列、確率など) 更にディープラーニングのアルゴリズムについても、Pythonの コードで確かめながら⼀歩ずつ理解できます。 書名︓最短コースでわかるディープラーニングの数学 出版社︓⽇経BP社 著者: ⾚⽯雅典 価格: 本体価格 2900円 + 税 Amazonリンク: https://www.amazon.co.jp/dp/4296102508 ISBN978-4296102501 344⾴ 参考書籍ご紹介 おかげさまで⼤好評です! 販売後半年で3刷 1万部

Slide 40

Slide 40 text

ご静聴ありがとうございました。 プレゼン資料は、下記リンク先で公開しています。 https://speakerdeck.com/makaishi2/pythondeli-jie-surudeipuraninguru-men (短縮URL) http://bit.ly/3370o4O 書籍「ディープラーニング」サポートページURL https://github.com/makaishi2/math_dl_book_info/blob/master/README.md (短縮URL) http://bit.ly/315YTm3