Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
第三章-分類と周辺の知識【数学嫌いと学ぶデータサイエンス・統計的学習入門】
Search
Sponsored
·
SiteGround - Reliable hosting with speed, security, and support you can count on.
→
Ringa_hyj
June 15, 2020
Technology
470
0
Share
第三章-分類と周辺の知識【数学嫌いと学ぶデータサイエンス・統計的学習入門】
第三章【数学嫌いと学ぶデータサイエンス・統計的学習入門】
Ringa_hyj
June 15, 2020
More Decks by Ringa_hyj
See All by Ringa_hyj
DVCによるデータバージョン管理
ringa_hyj
0
360
deeplakeによる大規模データのバージョン管理と深層学習フレームワークとの接続
ringa_hyj
0
100
Hydraを使った設定ファイル管理とoptunaプラグインでのパラメータ探索
ringa_hyj
0
210
ClearMLで行うAIプロジェクトの管理(レポート,最適化,再現,デプロイ,オーケストレーション)
ringa_hyj
0
210
Catching up with the tidymodels.[Japan.R 2021 LT]
ringa_hyj
3
870
多次元尺度法MDS
ringa_hyj
0
350
因子分析(仮)
ringa_hyj
0
190
階層、非階層クラスタリング
ringa_hyj
0
150
tidymodels紹介「モデリング過程料理で表現できる説」
ringa_hyj
0
670
Other Decks in Technology
See All in Technology
🀄️ on swiftc
giginet
PRO
0
380
サイボウズ 開発本部採用ピッチ / Cybozu Engineer Recruit
cybozuinsideout
PRO
10
78k
最初の一歩を踏み出せなかった私が、誰かの背中を押したいと思うようになるまで / give someone a push
mii3king
0
150
申請待ちゼロへ!AWS × Entra IDで実現した「権限付与」のセルフサービス化
mhrtech
2
320
ワールドカフェI /チューターを改良する / World Café I and Improving the Tutors
ks91
PRO
0
240
QGISプラグイン CMChangeDetector
naokimuroki
1
280
Introduction to Sansan for Engineers / エンジニア向け会社紹介
sansan33
PRO
6
74k
幾億の壁を超えて/Beyond Countless Walls(JP)
ikuodanaka
0
130
#jawsugyokohama 100 LT11, "My AWS Journey 2011-2026 - kwntravel"
shinichirokawano
0
290
Oracle AI Database@AWS:サービス概要のご紹介
oracle4engineer
PRO
4
2.3k
CDK Insightsで見る、AIによるCDKコード静的解析(+AI解析)
k_adachi_01
2
170
実践ハーネスエンジニアリング:TAKTで実現するAIエージェント制御 / Practical Harness Engineering: AI Agent Control Enabled by TAKT
nrslib
3
1.2k
Featured
See All Featured
Noah Learner - AI + Me: how we built a GSC Bulk Export data pipeline
techseoconnect
PRO
0
160
SEOcharity - Dark patterns in SEO and UX: How to avoid them and build a more ethical web
sarafernandez
0
160
The Power of CSS Pseudo Elements
geoffreycrofte
82
6.2k
The browser strikes back
jonoalderson
0
950
How GitHub (no longer) Works
holman
316
150k
Applied NLP in the Age of Generative AI
inesmontani
PRO
4
2.2k
Jamie Indigo - Trashchat’s Guide to Black Boxes: Technical SEO Tactics for LLMs
techseoconnect
PRO
0
110
Future Trends and Review - Lecture 12 - Web Technologies (1019888BNR)
signer
PRO
0
3.5k
Redefining SEO in the New Era of Traffic Generation
szymonslowik
1
270
Optimizing for Happiness
mojombo
378
71k
Lightning Talk: Beautiful Slides for Beginners
inesmontani
PRO
1
520
Design in an AI World
tapps
0
190
Transcript
第三章 1 第三章 1 @Ringa_hyj 日本一の数学嫌いと学ぶ データサイエンス ~第三章:分類と周辺の知識~
第三章 2 第三章 2 対象視聴者: 数式や記号を見ただけで 教科書を閉じたくなるレベル
第三章 3 第三章 3 分類(classification)
第三章 4 第三章 4 ・どうやって機械に判断させる? 画像は犬か猫か 今日のお客は男と女どちらが多いか 明日の株価は上がるか下がるか (クラスタリングはラベルがわからない状態で、データをどう分割するかを考えるもの)
第三章 5 第三章 5 ・どうやって機械に判断させる? 身体データから男女分類を例に考える ラベル 身長 体重 男
170 75 男 180 90 女 160 50 女 155 45 以前ダミー変数の話をした 男を1としてダミー変数に変換する ラベル 身長 体重 1 170 75 1 180 90 0 160 50 0 155 45 1,0を100%,0%と考えると、 ラベル列が「男である確率」となる
第三章 6 第三章 6 ・どうやって機械に判断させる? ラベル 身長 体重 1 170
75 1 180 90 0 160 50 0 155 45 ・身⾧,体重のデータに手を加えて、何とか「確率」を計算したい。 ・アルゴリズムには男なら確率を高く、女なら低くしてもらいたい。 ・確率は1から0の間の値を必ずとる ・学習の関数を確率の間違い具合で更新する
第三章 7 第三章 7 ロジスティック回帰
第三章 8 第三章 8 ・ロジスティック回帰 – ロジスティック方程式 「回帰」だけど「分類」に使う ・確率は1から0の間の値を必ずとる ロジスティック方程式
フェルフルストさんが1838年に発見 生物個体数の変化をモデル化 - 環境収容力(上限)と最小存続可能個体数(下限)がある - 増殖力は種によって変化させられる 回帰の例として SNS登録者数予測などにも使う 増加率:a 環境収容力:k 開始時の個体数:n0 時点:t
第三章 9 第三章 9 ・ロジスティック回帰 – シグモイド関数 ・確率は1から0の間の値を必ずとる -∞から∞まで、上限1下限0
ロジスティック方程式 シグモイド関数
第三章 10 第三章 10 ・ロジスティック回帰 – シグモイド関数 ・確率は1から0の間の値を必ずとる シグモイド関数のZに入れた数字は ・大きいほど1
・小さいほど0 ・0のとき0.5 になる 男のデータは0より大きくなり、 女のデータは0より小さくなるように変換する係数wを考えたい
第三章 11 第三章 11 ・ロジスティック回帰 – シグモイド関数 と 尤度 ・確率は1から0の間の値を必ずとる
・学習の関数を確率の間違い具合で更新する この式で確率っぽい値に変換できる 尤度(likelihood)の話 尤度 = (y=1の時σ(wx)が出した男である確率)× (y=0の時1-σ(wx)がだした男でない確率)× ・・・ 上記の計算が最大になるようなwの時が、 最も綺麗に σ(wx)を男のデータの時1,女のデータの時0に出力できている 「パラメータの尤もらしさ」の度合いを測る指標を「尤度」と呼ぶ
第三章 12 第三章 12 ・ロジスティック回帰 – 尤度関数 ・学習の関数を確率の間違い具合で更新する 尤度 =
(y=1の時σ(wx)が出した男である確率)× (y=0の時1-σ(wx)が計算する男でない確率)× ・・・ 数式で表現すると 尤度 = × × ・・・ 2つも式が必要で、計算するときに厄介 1つの式で表現したい 尤度関数
第三章 13 第三章 13 ・ロジスティック回帰 – 尤度関数 ・学習の関数を確率の間違い具合で更新する yが1の時(sex=1)、後項は0乗となり1になる yが0の時(sex=0)、前項が0乗となり1になる
都合よく場合分けしてくれる式ができた sexをsに変える。 尤度の計算を一般化して書き直すと ୀଵ ௦ ଵି௦ ୀଵ 尤もらしい値を求める関数 尤度関数
第三章 14 第三章 14 ・ロジスティック回帰 – 対数尤度関数 ・学習の関数を確率の間違い具合で更新する ୀଵ
௦ ଵି௦ ୀଵ 複雑な値の掛け算を繰り返すより、 足し引きのほうが計算しやすいので、 対数をとって掛け算を足し算に変換する。(対数ってそういう性質) log(尤度) = + + ・・・ 対数尤度関数 尤度関数が最大の時のwを求める 対数尤度関数が最大の時のwを求める どちらも同じwになる 最適なwのこと:最尤推定量 ୀଵ = ୀଵ
第三章 15 第三章 15 ・ロジスティック回帰 – 負の対数尤度関数 ・学習の関数を確率の間違い具合で更新する ୀଵ
対数尤度関数の最大値を求める 数学的に最大化問題を解くのは少し厄介 対数尤度関数が最大のxのとき 負の対数尤度関数は最小になる よって最小化問題として解ける 最小化は微分して0を求めればいい 負の対数尤度関数(交差エントロピー関数) ୀଵ
第三章 16 第三章 16 ・ロジスティック回帰 – 負の対数尤度関数の最小化(微分して0) ・学習の関数を確率の間違い具合で更新する ୀଵ
負の対数尤度関数を目的の関数(コスト関数)と考え、 パラメータWに関する関数 J(W)と置く s=1の時も、s=0の時も、下に凸なので、微分して0の点がJ(W)の最小値である
第三章 17 第三章 17 ・ロジスティック回帰 – 負の対数尤度関数の最小化(微分して0) ・学習の関数を確率の間違い具合で更新する ୀଵ
を求める (合成関数の微分、連鎖率の知識)
第三章 18 第三章 18 ・学習の関数を確率の間違い具合で更新する まずlog(f(x))について微分 最初のマイナスを分配 定数1は0になり、-σ(wx)のマイナスをくくりだすと、 前後項にσ(wx)の微分が共通に出てくる。 σ(wx)の微分でくくりだして整理する
・ロジスティック回帰 – 負の対数尤度関数の最小化(微分して0)
第三章 19 第三章 19 ・学習の関数を確率の間違い具合で更新する σ(wx)の微分を考える ・ロジスティック回帰 – 負の対数尤度関数の最小化(微分して0)
第三章 20 第三章 20 ・ロジスティック回帰 – シグモイド関数のwでの微分 ・学習の関数を確率の間違い具合で更新する = ୢ
ୢ௭ ୢ௭ ୢ௪ wx=Zとおく。連鎖率の性質より、複数回の微分を順番に計算していく。 = ୢ ୢ௭ ୢ ୢ௪ ここで である ୢ ୢ௭ = シンプルに1変数の微分を考えて ୢ ୢ௭ ଵ ଵାୣష = ି௭ ିଵ ି௭ ିଶ ି௭ ି௭ ିଶ ି௭
第三章 21 第三章 21 ・学習の関数を確率の間違い具合で更新する = ୢ ୢ௭ ୢ௭ ୢ௪
= ୢ ୢ௭ ୢ ୢ௪ ୢ ୢ௭ = ୢ ୢ௭ ଵ ଵାୣష = ି௭ ିଵ ି௭ ିଶ ି௭ ି௭ ିଶ ି௭ ି௭ ି௭ ି௭ = ଵ ଵାୣష ିଵାଵାୣష ଵାୣష = ଵ ଵାୣష ଵ ଵାୣష ି௭ に書き直すと より ୢ ୢ௭ ୢ ୢ௪ ・ロジスティック回帰 – シグモイド関数のwでの微分
第三章 22 第三章 22 ・学習の関数を確率の間違い具合で更新する 中略 ・ロジスティック回帰 – 負の対数尤度関数の最小化(微分して0) シグモイド関数の微分を代入して、角括弧の中を整理
約分して分子を計算すると = 間違えた差分をデータで重みづけした値が 0となれば目的の関数は最小を取る
第三章 23 第三章 23 ・ロジスティック回帰 – 使う 今回は計算の都合上Z=wxとしましたが、 実際にはwx+bと切片項をつけます 切片項に関してもwと同じようにbに関し
て微分して求めます y=(1,0) x=(180,155) σ(wx + b)を使って微分を求め代入 w=-315.78 b=1.885 それぞれのxの地点で綺麗に1,0へ変換できています 分類ラベルが複数の場合 1対全で分類