Upgrade to Pro — share decks privately, control downloads, hide ads and more …

神経生理学の視点で見るニューラルネットワーク入門

 神経生理学の視点で見るニューラルネットワーク入門

takyamamoto

April 13, 2020
Tweet

More Decks by takyamamoto

Other Decks in Science

Transcript

  1. 目次 • 機械学習とディープラーニング • ニューラルネットワークと脳 • 脳とニューロンについて • ニューロンのモデルについて •

    発火率モデルからニューラルネットワークへ • ニューラルネットワークの学習と脳の学習 神経生理の内容 薄くないですか? それでは、本題に入っていきます。目次はこんな感じです。1つ1つをまともに解説しよう とするとかなり時間がかかるので、超芳醇パンぐらいふわっとした内容しか話しません。 \ ハァイ /
  2. ディープラーニングすごいぜ! 歌えるボイスロイドです 画像認識 強化学習 画像の生成・変換 自動翻訳 (Krizhevsky et al., 2012)

    最近では私、きりたんもディープラーニングの力で上手に歌を歌えるようになりました。また、医療 への応用も様々な研究で試みられており (論文の紹介は略します)、将来的には実臨床でも一般的 に使用される技術となっていくと思います。 等々…
  3. 機械学習とディープラーニング 機械学習 (Machine Learning) データに基づいてコンピュータを学習させ、従来の単純なルール設定による計算な どでは困難とされる複雑なタスクの実行を可能にすることを目的する分野 ディープラーニング (Deep Learning) 人工ニューラルネットワークを用いた機械学習の1つの手法

    こんなの 説明が長い さて、このディープラーニングは多層の人工ニューラルネットワークを用いる機械学習の手法の1つ です。長ったらしい説明になりますが、機械学習とは、データに基づいてコンピュータを学習させ、 従来の単純なルール設定による計算などでは困難な複雑なタスクの実行を可能にすることを目標 とする学問分野です。
  4. 機械学習と人工知能 (AI) 研究費の重要性 人工知能・AI (Artificial Intelligence) 機械学習 (Machine Learning) ディープラーニング

    (Deep Learning) 近年では機械学習のことを通俗的に人工知能やAI (artificial intelligence) と呼称する場合 も多くあります。正しくは人工知能やAIの部分集合が機械学習ですね (個人的にこれまで機械学習を AIと呼称する人のことを理解できなかったのですが、最近では研究費を取ってくることの大切さを知り、生暖か い目で見ています)。
  5. 機械学習は望ましい関数を得ることが目的 = () : → または 入力 写像という呼び方の方が 私は好きです 出力

    → → ある入力 に対して 望ましい を出力するように 関数(あるいは写像) を 学習させる モデル 機械学習がどういうものなのか、もう少し言葉を付け足します。機械学習のタスクは様々ですが、簡 単に言えば、機械学習はある入力xを入れた時に望ましい出力yを生み出すような関数fを得ること を目的とします。関数を言い換えれば写像ですね。
  6. 機械学習は望ましい関数を得ることが目的 = () : → または 入力 出力の望ましさは主に 目的関数で定義します 出力

    → → ある入力 に対して 望ましい を出力するように 関数(あるいは写像) を 学習させる モデル データから望ましい関数を得る(モデルを訓練する)ことを「学習」と呼んでいます (一般用語での学 習と同一ではないので注意しましょう)。また、ディープラーニングがなぜナウなヤングにバカ受け かというと、十分な学習データを用意すれば他の手法では実現できないような複雑な関数を学習 できるためです。この辺は数理的な研究も進んでいますね。
  7. 例 : 動物の画像分類タスク 元画像 : Woman Yelling At A Cat

    一方でこの画像の右みたいなのはどうしようもないですね。 これはダメなモデルであり、適切に学 習できていないということになります。
  8. ニューラルネットワークと脳 人工ニューラルネットワーク (Artificial Neural Networks) 脳 (Brain) = ? ここからは

    脳の話をします さて、ニューラルネットワークですが、脳の情報処理を模していると言われます。間違いではないの ですが、説明が投げやりで混乱をきたしやすいです。この動画では一旦機械学習から離れ、脳とそ の主な構成要素であるニューロンについて解説した後にニューラルネットワークの話に戻る、という 形を取ることにします。
  9. 脳を構成する細胞 神経細胞 (ニューロン) 神経膠細胞 (グリア細胞) ミクログリア アストロサイト …など 生物の体の主な構成要素は細胞ですが、脳を主に構成する細胞は神経細胞とグリア細胞に大きく 分けられます。神経細胞のことを英語でニューロン

    (neuron)と言います。グリア細胞 (glia)には ミクログリアやアストロサイトなどの種類があり、重要な働きをしていますが、収集がつかなくなる ので本動画では省略します。 大脳皮質の1mm3には平均して 約5万個のニューロンがあります
  10. ニューロンの構造 髄鞘 (myelin) 軸索 (axon) 細胞体 (soma) 樹状突起 (dendrite) 私の頭部から出ているのは

    樹状突起ではありません 神経細胞の基本的な形態は次のようになっています。まず、核などの細胞小器官が集まる細胞体と いう部分があります。その細胞体から細く伸びるのが軸索です。軸索には髄鞘と呼ばれる構造があ る場合もあります。細胞体には樹状突起という突起があり、他のニューロンからの入力を受け取っ ています。
  11. 活動電位の発生 閾値電位 静止膜電位 時間 (ms) 膜電位 (mV) 刺激 いよいよ神経活動の勘所、活動電位の発生についてお話します。細胞間での情報伝達についてはこ の後でお話しますが、とりあえず他の細胞から樹状突起を通して「信号」を受け取ったとします。この

    「信号」は細胞体に伝わり、軸索小丘と言う部分で統合されます。ここでは統合された「信号」が膜電 位の上昇を引き起こしたとします。 ここからは ニューロンでのお話です 軸索小丘
  12. 活動電位の発生 閾値電位 静止膜電位 時間 (ms) 膜電位 (mV) 刺激 膜電位が閾値電位を超えました!このとき電位依存性Na+チャネルの開口割合の上昇により、Na+ の細胞内への急激な流入が起こっています。この現象を脱分極と言います

    (脱分極の過程においては、 Na+チャネルの開口による膜電位の上昇が次のNa+チャネルの開口を引き起こすという正のフィードバックが生 じていることが重要です)。 ファイヤー! 活動電位 脱分極
  13. 活動電位の発生 閾値電位 静止膜電位 時間 (ms) 膜電位 (mV) 刺激 活動電位 脱分極

    しかし、電位依存性Na+チャネルはずっと開いているわけではなく、すぐに閉口します。また、電位 依存性K+チャネルもNa+チャネルと同時に開口しているので、これらの影響により膜電位の低下が 起こります。これを再分極と言います。 きりたんも閉口します 再分極
  14. 活動電位の発生 閾値電位 静止膜電位 時間 (ms) 膜電位 (mV) 刺激 活動電位 脱分極

    また、この過程において0mVを超えて飛び出す部分をオーバーシュートと言います。 (…オーバーシュートと聞くと発散とは異なり何時かは減少するという意味に思います。昨今のCOVID-19では そういう期待を込めているのでしょうか)。 再分極 オーバーシュート
  15. 活動電位の発生 閾値電位 静止膜電位 時間 (ms) 膜電位 (mV) 刺激 活動電位 脱分極

    さらに進むと、膜電位は静止膜電位を下回ります。これを過分極と言います。その後、何も「信号」が 無ければ膜電位は静止膜電位へと戻ります。 再分極 オーバーシュート 過分極
  16. 活動電位の発生 閾値電位 時間 (ms) 膜電位 (mV) 刺激 活動電位 脱分極 なお、閾値電位ですが、これを超えなければ基本的に活動電位は発生しません。これを全か無かの

    法則といいます。要はステップ関数的な応答をするということですね。また、閾値電位は固定された ものではなく、あくまでNa+チャネルの正のフィードバックが引き起こされるのがこの辺り、という ことにも注意してください (逆に言えばNa+チャネルの正のフィードバックが引き起こされれば活動電位は生 じます (cf. Anode break excitation))。 再分極 オーバーシュート 過分極 ステップ関数 (閾値=0)
  17. シナプスにおける情報伝達 シナプスは大きく分けて2種類 電気シナプス 【機構】 Gap junctionという孔により細胞間でイオンのやり取りを直接的に行う 【利点】 高速な情報伝搬、双方向性による同期活動 化学シナプス 電気シナプスはGap

    junctionという孔で細胞を物理的に結合させることで形成されています。 Gap junctionを通してイオンのやり取りを直接的に行うことで高速な情報伝搬や同期活動の維 持などに役立っています。余談ですが、心筋細胞もGap junctionにより同期的な収縮が実現でき ていますね。 心筋は ドキドキ同期ですね
  18. シナプスにおける情報伝達 シナプスは大きく分けて2種類 電気シナプス 【機構】 Gap junctionという孔により細胞間でイオンのやり取りを直接的に行う 【利点】 高速な情報伝搬、双方向性による同期活動 化学シナプス 【機構】

    前細胞から神経伝達物質が放出され、それが後細胞の イオンチャネル型受容体に結合してイオンが流入する 【利点】 出力の興奮性・抑制性を神経伝達物質の種類で調整できる 入出力の大きさを変えやすい(可塑性に富む) …など ただし、中枢神経系でメインとなるのは化学シナプスです。これについてはこの後詳しく説明します が、機構と利点はこのようになっています。電気シナプスの方が早いので良さそうに思いますが、複 雑な処理や学習には化学シナプスが断然有利です。
  19. 化学シナプスにおける情報伝達 シナプス小胞 神経伝達物質 アスパラギン酸, グルタミン酸, GABA, グリシン, アセチルコリン, ドパミン, セロトニン

    など… さて化学シナプスにおける情報伝達の過程を要点だけ説明します。まず、神経終末にはシナプス小 胞という小さな袋が溜まっています。シナプス小胞の中には神経伝達物質と呼ばれる分子が存在し ます。なお、これらは細胞体で作られて神経終末まで運ばれてきたものです。 神経終末 (シナプス前部) シナプス後部
  20. 化学シナプスにおける情報伝達 シナプス小胞 神経伝達物質 アスパラギン酸, グルタミン酸, GABA, グリシン, アセチルコリン, ドパミン, セロトニン

    など… 活動電位が神経終末に到達すると電位依存性Ca2+チャネルが開口し、シナプス前部におけるCa2+ 濃度が上昇します。機序が複雑なので省略しますが、 Ca2+の流入によりシナプス小胞が細胞膜(シ ナプス前膜)と融合し、神経伝達物質がシナプス間隙に放出されます。 神経終末 (シナプス前部) シナプス後部 Ca2+ Ca2+ 電位依存性 Ca2+チャネル シナプス 間隙
  21. 化学シナプスにおける情報伝達 シナプス小胞 神経伝達物質 アスパラギン酸, グルタミン酸, GABA, グリシン, アセチルコリン, ドパミン, セロトニン

    など… 放出された神経伝達物質はイオンチャネル型受容体に結合し、イオンチャネルが開口することでイオ ン(表参照)がシナプス後細胞に流入することによりシナプス電流が発生します。こうして次の細胞へ 神経活動が伝搬します。 神経終末 (シナプス前部) シナプス後部 Ca2+ Ca2+ 電位依存性 Ca2+チャネル シナプス 間隙 イオンチャネル型 受容体 イオン イオン 神経伝達物質 主に流入するイオン 興奮性 (アセチルコリ ン, グルタミン酸など) Na+, K+ 抑制性 (GABA, グリシンなど) Cl- ※ 例外あります 画面が煩い
  22. ニューロンのモデルについて ニューロン コンパートメントは 一般的な用語なので注意しましょう (薬理学なんかでも使いますが 異なる文脈です) 軸索小丘だけ あるような形式 マルチコンパートメント モデル

    シングルコンパートメント モデル (https://slideplayer.com/slide/6975345/ より改変) ニューロンを複数のコンパートメントで離散化させたモデルをマルチコンパートメントモデル、単一 のコンパートメントのみで考えるモデルをシングルコンパートメントモデルと言います。シングルコン パートメントモデルは細胞体、もっと言えば軸索小丘の部分のみが存在しているようなものです。 コンパートメント シナプス
  23. ニューロンのモデルについて ニューロン マルチコンパートメントモデルは 扱いが難しいです 軸索小丘だけ あるような形式 マルチコンパートメント モデル シングルコンパートメント モデル

    以降の話は簡単にするためにシングルコンパートメントモデルのみを考えます。マルチコンパートメン トモデルを扱いたい人はNEURONなどのシミュレータを用いると良いでしょう (より正確にするために、 電子顕微鏡でニューロンの連続切片を撮影して3次元再構成し、得られたニューロンの3Dモデルを離散化して、さ らにパラメータを遺伝的アルゴリズムで決定する、という手法もあります (Egger et al., Neuron. 2019. など))。 コンパートメント シナプス
  24. Hodgkin-Huxley モデル 下の方にスクロールしていくとPythonのコードが書いてあります。1つ1つのブロックをGoogle Colab (Jupyter notebook) ではセル(cell)と言います。このセルは⌘/Ctrl + Enterで実行す ることができます。

    Markdownの セル コードのセル Google Colabのリンク: https://colab.research.google.com/github/takyamamoto/SNN-from- scratch-with-Python/blob/master/notebook/Hodgkin-Huxley.ipynb
  25. 発火率 と 発火率-電流曲線 線形関数 (linear function)、というのは2次元の場合に限れば直線 (一次関数)の形をしてい ます。非線形関数 (nonlinear function)というのは線形関数ではない曲がった形をしていると

    いうことですね。 Google Colabのリンク: https://colab.research.google.com/github/takyamamoto/SNN-from- scratch-with-Python/blob/master/notebook/Hodgkin-Huxley-FIcurve.ipynb 線形関数 非線形関数 入力電流 発 火 率 HHモデルの発火率-電流曲線 何とも雑な説明…
  26. 発火率モデルからニューラルネットワークへ 定義が多い ここでj番目の灰色のニューロンからのシナプス後電流の大きさを (I ij =) w ij x j

    とします。さらにピンク 色のニューロンの発火率をz i , 活性化関数をf(・), Rheobaseに影響するバイアスをb i とします。 1 1 … (⋅)
  27. 参考文献 • 小澤司,本間研一,大森治紀,他, 編. (2014). 標準生理学(第8版). 医学書院 • Li YC,

    Bai WZ, Hashikawa T. The neuroinvasive potential of SARS-CoV2 may play a role in the respiratory failure of COVID-19. J Med Virol. 2020. • Egger R, Narayanan RT, Guest JM, et al. Cortical Output Is Gated by Horizontally Projecting Neurons in the Deep Layers. Neuron. 2020. • Richards BA, Lillicrap TP, Beaudoin P, et al. A deep learning framework for neuroscience. Nat Neurosci. 2019.