2018/05/19ににぎわい交流館AUで行われた秋田県診療放射線技師会にてdeep learningについて講演させて頂いた際の資料になります。若干補足も加えてあります。
少しでも参考になれば幸いです。
以下に各スライドについて補足します。
p7: スライドの画像はAIをGoogleで画像検索してトップにでてくる画像です。この他にも脳の画像がたくさん出てきておりました。AIと聞くと何故か脳のイメージが出てきてしまうのは、やはり何となく『人間の頭脳を模擬している』というAIに対するイメージがあるのだと思われます。
p.10: AIの定義は広義に解釈可能ですので、単にAIと言っても中身の実態がどうなのかは不明です。AIと聞くとなんかすごそうではありますが、実態がどうなっているかが大事ですので、必要以上に物怖じしないほうがいいでしょう。
p13, 14: このケースでは学習のための教師データのある“教師あり学習”を例にあげておりますが、機械学習の種類としては“教師なし学習”や“強化学習”というものもあります。
p21, 22: 『深ければ深いほど複雑な表現ができる』というのは半分間違いで、実際には十分に広い(ノード数の多い)隠れ層があれば3層のネットワークで任意の非線形関数を近似できることが数学的にもわかっております。
p23: 『3層のネットワークで〜』に関連する1つの面白い検証を紹介しました。青枠が所謂深いネットワークで学習したもので、オレンジの枠がその深いネットワークの出力した値を教師として浅いネットワーク(SNN)で学習させた時の結果です。SNNでも深いネットワークと近い成績が出ており、深いネットワークをSNNが模倣できているといえます。
p24: しかしながら、いざ本当に学習したいことを教師としてSNNで学習しようとすると過学習などが起きて学習が上手くいきません。なお、講演当日この辺の説明が若干しどろもどろになってしまったことをこの場を借りてお詫び申し上げます。
p25, 26: 『深いネットワークを組むことで上手く学習ができるようになった』というのが正解です。ただ実際にはdropout, batch normalizationなどの上手く学習するための技術が発達したため、上手くいくようになったという側面もあります。
p29: youtubeの動画のスクリーンショット1000万枚を1週間かけて学習させ、人とか猫の画像に対する反応を可視化すると人の顔とか猫の顔が出てきたという研究です。それをもって認識したとするかどうかは議論がありそうですが。
p30: やはり世間に広まったきっかけとして大きい出来事の1つはイ・セドルとAlphaGoとの対局だったのではと考えております。実際にはAlphaGoはdeep learningを利用して強化学習を行っているので、deep learningの例としては少し特殊なのですが。
p35: 実際にはdeep learningの利用範囲はもっと広くて、自然言語処理や薬に使えそうな分子の予測などにも使われております。
p37: この論文数のトレンドは2018/5/14にpubmedで検索した結果ですので、2018年の数値はまだ伸びるかと思います。恐らく2017年の倍くらいまで年末までに伸びるのではないでしょうか。
p40: 検索のクエリが悪かったのか病理画像や内視鏡まで引っかかっておりますが、大雑把なサーベイですのでご容赦下さい。
p41: その他の疾患としては結核、白質病変、骨関節炎、統合失調症、脳卒中、B型肝炎、自閉症などがありました
p43: MR T1 FLAIRの画像からグリオーマにおける遺伝子変異を予測する研究です。グリオーマにおいて遺伝子変異のタイプを判別することは診断を確定してその後の治療方針を決定する上で重要になります。deep learning(この研究ではresidual networkというアーキテクチャを使っています)を用いることでその判別が9割もの精度でできるようになったという研究です。
p44: 患者の年齢・性別・住所やMRI上でのコントラストの情報からその患者がルーチンのプロトコルで撮像するべきか腫瘍用のプロトコルで撮像するべきかを判別する研究です。
p46: 領域抽出の1例としてCTから肝臓を抽出する研究を挙げましたが、その他にもいろいろな領域に適用した研究が数多く行われています。
p47: 急性脳虚血の治療介入前の画像からその後のfollow-upの画像上で脳梗塞になった部位を予測する研究になります。介入前の画像からその患者の予後を、しかも梗塞の部位・位置を予測するというなかなか衝撃的な研究です。
p50: PET/CTにおける吸収補正で使うμ-mapをPET画像から予測するという研究です。実際には計算で求めたμ-mapもネットワークに与えているようです。
p54: アミロイドPETで統計画像解析に用いるテンプレートを個人のPET画像から予測する研究です。MRIを使って作ったテンプレートと遜色ないテンプレートが生成できております。
p57: 特に医用画像の分野でこれをやるのは超大規模な多施設共同研究や国家的なプロジェクトでもやらなければ無理だと思います。
p58, 59: データ拡張は医用画像分野でも常套手段になりつつありますが、データ拡張をしたとしても元のサンプルサイズは少なくとも100以上ですので、稀少な事象についてdeep learningで学習するのは困難です。
p61: ネットワークの中身は人間には理解不能な信号になっており、高精度で判別等ができたとしても結果の解釈が困難という話です。
p64: 可視化については補足資料にもある『ディープラーニングの判断根拠を理解する手法』記事がわかりやすくまとまっており、おすすめです。
p68: 攻撃を受けた際の責任の所在などは議論が必要ですが、攻撃を受けるものだということは認識しておく必要があります。攻撃やそれに対する防御の研究は活発に行われている最中ですので、そうした研究にも注視する必要があるかと思います。
p71: 病気の診断が即時にできるだけでなく、画像生成の技術などによってあらゆる画像が最小限の撮像で得られるようになるかと予想しております。
p72: 有用性やスループットが劇的に向上することで、患者さんの負担も軽くなり、医師も得られる情報が多くなって診療をしやすくなり、スタッフの負担も軽くなって、本来するべき仕事に集中できるようになるのではと考えております。
p74: 人の目でも分からない場合の問題もありますが、どちらにしても結果を鵜呑みにせず、常にチェック・検証をしていく必要があると思います。
p76, 77: QCは撮像パラメータの最適化だけではなく、日々の保守業務や患者さんへの丁寧な説明など、心と体を持たないdeep learningではできない部分が多く、deep learningが普及しても放射線技師の役割はより重要になっていくかと考えております。