ChatGPTと医療の現在地 [⼤切な御共有] 変化が⼤変速い分野です。 下記から1ヶ⽉以上空いている場合には、恐れ⼊りますがご⾃⾝でも最新の情報をご確認ください。 first published on: 2023/7/10, last updated on: 2023/8/31 アイリス株式会社 沖⼭ 翔
4 再配布・2次利⽤は 可 です。 ChatGPT以前と、ポストChatGPT 時代の医療 “ChatGPTは、医師にとって 聴診器よりも重要な存在になる” スタンフォード⼤ 医学部教授 Robert M. Pearl (専⾨:組織⾏動論) images cited on: July. 1, 2023, from: Stanford University - https://www.gsb.stanford.edu/faculty-research/faculty/robert-m-pearl
5 再配布・2次利⽤は 可 です。 ChatGPTとUSMLE(⽶国医師国家試験) (2022.12) USMLEで合格のボーダー付近に到達した GPT 3.5モデルでの検証 Harvard MGH, ブラウン⼤学, OpenAIほか 研究チームはオールスター “Potential for AI-Assisted Medical Education” タイトルへの配慮と妙 Kung TH, et al. Performance of ChatGPT on USMLE: Potential for AI-Assisted Medical Education Using Large Language Models. medRxiv. 2022:2022.12.19.22283643.
9 再配布・2次利⽤は 可 です。 なお⽇本の医師国家試験にも合格 ⾦沢⼤学 野村先⽣ほか による研究(右図) 2021年度の問題によるプロンプトチューニングの後に、 2022年度の問題で性能評価を⾏った 臨床・⼀般・必修問題すべてに合格。 ChatGPT(3.5)は禁忌肢を多数選択 images cited on: July. 1, 2023, from: 読売新聞 - https://www.yomiuri.co.jp/science/20230509-OYT1T50319/ Tanaka Y, et al. Performance of Generative Pretrained Transformer on the National Medical Licensing Examination in Japan. medRxiv. Published online April 24, 2023:2023.04.17.23288603.
12 再配布・2次利⽤は 可 です。 ChatGPT以外の、⼤規模⾔語モデル (LLM = Large Language Models) Zhao WX, et al. A Survey of Large Language Models. arXiv:230318223. Published online June 29, 2023. 2017 Transformer 〜 〜 ⾚枠2箇所は追記。 他は論⽂より引⽤
13 再配布・2次利⽤は 可 です。 モデルと学習データセットの統合(Meta社 “LLaMA” の例) • 緑線:モデルの統合 • ⻘線:学習データ統合 Zhao WX, et al. A Survey of Large Language Models. arXiv:230318223. Published online June 29, 2023.
17 再配布・2次利⽤は 可 です。 LLM(⼤規模⾔語モデル)の学習元データ ウェブサイトが中⼼で、会話データや書籍由来もあり。 ただし会話データや書籍の中⾝、データ由来までは公開されていないものも Zhao WX, et al. A Survey of Large Language Models. arXiv:230318223. Published online June 29, 2023.
37 再配布・2次利⽤は 可 です。 npj Digital Medicine:医療現場へのAI導⼊研究 (2023.6) AI導⼊の、阻害因⼦と促進因⼦を調査 42編のシステマティックレビュー ⾃⼰決定権喪失への恐れ 阻害因⼦の例: 医療従事者へのAI活⽤トレーニング 促進因⼦の例: Lambert SI, et al. An Integrative Review on the Acceptance of Artificial Intelligence among Healthcare Professionals in Hospitals. npj Digit Med. 2023;6(1):1-14.
39 再配布・2次利⽤は 可 です。 JAMA Intern Med:ChatGPTと医師の⽐較評価 (2023.4) いずれも ChatGPT が医師を上回る 回答の、正確性と共感⼒を評価 ChatGPTが有意に⾼品質(p < 0.001) 回答の質:78.5% vs 22.1% ChatGPTが有意に共感的(p < 0.001) ただしテキストのみでの共感性評価 回答の共感性:45.1% vs 4.6% Ayers JW, et al. Comparing Physician and Artificial Intelligence Chatbot Responses to Patient Questions Posted to a Public Social Media Forum. JAMA Internal Medicine. 2023;183(6):589-596.