Upgrade to Pro — share decks privately, control downloads, hide ads and more …

再現性の科学: 脳科学は実世界で役に立つか

Yuki Kamitani
January 27, 2023

再現性の科学: 脳科学は実世界で役に立つか

サロンLHS(2023.1.27)
再現性の科学: 脳科学は実世界で役に立つか 
神谷之康(京都大学 情報学研究科)

以下のスライドを編集し、新しいコンテンツを追加しました:
https://speakerdeck.com/ykamit/shi-yan-detajie-xi-zai-ru-men-lun-wen-wo-hueikuniyusu-nisinaitameni

Yuki Kamitani

January 27, 2023
Tweet

More Decks by Yuki Kamitani

Other Decks in Science

Transcript

  1. 『習慣と脳の科学』 Russel Poldrack の Hard to Break: Why Our Brains

    Make Habits Stickの 邦訳。神谷が監訳 なぜ悪い習慣を断ち切ることが難し いのか、どのようにすれば断ち切る ことができるのか 神経科学と心理学の歴史を繙ききな がら、学習、意思決定、自制心等に ついての最新の知見を紹介。行動変 容のための方策を議論 「ポスト再現性の危機」の科学書 データリテラシー 個々の研究の信頼性 2023/2/10配本予定 https://www.msz.co.jp/book/detail /09588/ 4
  2. 何が問題か 「不安 → 扁桃体の活動」&「扁桃体の活動」ゆえに「不安」?? 後件肯定の誤謬(?) 「強い匂い → 扁桃体の活動」もある ポルドラックはこれを誤った「逆推論(reverse inference)」と断じた

    なぜ逆か 標準的な脳画像研究(脳機能マッピング)では、実験者が操作する刺激や 課題(独立変数)の結果として脳がどのように反応するか(従属変数)を 調べる この実験デザインによる知見(「不安 → 扁桃体の活動」)をもとに、逆向 きの推論をしている、という批判 しかし、(現在でも多くの人が誤解しているが)脳活動から心理状態を推定す ること自体が誤っているわけではない(→ブレイン・デコーディング) 7
  3. 脳機能マッピングの標準的方法 脳画像の各画素値を実験条件のダミー変数で説明する線形回帰モデル : 脳画像の各画素(ボクセル)の強度の時系列(試行列) : 実験条件(刺激/課題のオン・オフ等)および共変量の時系列(デ ザイン行列) : 各要因の係数 計測データから、回帰係数

    を推定 脳全体の画素(>1万)について上記の回帰解析 各被験者の を元にグループ解析も。ランダム効果としての被験者 (のコントラスト)がゼロかの検定。多重比較補正して有意なボクセル・ クラスターを同定(「光る」脳部位) Satistical parametric map (SPM)とも呼ばれる。Karl Fristonらが確立 構造画像や安静時脳活動の特徴と被験者属性(疾患・健常など)の関係を 同様の手法で調べることも。BWAS(brain-wide association study) 8
  4. 統計検定・P値への過度の依存 再現性の危機の中心的問題 疑わしい研究慣行(Questionable Research Practices, QRPs) Pハッキング HARKing (Hypothesizing After

    the Results are Known) チェリーピッキング 検定の内在的問題 基準率に依存 わずかな効果量でもサンプルサイズが大きければ有意になる ランダムサンプリングの仮定(ランダム効果、一般化可能性) 10
  5. 「平均脳」にもとづく推論 脳イメージングでは、多数の被験者のグループ解析が一般的 グループ平均の脳マップはどの個人の脳マップとも似ていないことが多い 心理や行動(state, not trait)について、個体を超えたグループの「母平 均」に意味はある? 脳活動や行動は一義的には個体に属するもの グループの知見を個体に汎化するには「エルゴード性」が必要。だ が…↓

    Fisher, A. J. et al. Lack of group-to-individual generalizability is a threat to human subjects research. Proceedings of the National Academy of Sciences 115, E6106–E6115 (2018). http://doi.org/10.1073/pnas.1711978115 個体ごとにextensive に計測するアプローチを重視すべき(→Small is beautiful) Naselaris, T., Allen, E. & Kay, K. Extensive sampling for complete models of individual brains. Current Opinion in Behavioral Sciences 40, 45–51 (2021). https://doi.org/10.1016/j.cobeha.2020.12.008 12
  6. 再現性の危機 古くから繰り返し議論されてきたが2010年代になって心理学を中心に問題が表 面化し、改革が進められてきた。書籍や解説論文も多数発表されている 書籍 Chambers, C. The Seven Deadly Sins

    of Psychology: A Manifesto for Reforming the Culture of Scientific Practice. (Princeton University Press, 2019). 【邦訳】クリス・チェインバーズ. 心理学の7つの大罪――真の科学で あるために私たちがすべきこと. (みすず書房, 2019). Ritchie, S. Science Fictions: How Fraud, Bias, Negligence, and Hype Undermine the Search for Truth. (Metropolitan Books, 2020) なかむらかずや. 書評|壊れた科学に泣かないで|"Science Fictions" by Stuart Ritchie. カタパルトスープレックス (1603323000). https://www.catapultsuplex.com/entry/science-fictions 13
  7. 日本語解説論文・プレゼンテーション 池田功毅 & 平石 界. 心理学における再現可能性危機:問題の構造と解決策. Japanese Psychological Review (2016).

    https://www.jstage.jst.go.jp/article/sjpr/59/1/59_3/_pdf/-char/ja 平石 界 & 中村 大輝. 心理学における再現性危機の10年. 科学哲学 54, 27–50 (2022). https://doi.org/10.4216/jpssj.54.2_27 元木康介, 米満文哉, & 有賀敦紀. 消費者行動研究における再現性問題と研究 実践. 消費者行動研究 (2021). https://www.jstage.jst.go.jp/article/acs/27/1_2/27_202103.002/_article/- char/ja/ Yuki Yamada. 再現性問題は若手研究者の突破口. (2020). https://www.slideshare.net/momentumyy/ss-238482877 14
  8. 再現性とは 同じデータ 異なるデータ 同じ分析法 Reproducibility (再生性) Replicability(再現性) 異なる分析法 Robustness(頑健性) [Generalizability

    (一般化可能性)] 同じ実験デザインで新たにデータを取得し(直接追試; 概念的追試)、 同じ方法で分析したとき、同じ結果になるか(同じ方向で有意か) 分野によるが、心理学では上のような用語の整理が定着。「一般化可能 性」はややレイアが異なる(異なる実験操作や母集団も想定) 個人的にはReproducibility と Replicability が語感的に逆のような気もする 「再現性の危機」で問題となるのは主にReplicabilityだが、表現として は"Reproducibility"が使われることが多い 15
  9. Reproducibility (再生性、再実行可能性) 同じデータを同じ分析法で解析したとき同じ結果が得られるか 論文のデータやコードが公開されているか 公開されたコード・データで同じ結果を再生できるか 青木俊太郎. オープンサイエンスのすすめ. 日本認知心理学会セミナー (2019). https://speakerdeck.com/s_aoki/open-science-at-kamitani-

    lab-2019 Robustness(頑健性) 同じデータを異なる分析法(前処理の方法、統計モデルのパラメータな ど、恣意的に決められる要素を変更)で解析したとき、(ほぼ)同じ結果 が得られるか 自由度の高い分析法を用いているのに、報告の際、都合のいい結果をチェ リーピッキングしていないか(→ QRPs) 可能な分析法を網羅的に試す。頑健性テスト(robustness test)、マルチ バース分析(multiverse analysis)、仕様カーブ分析(specification curve Analysis)など 16
  10. Generalizability(一般化可能性) 一般化可能性の危機 Yarkoni, T. The generalizability crisis. Behavioral and Brain

    Sciences (2020). https://doi.org/10.1017/S0140525X20001685 未測定の変数に起因。被験者の属性(種、国籍・文化など)や実験条件 (刺激の種類、など)を超えて、知見が一般化可能か 他の3つは同一の実験・母集団を前提にするので、やや異なるレイアの概念 Yarkoni(神経科学ではNeurosynthの作者として有名)は、研究者の自己 欺瞞に失望して、この論文を出した後アカデミアを去った 17
  11. 心理学における再現性の検証 Open Science Collaboration. Estimating the reproducibility of psychological science.

    Science (2015). https://doi.org/10.1126/science.aac 4716 心理学の主要ジャーナル3誌 (Psychological Science, Journal of Personality and Social Psychology, Journal of Experimental Psychology: Learning, Memory, and Cognition)に2008年に掲載された 97報の研究を追試 36%でのみで、オリジナルと同じ方 向で統計的に有意 効果量は、オリジナルの約半分 18
  12. 同じような行動実験でも、経済学の行動実験の再現率は61%、実験哲学(哲 学者による行動・心理実験)は78% Camerer, C. F. et al. Evaluating the replicability

    of social science experiments in Nature and Science between 2010 and 2015. Nat Hum Behav 2, 637–644 (2018). Cova, F. et al. Estimating the Reproducibility of Experimental Philosophy. Rev Phil. Psych. (2021). 1000回以上引用されている著名な論文の再現性がない(社会的プライミン グ、ステレオタイプ脅威、パワーポーズ、自我消耗、顔面フィードバック 仮説、「目」の効果、などなど)。条件によっては効果があるが、効果量 はとても小さい 再現性のない研究ほど引用される。ジャーナルの「ランク」が高いほど信 頼性が低い Serra-Garcia, M. & Gneezy, U. Nonreplicable publications are cited more than replicable ones. Science Advances (2021). Brembs, B. Prestigious Science Journals Struggle to Reach Even Average Reliability. Frontiers in Human Neuroscience (2018). 19
  13. 神経科学研究の再現性 過去の研究の再現性を検証する目立った動きはない 動物実験(とくにサル)では、実験系を厳密に再現することが難しい 「モデル動物」・プロトコル標準化でよいのか? 異質性・多様性も重要 Voelkl, B. et al. Reproducibility of

    animal research in light of biological variation. Nat Rev Neurosci (2020). ニューロンやサンプルの恣意的な選択 「サルは2頭でいいんですか」(→一般化可能性) 効果量・検出力の分析から、ポジテイブな結果の半数以上は偽陽性と推測 される(認知神経科学) Szucs, D. & Ioannidis, J. P. A. Empirical assessment of published effect sizes and power in the recent cognitive neuroscience and psychology literature. PLOS Biology (2017). 20
  14. VBM研究(脳構造と行動[trait]の相関)の低い再現性 Boekel, W. et al. A purely confirmatory replication study

    of structural brain-behavior correlations. Cortex (2015).https://doi.org/10.1016/j.cortex.2014.11.019 Kharabian Masouleh, S. et al. Empirical examination of the replicability of associations between brain structure and psychological variables. eLife (2019).  https://doi.org/10.7554/eLife.43464 安静時脳活動・機能結合(resting state brain activity, functional connectivity)「バイオマーカー」の低い再現性 Noble, S. et al. Influences on the Test–Retest Reliability of Functional Connectivity MRI and its Relationship with Behavioral Utility. Cerebral Cortex (2017). https://doi.org/10.1093/cercor/bhx230 He, Y. et al. Nonreplication of functional connectivity differences in autism spectrum disorder across multiple sites and denoising strategies. Human Brain Mapping (2020).  https://doi.org/10.1002/hbm.24879 21
  15. 神経科学研究の一般化可能性 標準的な行動課題(恐怖条件づけ、遅延見本合わせ課題、ストップシグナ ル課題、など)で得られた知見は、自然な条件下の行動に汎化できるか (生態学的妥当性) 「コントロールされた実験」の再現しやすさとのトレードオフ Nastase, S. A., Goldstein, A.

    & Hasson, U. Keep it real: rethinking the primacy of experimental control in cognitive neuroscience. NeuroImage (2020). https://doi.org/10.1016/j.neuroimage.2020.117254 Sonkusare, S., Breakspear, M. & Guo, C. Naturalistic Stimuli in Neuroscience: Critically Acclaimed. Trends in Cognitive Sciences 0, (2019). https://doi.org/10.1016/j.tics.2019.05.004 in vitroからin vivoへ、線虫、ハエ、マウスからヒトへ汎化できるか 22
  16. Questionable Research Practices (QRPs) あからさまな研究不正(ねつ造、改ざん、盗用、等)ではないが、研究者 の価値観に違反する研究行動で、研究成果の信頼性に害を及ぼす研究実践 QRPsという言葉は、John, Loewenstein, Prelec(2012)で広まった 調査の結果、回答者の半数以上のQRPs行っており、そのような行

    為が問題だとは認識していなかった 代表的なQRPsであるPハッキングと任意停止(optional stopping)が、オラ ンダで初めて、研究の誠実性に関する行動規範に違反と認定される Lakens, D. The 20% Statistician: P-hacking and optional stopping have been judged violations of scientific integrity. The 20% Statistician (2020). ネカト(捏造、改ざん、盗作)と同等の研究不正とされる日も近いか 25
  17. 代表的QRPs p-hacking 人為的な方法で、標準的な有意性の基準(通常α=0.05)を満たす結果を得 る可能性を高める行為。例えば、複数の分析を行い、p<.05のものだけを報 告する、 HARKing 'Hypothesizing After the Results

    are Known'(HARKing)。研究の結果に 基づいて得られた仮説をあたかも事前の仮説であったかのように報告する 行為 FORRT. A community-sourced glossary of open scholarship terms. Nat Hum Behav 1–7 (2022). Preprint 名付けることの重要性。p-hackingやHARKingというキャッチーな名前によって 一気に問題が可視化された で、結局何が問題かというと‥ 26
  18. Researcher degree of freedom (研究者自由度) 論文には報告されないデータ収集と分析の自由度があり、偽陽性率を最大5%と する名目にもかかわらず、実質的に、どのような研究でも「統計的に有意」な 結果を発表できてしまう Simmons, J.

    P., Nelson, L. D. & Simonsohn, U. False-Positive Psychology: Undisclosed Flexibility in Data Collection and Analysis Allows Presenting Anything as Significant. Psychol Sci 22, 1359–1366 (2011). https://doi.org/10.1177/0956797611417632 特に脳イメージング研究では、解析段階の自由度が高い 最近の241件のfMRI研究において、方法論の報告と方法論の選択をレビュ ー。研究の数とほぼ同数のユニークな分析パイプラインが存在 Carp, J. The secret lives of experiments: Methods reporting in the fMRI literature. NeuroImage 63, 289–300 (2012). https://doi.org/10.1016/j.neuroimage.2012.07.004 27
  19. 研究者自由度が偽陽性率にどのような影響を与えるか Simmons et al., (2011), Table 1 a)従属変数の選択、b)サンプルサイズの選択、c)コントロール変数(共 変量)の使用、d)実験条件のサブセットの報告、という4つの一般的な自 由度とその組み合わせの影響を評価

    ランダムなデータ(効果は存在しない)を生成し、少なくとも1つが有意水 準以下となる割合を表示 すべて組み合わせると、p<0.05の有意水準(名目5%の偽陽性率)で、60%を 超える偽陽性が生じる 28
  20. Optional stopping (N増し)の効果 Simmons et al., (2011), Fig 1 で有意になるまでN増ししたときの偽陽性率を計算

    横軸:一回に追加する観測数 nの初期値:10か20 有意性が得られるか、n=50で停止 n=10から始め1足すごとに検定すると、22.1%の偽陽性率(名目5%) 29
  21. ただし、 のときだけN増しすれば偽陽性はさほど高くな らない。N増しは再現性の低さの主要因ではないかも(?) Murayama, K. et al. Research Practices That

    Can Prevent an Inflation of False-Positive Rates. Pers Soc Psychol Rev 18, 107–118 (2014). https://doi.org/10.1177/1088868313496330 ここでは、n=50で停止しているが、ずっと続ければいつかほぼ確実に有意 になる(偽陽性率100%!) 母平均の差や相関がピッタリ0ということは普通ない どんな小さな差や関係(効果量)でもNを増やせば確実に有意になる: 相関係数0.1でも、N=400でp<.05 どのような効果量に意味があるかを考慮し、事前にNを決めておくべき (→ 最小関心効果量 [minimum effect size of interest]、検出力分析、 サンプルサイズ設計) 逐次解析(sequential analysis)やベイズファクターなど、事前にNを決め ない方法もあるが、これらの方法は、サンプルサイズ以外の点でより緻密 な事前設定や仮定の選択が必要 研究者自由度を縛らない限り問題は解決しない 30
  22. Why Most Published Research Findings Are False Ioannidis, J. P.

    A. Why Most Published Research Findings Are False. PLoS Med (2005). https://doi.org/10.1371/journal.pmed.0020124 再現性が広く議論される以前に、統計検定のロジック、サンプルサイズの小 ささ、実験デザインの自由度、インセンティブ・競争、などがもたらす研 究の再現性の低さについて、シンプルなモデルを用いて議論した論考 統計検定(P値)は、finding(ここでは「統計的に有意な」研究成果)の正し さを保証するものではない むしろ、多くの分野では、主張されているfindingは、単にバイアスを表現 したものである(Null field, 虚無分野) 32
  23. モデルの設定 (Ioannidis, 2005) : 分野で調査している関係(仮説)の数 : 事前オッズ。真の関連と偽の関連の数の比。基準率: 研究成果(findings): 統計的に有意な関係(仮説)。※実際には有意で ない結果も重要だが : 第一種過誤(偽陽性)率。実際には関係がないのに関係が「ある」

    (統計的に有意)と主張してしまう確率。統計検定の有意水準 : 第二種過誤(偽陰性)率。実際には関係があるのに「ない」と主張し てしまう確率 : 検出力(Power) : Positive predictive value(陽性的中率)。主張された研究成果 (統計的に有意な関係)が真の関係である確率 33
  24. 感染症検査でおなじみのロジック 感染症検査 統計検定 検査で陽性 統計的に有意 PPV: 検査で陽性のときに実際に 感染している割合 PPV: 統計的に有意なとき真の関係であ

    る割合 有病率が低ければPPVは小さい、 すなわち、検査で陽性でも感染の 確率は小さい 事前オッズ が小さければPPVは低い、 すなわち、統計的に有意な結果でも真で ある確率は低い 「有意水準 で検定した結果は95%正しい」 検定だけでは結果の正しさは保証されない(統計モデルの仮定が正しく、 QRPsによるバイアスがないとしても) 35
  25. 統計的に有意だが偽である可能性が高い研究 1. サンプルサイズが小さい(検出力 が小さい) 2. 効果量が小さい(検出力 が小さい) 3. 検証された関係の数が多く、事前に選択されていない。「確証的」ではな く「仮説生成的」である(事前オッズ

    が小さい) 4. 意外性のある研究(事前オッズ が小さい) 「途方も無い主張には、途方も無い証拠が求められる」(カール・セ ーガン) 「素人発想、玄人実行」(金出武雄)の後半がとくに重要 5. デザイン、アウトカム、分析方法の柔軟性が高い(バイアスが大きい、 ) 6. 金銭的その他の利益によるバイアスが大きい(バイアスが大きい、 ) 7. 分野がホットである(独立した研究が多い、 ) 39
  26. 3. バイアス( )を下げる 分野・研究室の研究慣行の見直し(疑わしい研究慣行(Questionable research practices、QRPs) 事前登録による研究者自由度の抑制 多重比較補正 混合モデル等によるデータ構造の適切な表現 因果推論による交絡・バイアスへの対処、実験デザイン

    4. 事前オッズ( )の検討 分野のシステマティック・レビュー、メタアナリシス、Introductionの 重要性 探索的研究と確証的研究の区別 ベイズ推論によるモデルの不確実性の表現 41
  27. 統計学 vs. 機械学習 Bzdok, D., Altman, N. & Krzywinski, M.

    Points of Significance: Statistics versus machine learning. Nature Methods 15, 233–234 (2018). 推論(Inference):データ生成過程をモデル化し、パラメータ推定、仮説 検定。通常1標本(1データセット)で完結 予測(Prediction):未観測のデータや将来の挙動を予測(out-of-sample prediction)。独立データで評価 統計学は推論を重視、機械学習や予測を重視 : 統計学 → (不偏推定) 機械学習 → (汎化誤差) 42
  28. 説明より予測を選ぶ Yarkoni, T. & Westfall, J. Choosing Prediction Over Explanation

    in Psychology: Lessons From Machine Learning. Perspectives on Psychological Science 12, 1100–1122 (2017). 心理学は、行動の原因を説明することにフォーカス。従来の統計モデルは 心理学的メカニズムの複雑な理論を提供するものの、将来の行動を予測す る能力がほとんどない 「適合度」や回帰係数の大きさや方向は、予測を保証しない 未観測データ(モデル適合に使われなかった「サンプル外」データ) に対するモデルの予測で評価すべき バイアス-バリアンス・トレードオフ、オーバーフィッティング、交差検証 (cross valuidation)、正則化などの機械学習の考え方が有用 機械学習分野の原理と技術が、心理学をより予測的な科学にする 短期的に予測に注力することは、長期的に行動の原因を説明する能力を向 上させることができる(かも) 44
  29. 二度漬けの恐怖 二度漬け(Double dipping): モデル・変数の選択やモデルのフィットに用いられ たのと同じデータを使ってモデルを評価することで、歪んだ記述統計や無効な 統計的推測など、バイアスが生じること "Double dipping"「二度漬け」は下の論文で有名になった Kriegeskorte, N.

    et al. Circular analysis in systems neuroscience: the dangers of double dipping. Nature Neuroscience 12, 535–540 (2009). 串カツの「二度漬け禁止」のように、海外でも一度かじったチップを ソースに再び漬けることを指す Seinfeld: Double Dipped データ操作による論理的帰結にも関わらず、データそのものが持つ情報と 勘違いする ランダムデータに置き換えても同じような結果が出る 二度漬による偽陽性は、当然、再現性が高い。追試して解決する問題 でない 51
  30. 機械学習では特に要注意 訓練データをそのまま使ってモデルをテストすれば、当然「予測精 度」は高くなる 意外と気づかないのは、データ全部を使って特徴選択(遺伝子やボク セルの選択)した後、データを訓練セットとテストセットに分けるこ とで生じる「情報漏えい」 前処理も含めてテストデータと訓練データと分けて扱う事が必要 大羽成征. 遺伝子発現データに基づく予測と推定:言いたいこと と言えること.

    統計数理 405–423 (2006). https://www.ism.ac.jp/editsec/toukei/pdf/54-2-405.pdf Oba, S. 言いたいことと言えること talk at ATR 神谷研セミナー (2008). https://www.slideshare.net/ShigeyukiOba/talk- at-atr-200812 時系列データでは、時間的に隣接するデータを訓練・テストセットに 分けると、時系列の相関により情報漏えいが起こって、spuriousに高い 予測精度がでる 52
  31. 重回帰分析のモデル選択も要注意 AICやBICなどでモデル選択した後、同じデータで選択されたモデルの 検定を行うとバイアスが生じる。別データを使わず対処する方法も研 究されている 竹内一郎. データ駆動型科学のための選択的推論(2019). https://www.ieice.org/~sita/forum/article/2019/201903231310. pdf Voodoo correlation:

    統計的に有意だった変数(脳画像の画素など)を選択 し、同じデータを使って課題との相関係数を計算すると、データのS/Nから 考えてありえない高い相関になる Vul, E. et al. Puzzlingly High Correlations in fMRI Studies of Emotion, Personality, and Social Cognition. Perspect Psychol Sci 4, 274–290 (2009). http://dx.doi.org/10.1111/j.1745-6924.2009.01125.x https://escholarship.org/content/qt92v2k0hm/qt92v2k0hm.pdf 二度漬けは偽陽性への最速のショートカット 53
  32. しかし、 鳥類でそれまで基底核と考えられていた領域にも,哺乳類の新皮質に相当 する領域が多く含まれていることがわかり、2004年に多く部位が名称変更 魚類や両生類,爬虫類の大脳に相当する領域がある。哺乳類が新しく獲得 した構造ではない いわゆる「辺縁系」が情動に特化した部位ではない 篠塚一貴, 清水 透. 比較神経科学からみた進化にまつわる誤解と解説.

    心 理学ワールド 17–20 (2016). Boraud, T., Leblois, A. & Rougier, N. P. A natural history of skills. Progress in Neurobiology 171, 114–124 (2018). 皮質基底核ループ などが、「人間らしい」精緻な運動や実行機能、習慣行動な どに関与しており、3つの部位に切り分けることではヒトの行動・心理を理解で きない 62
  33. 脳は(3つではなく)一つ リサ・フェルドマン・バレット. バレット博士の脳科学教室 7 1/2章. (2021). 三位一体脳説は現代の神話 〈理性〉対〈本能と情動〉という図式はプラトン以来、西欧文化において 人間の行動の説明として用いられてきた ダーウィン『人間の由来』

    人間は理性的思考が手なずけている内なる太古の野獣を宿す 本能と情動の抑制できれば合理的で責任ある行動? 合理性とは? 情動の影響を受けないことだと一般に考えられているが、危険が差し 迫っているときに恐れを感じるのは合理的 身体予算管理、生存、繁殖 合理性は、脳のもっとも重要な仕事である身体予算管理、すなわ ち水分、塩分、グルコースなどの、われわれが毎日利用してい る、体に不可欠の資源の管理という観点からうまく定義できる。 この観点からすると、合理性とは資源の消費や蓄積を通じて、直 近の環境のもとで繁栄することを意味する。 63
  34. 二重過程理論の見直し Evans, J. St. B. T. & Stanovich, K. E.

    Dual-Process Theories of Higher Cognition: Advancing the Debate. Perspect Psychol Sci 8, 223–241 (2013). https://doi.org/10.1177/1745691612460685 二重過程理論者の著者らもシステム1、2の使用を中止。タイプ1、2処理と いう古い用語に戻した。「システム」は脳内の一連の処理・入出力を連想 させる タイプ1は、必ずしも進化的に古いとされる領域にあるとは限らない 意識的な思考が必ずしも行動を制御しているとは限らない タイプ1の過程が常に認知バイアスの原因となり、タイプ2の過程が常に正 しい反応の原因となる、というのは誤り 64
  35. おわりに 1. データ取得法・分析法は事前に決めよう 予備実験・解析は柔軟でよいが、統計的推論のための実験・データ解 析では自らの自由度を縛る 2. 独立データで汎化・再現性を調べよう 1データセットで確証的研究は困難 せめてクロスバリデーションしよう 3.

    統計手法/モデルに思考を乗っ取られないようにしよう "All models are wrong, but some are useful" (George Box) 研究対象についてあなたの方がよく知っているはず 違和感をもとに、より良い手法を探索しよう 4. 脳を見たら心的現象の本質がわかるはずという発想はやめよう 少なくとも現状は、ほとんどわからない 本質がわからなくても予測や制御はできる(場合がある) 現実世界での予測や制御のテストをパスできるように基礎研究を頑健 にしよう 68