$30 off During Our Annual Pro Sale. View Details »

文献紹介201902_Effectively Crowdsourcing Radiology Report Annotations

T.Tada
February 19, 2019

文献紹介201902_Effectively Crowdsourcing Radiology Report Annotations

T.Tada

February 19, 2019
Tweet

More Decks by T.Tada

Other Decks in Technology

Transcript

  1. - 文献紹介 2019/2/19 - Effectively Crowdsourcing Radiology Report Annotations 長岡技術科学大学

    自然言語処理研究室 多田太郎
  2. About the paper 2 Authors: Conference:

  3. Abstract  ・ラベリング作業に医療分野の知識が必要な場合、クラウドソーシングは有用か  ・エキスパート注釈とクラウドソーシング注釈で訓練された同じモデルで比較  ・両手法で作成されたデータセットは同じくらい効果的であることがわかった    ・クラウドソーシングによるラベルの一部を除外することで、モデルの精度が向上 3

  4. Introduction  ・多くのテキスト分類手法は、大量のラベル付きトレーニングデータが必要   →質の高いトレーニングデータを大量に収集することは、時間と費用がかかる  ・アノテーションにドメイン知識を必要とする場合、クラウドソーシングはどれほど有用か  ・放射線科レポートを正常または異常として分類するためのモデルに対する有用性  ・専門家とクラウドソーシングされたデータセットで分類モデルのパフォーマンスを比較 4

  5. Methods and Data Collection  ・Annotating radiology report reports  ・Data collection

    -Gold standard labels: expert annotations -Crowdsourced annotations -Weighting the workers’ votes  ・Building a classification model 5
  6. Methods and Data Collection  -Annotating radiology report reports- Audiological and

    Genetic Database(AudGenDB)(CHOP,06)  側頭骨の16,000以上の放射線画像  関連するテキストレポート を格納する医学研究データベース  レポートにはラベルが付いていない 13の解剖学的構造(例えば、蝸牛、中耳のあぶみ骨など)のそれぞれに関して、 各報告を正常または異常として分類するモデルを構築することが目的 AudGenDBの放射線医学レポートから抽出された10,880のラベルなしの文章を使用 6
  7. Methods and Data Collection  ・Annotating radiology report reports  ・Data collection

    -Gold standard labels: expert annotations -Crowdsourced annotations -Weighting the workers’ votes  ・Building a classification model 7
  8. Methods and Data Collection -Data collection- Gold standard labels: expert annotations

       ・2人の専門家が、ランダムに選んだ340文に注釈を付与   -専門家らの注釈は、ほぼ一致    0.848(Fleiss Kappa / Krippendorffs Alpha)  ・ゴールドスタンダードのデータセット   -ラベルに一致した323文   -正常:165文(51.1%),異常:158(48.9%) 8
  9. Methods and Data Collection -Data collection-  Crowdsourced annotations- ・医療や放射線学の専門知識についてワーカーのスクリーニングを行わない ・以下の2点を各文に対して付与  -文が正常な観察か異常な観察か

     -選択においての自信(非常に自信がある、多少自信がある、自信がない) ・各文少なくとも2人の作業者を設定  -文章ラベルが一致しなかった場合は、75%の一致率に達するまで注釈を収集し続けた  -56人のユニークなワーカーにより717文を追加で収集 9
  10. Methods and Data Collection ・以下2点をワーカーに提供  -「強調表示された文章を耳の特定の構成要素の正常または異常な観察を説明するもの   として分類する」という簡単な指示  -正常および異常な文の例(ゴールドスタンダードの少なくとも1つの文を使用) 10 Methods

    and Data Collection -Data collection-  Crowdsourced annotations-
  11. Methods and Data Collection ・ワーカーの個々の注釈を各センテンスの単一のクラウドソーシングラベルに統合  -各センテンスの注釈をワーカーの注釈の加重平均とする:Snowら(2008)を参考 ・ワーカーにより注釈へ重みを付け:  -より正確なワーカーの注釈を高く評価  -より多くの文を分類したワーカーの注釈を評価 11

    Methods and Data Collection -Data collection-  Weighting the workers’ votes
  12. Methods and Data Collection ・クラウドソースデータが同様に文分類モデルを訓練するのに有用であるか  -bag-of-ngram を使用して簡単な文分類モデルを構築 ・各文を901次元の特徴ベクトルとする  -900次元:   データセットでの頻度が上位500のunigram、上位300のbigram、上位100のtrigram

     -901次元目:センテンストークンの数。 文章が正常か異常かを予測するためにL2正規化ロジスティック回帰を使用 12 Methods and Data Collection -Data collection-  Building a classification model
  13. Results  ・Labeling performance and analysis  ・Votes of confidence  ・Using annotations

    to train a classifier -Experts vs The Crowd -Increasing training instances -Incorporating confidence thresholds 13
  14. Results -Labeling performance and analysis- ・56人のユニークなワーカーはそれぞれ平均99.9文を分類(3〜462文)  平均的な分類の正確さは93.49%であり、これはワーカー間でも比較的一貫   平均を大幅に下回ったのは3人のみ ・2つの方法でクラウドソーシングされた注釈について調査   -Krippendorffs

    Alpha→0.743 -カッパスコアを確認 →0.758 (文ごとに2つのラベルをランダムに100回サンプリングした平均) 専門家注釈者間の一致よりは低いが実質的に一致を示している(Landis and Koch、1977) 14
  15. Results 15 Results -Votes of confidence- 注釈の確信度の分布  非常に自信がある:68%  やや自信がある:27%  自信がない:5%

  16. Results -Votes of confidence- 16

  17. Results -Using annotations to train a classifier- Experts vs The

    Crowd  ・2つの方法で分類モデルをトレーニング。   -ゴールドスタンダードラベルのみを使用   -クラウドソーシングラベルのみを使用    各分類器は同数のトレーニングインスタンスを使用  ・ゴールドスタンダードデータセットを用いて5-fold cross validationで実験   -各検証に対して、等しいサイズのクラウドソースデータからトレーニングセットをランダム    にサブサンプリング(約260)し、ゴールドスタンダードデータの検証部分に対して評価 17
  18. Results 18 Results -Using annotations to train a classifier- Experts

    vs The Crowd
  19. Results -Using annotations to train a classifier- Increasing training instances

     ・クラウドワーカーの注釈の数を増やすことで分類モデルの精度を向上できるか  ・各サイズごとに、トレーニングセットをランダムにサブサンプリング  ・ゴールドスタンダードデータセット全体に対して評価 19
  20. Results 20 Results -Using annotations to train a classifier- Increasing

    training instances
  21. Results -Using annotations to train a classifier- Incorporating confidence thresholds  

     ・注釈の確信度のしきい値を変化させたトレーニングセットでモデルをトレーニング  ・ゴールドスタンダードテストセット全体に対して評価 21
  22. Discussion / Conclusion ・クラウドソーシングを使用して特定の分野の知識を必要とするタスクの文ラベルを生成する ことが可能であることを示した ・クラウドソーシングの注釈に重みをつけてラベルを適用することによって、文分類子を訓練 する際に専門家のアノテーターによって生成されたものと同じくらい効果的である訓練データ セットを生成することができた ・個々のワーカーの確信度を取り入れることによって、データを追加収集することなく分類器 の精度をさらに向上させることができた

    22