Upgrade to Pro — share decks privately, control downloads, hide ads and more …

Japanese Text Processing with Deep Neural Network

Japanese Text Processing with Deep Neural Network

人工知能学会第71回人工知能セミナー(2016年6月30日) 「Deep Learning技術の仕組みと自然言語処理への応用」にて発表した、「深層ニューラルネットワークを用いた日本語処理」のスライドです。(下に概要を載せますが、単語分割については結局話していないので、特に「日本語処理」の話はしていません)

概要:
自然言語処理分野における深層学習は,word2vec に代表される表現学習と,RNNのように系列データや木構造を持ったデータに対する深層ニューラルネットワークを用いた構造の学習に大別されます.本セミナーでは後者の概要を説明し,評価極性分類や機械翻訳,単語分割などいくつかの応用例についてご紹介します.

Mamoru Komachi

July 27, 2016
Tweet

More Decks by Mamoru Komachi

Other Decks in Research

Transcript

  1. ࣗݾ঺հ: খொकʢ͜·ͪ·΋Δʣ 2 ß 2005.03 ౦ژେֶڭཆֶ෦جૅՊֶՊ Պֶ࢙ɾՊֶ఩ֶ෼Պଔۀ ß 2010.03 ಸྑઌ୺େɾത࢜ޙظ՝ఔमྃ

    ത࢜ʢ޻ֶʣ ઐ໳: ࣗવݴޠॲཧ ß 2010.04ʙ2013.03 ಸྑઌ୺େ ॿڭʢদຊ༟࣏ݚڀࣨʣ ß 2013.04〜 ट౎େֶ౦ژ ।ڭतʢࣗવݴޠॲཧݚڀࣨʣ
  2. ࣗવݴޠॲཧʹ͓͚Δਂ૚ֶश ß දݱֶश Þ ʢͰ͖Δ͚ͩڭࢣͳ͠Ͱʣ ༗༻ͳಛ௃දݱΛֶश͍ͨ͠ʂ Þ word2vec, GloVe, ...

    →ຊ೔͸ͪ͜Βͷ࿩͸͠·ͤΜ ß ਂ૚χϡʔϥϧωοτͷΞʔΩςΫνϟ Þ ʢجຊతʹڭࢣ͋ΓͰʣ ैདྷͷNLPͰͰ͖ͳ͔ͬͨ͜ͱΛ͍ͨ͠ʂ →ຊ೔͸ͪ͜Βͷ࿩Λ͠·͢ 5
  3. CNN Λ࢖ͬͨධՁۃੑ෼ྨ 7 word2vec ʹΑΔ 1-hot ϕΫτϧͷ ୯ޠຒΊࠐΈද ͍ΖΜͳ૭෯΍ ૉੑΛ࢖ͬͨ

    ৞ΈࠐΈ૚ ϓʔϦϯά૚ ग़ྗ૚ (શ݁߹) จͷ෼ࢄදݱ ʢn࣍ݩͷ୯ޠ ͕kݸ͋Δʣ ß Yoon Kim. Convolutional Neural Networks for Sentence Classification. EMNLP 2014. 😀ૉੑςϯϓϨʔτͷઃܭ͸ෆཁ ݴޠඇґଘ
  4. RNN Λ༻͍ͨݴޠϞσϧ 9 ß Mikolov et al. Recurrent Neural Network

    Based Language Model. Interspeech2010. →word2vec ͷ࡞ऀͷ ʢw2vΑΓલͷʣݚڀ ß Ի੠ೝࣝɾػց຋༁ ͳͲͰ޿͘ར༻ ࢖͏จ຺ʹ໌֬ͳڥ໨͕ͳ͍ ඼ࢺͷΑ͏ͳ໌֬ͳΫϥε͕ͳ͍
  5. ࣼΊʹਂ͍ਂ૚ֶश ß ࠶ؼత (recursive) NN 11 ਂ૚ֶश Ϛδ ΍͹͍ 😍

    ϑϨʔζϕΫτϧͷ৞Έ ࠐΈͰจϕΫτϧΛߏ੒ 😋 😑 😑 😍 ʮϚδ΍͹͍ʯͱ͍͏ϑ ϨʔζϕΫτϧΛ୯ޠϕ Ϋτϧ͔Β࠶ؼతʹߏ੒
  6. ࠶ؼతχϡʔϥϧωοτϫʔΫ Λ༻͍ͨը૾ೝࣝͱߏจղੳ 12 • Socher et al. Parsing Natural Scenes

    and Natural Language with Recursive Neural Networks. ICML 2011. • ྡ઀͢Δը૾ྖҬɾ୯ ޠ͔Β࠶ؼతʹߏ଄Λ ೝࣝ͢Δ →Staford Parser ʹ౷ ߹ (ACL 2013)
  7. ݴޠॲཧʹ͓͚Δਂ૚χϡʔϥϧ ωοτϫʔΫͷΞʔΩςΫνϟ ß ଟ૚χϡʔϥϧωοτϫʔΫ ʹϑΟʔυϑΥϫʔυNN, CNN, ଟ૚Φʔ τΤϯίʔμ, ... ß

    ʢ޿ٛͷʣRNN Þ ϦΧϨϯτχϡʔϥϧωοτϫʔΫ ʹʢڱٛͷʣrecurrent NN, LSTM, GRU, ... Þ ࠶ؼతχϡʔϥϧωοτϫʔΫ ʹrecursive NN, Tree-LSTM, ... 13 ೝ ࣝ ʴ ੜ ੒ ೝ ࣝ
  8. จͷධՁۃੑ͸ϑϨʔζ ʢ෦෼໦ʣ͔Β࠶ؼతʹܭࢉͰ͖Δ 16 Nakagawa et al. Dependency Tree-based Sentiment Classification

    using CRFs with Hidden Variables. HLT-NAACL 2010. ͖ͬ͞ݟͨߏ଄ͱ ࣅ͍ͯΔʂʂʂʂ 😀౷ޠ৘ใΛ׆༻͢Δ͜ͱ͕Ͱ͖Δ 😩ૉੑςϯϓϨʔτͷઃܭ͕ඞཁ
  9. ଟ૚ΦʔτΤϯίʔμΛ༻͍ͨ ೔ຊޠධՁۃੑ෼ྨ 18 Zhang and Komachi. Japanese Sentiment Classification with

    Stacked Denoising Auto- Encoder using Distributed Word Representation. PACLIC 2015. ೖ ྗ ૚ ग़ ྗ ૚ Ӆ Ε ૚ Ӆ Ε ૚ Ӆ Ε ૚ 😀ૉੑςϯϓϨʔτͷઃܭ͸ෆཁ ݴޠඇґଘ શ ݁ ߹ શ ݁ ߹ શ ݁ ߹ શ ݁ ߹
  10. ෼ྨ໰୊ʹ͓͚Δ՝୊ ß ෼ੳͷ໰୊ Þ ֶश݁Ռͷղऍ͕೉͍͠ →஫ҙ (attention) ͰՄࢹԽ ß λεΫઃܭͷ໰୊

    Þ Ϋϥε਺͕ະ஌ʢe.g. ڞࢀরղੳʣͷ৔߹ →Vinyals et al. Pointer Networks. NIPS 2015. 20
  11. ໨త ݴޠ ର༁ίʔύε͔Β౷ܭతʹֶश ß ϊΠδʔνϟωϧϞσϧ ʢ࣮ࡍʹ͸͜ΕΛઢܗର਺Ϟσϧʹͨ͠΋ͷʣ 23 ˆ e =

    argmax e P(e | f ) = argmax e P( f | e)P(e) ର༁ίʔύε ݪݴޠ ໨త ݴޠ ᶃΞϥΠϝϯτ ᶄϧʔϧநग़ P(f | e) ຋༁Ϟσϧ ໨త ݴޠ ໨త ݴޠ P(e) ݴޠϞσϧ ᶅσίʔυ argmax ᶆ࠷దԽ BLEU ݪݴޠ ໨త ݴޠ ੜίʔύε ։ൃίʔύε ʢࢀর༁ʣ
  12. 2ͭͷRNNΛ૊Έ߹Θͤͯܥྻม׵ (sequence to sequence) Ͱݴޠੜ੒ ß ΤϯίʔμɾσίʔμΞϓϩʔν 24 ਂ૚ֶश Ϛδ

    ΍͹͍ </s> DL is DL is really cool really cool </s> Τ ϯ ί ồ μ σ ί ồ μ ݪݴޠͷ୯ޠϕΫ τϧ͔ΒจϕΫτ ϧΛΤϯίʔυ
  13. ೖྗͱग़ྗͷରԠ͸ ஫ҙ (attention) ͭͭ͠σίʔυ ß ΤϯίʔμଆͷӅΕ૚ͷॏΈ෇͖࿨ 25 ਂ૚ֶश Ϛδ ΍͹͍

    </s> DL is is really cool really cool </s> จϕΫτϧΛ1ͭ ʹѹॖͤͣɺͲ ͷ෦෼Λ࢖͏͔ Λʮ஫ҙʯ͢Δ DL <s>
  14. ܥྻ͚ͩͰͳ͘ɺ໦ߏ଄ʹ΋ Ξςϯγϣϯ͢Δ͜ͱ͕Ͱ͖·͢ ß Eriguchi et al. Tree-to-Sequence Attentional Neural Machine

    Translation. ACL 2016. ß Τϯίʔμͷ۟ߏ଄ʹΞςϯγϣϯ͠ɺ౷ޠ ߏ଄Λߟྀͨ͠χϡʔϥϧӳ೔຋༁Λ࣮ݱ 27
  15. ੜ੒λεΫʹ͓͚Δ՝୊ ß ະ஌ޠͷ໰୊ Þ ෼ྨ໰୊ͳͷͰະ஌ޠ͸ग़ͤͳ͍ →ະ஌ޠॲཧ, CopyNet, ... ß ධՁͷ໰୊

    Þ ୯ޠ୯ҐͷΫϩεΤϯτϩϐʔͩͱաֶश →࠷ऴతʹ࠷େԽ͍ͨ͠ධՁई౓ (e.g. BLEU) ʹΑΔ࠷దԽ, ΧϦΩϡϥϜֶश, ... 28
  16. ਂ૚ֶशΛ͢Δʹ͸ GPU ͕ඞཁʁ ß CPU ΑΓ਺ഒҎ্ߴ଎Ͱ͋Δ͜ͱ͕ଟ͍ ͷͰɺͱΓ͋͑ͣ1ຕߪೖ͢Δͷ͕͓קΊ Þ ήʔϜ༻ PC

    ͩͱ20ສԁʙ ß ωοτϫʔΫߏ଄͕Մม ʢݴޠॲཧͰ͋Γ͕ͪʣ ͳ৔߹ɺͦ͜·Ͱ଎͘͸ ͳΒͳ͍͜ͱ΋͋Δ͕… 31 https://flic.kr/p/rNx69d
  17. ͳͥਂ૚ֶश͕͏·͘ߦ͘ͷ͔ʁ ᶄ཭ࢄͷੈք͔Β࿈ଓͷੈք΁ ß Klein and Manning. Accurate Unlexicalized Parsing. ACL

    2003. ϊʔυͷਂ͞ɾ෯͕Մม 32 Parent annotation ʢ਌ΧςΰϦͷϥϕϧͰࡉ෼Խʣ
  18. ૉੑΤϯδχΞϦϯά͕ෆཁͰ΋ ύϥϝʔλνϡʔχϯά͕େมʁ ß ύϥϝʔλઃఆʹහײͳύϥϝʔλͱͦ ͏Ͱͳ͍ύϥϝʔλ͕͋Δ Þ ࠷దԽΞϧΰϦζϜΛֶश͢Δͱ͍͏࿩·Ͱ ͋Δ→Andrychowicz et al.

    Learning to Learn by Gradient Descent by Gradient Descent. arXiv 2016. ß ͲͷΑ͏ͳλεΫͰԿ͕ޮ͔͘ɺʹ͍ͭ ͯ͸ϊ΢ϋ΢͕͋Δ͔΋…… Þ ׬શʹຖճࢼߦࡨޡɺͰ͸ͳ͍͕ɺ࠷ॳ͸͠ ͹Β͘ࢼߦࡨޡ͸ෆՄආ 33
  19. ਂ૚ֶशΛ࢝Ί͍ͨਓ΁ͷ take-home message ß େن໛σʔλɾܭࢉػࢿݯ͕ඞཁ Þ GPGPU ʹৄ͘͠ͳΔ Þ ࣗ෼ͰσʔλΛ࡞ΔͳΒΫϥ΢υιʔγϯά

    Ͱ͖Δ͔Ͳ͏͔ʢϊ΢ϋ΢ؚΊʣ͕෼͔Ε໨ ß άϧʔϓͰ৘ใڞ༗ Þ NLP-DLษڧձ, Twitter, Slack, ... ß ͍ͨΔͱ͜ΖϨουΦʔγϟϯ Þ arXiv ʹग़ͨཌिʹ࣮૷͕ग़ͨΓ͢Δͷ͸βϥ 34
  20. ຊ೔ͷ·ͱΊ ß ࣗવݴޠॲཧʹ͓͚Δ3छྨͷਂ૚ֶश Þ ॎɺԣɺࣼΊʹੵΈ্͛Δ ß ਂ૚ֶशͷέʔεελσΟ Þ ೝࣝλεΫͰ͸ૉੑΤϯδχΞϦϯάͷܰݮ ͱؤ݈ੑͷ޲্ʹΑΔߴ͍෼ྨਫ਼౓ͷୡ੒

    Þ ੜ੒λεΫͰ͸RNNͰ௕ڑ཭ґଘΛϞσϧԽɺ ΞςϯγϣϯͰจͷҙຯදݱͷਂԽ ß ਂ૚ֶश͸ࣗવݴޠॲཧͰ΋ϒϨΠΫε ϧʔʢಛʹେن໛σʔλΛ༻͍ͨੜ੒ʣ 35