言語処理年次大会報告

7f4b04d4f609255390ad84a1b6bceac2?s=47 Ayumu
March 19, 2019

 言語処理年次大会報告

2019/03/19
長岡技術科学大学 自然言語処理研究室
学部4年 守谷 歩

7f4b04d4f609255390ad84a1b6bceac2?s=128

Ayumu

March 19, 2019
Tweet

Transcript

  1. 言語処理学会 第25回年次大会報告 2019/03/19 長岡技術科学大学 自然言語処理研究室 学部4年 守谷 歩 1

  2. 講演で気になったもの ⚫A 1-1 日本語から英語への文脈翻訳テストの提案 ⚫B 2-1 文章と絵からの感情認識手法の開発 ⚫A 4-7 A

    preliminary study on estimating word imageability labels using Web image data mining ⚫B 5-1 ありがちでない歌詞生成に向けた曲調と歌詞の関係に基づ くベクトル空間モデル 2
  3. 講演 気になった点 ⚫機械翻訳では、文脈を考慮した機械翻訳がメインに語られていた 気がした。その中でも「A1-1日本語から英語への文脈翻訳テストの 提案」は文脈考慮の機械翻訳のテストセットを作ったといった発表 でかなり有用性があると感じた。 ⚫マルチモーダルといった分野では画像の情報を用いて機械翻訳 の精度を上げることがメインとして話されていた。画像の情報を用 いてもBLEUといった評価尺度ではあまり変化がない(少量の上昇) が、この考え方によって訂正される問題は人間にとって大きな問題

    であると感じたため有用性を感じた。 3
  4. 招待講演で気になった点 ⚫社会脳科学と自然言語処理 ⚫特定の個人に対して集中して感情、性格分析を行うといった発想が言 語処理でなく、社会脳科学といった分野での考え方らしい ⚫性格分析や感情分析の結果としては単語情報が一番の重要なデータ であるとの結論だったため、今後の言語処理で発展できる分野ではな いか ⚫探求と共同を通じた子供たちの「深い学び」 ⚫京都大学2018年英語の問題のような文章問題の生成は、今後児童 教育といった面で需要が出るテーマ

    ⚫導入問題を作るにあたって、直観的に簡単かつ話し合いやアイディア 出し合いが出せる容易な問題の生成は重要 4
  5. ポスターで気になったもの ⚫P 2-2 単語分散表現に基づいた誤差による ニューラル機械翻訳の学習 ⚫P 2-11 クエリ・出力長を考慮可能な文書要約 モデル ⚫P

    3-20 BERTを用いた機械翻訳の自動評価 ⚫P 3-36 自動発話に頑健な機械翻訳の検討 ⚫P 4-8 負の語彙制約に基づくニューラル言い 換え生成 ⚫P 5-10 機械翻訳に対する文間文脈を考慮し た評価と分析 ⚫P 5-22 事前学習した単語分散表現を利用した マルチモーダル機械翻訳 ⚫P 6-13 文学作品における教師なし話者推定 ⚫P 7-4 擬ユークリッド空間への単語埋め込み ⚫P 7-21 教師なし英日ニューラル機械翻訳の検 討と文の潜在表現の分析 ⚫P 8-4 知識グラフ埋め込みのための二値化CP 分解 ⚫P 8-8 画像/言語同時埋め込みベクトル空間の 構築に向けた埋め込み粒度の比較検討 5
  6. ポスターで特に気になったもの ⚫P 3-20 BERTを用いた機械翻訳の自動評価 ⚫P 4-8 負の語彙制約に基づくニューラル言い換え生成 ⚫P 5-22 事前学習した単語分散表現を利用したマルチモーダル機

    械翻訳 ⚫P 7-4 擬ユークリッド空間への単語埋め込み ⚫P 7-21 教師なし英日ニューラル機械翻訳の検討と文の潜在表現 の分析 ⚫P 8-4 知識グラフ埋め込みのための二値化CP分解 6
  7. 事前学習した単語分散表現を利用した マルチモーダル機械翻訳 ⚫マルチモーダル機械翻訳といった、言語情報以外の情報も用いて 機械翻訳を行う手法についての発表 ⚫これまでのマルチモーダル機械翻訳では画像特徴量や外部リ ソースを利用していた。 ⚫画像特徴量を機械翻訳に組み込む方法は一定の性能改善のみ で確立された手法がなかった ⚫外部リソースを利用する方法は、対訳コーパスに画像データを付 与するといったものが盛んにおこなわれていた。

    ⚫事前学習された単語分散表現をそのまま、利用することでその性 能をよくしたといった発表 7
  8. ポスター 所感 ⚫詳しく説明するポスターよりも、声の大きさや姿勢といった点で人 が集まっているといった感じを受けた ⚫わかりやすく説明しているポスターは事前の発表練習をしている ような印象を受けた 8

  9. 招待論文で気になったもの ⚫平易なコーパスを用いないテキスト平易化 ⚫生成された、生コーパスを用いてリーダビリティ、文間類似度によって 生成された疑似パラレルコーパスで、学習したモデル大規模コーパス を用いて学習するモデルと同等の性能を示したという点でとても興味 深く感じた。 ⚫名詞句の情報の状態と読み時間について ⚫言語情報の処理を読み手の目で文字を追う時間(読み時間)といった 概念で考えることで、人間、主に読者がどこに重要視して文を理解して いるのかといった考えが面白く感じた。

    9
  10. スポンサーイブニングについて ⚫企業の方と話し合いをすることでどのように言語処理の技術が使 われているのかということについて、具体的に知ることができた。 ⚫また、企業が今後の言語処理の展開についてどのように考えてい るのかを聞くことで、企業が求めているニーズを感じることができた。 ⚫スポンサーイブニングの時間が結構少なく感じ、すべての企業を 回ることはできなかった。 10

  11. その他年次大会の所感 ⚫ニューラル翻訳モデルに関しての研究が多く感じた。また、ニュー ラル翻訳でも特に現状起こっている問題に対しての解決といった面 に重きが充てられている感じがした。 ⚫BERTといった技術にかかる時間を考慮してか、機械学習の時間短 縮に関する発表が一定数あると感じた。 ⚫自分の聴講したものの限りでは、モデルに機能を追加したなどと いったイメージが大きく感じた。 11