Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
Language Model Based Grammatical Error Correcti...
Search
youichiro
July 25, 2018
Technology
180
0
Share
Language Model Based Grammatical Error Correction without Annotated Training Data
長岡技術科学大学
自然言語処理研究室
文献紹介(2018-07-25)
youichiro
July 25, 2018
More Decks by youichiro
See All by youichiro
日本語文法誤り訂正における誤り傾向を考慮した擬似誤り生成
youichiro
0
1.6k
分類モデルを用いた日本語学習者の格助詞誤り訂正
youichiro
0
130
Multi-Agent Dual Learning
youichiro
1
200
Automated Essay Scoring with Discourse-Aware Neural Models
youichiro
0
140
Context is Key- Grammatical Error Detection with Contextual Word Representations
youichiro
1
160
勉強勉強会
youichiro
0
100
Confusionset-guided Pointer Networks for Chinese Spelling Check
youichiro
0
210
A Neural Grammatical Error Correction System Built On Better Pre-training and Sequential Transfer Learning
youichiro
0
190
An Empirical Study of Incorporating Pseudo Data into Grammatical Error Correction
youichiro
0
230
Other Decks in Technology
See All in Technology
要件定義の精度を高めるための型と生成AIの活用 / Using Types and Generative AI to Improve the Accuracy of Requirements Definition
haru860
0
290
EMから幅を広げるために最近挑戦していること / Recent challenges I'm undertaking to expand my horizons beyond EM
hiro_torii
1
180
カオナビに Suspenseを導入するまで / The Road to Suspense at kaonavi
kaonavi
1
160
「QA=テスト」「シフトレフト=スクラムイベントの参加者の一員」の呪縛を解く。アジャイルな開発を止めないために、10Xで挑んだ「右側のしわ寄せ」解消記 #scrumniigata
nihonbuson
PRO
3
610
20260428_Product Management Summit_Loglass_JoeHirose
loglassjoe
4
6.6k
国内外の生成AIセキュリティの最新動向 & AIガードレール製品「chakoshi」のご紹介 / Latest Trends in Generative AI Security (Domestic & International) & Introduction to AI Guardrail Product "chakoshi"
nttcom
4
1.7k
小説執筆のハーネスエンジニアリング
yoshitetsu
0
910
フロントエンドの相手が変わった - AIが加わったWebの新しいインターフェース設計
azukiazusa1
31
9.5k
Google Cloud Next '26 の裏でこっそりリリースされたCloud Number Registry & Cloud Hub コスト分析 を試してみた
hikaru1001
0
150
COBOL婆さんの伝説
poropinai1966
0
130
ServiceNow Knowledge 26 の歩き方
manarobot
0
320
[Scram Fest Niigata2026]Quality as Code〜AIにQAの思考を再現させる試み〜
masamiyajiri
1
180
Featured
See All Featured
WENDY [Excerpt]
tessaabrams
10
37k
The Spectacular Lies of Maps
axbom
PRO
1
720
Building Adaptive Systems
keathley
44
3k
JavaScript: Past, Present, and Future - NDC Porto 2020
reverentgeek
52
5.9k
The browser strikes back
jonoalderson
0
1k
Stewardship and Sustainability of Urban and Community Forests
pwiseman
0
190
Refactoring Trust on Your Teams (GOTO; Chicago 2020)
rmw
35
3.4k
Designing for Timeless Needs
cassininazir
0
210
Build The Right Thing And Hit Your Dates
maggiecrowley
39
3.1k
AI: The stuff that nobody shows you
jnunemaker
PRO
6
620
Writing Fast Ruby
sferik
630
63k
Marketing Yourself as an Engineer | Alaka | Gurzu
gurzu
0
190
Transcript
Language Model Based Grammatical Error Correction without Annotated Training Data
Christopher Bryant and Ted Briscoe Proceedings of the Thirteenth Workshop on Innovative Use of NLP for Building Educational Applications, pages 247–253, 2018 ⽂献紹介(2018-07-25) ⻑岡技術科学⼤学 ⾃然⾔語処理研究室 ⼩川 耀⼀朗 1
Abstract l ⾔語モデルを⽤いた⽂法誤り訂正アプローチ l シンプルかつ少量のアノテーションデータしか⽤いない⾔ 語モデルアプローチが、⼤量のアノテーションデータで訓 練されたモデルと競争できる性能を⽰した 2
Introduction l CoNNL-2014 shared taskではTop3のチーム全てがSMTあ るいはclassifier-baseのシステムを⽤いた l これ以降、SMTやSMTとclassifierの混同、NMTのアプロー チにフォーカスした研究が進んでいる l
⾔語モデルを⽤いた⼿法に関する研究は⼤きく停滞した Ø GECにおける⾔語モデルアプローチを再調査する 3
Method l ⾔語モデル確率の低い⽂は、⾔語モデル確率の⾼い⽂よ りも⽂法誤りを含んでいるであろうというアイデア 1. ⼊⼒⽂の⾔語モデルスコアを計算する 2. ⽂中の各単語において、訂正候補セットを作る 3. 各単語における各訂正候補で置換した⽂を⽣成し、
再び⽂のスコアを計算する 4. 訂正候補の中から、スコアが閾値よりもが⾼くなる 1⽂を選ぶ 5. ステップ1~4を繰り返す 4
Method l 訂正時にスコアの閾値を設定しておき、その閾値を超える 候補にのみ訂正する 5
Method 訂正候補セット l 以下の英語のエラータイプを対象とする non-words, morphology, article and prepositions l
Non-words(⾮単語) ex) [freind → friend] CyHunspell*1を使⽤し、訂正候補を⽣成する *1 https://pypi.org/project/CyHunspell/ 6
Method 訂正候補セット l Morphology(語形) - noun number: [cat → cats]
- verb tense: [eat → ate] - adjective form: [big → bigger] など Automatically Generated Inflection Database(AGID)*2から、訂正 候補を⽣成する l Articles and Prepositions(冠詞と前置詞) article: {φ, a, an, the} preposition: {φ, about, at, by, for, from, in, of, on, to, with} *2 http://wordlist.aspell.net/other/ 7
Experiment l ⾔語モデルの構築 5-gram language model trained on the One
Billion Word Benchmark dataset*3 with KenLM l 開発セットとテストセット CoNLL-2013, CoNLL-2014, FCE, JFLEGを使⽤ 8 *3 https://arxiv.org/pdf/1312.3005.pdf
Experiment ⾔語モデルスコアの 閾値のチューニング - CoNNL-2013: 2% - FCE-dev: 4% -
JFLEG-dev: 5% 9
Result 10
Result 11
Conclusion 12 l ⽂法誤り訂正のためのシンプルで少量のアノテーションデータしか使わ ない⾔語モデルアプローチを提案し、⼤量のアノテーションデータを必 要とする機械翻訳アプローチと競争できることを⽰した l このシステムは特定のエラータイプしか訂正できない制限があるため、 missing words(単語の不⾜)など他のエラータイプも訂正可能にするが
課題に挙げられる