Slide 7
Slide 7 text
関連研究(LLM)
7
• SGPT: A Generative Approach for SPARQL
Query Generation From Natural
Language Questions[Rony+ ‘22]
• POS-tag埋め込みと係り受け関係の埋め込み
をTransformerでエンコードし,位置埋め込
みと単語埋め込みを加えてGPT-2でデコード
• データセットはLC-QuAD 2.0, QALD-9,
VQuAnDa
• SP-BLEUとSP-F1スコアの提案して⽐較し,
既存⼿法を上回った
• Language Models as Controlled Natural Language
Semantic Parsers for Knowledge Graph Question
Answering[Lehmann+ ‘23]
• SPARQLを直接⽣成する代わりに制御された⾃
然⾔語(CNL)をLLMで⽣成する⼿法
• Mintakaデータセットの550の質問にSPARQL,
Sparklis, SQUALLの3つの形式でラベル付け
• BLOOM, GPT Neo, GPT-2, GPT-3, T5, Llama2で
ファインチューニング実験
• SPARQL直よりCNLでKGQAの精度向上を確認
[Rony+ ‘22] M. Rony, et al.: SGPT: A Generative Approach for SPARQL Query
Generation From Natural Language Questions. IEEE Access, 2022
[Lehmann+ ‘23] J. Lehmann, et al.: Language Models as Controlled Natural
Language Semantic Parsers for Knowledge Graph Question Answering, ECAI, 2023