Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
大規模言語モデル(LLM)について人文学研究者が知っておきたいこと
Search
Yasuhiro Kondo
May 05, 2025
0
34
大規模言語モデル(LLM)について人文学研究者が知っておきたいこと
文学通信オンラインイベント資料(2025年5月5日)
Yasuhiro Kondo
May 05, 2025
Tweet
Share
More Decks by Yasuhiro Kondo
See All by Yasuhiro Kondo
JOS2025国立国会図書館デジタルコレクションのOCRデータからの復元
yhkondo
5
920
国立国語研究所通時コーパスシンポジウム2025
yhkondo
0
260
AIによる古典語・古典文学研究の方法について
yhkondo
0
280
『源氏物語』の引き歌をベクトル検索によって検出する方法
yhkondo
0
100
大規模言語モデルの持つ言語知識とコミュニケーション
yhkondo
0
67
古典語の係り結びと情報構造
yhkondo
0
140
『百人一首』の歌風は何か?
yhkondo
0
100
大規模言語モデルを用いた意味分析による辞書記述への応用
yhkondo
1
1.5k
ChatGPTは何を生成しているのか
yhkondo
0
99
Featured
See All Featured
Helping Users Find Their Own Way: Creating Modern Search Experiences
danielanewman
29
2.7k
It's Worth the Effort
3n
185
28k
No one is an island. Learnings from fostering a developers community.
thoeni
21
3.4k
YesSQL, Process and Tooling at Scale
rocio
173
14k
Chrome DevTools: State of the Union 2024 - Debugging React & Beyond
addyosmani
7
750
Understanding Cognitive Biases in Performance Measurement
bluesmoon
29
1.8k
CoffeeScript is Beautiful & I Never Want to Write Plain JavaScript Again
sstephenson
161
15k
ピンチをチャンスに:未来をつくるプロダクトロードマップ #pmconf2020
aki_iinuma
126
53k
Reflections from 52 weeks, 52 projects
jeffersonlam
351
21k
The World Runs on Bad Software
bkeepers
PRO
70
11k
Creating an realtime collaboration tool: Agile Flush - .NET Oxford
marcduiker
30
2.2k
Optimizing for Happiness
mojombo
379
70k
Transcript
近藤泰弘(青山学院大学名誉教授・日本国 語大辞典第三版編集委員) 大規模言語モデル(LLM)について 人文学研究者が知っておきたいこと
まずは使ってみる三大LLM OpenAI ChatGPT 4o, o3 Google gemini 2.5 , NotebookLM
Anthropic Claude 3.7 Sonnet
None
None
None
LLMの仕組み (AI自身の学習) 次の単語を予測する形で学習。 〇 コナンは言った、真犯人は〈 〉 (花子だ) たくさんのデータを穴開けデータにして、AIに与え ると、穴開けを予測できるように、そのたびに、ネッ
トワークの値を更新する。
LLMの仕組み (AI自身の推論・生成) 次の単語の確率を予測する形で推論。最も確率の高い単語が 出力される 〇 コナンは言った、真犯人は〈花子だ〉 〇何と、それは意外な人だった。 コナンは言った。真犯人は〈お前だ〉 学習データにズバリの表現はなくても、文脈から生成してい
る。推理小説を生成することを考えれば、明白。
この点がLLMの重要な点 〇学習する時は、次の単語を予測する形で学習するが、生成す る際には、それを「オウム」のように繰り返すだけではなく、 文章全体を考慮して、予測しなくてはならない=そこに「知性」 が生まれてくる。その詳しい仕組みはいまだ不明な点が多い。 ここまで仕組みが不明なものを実際に活用することは、今まで の人類にはない試み。
人文学研究者としてのメリット 研究に活用する。翻訳・要約・論文の下案 研究範囲の拡大・時間節約 教育に活用する。TA代わり。 教育活動の活発化
人文学研究者としてのデメリット 研究 急速な変化に対応できない。何が新しいかがわからな い。 教育 学生がAIに頼りすぎて必要な能力を養えない。 と言って、禁止すれば、社会に出てから非常に不便。 AIリテラシーは今後必須。
人文学研究者としての方針 研究 新しい状況に適応した研究が必要。学会の活用。 教育 AIを使った自主的な学習に転換していく。自学自習と いう本来の大学生の勉強態度がさらに重要になる。AIの 活用法を自分で探究することが必要。(学生の理解度を測 るのが教員の責務となる)
今後の人文学の方向性 LLMとの協業による新しい学問分野の開発 研究情報をお互いに「交換」して、効率よく新しい分 野を開拓する(AIのメモリ機能の活用) LLMの内部ネットワークの数値(ベクトル)を抜き 出したり、分析したりする研究。AIが何を考えてい るかを理解して、それによって人間の脳内の活動を 推測する。 (AIのニューラルネットワークと、脳内の ニューロンとの類似)
。
国文学/語学の研究の紹介 LLMによるコーパス検索(RAG) LLMに知識を与える方法。 〇継続事前学習(からまる) 〇ベクトル検索のRAG(humanitext) ネットワークの内部情報による歌風の分 析
将来の人文学研究 「感動」の本質を、文脈・意味だけでなく、ニューラ ルネットワーク上の状態として把握。脳内の活動との 比較によって、 「感動」とは何かを探究する。 現在のLLMのフラットな言語構造では、上のような研 究には限界がある。もっと違うアーキテクチャを目指 して、文学・語学側からの提言をしていきたい。
ありがとうございました。 ご感想などは Xアカウントへ。 yhkondo@X