Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
20250725-bet-ai-day
Search
cipepser
July 25, 2025
Research
3
560
20250725-bet-ai-day
積んでいる論文をサクサク消化する技術
cipepser
July 25, 2025
Tweet
Share
More Decks by cipepser
See All by cipepser
NIKKEI Tech Talk#38
cipepser
0
680
LayerXにおけるFDEについて
cipepser
3
1.7k
Criterion-rs
cipepser
0
150
Practical Anonify
cipepser
2
870
procedural-macros
cipepser
0
190
Move for Libra written in Rust
cipepser
2
3.2k
How IBLT Works
cipepser
0
240
Other Decks in Research
See All in Research
An Open and Reproducible Deep Research Agent for Long-Form Question Answering
ikuyamada
0
170
高畑鬼界ヶ島と重文・称名寺本薬師如来像の来歴を追って/kikaigashima
kochizufan
0
110
情報技術の社会実装に向けた応用と課題:ニュースメディアの事例から / appmech-jsce 2025
upura
0
290
Sat2City:3D City Generation from A Single Satellite Image with Cascaded Latent Diffusion
satai
4
480
Language Models Are Implicitly Continuous
eumesy
PRO
0
370
第二言語習得研究における 明示的・暗示的知識の再検討:この分類は何に役に立つか,何に役に立たないか
tam07pb915
0
690
Thirty Years of Progress in Speech Synthesis: A Personal Perspective on the Past, Present, and Future
ktokuda
0
140
大規模言語モデルにおけるData-Centric AIと合成データの活用 / Data-Centric AI and Synthetic Data in Large Language Models
tsurubee
1
470
LLM-jp-3 and beyond: Training Large Language Models
odashi
1
740
長期・短期メモリを活用したエージェントの個別最適化
isidaitc
0
380
Self-Hosted WebAssembly Runtime for Runtime-Neutral Checkpoint/Restore in Edge–Cloud Continuum
chikuwait
0
270
[Devfest Incheon 2025] 모두를 위한 친절한 언어모델(LLM) 학습 가이드
beomi
2
1.4k
Featured
See All Featured
Ethics towards AI in product and experience design
skipperchong
1
150
Rebuilding a faster, lazier Slack
samanthasiow
85
9.3k
Utilizing Notion as your number one productivity tool
mfonobong
2
190
Believing is Seeing
oripsolob
0
19
Why Mistakes Are the Best Teachers: Turning Failure into a Pathway for Growth
auna
0
33
Claude Code のすすめ
schroneko
67
210k
Information Architects: The Missing Link in Design Systems
soysaucechin
0
730
Navigating the moral maze — ethical principles for Al-driven product design
skipperchong
1
220
Avoiding the “Bad Training, Faster” Trap in the Age of AI
tmiket
0
43
Designing for humans not robots
tammielis
254
26k
Tips & Tricks on How to Get Your First Job In Tech
honzajavorek
0
400
Optimizing for Happiness
mojombo
379
70k
Transcript
© LayerX Inc. 積んでる論文をサクサク消化する技術 AI・LLM事業部 プロダクト部 LLMグループ 恩田 壮恭 ONDA,
Masanori DAY03 topic Bet AI for Learning Speaker
© LayerX Inc. Speaker AI‧LLM事業部 LLMグループマネージャー これまで ‧⼤⼿証券系SIer: ネットワークエンジニア ‧暗号資産分野:
新規事業⽴ち上げ ‧LayerX: 秘密計算、差分プライバシー 恩⽥ 壮恭 ONDA, Masanori
© LayerX Inc. LLM分野、論⽂が 毎⽇のように発表される Bet AI へ
© LayerX Inc. しかし、品質が⽟⽯混交 Bet AI へ
© LayerX Inc. 本当に読む必要がある論⽂を 習慣化できる⽅法で フィルタリングしたい Bet AI へ
© LayerX Inc. 概要をさっと掴めるコンテンツを2種類作る Bet AI へ Google Apps Script
論⽂をアップロードし、 podcastを⽣成 論⽂のurlをテーブルに コピペ 定期的にurlの 追加を監視 Difyで論⽂の 内容を要約 要約をnotion ページに記載
© LayerX Inc. Bet AI へ 出典: Li, Zhiyu, et
al. "MemOS: An Operating System for Memory-Augmented Generation (MAG) in Large Language Models." arXiv preprint arXiv:2505.22101 (2025). Difyのワークフロー Notionページに作られた要約
© LayerX Inc. 作ったコンテンツを聴く/読む Bet AI へ NotebookLMで⽣成したpodcastを通 勤中や散歩中にどんどん消化 参考になった箇所をメモしながら聴く
倍速+メモで約7-8分/論⽂ スマホを⾒れるときにNotionに溜まっ た論⽂の要約を消化 個⼈的には視覚よりも聴覚優位なの で、あまり消化には寄与できておら ず、あとで精読するときにpodcastメ モと併⽤することが多い 聴く 読む
© LayerX Inc. 精読する/しないのフィルタリング Bet AI へ
© LayerX Inc. 精読する/しないのフィルタリング Bet AI へ 読んだ印象を5段階で評価 4-5点: 精読する
2-3点: Figureには⽬を通す 1-2点: 原⽂をスキップ
© LayerX Inc. まとめ • ⽇常の中で無理なく、聴く/読むを組み合わせて論⽂を消化しよう • ⽬的は「学習」なので、精読まではLLMに頼らない/すべきでない ◦ LLMだけで完結すると、⾃⾝の知識に「厚み」が出ない
◦ ⾃分の⾔葉にするところはサボらない • LLMは学習の⾼速道路の⼀つ。使わないのも極端すぎるので、最適解を 探そう Bet AI へ