Link
Embed
Share
Beginning
This slide
Copy link URL
Copy link URL
Copy iframe embed code
Copy iframe embed code
Copy javascript embed code
Copy javascript embed code
Share
Tweet
Share
Tweet
Slide 1
Slide 1 text
自然言語処理を 役立てるのはなぜ難しいの か Preferred Networks 海野 裕也
Slide 2
Slide 2 text
2 2008: 東大情報理工コンピュータ科学専攻修士、自然言語処理 2008-2011: 日本アイ・ビー・エム(株)東京基礎研究所 2011-2016: Preferred Infrastructure ● 分散機械学習Jubatus、自然言語処理、テキスト解析 2016-: Preferred Networks、リテール担当VP ● OSS開発、対話、ロボット、物流ロボット、流通・小売 自己紹介:海野 裕也
Slide 3
Slide 3 text
3
Slide 4
Slide 4 text
Vision 自分たちの手で革新的かつ本質的な技術を開発し、未知なる領域にチャレンジしていく。 私たちはソフトウェアとハードウェアを高度に融合し、自動車やロボットなどのデバイスをより 賢く進化させます。常に変化する環境や状況に柔軟に対処できる賢いデバイスができれば、物理 世界をリアルタイムにセンシングし、現実世界そのものが計算可能になります。 技術を使って、自分たちが見たことが無い、まだ知らない世界を知りたい。すでにわかっている 領域で勝負するのではなく、技術の力で想像を超えた世界に挑戦していきます。 現実世界を計算可能にする Preferred Networks Vision:
Slide 5
Slide 5 text
5 テキストマイニングは Nice to haveである
Slide 6
Slide 6 text
6 Q: 身の回りで自然言語処理の 技術を使ったサービスは?
Slide 7
Slide 7 text
7 Q: その中で、月1000円以上 払ったものは?
Slide 8
Slide 8 text
8 プロフェッショナル向けより一般人向けを
Slide 9
Slide 9 text
9 ● SIGRAPH 2013のUCLAと ディズニーの論文 ● 雪のシミュレーション ● どこからどうみても、 2013年にヒットしたあの 映画で使われている技術 社会に影響を与える研究開発
Slide 10
Slide 10 text
10 10年くらい考えてきたことを話します お金を払ってまで使っている自然言語 処理のツールは非常に少ない。 何故か?
Slide 11
Slide 11 text
11 自然言語処理はなぜ難しい
Slide 12
Slide 12 text
12 ● 研究と開発の質的な違いとは ● 言語処理固有の難しさとは ● LLMが生み出された背景は? ● 言語処理の社会応用を考える鍵は 今日考えたいこと
Slide 13
Slide 13 text
13 自然言語処理に関して色んなことが言われている 近年の自然言語処理技術の発展は目まぐるしい 10年前に出来なかったことが出来るようになった LLMがブレークスルーをもたらした
Slide 14
Slide 14 text
14 研究と製品の致命的な違い 研究の仮想敵は研究者 製品の仮想敵は代替手段
Slide 15
Slide 15 text
15 (他の研究に比べて) すごい研究であることと、 (他の手段に比べて) 役に立たないこと、 が両立する 研究の罠
Slide 16
Slide 16 text
16 Q: 言語処理における代替手段とは?
Slide 17
Slide 17 text
17 言語処理の代替手段は人間
Slide 18
Slide 18 text
18 言語の正しさは、ふつう母語話者を基準に考える 走る速度、持てる重さ、記憶できる量を超える機械を 作れても、機械が人より流暢な言語を持つことは原理 的にできない 「言語」の意味で人間を超えることができない
Slide 19
Slide 19 text
言語そのもので勝負しない
Slide 20
Slide 20 text
20 精度よりも量や速度が重要 量 速度
Slide 21
Slide 21 text
という話を2年前にしたが・・・
Slide 22
Slide 22 text
No content
Slide 23
Slide 23 text
23 文(単語列)が確率的に生成されていると仮定したモデル (統計的)言語モデルとは? 文: 吾輩は猫である © IkamusumeFan サンプリング
Slide 24
Slide 24 text
24 ● 次の単語の出現確率が、直近単語のみで決定されると仮定する ● 単語の出現頻度の割り算で簡単にパラメタ推定できる ● 20年前はデファクトスタンダードだった 昔はN-gram言語モデル P(w n | w n-1 , …, w 1 ) ≒ P(w n | w n-1 , w n-2 )
Slide 25
Slide 25 text
25 ● x(例:英語)からy(例:日本語)への変換を求める問題を考える ● ベイズの定理で、変換の正しさと、言語の流暢性(言語モデル)に分解 できる ● 言語モデルはラベルなしデータで作れるので、流暢性を上げやすい 言語モデルは生成系タスクで使われていた P(y|x) ∝ P(x|y) P(y)
Slide 26
Slide 26 text
26 当初みんなこんな気持ちだったよね??? 「日本語:吾輩は猫である、英語:・・・」 に続く言葉を予想させたら英訳っぽいのできたよ ハハハ、ナイスジョーク 😂
Slide 27
Slide 27 text
27 LLMは言語処理なのか??? LLM 言語 知識 思考
Slide 28
Slide 28 text
28 言語の流暢性以外の価値が大きい 知識の 量 思考の 速度
Slide 29
Slide 29 text
29 大規模であることが重要だった T. Bron, et. al. Language Models are Few-Shot Learners. NeurIPS2020. より
Slide 30
Slide 30 text
30 コンピュータはずっと速くなっていたんだ し、この流れは予見できたのでは? 🤔
Slide 31
Slide 31 text
2006 年
Slide 32
Slide 32 text
32 ● AWSが出たのが2006年(M1のころ) ● 自宅の通信はADSL(10Mbpsくらいしかでない) クラウド環境が出始め
Slide 33
Slide 33 text
33 ● MapReduce論文が出たのが2006年、Hadoopも同じ頃に出て、個人で 分散計算環境の構築ができるようになった 分散計算が流行り始め
Slide 34
Slide 34 text
34 ● 2007年にCUDAが初めて出た ● その前後でGPGPUの存在は知っていた が、気の狂ったことをする人がいるものだ と思っていた ● 当時の言語処理の機械学習は疎行列演算が 多く、データ量に対して演算が少なかった GPGPUが出始め © Berkut
Slide 35
Slide 35 text
35 ● 2006年頃から、立て続けに新しい手法が出てきた ● それまでは、全データで勾配を計算するバッチ学習が主流(L-BFGSな ど)だったが、以降100-1000倍くらい学習が速くなった オンライン学習が流行り始め
Slide 36
Slide 36 text
36 深層学習ライブラリが出始め ● Theanoが2007年、Torch(Lua製)は2002年に最初のリリース ● TensorFlowもPyTorchも当然無い ● そもそもニューラルネット自体やっている人がほとんどいない ● 手計算で微分して、自分で実装する方が普通だった
Slide 37
Slide 37 text
37 データ量の対数でしか精度が上がっていなかった J. Suzuki, H. Isozaki, Semi-Supervised Sequential Labeling and Segmentation using Giga-word Scale Unlabeled Data. ACL08より
Slide 38
Slide 38 text
今、当たり前にあるものが 何一つなかった
Slide 39
Slide 39 text
もしみなさんが、未来の「LLM」を見つけようと しているのであれば、今の時点であれはちょっと ・・・と思うようなテーマに飛びつくしか無い (必要条件であって十分条件じゃない)
Slide 40
Slide 40 text
40 ● 研究室の同期が学習ベース(ロジスティック回帰)の言語モデルの研究 を修論でしていた ● 京大コーパス(たしか)の学習に1週間かかって、精度がでなくて頭を 抱えていた記憶がある・・・ ● 今思い返せば圧倒的な先見の明であった、が・・・ 仮に手を出したら幸せだったのだろうか? 😇
Slide 41
Slide 41 text
少し見方を変えよう
Slide 42
Slide 42 text
42 あらゆるレイヤーの進歩によってLLMが可能になったとも言える コンピュータ科学の進歩がLLMを生み出した アルゴリズム バッチ学習からオンライン学習 計算機環境 オンプレからクラウド、クラスタ プログラミング TFやPyTorchの登場 開発環境 CUDAなどの開発環境の進化 プロセッサ CPUからGPUへ
Slide 43
Slide 43 text
未来の「LLM」も単一の技術ではなく、 コンピュータ科学の総合格闘技になる、かも
Slide 44
Slide 44 text
44 ● 深層学習登場によって、演算性能がネックとなった ● Transformerの登場以降、決定的にメモリ帯域が重要になった ● 結果的にプロセッサに求められる要件が大きく変わろうとしてる LLM時代はメモリ帯域ネックへ © smial (talk) © Berkut ?
Slide 45
Slide 45 text
45 ● 3D積層メモリは物理的にデータとメモリが近いため圧倒的高メモリ帯域 を実現可能 ● 世界最速のLLM推論を目指す 積層メモリを使って超高メモリ帯域を目指す
Slide 46
Slide 46 text
46 ITの仕事は二極化が進む(?) みんなが使う強い寡占の基盤技術 例:プロセッサ、DB、コンパイラ、… 各業界に特化した課題解決 例:アプリ、ソリューション、コンサル、…
Slide 47
Slide 47 text
47 言葉そのものの意義を考える 書き言葉 知識の蓄積 話し言葉 意図の伝達 ・新聞、本、Web ・検索や解析など、知識の利用が目的 ・会話、指示、交渉 ・意図や指示の理解など、やりとりが目的
Slide 48
Slide 48 text
48 インターフェースとしての自然言語処理 記号の世界 物理の世界 ・画像処理 ・センサー ・制御 ・プランニング ・自然言語処理 ・音声処理 ・UI
Slide 49
Slide 49 text
49 言語そのものが道具である 言語 背後の 問題
Slide 50
Slide 50 text
© 2019-2024 Preferred Networks, Inc.
Slide 51
Slide 51 text
© 2019-2024 Preferred Networks, Inc. 51
Slide 52
Slide 52 text
52 ● 精度以外の部分で勝負する ● LLMはコンピュータ科学の総合格闘技 ● 道具と割り切って特定ドメインに飛び込む道も 前半のまとめ
Slide 53
Slide 53 text
53 未来の話
Slide 54
Slide 54 text
54 チャンスかピンチか (なにかすごいこと)やるぞー 失敗しそうだ・・・ エラい人 ボク
Slide 55
Slide 55 text
55 本当にリスクかどうか考える うまくいった やらなかった うまくいかな かった ・未踏の挑戦に貢献できた ・他の仕事ができる ・うまくいったときに公開する ・解雇される(本当に?) ・会社が潰れる(本当に?)
Slide 56
Slide 56 text
56 挑戦できるときに挑戦できるか 技術の下地 適切な投資と期待 実行できる環境
Slide 57
Slide 57 text
57 ● 人工知能は閉塞感があり、できることは限られていた ● 誰も技術に期待しておらず、「そういうのはいらない」と 言われ続けた ● 特定の技術領域でも難しすぎて、分野横断的なチームを構 成できない 15年前の「人工知能」はどうだったか
Slide 58
Slide 58 text
58 挑戦できるタイミングは一瞬 http://blog.livedoor.jp/lunarmodule7/archives/4504511.html ● ちょうど今、一部の分野では十分 な精度になるかどうかの過渡期 ● 技術は進歩し続ける、できること が減ることはない ● 挑戦できるタイミングは一瞬、早 すぎても遅すぎてもだめ
Slide 59
Slide 59 text
59
Slide 60
Slide 60 text
60 © Kuha455405
Slide 61
Slide 61 text
61 ● 私が中高生の時(20年前)にMDは流行した ● 高校生のときにMP3プレイヤーが出現したが、1, 2曲しか 入らず、絶対に流行らないと思った ● 今、「ちょっと頭おかしい」とおもうような技術に投資す るくらいがちょうどよい 未来の当たり前は今の非常識
Slide 62
Slide 62 text
62 ● 探索と活用のトレードオフ ● 全部そこそこな状態は、過剰にリスクを回避している ● 組織が失敗に寛容にならないと一番良い期待値を取れない 全部成功しなくていい 50%は失敗しないといけません 新卒のときに言われたことば
Slide 63
Slide 63 text
63
Slide 64
Slide 64 text
64 ● 社内技術カンファレンス:年3回 ● テックトーク、技術トーク:隔週 ● 読書会:週1回 ● 社内勉強会:不定期 技術は1日にしてならず 継続的に技術を生み出せる 会社風土を醸成する
Slide 65
Slide 65 text
65 最後に
Slide 66
Slide 66 text
66 若い人のほうが真実を知っている
Slide 67
Slide 67 text
67 We are hiring!! 26年卒 新卒採用 ● 本日より募集開始 ○ Ex:Engineer、Reseacher、MN-Core Softwear Engineer ● ホームページからご応募ください 2025年度 夏季インターンシップ ● 来春ホームページより情報公開予定 career page スーパーコンピューターを自社開発 深層学習用プロセッサー MN-Core X(旧twitter)
Slide 68
Slide 68 text
Making the real world computable