Upgrade to Pro — share decks privately, control downloads, hide ads and more …

20240130 エンプラDXにおける2024年の生成AIトレンド予測 @生成AI新年会2024

20240130 エンプラDXにおける2024年の生成AIトレンド予測 @生成AI新年会2024

Ryuya Nakamura

January 30, 2024
Tweet

More Decks by Ryuya Nakamura

Other Decks in Technology

Transcript

  1. © 2024 LayerX Inc. LayerX 事業部執行役員 AI・LLM事業部長 中村龍矢 (@nrryuya_jp) 2023/1/30

    @生成AI新年会2024 自社視点で見た2024年の生成AIトレンド予測
  2. © 2024 LayerX Inc. 2 中村龍矢 機械学習エンジニア 東京大 工学部 •

    データサイエンスと出会う Gunosy データ分析部 • 推薦システム開発等 セキュリティ研究者 (現在) 事業責任者 LayerX 創業時からR&D • プログラムの形式検証 • ブロックチェーン ◦ Ethereumへのコント リビューション • LayerX 事業部執行役員 AI・LLM事業部長 • IPA 未踏スーパークリエータ • 2020年度 電子情報通信学会 インターネットアーキテクチャ研 究賞 最優秀賞 (共著) • Forbes JAPAN 30 UNDER 30 2023 「世界を変える30 歳未満」 LayerXの新規事業 • プライバシーテック • 大規模言語モデル 自己紹介
  3. © 2024 LayerX Inc. 3 LayerXの事業概要 LayerXのご紹介 * 資本準備金含む 会社名    

    代表取締役  創業      資本金* 関連会社 株主一覧  | 株式会社LayerX(レイヤーエックス) | 代表取締役CEO 福島 良典    代表取締役CTO 松本 勇気 | 2018年 | 132.6億円 | バクラク事業、Fintech事業、AI・LLM事業 | 三井物産デジタル・アセットマネジメント   三井物産、LayerX、三井住友信託銀行、SMBC日興証券、JA三井リースによる合弁会社 |  企業や行政のLLMを用いた 業務効率化・データ活用を支援 バクラク事業 企業活動のインフラとなる 法人支出管理(BSM)SaaSを 開発・提供 Fintech事業 ソフトウェアを駆使したアセットマネジメント 証券事業を合弁会社にて展開 AI・LLM事業 エンジニア・PdM・BizDev積極採用中です!
  4. © 2024 LayerX Inc. 4 LayerXのLLM事業 LayerXのご紹介 例: 三井物産デジタル・アセットマネジメントでの取組 エンタープライズ企業の業務のリデザイン

    様々なファンドにまつ わる契約書 • LLMだからこそできるDX • 単に自動化するのではなく、業務を LLMネイティブな形に変える • 特に、長文の文書処理業務 ファンド管理DB 登記簿等の公的書類 投資サービスへの連携 ファンド運営の 効率化・自動化 LLM
  5. © 2024 LayerX Inc. 6 業界・業務特化のユースケースの発掘 「プチ幻滅期」を乗り越え、ChatGPTを超えたLLM活用が増えるはず • 現状、「ChatGPTがないと生きていけない」人はあまりいない •

    DX/IT部門以外が主導する、ドメインに深く根差した取り組みが色々生まれている • 今年沢山のファーストペンギンの事例が生まれ、波及していくのではないか • 既存SaaSへの組み込みも、徐々に地に足がついたものに (弊社バクラクでも取り組み中) 自社視点で見た2024年の生成AIトレンド予測
  6. © 2024 LayerX Inc. 7 LLMの“精度”: 既にかなり頑張っている? • エンタープライズ業務の多くの割合は、自社内に特化した知識・ルールに依存している •

    AIがインターネット上の情報から学習している限り、限界があるのでは ◦ とても地頭の良い新入社員が入ってきて、ネットの情報だけで仕事を学べますか? • コンテキストとして与えたドメイン知識の活用は、特にGPT-4は十分頑張っている (体感値) ◦ 精度が出ない原因を分解した際に、モデル自体のせい、ということが少ない エンタープライズ向けの業務効率化に限れば、LLM自体ができることに大きなサプライズは少ないかも? 自社視点で見た2024年の生成AIトレンド予測
  7. © 2024 LayerX Inc. 8 LLMのコスト低下・速度向上に期待 • コンテキストサイズの制限があっても、大抵はデータを分割して処理すれば問題ない ◦ むしろその方が精度が良い

    (“Lost in the middle”現象 [1]) • 一方、現実にはインフラコストの観点から、検索 (retrieval) で絞り込む必要 ◦ 検索は技術的にLLMほど進化していないため、ここが全体の精度のネックに ◦ よって、コストが下がると検索の精度の要件が下がるメリットがある ▪ GPT-4 Turboで値段が約1/3に下がった = 検索精度が1/3でも同じコスト • 同様に、ユーザーへのレスポンス速度も、特に既存SaaSへの組み込みで重要 一方、速度とコストの地道な改善により、「実用化水準」を超えるユースケースが増えていく 自社視点で見た2024年の生成AIトレンド予測 [1] Lost in the middle: How language models use long contexts. NF Liu, et al.