Slide 1

Slide 1 text

2025/4/10 クラスメソッド株式会社 生成AIインテグレーション部 Bizチーム 洲崎 義人 生成AI導入の選択肢 モデル開発と既存LLM活用の比較と選択基準

Slide 2

Slide 2 text

タイムテーブル 2 時間 タイトル 登壇者 13:00〜 13:20 生成AI導入の選択肢:モデル開発と既存LLM活用の比較と選択基 準 クラスメソッド株式会社 新規事業統括部 生成AIインテグレーション部 Bizチーム 洲崎 義人 13:20〜 13:40 AWSの生成AIサービスとモデル開発支援 アマゾン ウェブ サービス ジャパン合同会社 シニア生成AIスタートアップ ソリューションアーキテクト 針原 佳貴氏 13:40〜 14:00 自社独自モデルを開発することの重要性と実現にあたっての課 題 カラクリ株式会社 CPO 中山 智文氏 14:00〜 14:15 生成AIの開発・利活用に向けた「GENIAC」の取組について 経済産業省 商務情報政策局 情報処理基盤産業室 室長補佐 杉之尾 大介氏 14:15~ 14:30 質疑応答

Slide 3

Slide 3 text

モデル開発と既存LLM活用の 違いと特徴をわかりやすく整理します 生成AI導入でまず知っておきたい選択肢の違い 3

Slide 4

Slide 4 text

自己紹介 4 ● 2018年9月 入社 AWS営業部 ○ クラスメソッドメンバーズ 営業 ● 2021年7月 AWS事業本部 コンサルティング部 ○ AWSソリューションアーキテクト ● 2024年11月 新規事業統括部 Bizチーム ○ 生成AI営業・事業開発・研修講師など ● その他 ○ 2023 - 2024 Japan AWS Top Engineers ○ 2023 - 2024 Japan AWS All Certifications Engineers ○ 2025 AWS Community Builders (AI Engineering) ○ AWSの知識地図 第2章 執筆 ● 部署 ○ 新規事業統括部 生成AIインテグレ ーション部 Bizチーム ● 名前 ○ 洲崎 義人 ● 出身・住まい ○ 神奈川 / 福岡 ● 最近の運動 ○ キックボクシング

Slide 5

Slide 5 text

©Classmethod, Inc. Agenda 1. 生成AIを使うにはどんな方法があるか a. モデル開発とは i. ゼロから作る(ゼロベース) ii. 既存モデルを調整する(ファインチューニング) 2. モデルを作らずに使う方法 a. 既存LLMの活用パターン b. RAG(検索拡張生成) 3. どの手法を選べばいいか a. 技術選定の考え方と判断基準 4. まとめ 5

Slide 6

Slide 6 text

©Classmethod, Inc. 本セッションのゴールと対象者 ● ゴール ○ モデル開発・ファインチューニング・既存LLM活用の違いと特徴を理解する ○ 自社で生成AIを導入する際、どの方法が適しているかを判断するヒントを得る ● 対象者 ○ 生成AIの活用に興味があるが、「どこから始めるべきか」悩んでいる方 ○ モデル開発やLLM活用について、基礎から整理したいエンジニア/マネージャー 6

Slide 7

Slide 7 text

モデル開発

Slide 8

Slide 8 text

©Classmethod, Inc. 「モデル開発」とは 「モデル開発」とは、自社でLLMを構築・最適化すること ● 代表的な手法: ○ ゼロベース開発:モデル構造から自作し、学習も行う ○ ファインチューニング:既存モデルを自社データで微調整 ● 主な目的: ○ 精度や性能の最適化 ○ 独自性・差別化の確保 ○ セキュリティ/オンプレ対応 ● 高い自由度が得られる一方、開発コストや体制も求められる 8

Slide 9

Slide 9 text

©Classmethod, Inc. ゼロベース開発とファインチューニングの違い ゼロベース開発とは ● 学習済みモデルが存在しない状態からの訓練 ● ニューラルネットワークの重み(パラメータ)をランダムに初期化 ● 「どのノードをどう繋げば意味が通るか」を大量のデータで学習させる ● 近年はトランスフォーマー構造が主流 ● とても自由に作れる一方で、時間・コスト・専門チームが必要 ● イメージ:脳みそを白紙から育てるようなもの ファインチューニングとは ● 学習済みのモデルをベースに、新しいデータで調整を加える方法 ● 既存の知識を活かしつつ、用途に特化した追加学習を行う ● 実用的な選択肢(例:KARAKURI LMも該当) ● イメージ:すでに賢い人に専門知識を教える 9

Slide 10

Slide 10 text

©Classmethod, Inc. ニューラルネットワーク ニューラルネットワークとは(出典より抜粋) ニューラルネットワークは、微分可能な変換を繋げて作られた計算グラフ (computational graph) です。 本章では、まずは下の図のような、円 で表されたノード (node) に値が入っていて、ノードとノードがエッジ (edge) で繋がれているようなものを考えます。 この図でいうノードの縦方向の集まりのことを層 (layer) と呼びます。 そしてディープラーニング (deep learning) とは、層の数が非常に多いニ ューラルネットワークを用いた機械学習の手法や、その周辺の研究領域のことを指します。 10 参考リンク:Chainer ニューラルネットワークとは

Slide 11

Slide 11 text

©Classmethod, Inc. トランスフォーマー構造とは トランスフォーマー構造(出典より抜粋) トランスフォーマーは、入力シーケンスを出力シーケンスに変換または変更するニューラルネットワークアー キテクチャの一種です。 これは、コンテキストを学習し、シーケンス の成分間の関係を追跡することによって行われます。 たとえば、次の入力シーケンスを考えてみましょう。 「空の色は何色ですか?」 トランスフォーマーモデルは、「色」、「空」、「青」という単語の関連性と関係を識別する内部的な数学表 現を使用します。 その知識を使用して、「空は青い」という出力を生成します。 11 参考リンク:AWS 人工知能におけるトランスフォーマーとは何ですか?

Slide 12

Slide 12 text

©Classmethod, Inc. ファインチューニングの事例:カラクリさんの取り組み 活用している独自データ ① カスタマーサポートに特化した公開データ ・カラクリさん独自のクローラーで収集 ・公開情報から、サポート業務に関連するデータだけを抽出(約170億文字) ② カラクリ作成データ ・過去のチャットボット導入支援で得た知見をもとに、 スペシャリストが想定業務に合わせて指示・応答のデータを手作り ③ カラクリ保有データ ・ユーザーから許諾を得て蓄積した、匿名化されたやり取りデータを活用 学習方法 ・Llama 2ベースの事前学習モデルをもとに、上記の独自データでファインチューニング ・特化領域での自然な対話・正確な応答を目指す 12 参考リンク:カラクリの700億パラメーターLLM、国産モデルの中で最高性能を獲得

Slide 13

Slide 13 text

©Classmethod, Inc. モデル開発の2つのアプローチ:比較早見表 13 ゼロベース開発 ファインチューニング 学習の起点 • モデル構造から独自設計 既存のLLMを利用 カスタマイズ性 最大限(構造や振る舞いも自由) 高い(応答や専門用語に対応可能) 必要なデータ量 大量の学習データが必要 ドメイン特化のデータが中心となる 向いているケース 完全独自モデルが必要/技術優位性を狙う ドメイン特化モデルで精度を上げたい場合

Slide 14

Slide 14 text

既存LLMの活用

Slide 15

Slide 15 text

©Classmethod, Inc. 「既存LLMの活用」とは 15 「既存LLMの活用」とは、すでに提供されている大規模言語モデルを業務に応用すること ● 主な手法: ○ RAG(検索拡張生成):自社データと既存LLMを組み合わせる ○ API活用:OpenAI、Claudeなど商用LLMを呼び出す ○ オープンなモデルの活用:Llama、Mistralなどのモデルをローカル・クラウドで利用 ● 活用のメリット: ○ モデル開発不要でスピーディに導入 ○ コストを抑えて業務に展開しやすい ○ 知識ベースを更新するだけで精度改善が可能

Slide 16

Slide 16 text

©Classmethod, Inc. 既存LLMを業務利用するときに発生する課題 課題 原因 課題 1 最新の情報を反映できない 過去のデータをもとに学習しており、学習後の 情報は自動的に更新されないため 課題 2 業務に必要な特定の知識が 不足している 企業や行政機関内の非公開情報は学習データに 含まれていないため 16

Slide 17

Slide 17 text

©Classmethod, Inc. 生成AIの回答精度を高める仕組み 既存LLM単体では知らないことを答えさせる (RAG:Retrieval Augmented Generation) = 検索 で プロンプト を 拡張 17

Slide 18

Slide 18 text

©Classmethod, Inc. RAGの注意点(勘違いされやすい点) 全てのドキュメントを学習するわけではない ● 検索でヒットした一部の文章に基づいて回答する 回答の質のイメージ ● ドキュメントを初めて目にする人が理解できる範囲で答える感覚 ● 例えるなら、新入社員がドキュメントを読んで回答するイメージ RAGの限界を理解し、適切に補完するプロセスを導入することで、 より信頼性の高い回答結果が得られます 18

Slide 19

Slide 19 text

©Classmethod, Inc. 既存LLM活用の比較 19 説明 特徴 RAG Retrieval-Augmented Generation (検索+生成) 自社文書を参照できる/知識の更新が必要 商用API活用 OpenAI GPT-4、Claude、Geminiな ど 最新モデルを利用可能/外部サービスの依存 オープンな モデル利用 Llama、Mistral など カスタマイズ可能/インフラや管理が必要

Slide 20

Slide 20 text

手法の比較

Slide 21

Slide 21 text

©Classmethod, Inc. 手法の比較 21 長所 短所 モデル開発 ・最大限の柔軟性(構造・振る舞いを自由に設計) ・独自性・競争優位を実現可能 ・開発・運用コストが高い ・高い専門性と体制が必要 ファインチュ ーニング ・業務やドメインに特化した最適化が可能 ・完全なモデル開発よりも負担を抑えて導入可能 ・元のモデルに依存する ・継続的な評価や学習が必要 既存 LLM活用 ・即時導入可能・スピード重視に最適 ・初期コストが低く、スモールスタートしやすい ・モデル自体は制御できない ・情報更新や精度向上はRAG等の工夫が必要

Slide 22

Slide 22 text

©Classmethod, Inc. AWS(Bedrock)との関連付け 22 参考:AIF勉強会

Slide 23

Slide 23 text

まとめ

Slide 24

Slide 24 text

©Classmethod, Inc. まとめ 24 モデル開発の魅力 ● 自由度が高く、差別化・高精度なAIを実現できる ● その分、専門チーム・コスト・運用体制が必要 ファインチューニングの使いやすさ ● 既存モデルを活かしながら、自社に最適化 ● 独自データやドメイン知識を強みに変えられる(例:カラクリさん) 既存LLM活用の現実性 ● すぐに始められて、導入しやすい ● RAGやAPI連携などでも十分価値が出せる場合

Slide 25

Slide 25 text

No content