Slide 1

Slide 1 text

LLMベースのAIの基本 2025-05-22 地域リーディング・イノベーター講座 きしだ なおき https://speakerdeck.com/kishida/basic-of-llm-base-ai

Slide 2

Slide 2 text

05/22/2025 2 自己紹介 ● きしだ なおき ● LINEヤフー ● X(twitter): @kis ● blog: きしだのHatena ● (nowokay.hatenablog.com) ● 「プロになるJava」というJavaの本を書いてます

Slide 3

Slide 3 text

3 AIをうまく使うために仕組みを知る ● AIは使い方によって能力が決まる ● うまく使えば高い能力を発揮する ● 仕組みを知ってうまく使う ● なんでもできると期待して、できないことをやらせようとしても無駄 ● 仕組みを知っていれば、どうやれば良い返答が引きだせるかもわかる ● 仕組みを知っていれば、何ができないかもだいたいわかる ● AIは能力をブーストするツール ● だれでも同じことができるようになるわけではない ● むしろ差が開いていく ※講義後追記

Slide 4

Slide 4 text

4 LLMってなに? ● 現在の「AI」の中心部 ● 大規模言語モデル ● 言語を扱う大規模なニューラルネットワーク ● Transformerを基本とする ● 仕組み的には、文章の続きを生成

Slide 5

Slide 5 text

Transformer ● 2017にGoogleが発表 ● Attention is All You Need ● アテンション ● 文章中の単語がどの単語を注目しているか

Slide 6

Slide 6 text

埋め込み行列 ● 文章を数千次元のベクトルで表現 ● 近い意味の文章は近いベクトルになる ● マルチモーダル ● 画像の特徴と文章の特徴を同じベクトル空間で表現

Slide 7

Slide 7 text

埋め込み行列を考えたときLLMとは ● 入力した文章のベクトルが決まる ● 出力として適切な文章のベクトルがなんらかあるはず ● 目的ベクトルに近づくように単語を追加していく ● 賢いLLMは最短距離で目的の文章に到達 ● 賢くないと迷いながら目的の文章に到達 ● 目的に達したこともよくわかってないので、いろいろ文章を足していく

Slide 8

Slide 8 text

LLMの学習 ● 大量の文章で学習 ● 大量の計算資源が必要

Slide 9

Slide 9 text

スケーリング則 ● 言語モデルの性能がパラメータ数、データセットサイズ、計算予 算を変数としたべき乗になる ● OpenAIが予算をつぎ込むキッカケになった Scaling Laws for Neural Language Models (Jared Kaplan, Sam McCandlish et al., 2020-01-23)

Slide 10

Slide 10 text

データセット ● LLMの性能はデータセットの質が影響 ● Webサイトのクロール、書籍、論文など ● 最近はクロールが厳しくなってきている ● 既存の文章は学習しつつある

Slide 11

Slide 11 text

ファインチューニング ● 学習済みLLMに調整を加える ● 指示応答調整 / RLHF ● LLMは文の続きを出す仕組み ● 対話のためには、対話形 式で文を生成する調整が必要 ● 指示応答 ● user / assistantの形 式 ● RLHF ● 人間の 評価を使う

Slide 12

Slide 12 text

知 識蒸留 ● 大きなモデルの対応を使って 小さなモデルを学習

Slide 13

Slide 13 text

推論 時スケーリング ● CoT( Chain of Thought) ● 「 段階的に考えて」 ● ユー ザーに応答を出す 前に考 慮過程をいれる ● 考 慮過程で コン ピュータを使うことで 思考力が 向上 ● 学習に コン ピュータを使うことと対 比して 推論 時スケーリングと 呼ば れる ● トランスフ ォーマに知 識を 投入する仕組みではないか

Slide 14

Slide 14 text

PCでLLMを 動かす ● LLMの性能があがって 小さいLLMが 実用的になってきた ● データセットの質が高くなっている ● データ 漏洩の 危険がない ● パラメータ数でサイズをあらわす ● 10B→100億パラメータ ● 量 子化 ● 16bit 実数が 標準だけど、 8bitなどにしても性能があま り劣化しない ● 8bitや 4bit、 2bitに変 換することを量 子化という ● 8bitなら BをGに 置き 換えたサイズ( 10 Bなら10G B)

Slide 15

Slide 15 text

オープン ウェイトLLM ● Google ● Gemma 3 ( 27B) ● Microsoft ● Phi 4( 14B) ● Meta ● Llama 4 Maverick( 400B MoE 17B active) ● Alibaba ● Qwen 3 ( 32B、 235B MoE 22B active) MoE: Mix of Experts 小さなエキスパートをたくさん 切り替えて使うので実行効率がいい

Slide 16

Slide 16 text

● G PU ● RTX 5090など ● 性能がいい ● メモリも 少ない( 50 90でも 32G B) ● CPU/G PU/N PU混載So C ● Macなど ● 効率がいい 。 ● メモリが 多い ● こ ちらがお そらく 主流に LLMを 動かす ハー ドウェア

Slide 17

Slide 17 text

LLMの 課題 ● ハルシネーション ● 与えた文章を 正しいと 想定する ● つじつまがあうように生成を 進めてしまう ● 倫理的 問題 ● 暴力的にならないように ● 犯罪支援にならないように ● 依存 させすぎないように

Slide 18

Slide 18 text

倫理問題への対 策 ● モデルを学習 させる ● 小さなLLMで入出力をチ ェック

Slide 19

Slide 19 text

AIとは ● LLMをベースにした応答システ ム ● 検索など 外部 連携が必要になっている ● ユー ザーインタフ ェースが 重要 ● 倫理チ ェックの仕組みが必要