Upgrade to Pro — share decks privately, control downloads, hide ads and more …

生成AI講座

Sponsored · Your Podcast. Everywhere. Effortlessly. Share. Educate. Inspire. Entertain. You do you. We'll handle the rest.
Avatar for uTaso uTaso
January 17, 2024
97

 生成AI講座

Avatar for uTaso

uTaso

January 17, 2024
Tweet

Transcript

  1. 自己紹介 uたそ (ゆうたそ | ゆーたそ) 執行役員 CCO @ Ms.Engineer 自律ロボット,

    機械学習, HMI LowCode開発基盤 FW, In-mem KVS, SearchEngine, RemoteConfig
  2. 統計的推論 ②分類 (識別) • 未知の値の近傍を探索すると割と筋の良い推論になりそう => KNN法 y x ?

    未知の値の属性を推定するために 近傍の奇数個の属性を参照する みかん はっさく
  3. ニューロンのモデル化 • 各ニューロンからの入力値に重要度 を掛け合わせます。(重み付け) • 重み付けされた入力を加算します。 • バイアスの加算(bの部分) • これらの加算された値を先ほどのシ

    グモイド関数のような活性化関数に 入力として与えます。 𝜒1 𝜒2 𝑦1 𝑤1 𝑤2 𝑦1 = 𝑤1 𝑥1 + 𝑤2 𝑥2 + 𝑏 活性化関数によって非線形の性質を 獲得し複雑な関数を表現できるように なりました!!
  4. ヒトが文章を理解する工程(想像) 「私は 夕飯に ステーキを 食べたかった です。」 自分のこと話す んだな 自分の夕飯にス テーキのことを

    話すんだな 自分の夕飯につ ての話か 自分の夕飯にス テーキを食べた かったのか、つ づきはあるのか な? あ、終わった。 夕飯にステーキ が食べたかった 話をしたんだな。
  5. 自然言語理解のモデル化 入力 1 入力 2 入力 t 出力 1 出力

    2 出力 t 𝑥1 𝑥2 𝑥t 𝑦1 𝑦2 𝑦t ℎt ℎ2 ℎ1 ℎ0 意味などの状態を 保持するベクトル
  6. (例) 文書分類 入力 1 入力 2 入力 t 出力 t

    𝑥1 𝑥2 𝑥t 𝑦t ℎt ℎ2 ℎ1 ℎ0 今日の 天気は です。 天気予報の記事 全ての入力を受け取ってから、 文書の分類結果を利用する
  7. (例)機械翻訳 入力 1 入力 2 入力 t 𝑥1 𝑥2 𝑥t

    ℎt ℎ2 ℎ1 ℎ0 ℎ1 ℎ2 出力 1 出力 2 出力 n 私は 夕飯に です。 I 𝑦1 𝑦2 wanted dinner. 𝑦n 全ての入力から得た 意味空間ベクトルを 出力側に渡す。 【重要】 このような入力と出力に 分離しているアーキテクチャを エンコーダ・デコーダーモデル と呼びます。
  8. Transformer アーキテクチャ • BERT や GPT などのベースになった アーキテクチャを Transformer と言

    います。 • 元々は機械翻訳モデルとして利用が 想定されていたそうです。 ※Attention Is All You Need.
  9. GPT-n GPT(Generative Pre-trained Transformer) みなさんご存じ「ChatGPT」など対話システムや 文章の生成器として活用されています。 Pre-tarained & Fine-tunung という新しいパラダイムを作った。

    特徴①: 1つのモデルで多様なタスクに対応できるようになった。 特徴②: 専門モデルを作成するための必要学習データ量が減った。
  10. BERT(バート | ベルト) BERT (Bidirectional Encoder Representations from Transformers) BERT

    は様々な自然言語系のタスクで高精度のパフォーマンスを発揮したモデルです。 Google のセマンティック検索でも利用されていたり、かなり普及しています。 特徴①: 単語の意味表現を獲得。 => テキストマイニング。固有表現抽出 特徴②: 文脈の理解。 => 文書分類。
  11. BERTの学習方法 ①マスク&推論 ②次文章予測 私は カレーを 食べたい。 [MASK] 私は カレーを 食べたい。

    私は カレーを 食べたい。 [MASK] 私は カレーを 食べたい。 スーパーでカレー粉を購入した。 私は カレーを 食べたい。 私は昨年イギリスに留学した。
  12. 生成モデルの課題感 • ライセンス • 学習データ、ソースコード、モデル、生成物の著作権・ライセンス • バイアス • 学習データの偏り、学習データ品質の劣化。 •

    非倫理的利用 • フェイクニュース • ウィルスソフトや兵器利用など • 技術的課題 • エネルギー消費、説明可能性。