Slide 1

Slide 1 text

AIキャラクター向けLLMの開発 2024.08.22 W&Bミートアップ #15 in 東京

Slide 2

Slide 2 text

confidential 2 のご紹介 01

Slide 3

Slide 3 text

confidential 3 人格・個性の再現技術 Q: 他⼈の違いや多様性をどのように受け⼊れ、尊重しますか? Chat GPT-4 他人の違いや多様性を受け入れ尊重するには、
 以下のような態度が大切です。
 
 1.オープンマインドを保つ-他人の意見や行動、文化が自分と異なることを理解し、 新しい考え方や視点に対して柔軟であることが大切です。
 2.知識を深める-他文化について学び、理解を深めることで偏見や誤解を減らし、 多様性をより深く尊重することができます。
 3.エンパシーを育む-他人の立場に立って考え、感情を理解しようとすることで共感 が生まれ、尊重へとつながります。
 4.コミュニケーションを大切にする-直接的なコミュニケーションを通じて、互いの違 いについて話し合い、相互理解を深めることが重要です。
 5.差別やステレオタイプに挑戦する-日常生活で目にする偏見やステレオタイプに 対して声を上げ、正しい情報を共有することも大切です。
 
 これらの態度をもって接することで、多様な背景を持つ人々との関係を築き、豊かな 社会の一員として貢献することができます。
 
 ItakoLLM 受け入れられないのって、なんだろうね。 自分のことが好きじゃないから、 他人も同じ気持ちでいるって勝手に決めつけちゃって、 だから受け入れられなくなっちゃうのかな。 わかんないけど、自分のことを好きになってみたらどうですか。 自分が好きだったら、自分と同じ気持ちでいてくれてるって思えるから、 なんか受け入れられるんじゃないかな。 尊重って難しいね、違いを認めるってことでいいんじゃない。 より深い、自由な会話の実現

Slide 4

Slide 4 text

confidential IQ: 会話の正確性 愛嬌: 会話の楽しさ SpiralAIのポジション

Slide 5

Slide 5 text

confidential 5 サービスラインナップ LLM‧⾳声合成モデル開発 ItakoLLM #独⾃LLM #緻密なAIキャラ再現 #伴⾛型でしっかり⽀援 AIキャラクター作成ツール #GPT-4o #簡単AIキャラ構築 #Webから⼿軽に開始

Slide 6

Slide 6 text

confidential 6 ItakoLLMのご紹介 02

Slide 7

Slide 7 text

confidential 7 事例 | 恋愛相談の神 ククリさま #独⾃キャラ構築 #⾳声⼊出⼒ #⾼速応答 クリックで動画が再⽣されます https://youtu.be/MFMPgboY1dM?feature=shared

Slide 8

Slide 8 text

confidential 8 ItakoLLMの特徴

Slide 9

Slide 9 text

confidential 9 Q: なぜ独⾃モデルを作るのか? ファインチューニングと強化学習により、プロンプトの限界を超えてキャラクターの会話品質を向上することが可能 納得⽔準までキャラクター品質を向上させたいから A

Slide 10

Slide 10 text

confidential 10 カスタマイズ性 | 会話の継続性 ‧独⾃のマルチターン会話データ ‧会話術、⼼理学等の専⾨知⾒ 2024年4⽉1⽇時点で、会話品質最⾼レーティングを獲得しているClaude-3-Opusと、弊社のItakoLLMに対し 同⼀内容のプロンプトを与え、どちらの会話モデルの⽅が優れているかを評価 ⼝語マルチターン会話能⼒ 01

Slide 11

Slide 11 text

confidential 11 LLM開発について 03

Slide 12

Slide 12 text

confidential 12 SpiralAIにおけるLLM開発 現バーション : ItakoLLM 次バージョン : 研究開発中 CyberAgent様のOpenCalmに対して追加学習 (継続事前学習〜強化学習) ‧キャラクターごとにLLMをファインチューニング: ⾼コスト &臨機応変さがもう⼀歩 ‧コンテキスト⻑の制限: ユーザーとの会話記憶の保持に制限 様々な⽅向性で検討中 ‧キャラクター特化型の共通基盤モデルの開発: 独⾃トークナ イザー、フルスクラッチ学習 ‧ コンテキスト⻑制約の軽減: RetNetの活⽤ ← 今⽇はこれを話します!

Slide 13

Slide 13 text

confidential 13 Transformer系アーキテクチャ Transformer系アーキテクチャでは、”Attention機構”を利⽤しています。 Attention機構は、次に出⼒する⽂字Q(Query)を考えるために、それ以前の⽂字列K(Key)をすべて 確認する必要があります → ⽂字列の⻑さが⻑くなると、⽐例して計算量が増えていきます。 Attention機構の計算量の限界のため、例えば「4,096⽂字前まで⾒るようにしよう」などと制限を かけており、過去の記憶を持てなくなっていました。 ただし、その4,096⽂字の中ならすべてを覚えておく能⼒があるので、「短期記憶には優れている けれども、⻑期記憶に弱い」といえます。

Slide 14

Slide 14 text

confidential 14 “⾮”Transformer系アーキテクチャ 最近では、Attentionの限界を取り払った⾮Transformer系アーキテクチャが提案されています: Mamba, RWKV, RetNet, 等 その⼀つであるRetNetは、”Retention機構”というものを採⽤しています。 Retentionの計算は⽂字列の⻑さが増えても計算量は増えない性質を持っており、無限に過去のこ とを参照することができます。 ⼀⽅で、記憶は徐々に薄れていくので、「短期記憶は弱いが、⻑期記憶に強い」と⾔えます。 どちらかというと、こちらのほうが「対話」には向いています。

Slide 15

Slide 15 text

confidential 15 RetNetの開発 ‧3bn. 級のRetNetを開発して公開 ‧当時、世界で唯⼀の公開モデルであり、RetNetの挙動研 究を⽬的として。Completionモデルを公開 【Retention可視化の例】 ‧DGX A100 3 nodesで、2週間。合計80bn. tokensを学習

Slide 16

Slide 16 text

confidential 16 学習の振り返り ‧⼟⽇昼夜問わない監視体制 ‧まだ運⽤が熟れて無く、定期的 に⽌まる&⼿動再起動 ‧スパイクも経験。応援しなが ら、戻ることを祈る数時間。 注) 佐々⽊は物理学実験出⾝なので、 このようなデータを1ヶ⽉⾒続けても 楽しめる。これを肴にお酒飲める。 可視化は最⼤のご馳⾛です!!

Slide 17

Slide 17 text

confidential 17 RetNetは通常の⾔語モデルとして使える When I was a child, I used to play with 3-D glasses. They were so much fun! I have been playing around in the world of video games for years now and it is amazing how … 近年、AI技術の進歩によって人間の仕事が奪われるのではないかという懸念がある。しかしながら、AIは 人間に取って代わるものではなく、「人間がコンピュータに仕事をさせる」という考え方 … 最近、秋葉原周辺で興味深いお店がいくつかあります。 1. 神田カレー街「カレーハウスCoCo壱番屋」2016年7月3日オープン … ‧Completionモデルとしての動作を確認 ‧⾮Transformer系での⾔語モデル開発コミュニティへの貢献

Slide 18

Slide 18 text

confidential 18 宣伝1 | ぜひご参加ください! 2024年8⽉29⽇(⽊)19:00〜21:30 弊社安⽴が登壇予定 “SageMaker リアルタイム推論とHuggingFace TGIを活⽤したLLMの省コスト運⽤および DynamoDBを使った会話ログの管理” 2024年9⽉17⽇(⽊)17:00〜20:00 渋⾕にて開催 “第19回⾔語処理若⼿シンポジウム(YANS)”の ポスターセッション参加者での振り返り会。 特にエンタメに関連深いトピックを選定予定。

Slide 19

Slide 19 text

confidential 宣伝2 | ぜひご利用ください! 19 LINEスタンプも販売中! ククリさま デモサイト公開中!

Slide 20

Slide 20 text

No content