Upgrade to Pro — share decks privately, control downloads, hide ads and more …

自社データを生成AIに活用

Sponsored · Ship Features Fearlessly Turn features on and off without deploys. Used by thousands of Ruby developers.
Avatar for OHNO OHNO
July 19, 2025

 自社データを生成AIに活用

Avatar for OHNO

OHNO

July 19, 2025
Tweet

More Decks by OHNO

Other Decks in Technology

Transcript

  1. クラウド型vsローカル型 性 能 年 クラウド型 ローカル型 ELYZA3-8B ダウンロードして自前のPCで使う 情報漏洩の危険がない GPUが必要

    ・メタが牽引、グーグルもローカル型Gemma3を公開 それぞれ長所短所がある Llama-3-ELYZA-JP-8B DeepSeek cyberagent/DeepSeek-R1- Distill-Qwen-32B-Japanese DeepSeek ChatGPT4o
  2. プログラム例 import torch from transformers import AutoModelForCausalLM, AutoTokenizer DEFAULT_SYSTEM_PROMPT =

    "あなたは誠実で優秀な日本人のアシスタントです。特に指示が無い場合は、常に日本語で回答してください。" text = "仕事の熱意を取り戻すためのアイデアを5つ挙げてください。" model_name = "elyza/Llama-3-ELYZA-JP-8B" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype="auto", device_map="auto", ) model.eval() messages = [ {"role": "system", "content": DEFAULT_SYSTEM_PROMPT}, {"role": "user", "content": text}, ] prompt = tokenizer.apply_chat_template( messages, tokenize=False, add_generation_prompt=True ) token_ids = tokenizer.encode( prompt, add_special_tokens=False, return_tensors="pt" ) with torch.no_grad(): output_ids = model.generate( token_ids.to(model.device), max_new_tokens=1200, do_sample=True, temperature=0.6, top_p=0.9, ) output = tokenizer.decode( output_ids.tolist()[0][token_ids.size(1):], skip_special_tokens=True ) print(output) 6 https://huggingface.co/elyza/Llama-3-ELYZA-JP-8B text = "仕事の熱意を取り戻すためのアイ デアを5つ挙げてください。"
  3. RAGのしくみ ①質問と関連度の高い文章を検索 ⇒ ②質問と一緒にこれらをLLM渡す ⇒ ③回答を生成 LLM 関連度の 高い文章 A

    Q 文章ファイル Q 「参照文章の絞り込み」 ベクトル検索 キーワード検索 LLMは関連度の高い 文章を参照して回答 を生成 データベース