のパラメータの重みやその学習データは HuggingFace や GitHub などの Web サイトで数多く公開されており、わずか数行の Python コードで利用可能 import torch from transformers import AutoModelForCausalLM, AutoTokenizer # トークナイザとモデルの読み込み model_name = "meta-llama/Llama-2-7b-hf" tokenizer = AutoTokenizer.from_pretrained(model_name) model = AutoModelForCausalLM.from_pretrained( model_name, torch_dtype=torch.float16).to("cuda") # プロンプト prompt = "Mt. Fuji is the highest mountain in Japan. Its peek is at" # プロンプトをトークン化し、モデルに入力 inputs = tokenizer(prompt, return_tensors='pt').to(model.device) outputs = model.generate(**inputs, max_new_tokens=32, do_sample=False) # モデルの出力を文字列にデコードして表示 response = tokenizer.decode(outputs[0], skip_special_tokens=True) print(response) d 例: Llama-2-7B を利用した文章の生成 Mt. Fuji is the highest mountain in Japan. Its peek is at 3,776 meters above sea level. It is located in the Fuji-Hakone-Izu National Park. It is a d 実行結果 プロンプトに追加 (生成) された部分 インストラクションチューニングを行う 前のベースモデルは適切なところで出力 を「止めること」を学習していないため、 最大長まで延々と出力することがある ※ このコードの実行には NVIDIA 社の GPU (VRAM 16GB程度) を搭載した計算機、Python, PyTorch, CUDA Toolkit の実行環 境、HuggingFace Hub へのログイン、LLaMA ライセンスへの 同意等の事前準備が必要です。
LLMのファインチューニングに用いるデータ件数 Using LangSmith to Support Fine-tuning (langchain.dev) https://blog.langchain.dev/using-langsmith-to- support-fine-tuning-of-open-source-llms/
(Evol-instruct) により 増強して StarCoder をファインチューニングした結果、GPT-3.5 レベルまで性能を向上 WizardCoder [Microsoft, 2023/06] WizardCoder: Empowering Code Large Language Models with Evol-Instruct https://arxiv.org/abs/2306.08568 Please increase the difficulty of the given programming test question a bit. You can increase the difficulty using, but not limited to, the following methods: {method} {question} • Add new constraints and requirements to the original problem, adding approximately 10 additional words. • Replace a commonly used requirement in the programming task with a less common and more specific one. • If the original problem can be solved with only a few logical steps, please add more reasoning steps. • Provide a piece of erroneous code as a reference to increase misdirection. • Propose higher time or space complexity requirements, but please refrain from doing so frequently. ChatGPT への指示のテンプレート 「難しくさせる」 ためのパターン集 元のインストラクションチューニングのデータをここに入れる
[Toran Bruce Richards and contributors, 2023/3/30〜] ユーザの入力した”Goals”の例 1. Do market research for different headphones on the market today 2. Get the top 5 headphones and list their pros and cons 3. Include the price for each one and save the analysis 4. Once you are done, terminate 実行結果 1. Google検索を”top 5 headphones 2023”で実施 2. 検索結果1位のページにアクセスして欲しい情報が無かったと認識 3. Google検索を”top 5 headphones 2023 with pros and cons”で再度実施 4. 検索結果1位のページにアクセスして欲しい情報を発見 5. 正規表現でページから情報抽出しようとするが失敗 6. BeautifulSoupに切り替えて抽出 7. 抽出結果をファイルに保存