t 番目のトークン(入力)の計算を始 めるために t-1 番目のトークンの計算を終わらせる必要 があった。 • Transformer は注意機構こそが本質とし、注意機構のみ に基づくモデル。”学習時に” 遥かに高い並列性を実現で き、翻訳品質においても最高性能を達成。 出展:Vaswani et al. ”Attention Is All You Need”, 2017. https://arxiv.org/abs/1706.03762
Decoder(デコーダ): 出力文の作文・生成を担当 ※GPTなどの LLM は Decoder のみを利用したモデル構造です。 出展:Vaswani et al. ”Attention Is All You Need”, 2017. https://arxiv.org/abs/1706.03762
テキストの要約、情報抽出、質疑応答、テキスト分類、言語やコードの翻 訳、コード生成、コードのドキュメント作成や推論など、様々な種類の理解 ・生成タスクを達成するために工夫して使用する 引用元:"5-Day Gen AI Intensive Course with Google", https://www.kaggle.com/learn-guide/5-day-genai
に当面の特定タスクに関連する一般的な質問を検討させる Step2(思考):その一般的な質問への回答を、特定のタスクのための後続のプロンプトに追加 出展:Zheng et al., "Take a Step Back: Evoking Reasoning via Abstraction in Large Language Models", https://arxiv.org/abs/2310.06117