Upgrade to Pro — share decks privately, control downloads, hide ads and more …

[SRE NEXT 2023 CfP]SREとして向き合うGenerative AI

[SRE NEXT 2023 CfP]SREとして向き合うGenerative AI

Hashimoto Genki

October 01, 2023
Tweet

More Decks by Hashimoto Genki

Other Decks in Technology

Transcript

  1. 自己紹介|橋本玄基 2 所属: 株式会社スリーシェイク Sreake事業部 経歴: 18年新卒で金融系事業者でのオンプレ運用 -> プログラミング教育系スタートアップで Pythonバックエンド

    -> スリーシェイクjoin なぜこの発表?: ・別にAIOpsのスペシャリストでも機械学習詳しくもな い。 ・半年休職しているなか、明らかにはてなブックマーク のトップエントリがLLM,ChatGPT, Generative AIに染 まっていくタイミングがあり、なにか社会が変わったん だなと震える。 ・復職後SREとしてのLLM活用の検討・検証というふんわ りした名目で色々触ってみた。 →同じように何か流行ってるけどどうなんだろう?とい う人に知見を共有したい。
  2. 本日の想定視聴者とお話しすること Copyright © 3-shake, Inc. All Rights Reserved. LLMの原理 LLMのできること

    SREとして考えるGenerative AIの使い所 話すこと 話さないこと LLMを利用した詳細な実装方法 ・何かChatGPTとか流行ってるのは知ってる ・自分の仕事とはいまいち紐づかない ・とはいえ忙しいので触ってる暇がない 想定視聴者
  3. 一般的な機械学習: 固定のタスクに 対して望ましい出力を得るように 学習すること。 これまでの機械学習モデルとLLMモデルの違い(何で騒がれてる?) 7 LLM: 入出力がテキストということ 以外は汎用的なタスクが可能(翻 訳、計算、要約、etc…)

    100*100pxの 白黒画像を犬 か猫かを高精 度で分類します n文字以内の文 字列にたいして いい感じに答え ます すなわち学習というフェーズをス キップして誰でもAIを使える時代 の到来 学習フェーズのコストを 下げるために様々なサー ビスが登場 →とはいえハードルの高 いタスク
  4. 解決策①制限が大きいモデルを利用する 最近は長文用のモデルが各社提供されはじめている。お値段も長い分高くなる傾 向。 入出力長さ制限への対応 15 基本モデル 長文用モデル gpt-3.5turbo 4k 入力

    $0.0015 / 1k tokens 返答 $0.002 / 1k tokens 16k 入力 $0.003 / 1k tokens 返答 $0.004 / 1k tokens gpt-4 8k 入力 $0.03/1k tokens 返答 $0.06/1k tokens 32k 入力 $0.06/1k tokens 返答 $0.12/1k tokens chat-bison 4k $0.0005 / 1k characters 32k $0.0010 / 1k characters OpenAI/Googleの料金設定
  5. 解決策② ファインチューニング 学習済みモデルに対して別のデータで再学習を行うこと。 モデルが知らないことを利用する 18 引用: ファインチューニング – 【AI・機械学習用語集】 (https://zero2one.jp/ai-word/finetuning/)

    現時点では、出力形式の統一(口調 など)は行える例が出ているが、特 定の知識を学習させることを成功さ せている例はほとんどないのが現 状。。。
  6. LLMの得意から考える活かしどころ 21 得意なこと - 要約する - 一般的な質問に答える - 指定通りの文章を作成する -

    質問に近しい文書を探す (RAG) 活用①: 情報摂取効率の向上 活用②: toil削減のための自動化実装を代替する
  7. 活用②: toil削減のための自動化実装を代替する 25 SRE本5章より toilの定義「サービスを稼働させることに直結している作業で、繰り返されたり、手作業 だったりするもの」 toilの特徴 - 手作業であること -

    繰り返されること - 自動化できること →自動化のコストが高くてそのままにして - 戦術的であること いるようなタスクをLLMに任せたい - 長期的な価値を持たないこと - サービスの成長に対してO(n)であること
  8. 活用②: toil削減のための自動化実装を代替する 27 最新化が定期的に必要なドキュメンテーションのメンテナンスをLLMに任せる e.g. ・構成図 ・権限管理 OpenAI API を利用して

    Terraform から構成図っ ぽい Mermaid を出力してくれるコマンドを作っ た話 (https://sreake.com/blog/mermaid-with-open ai-api/) 自作した構成図 OpenAIがterraformから出したmermaid (登場人物は合っているが依存関係はterraformに引っ張られている) 精度が上がってくるとX as Codeが重要視されるかもしれない もしくはInputが言語以外に多彩に対応してくる →ChatGPTで画像入力が順次公開中、クラス図や画面イメージから ChatGPTでコード化する記事が登場 画像対応ChatGPTで設計図からコードの世界が実現しててやばい (https://nowokay.hatenablog.com/entry/2023/09/28/095849)
  9. まとめ 29 • SREとしてGenerative AI(≒LLM)を活用する2つの提案 ◦ 情報摂取効率を上げる ▪ ナレッジの検索性能を向上させる •

    ドメイン知識の差分をなくしていく • オンコール対応の難易度を下げる など ◦ toilの実装を代替する ▪ “自動化可能”というtoilの定義からもう1段階広い領域の自動化を考える • (コストやパフォーマンス)レポートのインサイトをまとめる • ドキュメンテーションの一部自動化           など • LLMに任せる作業が増えるとX as Codeが進んでいくかも? • 使いたいときに役立ちそうなキーワードたち ◦ トークン制限、再帰的要約/RAG(Retrieval Augmented Generation) ◦ langchain(発表には登場していないが、細々とした実装に必要なパー ツがまとまったpython/js/tsライブラリ)