2025年12月5日に開催された「第136回NearMe技術勉強会」の登壇資料です。
身近な生成AIサービスをローカルLLMで代替する試みとして、Ollama(Llama 3.2:1b)を利用したVSCodeのコード補完(インライン入力補完)拡張機能を作成しました。
【アジェンダ】
・VSCode拡張機能の作り方入門
・yo code ジェネレーターを使ったプロジェクト作成
・拡張機能のデバッグ方法
・ローカルLLM連携の実装
・Ollamaを用いた推論の実行
・Fill-in-the-Middle (FIM) 形式でのプロンプト設計
・カーソル前後のコンテキスト取得(Prefix/Suffix)と重複除去ロジック
・作ってみてわかったこと
・モデルの選定(Reasoningモデル vs 軽量モデル)
・前処理・後処理の重要性
【関連リンク】
ソースコード: https://github.com/asakaicode/local-llm-code-completion