Upgrade to Pro — share decks privately, control downloads, hide ads and more …

【20260127 AI×DevOps Study #3】UI/UXの開発フレームワーク 2/...

Sponsored · SiteGround - Reliable hosting with speed, security, and support you can count on.

【20260127 AI×DevOps Study #3】UI/UXの開発フレームワーク 2/2 - 評価と自動化

■AI×DevOps Study #3 の概要
2026年1月27日に開催した「AI×DevOps Study」第3回の勉強会資料です。

「AI×DevOps Study」は、AI駆動開発やそこに関係するマイクロサービスについて理解を深める場になります。
株式会社ScalarではAIを使ったチーム開発を進めており、参画しているメンバーや協力会社の方から、具体的なAI駆動開発を実施する方法、その中で生まれたマイクロサービスアーキテクチャを使用したAI駆動開発の事例や実際に使えるエージェントについてお話頂き、参加者の皆様と知識の共有や交換を目的としています。
(弊社製品であるScalarDBも絡んだお話も一部出てきますが、汎用的な内容となっておりますのでフラットにお楽しみいいただけます)

■今回のテーマ
「UI/UXの開発フレームワーク 2/2 - 評価と自動化」

第2回は、実装後のフェーズに焦点を当て、クライアントからのフィードバック反映、UX評価、ドキュメント作成といった「評価・運用」プロセスをAIによって自動化・効率化する手法を紹介します。

1. イントロダクション
AI活用の深化:実装だけでなく、その後の「評価」や「ドキュメント化」といった周辺業務においてもAIエージェントを活用し、プロジェクト全体の品質とスピードを向上させる方針を提示。
フェーズの拡張:要件定義・実装(第1回)に続き、クライアントの要望反映から多言語化、チームでの運用ルールに至るまでの実践的なワークフローを紹介。

2. フィードバックの即時反映と改善
会議のマルチモーダル集約:Googleの「NotebookLM」を活用し、会議の録音データと実際の画面キャプチャ(スクリーンショット)をソースとして読み込ませることで、精度の高い要件抽出とタスク分解を自動化。
即時実装フロー:抽出した要件をAIエージェントに渡し、その場でコード修正から動作確認(devサーバー起動)までを行うことで、会議中に改善案を提示できるスピード感を実現。

3. AIエージェントによるUX評価
評価の自動化:Vercel製の「agent-browser」を利用し、AIがブラウザを操作してユーザー行動をシミュレーションすることで、コストと時間を抑えたUX評価を実施。
ペルソナとジャーニーの生成:プロジェクト資料からAIが「ペルソナ」と「ユーザージャーニーマップ」を定義し、それに基づいた視点でサイトを巡回・評価することで、客観的な改善提案(アクセシビリティやユーザビリティ)を出力。

4. ドキュメント生成の自動化と運用ルール
ドキュメントとテストの同期:AIエージェントがアプリケーションを探索し、E2Eテスト(Playwright)の実装、スクリーンショットの撮影、そして操作マニュアル(MDX)の執筆までを一貫して自動で行う仕組みを構築。
多言語化とチーム規約:モノレポ構成による翻訳リソースの一元管理で工数を削減しつつ、AI活用においては「人のレビューを怠らない」「プロンプトを疑う」といったチーム内の運用ルールを徹底することの重要性を強調。

■登壇者情報(敬称略)
箱崎一輝
株式会社NewWizのバックエンドエンジニア。PHP/Laravelでの開発経験を経て、2025年4月からClineでAI駆動開発を開始。2025年7月よりClaude Codeに移行し、現在はAIを活用したバックエンド開発を専門としている。チーム開発におけるAI活用の課題を解決するため、Claude CodeのSkillsを活用した開発支援テンプレートを作成・運用中。

■勉強会動画
UI/UXの開発フレームワーク 2/2 - 評価と自動化【20260127 AI×DevOps Study #3】
https://www.youtube.com/watch?v=44VaUiEBOpc

Avatar for Scalar, Inc.

Scalar, Inc.

February 01, 2026
Tweet

More Decks by Scalar, Inc.

Other Decks in Technology

Transcript

  1. • 開発フェーズごとのAI活⽤例 ◦ 要件整理 ▪ ドメインストーリーテリングを⽤いて エンジニア以外にも伝わる「可視化」を⾏ったこと ◦ 設計‧実装 ▪

    AIエージェントと相性の良いコンポーネント設計(Atomic Design)を採⽤ • 判断基準をルール化することで、AIによる⾃動実装の精度と再利⽤性を向上 ▪ Claude Code:どうやるかをSkillsとして定義し、ベストプラクティスを形式知化 • コードレビューや規約遵守を⾃動化し、属⼈化を防ぎつつ保守性を担保 • 汎⽤的なUI/UXフレームワークの紹介、デモ 第⼀回:チーム開発におけるAIの実践的活⽤ 8

  2. CC スキル:designing-frontend • コンポーネント設計から実装‧テストまでを統合的にガイドするスキル ◦ 以下の分割されたドキュメントを段階的に開⽰ ▪ Atomic Designの階層定義と判断フロー ▪

    業務システム向けUI美学とガイドライン ▪ CSS変数、セマンティックカラー、Tailwind統合 • Primary/Secondary/Muted/Accent/Destructiveのセマンティックカラー。 直接⾊指定禁⽌(bg-blue-600 × → bg-primary ◯) ▪ インタラクションテストパターン • Given-When-Thenパターン必須、セマンティッククエリ使⽤(getByRole, getByLabelText)。⾮同期はfindByを使⽤
  3. UX評価におけるこれまでの課題 • 評価者によって⼿順、参加者、課題設定がバラバラ ◦ 評価者のスキルレベルや主観に依存する、再現性がない → 評価基準の属⼈化によって品質のばらつきを⽣む • コストや時間の制約 ◦

    規模によるが被験者との諸々調整(⽇程やインタビュー、レポート作成など)はなかなか⼤変 → 予算⾯で厳しいプロジェクトは、外部に依頼するのも厳しい • ⼀度の評価で終わり、継続的な改善サイクルを作りずらい ◦ リリース前や⼤規模改修時に⼀度だけテストを実施→改善 ◦ 定期的な運⽤は様々な制約で厳しいのがあるある
  4. agent-browser を利⽤したUX評価 ペルソナ定義 → ユーザージャーニー作成 → UX 評価 をワンストップで実⾏ •

    ペルソナ定義:サービスに即した架空のユーザー情報を AI で⽣成‧設定 • ユーザージャーニー:ユーザーの⾏動、感情、ニーズなどを AI で⽣成 • UX評価:ユーザーがサービスやアプリを使った時の体験がどの程度良いかをAI によって計測 ◦ 定量評価とペルソナ特性による定性評価 ◦ Core Web Vitals やアクセシビリティ指標など
  5. • ユーザーのあいまいな質問に対してClaude Codeが適切な選択肢を⽣成し、 ユーザーがその中から選ぶ形で回答できるような Claude Codeが提供するツール。 • CLAUDE.mdに以下記述 ## ユーザー確認ポリシー

    PlanModeに限らず、重要な判断や複数の選択肢がある場合は、 **AskUserQuestionツールを使用**してユーザーに確認してください。 不明点がなくなるまで AskUserQuestionツールで繰り返し質問してください。 ただし、以下の条件に該当する場合は確認をスキップできます : - ユーザーが既に明確な指示を出している - プロジェクトの既存パターンから判断が明白 - 軽微な変更で影響範囲が限定的 AskUserQuestionとは?
  6. デモ:UX評価 1. プロジェクトの分析とペルソナ定義 2. ユーザージャーニーマップ作成 3. agent-browserでWebページ巡回とスナップショット取得 4. ペルソナ視点でのUX評価実施 a.

    テンプレートmdファイルを参照し、評価を実施 i. 第一印象・全体評価、情報の見つけやすさ、ナビゲーション・構造、デザイン・ビジュアル、 操作性、ペルソナ別ニーズ充足度 b. 改善提案と緊急度別に分類 5. 評価結果の保存とサマリー作成
  7. CCサブエージェント:ux-evaluator • 役割:⼈間中⼼設計に基づくUX評価を⾏う • ワークフロー概要 1. 情報収集:README.md読み込み 2. ペルソナ作成:2〜3名のペルソナ定義 3.

    ユーザージャーニー作成:4フェーズのジャーニーマップ 4. Webページ巡回:agent-browser でスナップショット取得 5. UX評価:ペルソナ視点で評価‧改善提案 6. 結果保存:指定ディレクトリに保存
  8. • 役割:E2Eテスト兼エンドユーザー向け操作マニュアルを作成する • ワークフロー概要 1. 情報収集:対象URL‧保存先を確認 2. 探索:agent-browser でアプリを巡回 3.

    報告:主要機能⼀覧‧ガイド構造案を提⽰ 4. 計画作成:writing-guides スキルのテンプレ参照 5. ドラフト:MDXファイルを作成 6. メディア取得:Playwrightでスクリーンショット‧動画録画 CCサブエージェント:guide-writer
  9. AI活⽤時の注意点について 個⼈タスクでの考え⽅ • ⼈のレビューを怠らない ◦ AIによる⽣成コードを必ず読む • AIによる出⼒精度を疑う前に、⾃分のプロンプト/設定を疑う ◦ 改善した⽅が良いものについてはチームに共有する習慣、共有しやすい空気を作る

    チーム開発での考え⽅ • 調査タスクに複数⼈で時間をかけ、実装タスクはなるべく⼈が被らないようにする • AIのルールは慎重に取り⼊れて評価 ◦ 外部プロジェクトの最適化設定は、このプロジェクトに最適とは限らない ◦ 例:Claude CodeのSkillなど • 定期的な内部振り返り‧キャッチアップの習慣化
  10. 本⽇のまとめ • フィードバックサイクルの効率化 ◦ NotebookLM等で会議内容を即座に要件化‧実装し、その場で動く画⾯を確認 ◦ ⼿戻りの原因となる認識ズレを会議中に解消し、合意形成のスピードを最⼤化 • UX評価の⾃律化 ◦

    AIエージェントがペルソナとして振る舞い、サイトを⾃動巡回してユーザビリティを評価 ◦ ⼈間にはコストの⾼い網羅的なテストを代⾏させ、客観的な品質改善を効率化 • 保守‧運⽤の⾃動化 ◦ アプリケーションの探索結果に基づき、操作マニュアルやE2Eテストコードを⾃動⽣成 ◦ 実装変更への追従を⾃動化することで、ドキュメントの形骸化を防ぎつつ保守性を担保
  11. 全2回のまとめ • 開発の進め⽅やチームのあり⽅そのものを、AI前提で作り変える ◦ AIを単なる個⼈のコーディング補助からチーム開発の基盤へと再定義 ◦ プロジェクト全体の認識ズレを解消し、属⼈化を防ぐための共通⾔語として活⽤ • ⼈とAIの役割分担 ◦

    AIには実⾏と提案を任せ、⼈は定義(ルール作り)と判断(レビュー)に集中 ◦ チーム固有のSkillsやプロンプトを育て続けることが、 これからの開発組織の最⼤の資産になる • プロセス全体の⼀貫性のための取り組みの紹介 ◦ 要件‧設計‧実装では可視化とルール化により、⼿戻りを防ぎ合意形成を加速 ◦ 実装‧評価‧保守ではエージェントによる⾃動化で、品質維持と効率化を両⽴