Slide 1

Slide 1 text

「思いつき」が2日で アプリになった話 AIアシスタントと一緒に、ミーム画像ランチャーを作った記録 memepick — macOS Reaction Image Launcher

Slide 2

Slide 2 text

きっかけ Slackでミーム画像を貼りたい。 毎回Google検索で10〜15秒。 会話のテンポが止まる。保存フォルダは整理されてない。 「ザボエラの画像」が欲しい瞬間に、パッと出したい。 10秒 毎回かかる検索時間

Slide 3

Slide 3 text

AIとの壁打ち 何を作るか、AIと一緒に考えた AIがした質問 • 本当にその問題は存在する? • 誰がお金を払う? • 今、どうやって解決してる? • 一番小さいバージョンは何? • 10個の機能、本当に全部いる? 決まったこと • Raycast拡張 → Tauriスタンドアロンに変更 • 海外ミーム → 日本のアニメ画像が本当の用途 • 10機能 → 4機能に削減 「ホットキーで出る・追加できる・ 検索で見つかる・選んで貼れる」 • 別のAI(Codex)にも独立レビューを依頼

Slide 4

Slide 4 text

実装 計画が承認されたら、一気にコードを書く 14:00 スキャフォールド プロジェクト作成 + プラグイン追加 14:30 最初のビルド Rust + Svelte + SQLite → .dmg生成 (3.9MB) 15:00 全機能実装 検索・コピー・D&D ホットキー・IME対応 16:00 バグ修正 5つの問題を 1つずつ解決

Slide 5

Slide 5 text

バグとの戦い 作ったら動かない。直したらまた動かない。 D&Dが効かない ブラウザからの画像ドラッグは ファイルではなくURLやデータ。 → HTML5 DataTransfer APIで対応 クリックしても何も起きない alert()がTauriのWebViewで 動かなかった。 → 視覚的フィードバックに変更 クリップボードにコピーできない JS側のAPIが画像に非対応。 → Rust側でmacOSネイティブ クリップボードに直接書き込み タグ編集するとウィンドウが消える クリックイベントが親要素に伝播。 → 3つのサブエージェントで 並列調査して原因特定

Slide 6

Slide 6 text

比較 昔なら2ヶ月。今は2日。 AI前 Rust + Svelte学習: 2〜4週間 macOS API調査: 3日 UI実装: 1週間 バグ修正: 1週間 合計: 1〜2ヶ月 AI + gstack 壁打ち + 設計レビュー: 2時間 全機能の実装: 3時間 バグ修正 + デバッグ: 3時間 ログ追加 + GitHub公開: 1時間 合計: 約2日(実作業9時間)

Slide 7

Slide 7 text

大事なこと AIが全部やったわけではない 「何を作るか」を決め た AIは問いを出すけど 答えを出すのは人間 「重すぎる」と言われ て 機能を削った 作りたい衝動を 抑える判断 「動かない」をAIに伝 えた 何が起きてるかを 観察して報告 「誰に使ってもらうか 」 を考えた 技術じゃなくて 人の問題

Slide 8

Slide 8 text

プログラミングの壁は、もうほとんどない 。 残ってるのは 「何を作るか」を考える力と 「本当に誰かの役に立つか」を確かめる行動力。 それは、コードを1行も書いたことがない人でも持てる力です。