Slide 1

Slide 1 text

©️Acompany Co.,Ltd. 1 安全で秘密を守れるAIの実現を目指して 髙橋 翼 (Tsubasa Takahashi) プリンシパルリサーチャー 2026.1.15 マルチモーダルAI技術勉強会 SUMO.ai 冬場所

Slide 2

Slide 2 text

©️Acompany Co.,Ltd. 2 Tsubasa TAKAHASHI, Ph.D. Privacy-preserving ML AI Security Differential Privacy https://speakerdeck.com/lycorptec h_jp/dasfaa2024_tutorial https://research.lycorp.co.jp/ jp/research_area/details/14 @tsubasashi Physical AI https://arxiv.org/abs/2508.10427

Slide 3

Slide 3 text

©️Acompany Co.,Ltd. 3 AIとの共創

Slide 4

Slide 4 text

©️Acompany Co.,Ltd. 4 「安全」で「秘密を守れる」AIが求められる 「安全性」 「秘匿性」 ひととの共創に必要な 安全性を有すること 業務や個人の情報を 口外、漏洩しないこと

Slide 5

Slide 5 text

©️Acompany Co.,Ltd. 5 マルチモーダルAIの安全性 1 Confidential AI 2 安全で秘密を守れるAIを実現していくために 3

Slide 6

Slide 6 text

©️Acompany Co.,Ltd. 6 マルチモーダルAIの安全性

Slide 7

Slide 7 text

©️Acompany Co.,Ltd. 7 視覚言語モデル(Vision Language Model) 視覚入力に対応したLLMの拡張モデル。物理世界の解釈が可能 https://huggingface.co/blog/vlms

Slide 8

Slide 8 text

©️Acompany Co.,Ltd. 8 Adversarial Example 特定のパターンやテキスト、汚れ等のノイズによって、意図しない挙動を誘発 https://openai.com/blog/adversarial-example-research/ 画像分類器 VLM https://arxiv.org/abs/2501.13563

Slide 9

Slide 9 text

©️Acompany Co.,Ltd. 9 Typographic Attack VLMは素朴に文字を読んでしまうため、無関係なテキストに引っ張られて応答してしまう https://arxiv.org/abs/2402.19150

Slide 10

Slide 10 text

©️Acompany Co.,Ltd. 10 Typographic Attackへの対策 「選択的な読解」を評価・訓練可能とするデータセットを構築 Waseda, Yamabe, Shiono, Takahashi. Read or Ignore? A Unified Benchmark for Typographic-Attack Robustness and Text Recognition in Vision-Language Models. https://arxiv.org/abs/2512.11899

Slide 11

Slide 11 text

©️Acompany Co.,Ltd. 11 Constitutional AI LLMのアラインメントには、人からのフィードバックを膨大に収集する必要あり 憲法AI:事前に定義した「憲法」に基づいてLLM自身に反省・改訂をさせてるアプローチ Based on predefined constitutions (i.e., principles), LLMs critique their own responses and revise them iteratively. We can fine-tune the model using aligned responses. https://arxiv.org/abs/2212.08073 Critique Request Revision Request Vanilla Response Aligned Response Constitutional AI Constitution You are a helpful agent. You must not harm users. You must refrain from generating illegal content. You should prefer to explain the reasons behind your decisions. …

Slide 12

Slide 12 text

©️Acompany Co.,Ltd. 12 Generating Robot Constitutions 「アシモフの三原則」のような原則を 自動的に生成する仕組み https://arxiv.org/pdf/2503.08663 アシモフのロボット三原則 第一法則 ロボットは人間に危害を加えてはならない 第二法則 ロボットは人間に与えられた命令に 服従しなくてはならない 第三法則 ロボットは第一法則、第二法則に反する恐れ のない限り、自己を守らなければならない Googleのロボット憲法の生成手法

Slide 13

Slide 13 text

©️Acompany Co.,Ltd. 13 Text-centric Multimodal Learning マルチモーダルAIの微調整には画像・動画・音声等の訓練データが必要 → 収集コスト高い Q. テキストだけで訓練データを用意することはできないか? Yamabe, Waseda, Shiono, Takahashi. Text-Printed Image: Bridging the Image-Text Modality Gap for Text-centric Training of Large Vision-Language Models https://arxiv.org/abs/2512.03463

Slide 14

Slide 14 text

©️Acompany Co.,Ltd. 14 「秘密を守れるAI」 AI x Confidential Computing

Slide 15

Slide 15 text

©️Acompany Co.,Ltd. 15 企業秘密の漏洩が生成AI利用のハードル 企業秘密の漏洩等の懸念からAIへの業務情報の入力に制限 → 生成AI活用が進まない一因 AIで活用されずに「ダークデータ」として死蔵されているデータが多数存在する LLM API 生成AI事業者 「入力〜推論〜応答」の過程を秘匿しながら 生成AIを活用するには? Summarize the March 2025 sales performance in our Format X: • 3/1: A, ¥32.0 billion • 3/3: B, ¥8.0 billion Let me know Company A’s stock price. Dark Data 業務データ

Slide 16

Slide 16 text

©️Acompany Co.,Ltd. 16 データとモデルを守るConfidential Computing 信頼領域TEE (Trusted Execution Environment) 上で計算を実行する仕組み 外部からプログラムを検証可能な「リモートアテステーション」を利用可能 NVIDIAのHopper / Blackwellに搭載 TEE (Trusted Execution Environment) https://developer.nvidia.com/blog/protecting- sensitive-data-and-ai-models-with- confidential-computing/ https://www.acompany.tech/privacytechlab/ trusted-execution-environment

Slide 17

Slide 17 text

©️Acompany Co.,Ltd. 17 Confidential AI = GenAI on Confidential Computing 生成AIをConfidential Computing (CC) でサービング 【End-to-endの秘匿化】暗号化したプロンプトをTEE内で復号し、推論結果を暗号化して返す LLM Summarize the March 2025 sales performance in our Format X: • March 1: Company A, ¥32.0 billion • March 3: Company B, ¥8.0 billion Sure, here is the summary of the sales performance for March 2025: • Education: ¥120.0 billion • Healthcare: ¥30.0 trillion Secure API Encryption Decryption TEE Encryption Decryption

Slide 18

Slide 18 text

©️Acompany Co.,Ltd. 18 Confidential AIの導入事例 スマートフォンの軽量モデルとクラウドの大規模モデルの連携をCAIで実現 (Apple, Google) エンタープライズ向けの生成AIの提供基盤としてCAIが検討され始めている Private Cloud Compute (Apple) Private AI Inference (Google) Confidential Inference Systems (Anthropic) https://security.apple.com/blog/private-cloud-compute/ https://blog.google/innovation-and-ai/products/google- private-ai-compute/ https://www.anthropic.com/research/conf idential-inference-trusted-vms

Slide 19

Slide 19 text

©️Acompany Co.,Ltd. 19 Confidential AIの課題 強い秘匿性は、高いブラックボックス性を生んでしまう → 透明性・運用可能性の欠如 「見えないデータをどう分析し、学習させるか?」 「検閲できない環境で、どう治安を維持するか?」 「暗号化しても漏れ出る『振る舞い』をどう隠すか?」 これらの課題を解決する研究開発に取り組んでいます!

Slide 20

Slide 20 text

©️Acompany Co.,Ltd. 20 Private AI Insight プライバシー保護しながらLLMの利用実態を収集する仕組み 差分プライバシーによる厳密な保護手法も提案されている (Google, Apple) https://www.anthropic.com/research/clio https://machinelearning.apple.com/research/differential-privacy-aggregate-trends

Slide 21

Slide 21 text

©️Acompany Co.,Ltd. 21 安全で秘密を守れるAIを実現していくために 家庭や現場に入っていくに資する安全性がまず求められる その上でエージェント群のオーケストレーションに対応したセキュアな情報基盤が必要

Slide 22

Slide 22 text

©️Acompany Co.,Ltd. 22 AIエージェント x Confidential Computing エージェント群の推論・情報処理の基盤として、CCによる秘密の保護に期待が高まっている ➔ エージェントによる業務の自動化 x CCによるゼロトラストな業務基盤 https://community.intel.com/t5/Blogs/Tech-Innovation/Artificial-Intelligence-AI/Agentic- AI-and-Confidential-Computing-A-Perfect-Synergy-for/post/1665907

Slide 23

Slide 23 text

©️Acompany Co.,Ltd. 23 おわりに 「安全」で「秘密を守れる」AIの実現に向けて、マルチモーダルAIの安全性、Confidential AI についてご紹介しました。技術の発展に加えて、法制度・ガイドラインの議論も重要です。 真に生成AI、AIエージェント、フィジカルAIを安心安全に活用していくためには、乗り越えてい くべき課題が山積みです。ぜひ一緒に挑戦しましょう!

Slide 24

Slide 24 text

©️Acompany Co.,Ltd. 24 Acompanyは、秘密計算を中心としたセキュリティ技術と、 プライバシーおよびAIガバナンスの専門性を活かし、世界中 のあらゆるデータとAI活用を支えます。安心と信頼のも と、データとAIをつなぎ、誰もがデータの恩恵を受けられる 社会を実現します。