Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
20250614_LT_走れメロスの個人情報マスク処理をMacStudio 512GBメモリマ...
Search
Sponsored
·
Ship Features Fearlessly
Turn features on and off without deploys. Used by thousands of Ruby developers.
→
NobuakiOshiro
PRO
June 13, 2025
Technology
36
1
Share
20250614_LT_走れメロスの個人情報マスク処理をMacStudio 512GBメモリマシンで試してみた
https://agifukuoka.connpass.com/event/352826/
NobuakiOshiro
PRO
June 13, 2025
More Decks by NobuakiOshiro
See All by NobuakiOshiro
20260512_イラン情勢_物流アップデート
doradora09
PRO
0
43
20260513_生成AIを専属DSに_AI分析結果の検品テクニック_ハンズオン_交通事故データ
doradora09
PRO
0
210
20260509_ぼちぼちアプリ版Codex_and_CLI入門
doradora09
PRO
0
91
20260507_今週の中東情勢・物流統合レポート_NOBDATA
doradora09
PRO
0
43
20260507_中東有事後のグローバル資源需給_AI調査
doradora09
PRO
0
53
20260501_ITエンジニアさん向け_分析基盤・データ活用概論
doradora09
PRO
0
50
20260430_週次モニタリング_統合版スライド
doradora09
PRO
0
33
20260422_中東情勢・物流週次モニタリング
doradora09
PRO
0
72
20260415_生成AIを専属DSに_自動レポート作成_ハンズオン_交通事故データ
doradora09
PRO
0
330
Other Decks in Technology
See All in Technology
生成AI時代に信頼性をどう保ち続けるか - Policy as Code の実践
akitok_
0
140
SLI/SLO、「完全に理解した」から「チョットデキル」へ
maruloop
1
140
要件定義の精度を高めるための型と生成AIの活用 / Using Types and Generative AI to Improve the Accuracy of Requirements Definition
haru860
0
310
Modernizing Your HCL Connections Experience: Visual Report to chain, Profile Enhancements, and AI Integration
wannesrams
0
290
Building Production-Ready Agents Microsoft Agent Framework
_mertmetin
0
160
Databricks Academic Series 〜 大規模言語モデル / エージェント編 〜 / academic-series-llm
databricksjapan
0
110
そのSLO 99.9%、本当に必要ですか? 〜優先度付きSLOによる責任共有の設計思想〜 / Is that 99.9% SLO really necessary? Design philosophy of shared responsibility through prioritized SLOs
vtryo
0
160
「強制アップデート」か「チームの自律」か?エンタープライズが辿り着いたプラットフォームのハイブリッド運用/cloudnative-kaigi-hybrid-platform-operations
mhrtech
0
140
Agent の「自由」と「安全」〜未来に向けて今できること〜
katayan
0
350
データモデリング通り #5オンライン勉強会: AIに『ビジネスの文脈』を教え込むデータモデリング
datayokocho
0
190
AI 時代の Platform Engineering
recruitengineers
PRO
1
110
Agents CLI と Gemini Enterprise Agent Platform で マルチエージェント開発が楽しくなる!
kaz1437
0
260
Featured
See All Featured
Lessons Learnt from Crawling 1000+ Websites
charlesmeaden
PRO
1
1.2k
Keith and Marios Guide to Fast Websites
keithpitt
413
23k
Making the Leap to Tech Lead
cromwellryan
135
9.8k
DBのスキルで生き残る技術 - AI時代におけるテーブル設計の勘所
soudai
PRO
65
54k
Raft: Consensus for Rubyists
vanstee
141
7.4k
Context Engineering - Making Every Token Count
addyosmani
9
870
DevOps and Value Stream Thinking: Enabling flow, efficiency and business value
helenjbeal
1
180
Stop Working from a Prison Cell
hatefulcrawdad
274
21k
How to make the Groovebox
asonas
2
2.2k
Breaking role norms: Why Content Design is so much more than writing copy - Taylor Woolridge
uxyall
0
270
AI in Enterprises - Java and Open Source to the Rescue
ivargrimstad
0
1.3k
The AI Search Optimization Roadmap by Aleyda Solis
aleyda
1
5.7k
Transcript
LT : 「⾛れメロス」の 個⼈情報マスク処理を Mac Studio 512GBメモリ マシンで試してみた 2025/6/14 @doradora09
Mac Studio 512GBメモリマシン • メモリ512GBまでマ シましにできるポー タブルPC(4kg) • LLMの⼤きいモデル が動くので今回実験
利⽤
Mac Studio 512GBメモリマシン • ちなみにスペック増 し増しにすると200万 を超えます・・ • ( 3台買ったらカード
を⽌められたのは良 い?思い出・・ )
閑話休題:⾛れメロス • ⻘空⽂庫で全⽂公開されてます • https://www.aozora.gr.jp/cards/000035/files/1567_14913.html • ローカルLLMで「メロス」や「セリヌンティウス」などの名称をマス クしたい -> これができれば、社内でいろんなデータをLLMに⾷わせて処理できる
-> また、マスク後データを外部のさらに性能の良いAPIに投げて分析させるとか もできて良さげ • 現時点での結論 • Mac Studio 512GBならいけそう • 128GBメモリのMac Boop Proだと厳しいかも?
原⽂ • だいたい1万⽂ 字くらいの物語
LM StudioでLlama-4を動かす • Mavericのモデルは230GBくらい容量あるのでダウンロードの 帯域とか注意( スマホテザリングではやらない⽅が吉・・ ) • メモリ使⽤量はこんな感じ
注意:トークン⻑は伸ばしておくこと • ML Studioでロード したモデルのデフォ ルトが4000トークン くらいなので、 input/outputの⽂字 数が全然⾜りない (2000⽂字くらい)
• 設定で5-10万トーク ンにしておけばOK
参考:Llama-4 Mavericのメモリ使⽤量 • 240GBくらい • 頑張れば2本くら い⾛らせられる?
今回⽤いたプロンプト ・指⽰ 以下の原⽂に対して、個⼈が特定できないように⽒名のマスクを お願いします。また後で復元できるように対応表を作成し、最初と 最後に提⽰してください。【⼈物1】のようなイメージでお願いし ます。 ・原⽂ ⾛れメロス 太宰治 メロスは激怒した。必ず、かの邪智暴虐の王を除かなければなら
ぬと決意した。メロスには政治がわからぬ。・・・(以下、最後ま で記載)
実⾏結果① ( Llama-4 Maveric ) • とても良い感じです • 動作中のメモリ使⽤量は 266GBくらい
• 15token/sec、くらいのス ピードは出てそうです
実⾏結果② ( Llama-4 scout-17b-16e ) • やや、いい感じです ( アレキスが⾜りない )
• 動作中のメモリ使⽤量は 116GBくらい • 15token/sec、くらいのス ピードは出てそうです
実⾏結果③ ( Llama-3.3-70b ) • 少し間違えているものの、概ねOK ( 太宰治を⼈物2、とかたまに間 違えている )
• 動作中のメモリ使⽤量は87GBくら い • 5token/sec、くらいのスピードな のでやや遅めですが許容範囲
実⾏結果④ ( Llama-4 dolphin-8B ) • 全然ダメでした ( そもそも指⽰を聞いて おらず、おうむ返し
) ・トークン⻑も8000トー クンくらいが上限だった ので2000⽂字まで縮⼩し て実験
参考:各モデルの特徴⽐較
その他所感等 • Llama-4 mavericでようやく及第点。ただ、⼗分ではない ( ChatGPT-4と4oの中間くらいの感覚 ) • 個⼈情報マスクは⼗分だが、バイブコーディングで分析させる にはまだ弱い印象(
複雑な分析は失敗する ) • ⼀⽅で「どんなデータでもローカルで安全に扱える」という点 はやはりデカい • ローカルLLM活⽤も引き続き⾊々検証していきたいと思います
Enjoy..!!