WWDC2018でグッときたアレ
by
Tomoki Kobayashi
Link
Embed
Share
Beginning
This slide
Copy link URL
Copy link URL
Copy iframe embed code
Copy iframe embed code
Copy javascript embed code
Copy javascript embed code
Share
Tweet
Share
Tweet
Slide 1
Slide 1 text
WWDC2018 で グッときたアレ Mobile Act NAGOYA #12
Slide 2
Slide 2 text
自己紹介 @temoki / 小林 友樹 Fenrir Inc. / PL, iOS Engineer
Slide 3
Slide 3 text
Mobile Act NAGOYA #11 今年の開発者イベントで僕がグッときたポイント Facebook F8 Oculus Go Google I/O Daydream に関する VR180
Slide 4
Slide 4 text
実はもう一つ グッときたものが...
Slide 5
Slide 5 text
WWDC 2018 Platforms State of the Union 以降、iOS, macOS, Xcode のベータ版について Apple が公開している情報の範囲での話となります。
Slide 6
Slide 6 text
Transfer Learning こそ 僕が望んでいたもの
Slide 7
Slide 7 text
試すにはデータが必要...
Slide 8
Slide 8 text
あった
Slide 9
Slide 9 text
Hello Goodbye オフィスに設置した iPad に顔を見せるだけで、 社内の勤怠システムで出社/ 退社できるアプリ 名古屋ß メンバーで開発して社内で広く利用されている 顔領域の検出には CoreImage の CIDetector 使用 顔認識(誰の顔?)は Amazon Rekognition 使用 支社メンバーの毎日の顔データがログに残っている
Slide 10
Slide 10 text
No content
Slide 11
Slide 11 text
データ メンバー7 名で約1,400 枚(約1 年間) メンバーごとに約200 枚 学習データとテストデータで半分ずつ
Slide 12
Slide 12 text
学習 Xcode Playground 上で 3 行書く import CreateMLUI let builder = MLImageClassifierBuilder() builder.showInLiveView() Live View にデータをドラッグ&ドロップするだけ データ約700 枚を25 秒で学習完了 (0.035 秒/ 枚)
Slide 13
Slide 13 text
試験 学習したモデルを使ってテストデータを試験 これも Live View にドラック&ドロップするだけ データ約700 枚を43 秒で試験完了 (0.061 秒/ 枚)
Slide 14
Slide 14 text
学習したモデル CoreML の mlmodel として保存可能 Vision Framework 等に組み込んで利用できる 今回のものは 130KB (小さい ) このサイズならアプリサイズも気にならない! 後からモデルの差し替えもしやすい?
Slide 15
Slide 15 text
リアルタイム顔認識デモ は懇親会で....
Slide 16
Slide 16 text
まとめ 誰でも独自のモデルがとても簡単に作成できる データを集めることに注力できる モデルサイズもとってもポータブル Machine Learning が完全に民主化した