Slide 1

Slide 1 text

WWDC2018 で グッときたアレ Mobile Act NAGOYA #12

Slide 2

Slide 2 text

自己紹介 @temoki / 小林 友樹 Fenrir Inc. / PL, iOS Engineer

Slide 3

Slide 3 text

Mobile Act NAGOYA #11 今年の開発者イベントで僕がグッときたポイント Facebook F8 ­ Oculus Go Google I/O ­ Daydream に関する VR180

Slide 4

Slide 4 text

実はもう一つ グッときたものが...

Slide 5

Slide 5 text

WWDC 2018 Platforms State of the Union 以降、iOS, macOS, Xcode のベータ版について Apple が公開している情報の範囲での話となります。

Slide 6

Slide 6 text

Transfer Learning こそ 僕が望んでいたもの

Slide 7

Slide 7 text

試すにはデータが必要...

Slide 8

Slide 8 text

あった

Slide 9

Slide 9 text

Hello Goodbye オフィスに設置した iPad に顔を見せるだけで、 社内の勤怠システムで出社/ 退社できるアプリ 名古屋ß メンバーで開発して社内で広く利用されている 顔領域の検出には CoreImage の CIDetector 使用 顔認識(誰の顔?)は Amazon Rekognition 使用 支社メンバーの毎日の顔データがログに残っている

Slide 10

Slide 10 text

No content

Slide 11

Slide 11 text

データ メンバー7 名で約1,400 枚(約1 年間) メンバーごとに約200 枚 学習データとテストデータで半分ずつ

Slide 12

Slide 12 text

学習 Xcode Playground 上で 3 行書く import CreateMLUI let builder = MLImageClassifierBuilder() builder.showInLiveView() Live View にデータをドラッグ&ドロップするだけ データ約700 枚を25 秒で学習完了 (0.035 秒/ 枚)

Slide 13

Slide 13 text

試験 学習したモデルを使ってテストデータを試験 これも Live View にドラック&ドロップするだけ データ約700 枚を43 秒で試験完了 (0.061 秒/ 枚)

Slide 14

Slide 14 text

学習したモデル CoreML の mlmodel として保存可能 Vision Framework 等に組み込んで利用できる 今回のものは 130KB (小さい ) このサイズならアプリサイズも気にならない! 後からモデルの差し替えもしやすい?

Slide 15

Slide 15 text

リアルタイム顔認識デモ は懇親会で....

Slide 16

Slide 16 text

まとめ 誰でも独自のモデルがとても簡単に作成できる データを集めることに注力できる モデルサイズもとってもポータブル Machine Learning が完全に民主化した