WWDC2018でグッときたアレ

0b8ad408b31cb9d5cff2828086c65d58?s=47 temoki
September 07, 2018

 WWDC2018でグッときたアレ

0b8ad408b31cb9d5cff2828086c65d58?s=128

temoki

September 07, 2018
Tweet

Transcript

  1. WWDC2018 で グッときたアレ Mobile Act NAGOYA #12

  2. 自己紹介 @temoki / 小林 友樹 Fenrir Inc. / PL, iOS

    Engineer
  3. Mobile Act NAGOYA #11 今年の開発者イベントで僕がグッときたポイント Facebook F8 ­ Oculus Go

    Google I/O ­ Daydream に関する VR180
  4. 実はもう一つ グッときたものが...

  5. WWDC 2018 Platforms State of the Union 以降、iOS, macOS, Xcode

    のベータ版について Apple が公開している情報の範囲での話となります。
  6. Transfer Learning こそ 僕が望んでいたもの

  7. 試すにはデータが必要...

  8. あった

  9. Hello Goodbye オフィスに設置した iPad に顔を見せるだけで、 社内の勤怠システムで出社/ 退社できるアプリ 名古屋ß メンバーで開発して社内で広く利用されている 顔領域の検出には

    CoreImage の CIDetector 使用 顔認識(誰の顔?)は Amazon Rekognition 使用 支社メンバーの毎日の顔データがログに残っている
  10. None
  11. データ メンバー7 名で約1,400 枚(約1 年間) メンバーごとに約200 枚 学習データとテストデータで半分ずつ

  12. 学習 Xcode Playground 上で 3 行書く import CreateMLUI let builder

    = MLImageClassifierBuilder() builder.showInLiveView() Live View にデータをドラッグ&ドロップするだけ データ約700 枚を25 秒で学習完了 (0.035 秒/ 枚)
  13. 試験 学習したモデルを使ってテストデータを試験 これも Live View にドラック&ドロップするだけ データ約700 枚を43 秒で試験完了 (0.061

    秒/ 枚)
  14. 学習したモデル CoreML の mlmodel として保存可能 Vision Framework 等に組み込んで利用できる 今回のものは 130KB

    (小さい ) このサイズならアプリサイズも気にならない! 後からモデルの差し替えもしやすい?
  15. リアルタイム顔認識デモ は懇親会で....

  16. まとめ 誰でも独自のモデルがとても簡単に作成できる データを集めることに注力できる モデルサイズもとってもポータブル Machine Learning が完全に民主化した