$30 off During Our Annual Pro Sale. View Details »

GCN 20190407

yu.kosame
April 07, 2019
170

GCN 20190407

yu.kosame

April 07, 2019
Tweet

Transcript

  1. 深層学習による空中写真を対象とし
    た⼟地被覆分類の試み
    今井 優(⽴正⼤学・外部研究員)
    2019.04.07
    地域⾃然情報研究会

    View Slide

  2. ⾃⼰紹介
    名前:今井 優(いまい ゆう)
    ⽴正⼤学 地球環境科学部 外部研究員
    国際 ICT
    利⽤研究学会 評議員
    千葉県⽴中央博物館 共同研究員
    会員:GCN
    ,⽇本⽣態学会,⽇本⿃学会 等
    会社員(朝⽇航洋株式会社 G
    空間研究所)
    オープンソース GIS
    「QGIS
    」の研修等に従事
    好きな⽣き物
    コサメビタキ,ゴイサギ,ブナ など
    更新してない Web
    ページ:kosame.net
    2

    View Slide

  3. 2013
    年 GCN
    研究会
    ci.nii.ac.jp/naid/110009832027 3

    View Slide

  4. 対象地域の千葉県では
    ⼟地被覆の変化が著しい
    4

    View Slide

  5. ⼟地被覆の変化 と ⽣物のモニタリング情報を
    照合すれば,⼀つの年代での解析よりも
    よりクリティカルに,
    個体数変化の要因や⽣息条件を明確にできそう

    しかし,毎年分の空中写真を判読するのは
    労⼒と時間がかかる

    ⾃動で分類できないだろうか?
    5

    View Slide

  6. 空中写真分類のこれまでの経緯:
    RGB
    値で緑地抽出(2011
    年頃)
    空中写真から都市残存林を抽出するために
    C#
    でRGB
    値 が緑のピクセルを抽出し,
    ベクタデータに変換
    ピクセルの⽳を埋めるのが⼤変だった
    空中写真の⾊合いで微調整が必要だった
    6

    View Slide

  7. オブジェクト分類(2014
    年頃)
    GRASS GIS
    の i.segment
    で教師無し分類を試した
    パラメータの調整に試⾏錯誤が必要
    しきい値を増やすと影なども拾ってしまい,
    減らすと,植⽣の境界で分割されない
    GRASS
    のベクタ加⼯は優秀でラスタ由来の
    ギザギザベクタを何とかできそうなことを知る
    7

    View Slide

  8. 近年(ここ2, 3
    年)
    近年,
    さまざまな分野で深層学習が活躍している
    空中写真の⼟地被覆分類にも使えるかも

    深層学習で空中写真を⼟地被覆に⾃動で分類
    することを試みた
    注意;現時点の成果はあまりよくありません。⼿順と結果をできる
    だけ詳細に紹介するので,それをもとに議論できたら幸いです。
    8

    View Slide

  9. ⽤語の整理
    https://blogs.nvidia.co.jp/2016/08/09/whats-difference-arti cial-
    intelligence-machine-learning-deep-learning-ai/ 9

    View Slide

  10. ⽅法
    10

    View Slide

  11. ⽅法(概略)
    教師データ
    1.
    変換元の空中写真:地理院タイル(写真)
    2.
    正解画像の⼟地被覆:
    環境省 植⽣調査の成果
    国⼟地理院 基盤地図情報の建築物,道路縁,⽔域
    対象地域・サンプリング
    関東地⽅の平地から丘陵部にかけての 北緯 139 - 139.5
    度 ,
    東経 35.8333 -
    36.4167
    度の範囲からランダムで 22,729
    区画抽出し,4:1:1
    の割合で学習
    ⽤、テスト⽤、評価⽤に分割
    11

    View Slide

  12. 変換元の空中写真
    国⼟地理院 地理院タイル(写真)
    ズームレベル:18
    を使⽤
    256 × 256px
    でタイル状に細かく分割された画像
    レベル18
    だと
    1
    ピクセル =
    約 0.5m
    四⽅,1
    画像 =
    約 125m
    四⽅
    https://maps.gsi.go.jp/development/ichiran.html#seamlessphoto 12

    View Slide

  13. 正解画像の材料 - 1
    環境省 第6
    ・7
    回⾃然環境保全基礎調査 植⽣調査
    を再分類
    http://gis.biodic.go.jp/webgis/sc-023.html
    13

    View Slide

  14. 正解画像の材料 - 2
    国⼟地理院 基盤地図情報 基本項⽬
    建築物,道路縁,⽔域
    https://fgd.gsi.go.jp/download/ref_kihon.html
    14

    View Slide

  15. ⼟地被覆の凡例
    前述の材料をもとに,凡例を整備
    15

    View Slide

  16. 教師データの⼀部
    16

    View Slide

  17. ⽅法(概略)
    教師データ
    1.
    変換元の空中写真:地理院タイル(写真)
    2.
    正解画像の⼟地被覆:
    環境省 植⽣調査の成果
    国⼟地理院 基盤地図情報の建築物,道路縁,⽔域
    対象地域・サンプリング
    関東地⽅の平地から丘陵部にかけての 北緯 139 - 139.5
    度 ,
    東経 35.8333 -
    36.4167
    度の範囲からランダムで 22,729
    区画抽出し,4:1:1
    の割合で学習
    ⽤、テスト⽤、評価⽤に分割
    17

    View Slide

  18. モデル構築
    汎⽤画像変換プログラム「pix2pix

    pix2pix demo
    で検索;af nelayer.com/pixsrv/
    18

    View Slide

  19. pix2pix
    敵対的⽣成ネットワーク(GAN
    )の技術を利⽤
    CNN
    の⼀種 U-Net
    を採⽤
    識別器には⼀定のパッチ単位で識別する
    patchGAN
    を採⽤
    19

    View Slide

  20. GAN
    敵対的⽣成ネットワーク(GAN: Generative
    Adversarial Network

    ⽣成器 generator
    と識別器 discriminator
    から
    構成されるモデル⽣成のための枠組み
    20

    View Slide

  21. GAN
    の流れ
    21

    View Slide

  22. 識別器が正解したとき
    22

    View Slide

  23. 識別器が間違えたとき
    23

    View Slide

  24. 識別器の⽅も強化していく
    この流れを繰り返しモデルの精度をあげていく
    枠組みが GAN
    (余談:共進化と似ている)
    24

    View Slide

  25. pix2pix
    敵対的⽣成ネットワーク(GAN
    )の技術を利⽤
    CNN
    の⼀種 U-net
    を採⽤
    識別器には⼀定のパッチ単位で識別する
    patchGAN
    を採⽤
    25

    View Slide

  26. CNN
    畳み込みニューラルネットワーク( CNN:
    Convolutional neural network

    画像認識が得意
    U-net
    CNN
    の⼀種
    CNN
    の性質上境界があいまいになるのを防ぐ
    セグメンテーションが得意
    26

    View Slide

  27. pix2pix
    の実⾏
    batchsize
    : 4
    反復回数は 1, 10, 20, 50(, 100)
    の中から
    最適な回数を検討
    27

    View Slide

  28. 結果(別画⾯)
    28

    View Slide

  29. 反復回数の検討
    29

    View Slide

  30. 20( - 50)
    回くらいが適切と判断した
    それ以上は過学習の発⽣がみられた 30

    View Slide

  31. 出⼒画像の再分類
    出⼒画像 → 再分類画像
    pix2pix
    の⽋点
    ラベル画像を返せない
    よかれと思ってグラデーションな画像を返す
    31

    View Slide

  32. 分類結果と教師画像の⽐較
    モデル構築に使⽤していない画像に対して
    モデルを適⽤しランダム地点で予測/
    教師を⽐較
    総合的な正解率 Overall accuracy: 54.4 %
    教師データが多い凡例ではやや正解率が⾼い
    教師データを増やすことで改善につながる? 32

    View Slide

  33. 具体的な⼿順の紹介
    https://kosame.net/post/tochibunrui
    (準備中)
    33

    View Slide