深層学習による空中写真を対象とした⼟地被覆分類の試み今井 優(⽴正⼤学・外部研究員)2019.04.07地域⾃然情報研究会
View Slide
⾃⼰紹介名前:今井 優(いまい ゆう)⽴正⼤学 地球環境科学部 外部研究員国際 ICT利⽤研究学会 評議員千葉県⽴中央博物館 共同研究員会員:GCN,⽇本⽣態学会,⽇本⿃学会 等会社員(朝⽇航洋株式会社 G空間研究所)オープンソース GIS「QGIS」の研修等に従事好きな⽣き物コサメビタキ,ゴイサギ,ブナ など更新してない Webページ:kosame.net2
2013年 GCN研究会ci.nii.ac.jp/naid/110009832027 3
対象地域の千葉県では⼟地被覆の変化が著しい4
⼟地被覆の変化 と ⽣物のモニタリング情報を照合すれば,⼀つの年代での解析よりもよりクリティカルに,個体数変化の要因や⽣息条件を明確にできそう▼しかし,毎年分の空中写真を判読するのは労⼒と時間がかかる▼⾃動で分類できないだろうか?5
空中写真分類のこれまでの経緯:RGB値で緑地抽出(2011年頃)空中写真から都市残存林を抽出するためにC#でRGB値 が緑のピクセルを抽出し,ベクタデータに変換ピクセルの⽳を埋めるのが⼤変だった空中写真の⾊合いで微調整が必要だった6
オブジェクト分類(2014年頃)GRASS GISの i.segmentで教師無し分類を試したパラメータの調整に試⾏錯誤が必要しきい値を増やすと影なども拾ってしまい,減らすと,植⽣の境界で分割されないGRASSのベクタ加⼯は優秀でラスタ由来のギザギザベクタを何とかできそうなことを知る7
近年(ここ2, 3年)近年,さまざまな分野で深層学習が活躍している空中写真の⼟地被覆分類にも使えるかも▼深層学習で空中写真を⼟地被覆に⾃動で分類することを試みた注意;現時点の成果はあまりよくありません。⼿順と結果をできるだけ詳細に紹介するので,それをもとに議論できたら幸いです。8
⽤語の整理https://blogs.nvidia.co.jp/2016/08/09/whats-difference-arti cial-intelligence-machine-learning-deep-learning-ai/ 9
⽅法10
⽅法(概略)教師データ1.変換元の空中写真:地理院タイル(写真)2.正解画像の⼟地被覆:環境省 植⽣調査の成果国⼟地理院 基盤地図情報の建築物,道路縁,⽔域対象地域・サンプリング関東地⽅の平地から丘陵部にかけての 北緯 139 - 139.5度 ,東経 35.8333 -36.4167度の範囲からランダムで 22,729区画抽出し,4:1:1の割合で学習⽤、テスト⽤、評価⽤に分割11
変換元の空中写真国⼟地理院 地理院タイル(写真)ズームレベル:18を使⽤256 × 256pxでタイル状に細かく分割された画像レベル18だと1ピクセル =約 0.5m四⽅,1画像 =約 125m四⽅https://maps.gsi.go.jp/development/ichiran.html#seamlessphoto 12
正解画像の材料 - 1環境省 第6・7回⾃然環境保全基礎調査 植⽣調査を再分類http://gis.biodic.go.jp/webgis/sc-023.html13
正解画像の材料 - 2国⼟地理院 基盤地図情報 基本項⽬建築物,道路縁,⽔域https://fgd.gsi.go.jp/download/ref_kihon.html14
⼟地被覆の凡例前述の材料をもとに,凡例を整備15
教師データの⼀部16
⽅法(概略)教師データ1.変換元の空中写真:地理院タイル(写真)2.正解画像の⼟地被覆:環境省 植⽣調査の成果国⼟地理院 基盤地図情報の建築物,道路縁,⽔域対象地域・サンプリング関東地⽅の平地から丘陵部にかけての 北緯 139 - 139.5度 ,東経 35.8333 -36.4167度の範囲からランダムで 22,729区画抽出し,4:1:1の割合で学習⽤、テスト⽤、評価⽤に分割17
モデル構築汎⽤画像変換プログラム「pix2pix」pix2pix demoで検索;af nelayer.com/pixsrv/18
pix2pix敵対的⽣成ネットワーク(GAN)の技術を利⽤CNNの⼀種 U-Netを採⽤識別器には⼀定のパッチ単位で識別するpatchGANを採⽤19
GAN敵対的⽣成ネットワーク(GAN: GenerativeAdversarial Network)⽣成器 generatorと識別器 discriminatorから構成されるモデル⽣成のための枠組み20
GANの流れ21
識別器が正解したとき22
識別器が間違えたとき23
識別器の⽅も強化していくこの流れを繰り返しモデルの精度をあげていく枠組みが GAN(余談:共進化と似ている)24
pix2pix敵対的⽣成ネットワーク(GAN)の技術を利⽤CNNの⼀種 U-netを採⽤識別器には⼀定のパッチ単位で識別するpatchGANを採⽤25
CNN畳み込みニューラルネットワーク( CNN:Convolutional neural network)画像認識が得意U-netCNNの⼀種CNNの性質上境界があいまいになるのを防ぐセグメンテーションが得意26
pix2pixの実⾏batchsize: 4反復回数は 1, 10, 20, 50(, 100)の中から最適な回数を検討27
結果(別画⾯)28
反復回数の検討29
20( - 50)回くらいが適切と判断したそれ以上は過学習の発⽣がみられた 30
出⼒画像の再分類出⼒画像 → 再分類画像pix2pixの⽋点ラベル画像を返せないよかれと思ってグラデーションな画像を返す31
分類結果と教師画像の⽐較モデル構築に使⽤していない画像に対してモデルを適⽤しランダム地点で予測/教師を⽐較総合的な正解率 Overall accuracy: 54.4 %教師データが多い凡例ではやや正解率が⾼い教師データを増やすことで改善につながる? 32
具体的な⼿順の紹介https://kosame.net/post/tochibunrui(準備中)33