概要
このページでは、国土地理院の特別研究「AIを活用した地物自動抽出に関する研究」(平成30年度~令和4年度。以下「AI特研」といいます)において、深層学習によって構築した学習済モデルを用いて空中写真画像を効率的に推論するために作成・使用したプログラムと、そのプログラムで推論に使用できる学習済モデルを公表しています。
地上画素寸法20cmの設計で撮影された空中写真画像による推論で最良の抽出性能が発揮されます。
推論用プログラム
推論用プログラムは、Image-to-Image Translation with Conditional Adversarial Networks (Isola et al.,2016)の実装として、Christopher Hesse氏によって作成されたTensorflow上で動作するpythonのプログラム(ライセンス表示、GitHub上のリポジトリ)を元にして作成したもので、入力画像サイズを512ピクセル×512ピクセルに拡張した18層のCNNによる推論を行うプログラムと、さらに入出力層に1×1フィルタを追加した20層のCNNで推論を行う2つのプログラムで構成されます。いずれも入力画像サイズ512ピクセル×512ピクセル、出力画像サイズ512ピクセル×512ピクセルです。
- inference512.py 18層CNNによる推論用プログラムです。
- inference512-20.py 20層CNNによる推論用プログラムです。
動作させるには、Tensorflow 2.2以上と、専用メモリを10GB以上搭載したGPUが必要です。Windows10/11、Windows Server 2019、Ubuntu 20.04上での動作を確認しています。
空中写真画像を効率的に推論するツール
Windows上で、地上画素寸法20cm級の空中写真画像を入力し、上記推論用プログラムと学習済モデルを用いて効率的に推論を行うためのツールとして国土地理院が構築したものです。当初、空中写真画像から浸水域の抽出を行うために、特別研究「浸水情報把握のリアルタイム化に関する研究」(平成29年度~令和元年度)で構築し、AI特研でより簡易に動作するように改造したFAE(Feature Area Extractor)というツールです。多数の空中写真画像に対して、ダブルクリック1回で全画像を自動的に推論させることができます。
使い方に関しては、同梱のReadMe.txtをご覧ください。
使用する学習済モデル
推論用プログラムは、本ページにあるリンクからダウンロードできる学習済モデル専用です。
一方、空中写真画像を効率的に推論するツールは、推論を実施する部分を外部バッチファイルとしてありますので、他の推論用プログラムやCNNに差し替えて使うことができます。
ダウンロード
■推論用プログラムと推論用ツール
推論用プログラムは、Windows/Ubuntu上で動作しますが、動作させるためにはTensorflow 2.2以上が必要です。また、GPUが無くても動作させることはできますが推論に非常に時間がかかると推測されるため、専用メモリ10GB以上のGPUの使用を推奨します。
一方、空中写真画像を効率的に推論するツールはWindows上で動作します。また、perlが必要です。
- 推論用プログラム(国土地理院技術資料 H1-No.35):inference.zip(104KB。SHA256ハッシュ値:796C35BFFF39A43760C46B9386F71316744886AE3D5908EB04F4ADAFAF08D453)
- 推論用ツール(国土地理院技術資料 H1-No.35。上記推論用プログラムも含まれています):FAE.zip(104KB。SHA256ハッシュ値:A2C0ACA5939B3F3AA0E120FA67FC9D99345F8108224391CA19BE3DF051EE6DD3)
■18層のCNNによる学習済モデルです(国土地理院技術資料 H1-No.36)。推論には、inference512.py を使用してください。
- 道路抽出用(F=0.801) model-02.zip(621MB。SHA256ハッシュ値:9A698664B5EB92E0BAE6441BF4EE91842D2E75178324BA8B09F6B83C5CEE7232)
- 駐車場抽出用(F=0.779) model-04.zip(633MB。SHA256ハッシュ値:B6E60CAEF7A23A881217B38887CF297C6E4A04CB731DB68AA163BFB26745F8EE)
- 水部抽出用(F=0.820) model-07.zip(660MB。SHA256ハッシュ値:9EF82C230F6FC87EA31F0D1622CDBEAFE750831980537E6A100123FDA5E92553)
- 普通建物抽出用(F=0.800) model-09.zip(638MB。SHA256ハッシュ値:B7A38551075385D5E3139057768AE102A78B5DD852D144F254DA91EB3364CE3F)
- 無壁建物抽出用(F=0.688) model-10.zip(649MB。SHA256ハッシュ値:703CCD363FC2536756B2C11FC18B3B6572FB1D5283A87471837D6C97B459B3ED)
- 透過水制抽出用(F=0.801) model-13.zip(645MB。SHA256ハッシュ値:0EB142619CF8F6604729AE3231518543AD322D25959BF605B6F613B4B31D6E81)
- 水田抽出用(F=0.780) model-17.zip(634MB。SHA256ハッシュ値:848ABD7B9797DEDBE91897950D55776C58C28B77ABAC5A4F0732DA0924F944B8)
- 竹林抽出用(F=0.608) model-19.zip(644MB。SHA256ハッシュ値:E979B54ABA4C6A8FB9D893CB6D7907ED7073E3A4DF085BCD0D699ED64303701D)
- 針葉樹林抽出用(F=0.679) model-20.zip(638MB。SHA256ハッシュ値:10E274F0DC1494AA06136A1C6991EF09E239F313FCA734A9A6B07A627A54E3F0)
- 茶畑抽出用(F=0.830) model-21.zip(659MB。SHA256ハッシュ値:324DB74C3210C031F2F730231C3EBF77872E642ABB996BC5448CE315B6095ADD)
- 太陽光発電設備抽出用(F=0.844) model-27.zip(651MB。SHA256ハッシュ値:A04F1CD79CD50B83B715FA5966227DE155B3ABB89BCB64853ED25A2FBF7980CA)
- プラットホーム抽出用(F=0.674) model-38.zip(632MB。SHA256ハッシュ値:75884545A5D5FB2F8A51EB893E8544E28973DF11AA7CD39CF49F3D8B9439CECD)
- タンク抽出用(F=0.855) model-39.zip(655MB。SHA256ハッシュ値:AAF478908F3E053EC303EC9850E8DCF5EE91F97C2299418643003A04D9BD8E7E)
- 防波堤抽出用(F=0.815) model-44.zip(633MB。SHA256ハッシュ値:05A3B6C2FE013B9F189BB5EB951E1ADBFFDA928825C80AF4B7943378A14C7514)
- 高塔抽出用(F=0.617) model-63.zip(645MB。SHA256ハッシュ値:B655572F4478FF354BC627596F78C3AD1FAB555288CBEB94C3826C14004B6526)
- 墓地抽出用(F=0.806) model-68.zip(645MB。SHA256ハッシュ値:0B1C41EE375704EC2FDD9B8722BB424EEADBF60A2836FF2410811ECE3A0C0C03)
■20層のCNNによる学習済モデルです(国土地理院技術資料 H1-No.36)。推論には、inference512-20.py を使用してください。
- 分離帯抽出用(F=0.619) model-05.zip(635MB。SHA256ハッシュ値:DF9DECDAFC32181DB6C91ABE7853848C8959ADF394BAF0A9F44C15F1AAB72BF9)
- 軌道抽出用(F=0.723) model-06.zip(655MB。SHA256ハッシュ値:324AE08507D5BF6A2A4D47567A38BE1E8F77D7985961CC9872746BCA653A9B48)
出典表示
本データは、国土地理院コンテンツ利用規約の下で使用できます。研究発表等に用いる場合は、次のように出典を表示してください。
国土地理院(2023):CNNによる地物抽出のための推論用プログラム,国土地理院技術資料 H1-No.35.
国土地理院(2023):CNNによる地物抽出のための深層学習済モデル,国土地理院技術資料 H1-No.36.
参考文献
Isola, Phillip and Zhu, Jun-Yan and Zhou, Tinghui and Efros, Alexei A(2016):Image-to-Image Translation with Conditional Adversarial Networks, arxiv.