Slide 1

Slide 1 text

Flareformer : 磁場画像および物理特徴量の統合による 大規模太陽フレア予測 和田唯我 1, 兼田寛大 1, 飯田紡 1, 西塚直人 2, 久保勇樹 2, 杉浦孔明 1 1 慶應義塾大学, 2 NICT 1

Slide 2

Slide 2 text

背景︓⼤規模な太陽フレアは様々な被害をもたらす 太陽フレア︓太陽表⾯上の⿊点周辺で発⽣する爆発現象 1989年 カナダ・ケベック州の⼤規模停電 2003年 ⼩惑星探査機はやぶさに損傷 2022年 SpaceX社の⼈⼯衛星に被害 ⇒ 保険会社による被害予想額は約1600億ドル 太陽フレアによる被害 NASA, https://svs.gsfc.nasa.gov/4491 太陽フレアの事前予測は極めて重要 2

Slide 3

Slide 3 text

Demonstration: Flareformer ü Flare Transformer [兼⽥+, JSAI22] を拡張したFlareformerを提案 ü 世界で初めて専⾨家予測を超えた性能を記録 3

Slide 4

Slide 4 text

既存研究︓既存の太陽フレア予測モデルの予測性能は⼗分ではない タスク 代表的⼿法 概要 時系列予測 DeepAR [Salinias+, IJF20] ⾃⼰回帰型RNNにより時系列を予測 Informer [Zhou+, AAAI21] ProbSparse Attention機構を⽤いたTransformerベースの予測モデル 太陽フレア 予測 Deep Flare Net [Nishizuka+, ApJ18] 物理特徴量を⼊⼒とし⿊点レベルで太陽フレアを予測 Flare Transformer [兼⽥+, JSAI22] 磁場画像・物理特徴量を⼊⼒とするTransformerベースの予測モデル [兼⽥+, JSAI22] [Nishizuka+, ApJ18] [Zhou+, AAAI21] 4

Slide 5

Slide 5 text

問題設定︓太陽画像および物理特徴量を⽤いた太陽フレアの予測 • ⼊⼒ 1. ⿊点レベルの物理特徴量 太陽画像から抽出した物理特徴量 2. 磁場画像 1時間間隔で撮影された 太陽全体の磁場画像 対象タスク︓時刻 t から24時間以内に発⽣する最⼤太陽フレアのクラスを予測 • 出⼒ • 太陽フレアクラス [X/M/C/O] クラス 発⽣頻度 規模・被害 X 低 ⾼ ⼤ ⼩ M C O 5

Slide 6

Slide 6 text

1% 8% 32% 59% X-class M-class C-class O-class タスクの特徴 1. ⼤きな被害をもたらす可能性のある X/Mクラスの太陽フレア予測が重要 2. X/Mクラスは発⽣頻度が低い 本分野における標準的な尺度で評価 • Gandin–Murphy–Gerrity score (GMGS) • True skill statistics (TSS) • Brier skill score (BSS) 問題設定︓クラスが不均衡であるため評価⽅法が重要 6 クラスの内訳(2010-2017)

Slide 7

Slide 7 text

問題点 : 特徴量抽出器の性能・クラスバランスへの考慮が不⾜ 既存⼿法の問題点 1. 特徴量抽出器が単純であり, 有益な特徴量を抽出できていない 2. クラスバランスの不均衡性を学習段階で考慮できていない BSSにおいて専⾨家の予測精度を超えていない 7 GMGS ↑ TSS≧M ↑ BSS≧M ↑ Flare Transformer [兼⽥, JSAI22] 0.50±0.06 0.53±0.11 0.08±0.97 専⾨家予測 [Kubo+, AsJ18][Murray, SW17] 0.48 0.50 0.16

Slide 8

Slide 8 text

提案⼿法 : Flareformer • ベースライン⼿法 Flare Transformer[兼⽥+, JSAI22] を拡張 • 新規性 1. Informer [Zhou+, AAAI21] 注意機構を導⼊ 2. 磁場画像の特徴量抽出器として ConvNeXt[Liu+, CVPR22]を導⼊ 3. cRT[Kang+, ICLR20]に基づく 分類器の再学習機構を導⼊ → 後述 8

Slide 9

Slide 9 text

提案⼿法 : Flareformer • ベースライン⼿法 Flare Transformer[兼⽥+, JSAI22] を拡張 • ⼊⼒ 時刻 から に おける磁場画像および 90種類の物理特徴量 • 出⼒ 各フレアクラスの 予測確率を表す 4次元ベクトル 9

Slide 10

Slide 10 text

提案⼿法 : Flareformer Magnetogram Module • 時刻(𝑡 − 𝑘, 𝑡]における磁場画像を⼊⼒ • ConvNeXt[Liu+, CVPR22]により磁場画像から特徴量を抽出 – 特徴量の次元は 𝑑 = 128 10

Slide 11

Slide 11 text

提案⼿法 : Flareformer Sunspot Feature Module • 時刻(𝑡 − 𝑘, 𝑡]における物理特徴量を⼊⼒ • 90種類の物理特徴量から次元 𝑑 = 128 の特徴量を抽出 11

Slide 12

Slide 12 text

提案⼿法 : Flareformer Magnetogram Module + Sunspot Feature Module • 抽出された特徴量を𝑁" ・ 𝑁# 層の transformer層によって時系列関係 をモデル化 • Informer [Zhou+, AAAI21] 注意機構 を導⼊ 12

Slide 13

Slide 13 text

• 損失関数︓ を最⼩化するように学習 ○ 損失関数︓クロスエントロピー損失,BSS損失, GMGS損失の加重和 Cross Entropy Loss BSS Loss GMGS Loss Cross Entropy Loss BSS Loss GMGS Loss サンプル数 クラス数 予測確率 正解ラベル 予測ラベルと正解ラベル間のクロスエントロピー誤差 Cross Entropy Loss BSS Loss GMGS Loss サンプル数 クラス数 予測確率 正解ラベル BSSは微分可能であるため,損失として直接⽤いることが可能 BSSを最⼤化する損失関数を導⼊する Cross Entropy Loss BSS Loss GMGS Loss サンプル数 クラス数 予測確率 正解ラベル ここで, はGMGSのスコア⾏列の成分 クラスのインバランスを考慮 13

Slide 14

Slide 14 text

• 損失関数︓ を最⼩化するように学習 ○ 損失関数︓クロスエントロピー損失,BSS損失, GMGS損失の加重和 Cross Entropy Loss BSS Loss GMGS Loss Cross Entropy Loss BSS Loss GMGS Loss サンプル数 クラス数 予測確率 正解ラベル Cross Entropy Loss BSS Loss GMGS Loss サンプル数 クラス数 予測確率 正解ラベル Cross Entropy Loss BSS Loss GMGS Loss サンプル数 クラス数 予測確率 正解ラベル 14 クラスのインバランスを考慮 ここで, はGMGSのスコア⾏列の成分 0.2 -0.3 -0.6 -1 -0.3 0.5 0.1 -0.3 -0.6 0.1 10 5 -1 -0.3 5 50 Cクラスのフレアを適切に予測 Xクラスのフレアを適切に予測 Xクラスのフレアを過⼩に予測

Slide 15

Slide 15 text

Flareformer: cRTによる分類器の再学習機構を導⼊ • X/Mクラスは発⽣頻度が低いため サンプル数に応じたサンプリングが必要 → Xクラスへの過学習が発⽣ 1% 8% 32% 59% X-class M-class C-class O-class クラスの内訳(2010-2017) Classifier Re-training (cRT)[Kang+, ICLR20] に基づく分類器の再学習機構を導⼊ 15

Slide 16

Slide 16 text

cRT [Kang+, ICLR20] に基づく分類器の再学習機構を導⼊ 1. 通常のデータセットで学習 (40 epoch) 2. クラスバランスを均した データセットで, Linear層 のみ再学習 (3 epoch) 重み固定 16

Slide 17

Slide 17 text

実験設定︓磁場画像と物理特徴量のセット • 2010-2017年における合計61315サンプル • 1h間隔の磁場画像と90種の物理特徴量のセット • 時系列交差検証[Tashman+, 00]をベースとした分割 Training Set Test Set 期間 サンプル数 期間 サンプル数 2010-2013 29247 2014 8127 2010-2014 37374 2015 8155 2010-2015 45529 2016 7795 2010-2016 53324 2017 7991 磁場画像 物理特徴量 17

Slide 18

Slide 18 text

定量的結果︓世界で初めて専⾨家を上回る予測性能を達成 GMGS ↑ TSS≧M ↑ BSS≧M ↑ DeFN [Nishizuka+, AsJ18] 0.38±0.14 0.41±0.15 -0.02±0.78 DeFN-R [Nishizuka+, AsJ20] 0.30±0.06 0.28±0.16 0.04±0.98 Flare Transformer [兼⽥, JSAI22] 0.50±0.06 0.53±0.11 0.08±0.97 提案⼿法 0.50±0.19 0.53±0.11 0.22±0.68 専⾨家予測 [Kubo+, AsJ18][Murray, SW17] 0.48 0.50 0.16 • 全ての尺度において,専⾨家予測および, ベースライン⼿法であるDeFN, DeFN-R, Flare Transformer を上回る 18

Slide 19

Slide 19 text

定量的結果︓世界で初めて専⾨家を上回る予測性能を達成 GMGS ↑ TSS≧M ↑ BSS≧M ↑ DeFN [Nishizuka+, AsJ18] 0.38±0.14 0.41±0.15 -0.02±0.78 DeFN-R [Nishizuka+, AsJ20] 0.30±0.06 0.28±0.16 0.04±0.98 Flare Transformer [兼⽥, JSAI22] 0.50±0.06 0.53±0.11 0.08±0.97 提案⼿法 0.50±0.19 0.53±0.11 0.22±0.68 専⾨家予測 [Kubo+, AsJ18][Murray, SW17] 0.48 0.50 0.16 • 全ての尺度において,専⾨家予測および, ベースライン⼿法であるDeFN, DeFN-R, Flare Transformer を上回る +0.20 +0.25 +0.18 19

Slide 20

Slide 20 text

定量的結果︓世界で初めて専⾨家を上回る予測性能を達成 GMGS ↑ TSS≧M ↑ BSS≧M ↑ DeFN [Nishizuka+, AsJ18] 0.38±0.14 0.41±0.15 -0.02±0.78 DeFN-R [Nishizuka+, AsJ20] 0.30±0.06 0.28±0.16 0.04±0.98 Flare Transformer [兼⽥, JSAI22] 0.50±0.06 0.53±0.11 0.08±0.97 提案⼿法 0.50±0.19 0.53±0.11 0.22±0.68 専⾨家予測 [Kubo+, AsJ18][Murray, SW17] 0.48 0.50 0.16 • 全ての尺度において,専⾨家予測および, ベースライン⼿法であるDeFN, DeFN-R, Flare Transformer を上回る +0.14 20

Slide 21

Slide 21 text

定量的結果︓世界で初めて専⾨家を上回る予測性能を達成 GMGS ↑ TSS≧M ↑ BSS≧M ↑ DeFN [Nishizuka+, AsJ18] 0.38±0.14 0.41±0.15 -0.02±0.78 DeFN-R [Nishizuka+, AsJ20] 0.30±0.06 0.28±0.16 0.04±0.98 Flare Transformer [兼⽥, JSAI22] 0.50±0.06 0.53±0.11 0.08±0.97 提案⼿法 0.50±0.19 0.53±0.11 0.22±0.68 専⾨家予測 [Kubo+, AsJ18][Murray, SW17] 0.48 0.50 0.16 • 全ての尺度において,専⾨家予測および, ベースライン⼿法であるDeFN, DeFN-R, Flare Transformer を上回る +0.02 +0.03 +0.06 21

Slide 22

Slide 22 text

Ablation Studies︓提案⼿法が3つの尺度で最もバランスが取れている • Ablation (b): Image Feature ExtractorとしてFlare TransformerのCNNを使⽤ • Ablation (c): Informerの注意機構ではなくTransformerの注意機構を使⽤ BSS≧M ↑ GMGS ↑ TSS≧M ↑ (a) w/o cRT 0.046±0.96 0.440±0.21 0.574±0.13 (b) ConvNeXt →CNN 0.27±0.68 0.473±0.22 0.485±0.17 (c) Informer→ Transformer 0.30±0.64 0.544±0.19 0.492±0.12 (d) Ours 0.22±0.68 0.500±0.19 0.530±0.11 22

Slide 23

Slide 23 text

Ablation Studies︓cRTの導⼊によりBSSが⾶躍的に向上 • Ablation (b): Image Feature ExtractorとしてFlare TransformerのCNNを使⽤ • Ablation (c): Informerの注意機構ではなくTransformerの注意機構を使⽤ cRTの導⼊により他の指標を⼤きく下げることなく, BSSが⾶躍的に向上 BSS≧M ↑ GMGS ↑ TSS≧M ↑ (a) w/o cRT 0.046±0.96 0.440±0.21 0.574±0.13 (b) ConvNeXt →CNN 0.27±0.68 0.473±0.22 0.485±0.17 (c) Informer→ Transformer 0.30±0.64 0.544±0.19 0.492±0.12 (d) Ours 0.22±0.68 0.500±0.19 0.530±0.11 +0.17 23

Slide 24

Slide 24 text

Ablation Studies︓提案⼿法が最もバランスの取れた⼿法である • Ablation (b): Image Feature ExtractorとしてFlare TransformerのCNNを使⽤ • Ablation (c): Informerの注意機構ではなくTransformerの注意機構を使⽤ 提案⼿法がBSS・GMGS・TSSにおいて最もバランスの取れた⼿法となっている BSS≧M ↑ GMGS ↑ TSS≧M ↑ (a) w/o cRT 0.046±0.96 0.440±0.21 0.574±0.13 (b) ConvNeXt →CNN 0.27±0.68 0.473±0.22 0.485±0.17 (c) Informer→ Transformer 0.30±0.64 0.544±0.19 0.492±0.12 (d) Ours 0.22±0.68 0.500±0.19 0.530±0.11 24

Slide 25

Slide 25 text

エラー分析︓MクラスフレアをCクラスとして予測することがボトルネック • 混同⾏列からGMGSへの影響を調査 • 混同⾏列の 成分 GMGSのスコア⾏列の 成分 実際は【Mクラス】である太陽フレアを 【Cクラス】と予測してしまうことが メインボトルネック (観測ラベル➙予測ラベル) 0 0.002 0.004 0.006 0.008 0.01 0.012 0.014 0.016 M→C C→O O→C M→O 25

Slide 26

Slide 26 text

まとめ ü Flare Transformerを拡張した Flareformerを提案 ü 特徴量抽出のため, Informer注意機構 およびConvNeXtを導⼊し, またクラス の不均衡性に対処するためcRTを導⼊ ü その結果, 全ての尺度において専⾨家 予測および, ベースライン⼿法を上回 る性能を記録 26

Slide 27

Slide 27 text

APPENDIX 27

Slide 28

Slide 28 text

モデル図 28

Slide 29

Slide 29 text

パラメタ設定 29

Slide 30

Slide 30 text

評価尺度︓ Gandin–Murphy–Gerrity score (GMGS) サンプル数 クラス数 予測確率 正解ラベル 30

Slide 31

Slide 31 text

評価尺度︓ True Skill Statistics (TSS) / Brier skill score (BSS) サンプル数 クラス数 予測確率 正解ラベル 31