Upgrade to Pro — share decks privately, control downloads, hide ads and more …

My Approach to JOAI 2026

Avatar for Holy Fox Holy Fox
April 15, 2026
37

My Approach to JOAI 2026

Avatar for Holy Fox

Holy Fox

April 15, 2026

Transcript

  1. Claude Agent SDK Claude CodeをPythonなどから使用できるようにするためのSDK 自立型コーディングエージェントを作成するための強力なツール Claude Codeのドキュメント資産を移せるのも強み Built in

    tools ファイルの読み書 き・ウェブリサー チなどを使える Custom tool 独自ツールをイン プロセスMCPとし て使える Claude model Opus・Sonnetをサ ブスクリプション 経由で使える Sandbox サンドボックス環 境下で安全に運用 することができる
  2. EDAとモデル設計へのフィードバック EDA発見 数値 モデルへの反映 leverの39.6%がmode(静止) frac_mode=0.396 Movement Weighting `w=1+1.2 脳活動の最適ラグ:

    -5~-3 (脳 が先行) best_lag forward diff (1st, 2nd) をNN特徴量 に追加 / GBDT lag ±15 イベントトリガのピーク : +7~+8 frame peak_frame TCN kernel 3→5 で局所窓 ±8-10 を カバー L/R脳領域が高相関 corr > 0.9 L/R sum & diff に分離 (13 pair) train/testドリフト (KS) KS統計量 Semi-supervised PCA (fold+test fit) / Mouse-wise Z-score Cohen's d 上位の領域 cohen_d KEY_REGIONS (24部位) の選定、 領域集約特徴量 (motor/sensory/vis)
  3. モデル詳細 モデル 構造 seeds 特徴 LightGBM GBDT (数千次元: PC lag/rolling/cross-product,

    領域z-score, L/R, 集約) 1 多様性要員 (Ridge coef≈0.024) CleanDecoder ResNet(4層,SE) → BiGRU(2層) → Self-Attention → pos/vel Head 3 局所+系列+注意の複合 BrainTCN Dilated TCN(5層, d=1~16, k=5, SE) → Conv Head 5 受容野155frame, 最強 single Transformer Pre-norm Encoder(4層, d=160) + Learned PE → MLP Head 3 v1.7でdropout 0.30 →0.15 (underfitting修正)
  4. 学習テクニック ・Multi-task Loss: Huber(pos) + 0.12×MSE(vel) + 0.08×Consistency(cumsum一致) ・Augmentation: Mixup(α=0.35)

    / Gaussian Noise(σ=0.025) / Feature Dropout(p=0.08) ・SWA: epoch 15-20~ 蓄積、best checkpointと比較して良い方を自動採用 ・Stacking: 12モデルOOF → RidgeCV (α自動選択) → Bidirectional EMA (α=0.92) → これでいい感じにする