Lock in $30 Savings on PRO—Offer Ends Soon! ⏳
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
ライフサイエンス研究を加速する~SPCS JobサービスとGPUコンテナの使い方~
Search
Tatsuya Koreeda
December 25, 2025
0
4
ライフサイエンス研究を加速する~SPCS JobサービスとGPUコンテナの使い方~
帰ってきたSPCS活用最新事例LT祭:再び解き放て、Snowpark Container Servicesの力!
https://techplay.jp/event/987932
Tatsuya Koreeda
December 25, 2025
Tweet
Share
More Decks by Tatsuya Koreeda
See All by Tatsuya Koreeda
Streamlit in Snowflakeをざっくりと復習
ktatsuya
0
330
大規模で多様な バイオデータ管理・解析のためのSnowflake データウェアハウス
ktatsuya
0
180
Snowflakeによる統合バイオインフォマティクス
ktatsuya
0
870
All-in-One Bioinformatics Platform Realized with Snowflake ~ From In Silico Drug Discovery, Disease Variant Analysis, to Single-Cell RNA-seq
ktatsuya
0
440
第28回 著者ゼミ:Identification of drug responsible glycogene signature in liver carcinoma from meta-analysis using RNA-seq data
ktatsuya
2
440
Snowflake上でRを使う: RStudioセットアップとShinyアプリケーションのデプロイ
ktatsuya
1
940
Featured
See All Featured
Redefining SEO in the New Era of Traffic Generation
szymonslowik
1
160
Optimising Largest Contentful Paint
csswizardry
37
3.5k
Reflections from 52 weeks, 52 projects
jeffersonlam
355
21k
First, design no harm
axbom
PRO
1
1.1k
Leveraging Curiosity to Care for An Aging Population
cassininazir
1
130
What’s in a name? Adding method to the madness
productmarketing
PRO
24
3.8k
Sam Torres - BigQuery for SEOs
techseoconnect
PRO
0
140
WENDY [Excerpt]
tessaabrams
8
35k
Why Your Marketing Sucks and What You Can Do About It - Sophie Logan
marketingsoph
0
43
The SEO Collaboration Effect
kristinabergwall1
0
310
Visualizing Your Data: Incorporating Mongo into Loggly Infrastructure
mongodb
48
9.8k
Fashionably flexible responsive web design (full day workshop)
malarkey
407
66k
Transcript
ライフサイエンス研究を加速する SPCS JobサービスとGPUコンテナの使い方 koreeda
2 自己紹介 名前 是枝達也 略歴 株式会社GA technologies クリニックフォアグループ バイオインフォマティシャン 資格・アワード
SnowPro Core Snowflake Squad 2024,2025 活動 SnowVillage Mayors Snowflake ヘルスケア UG リーダー Snowflake WEST UG リーダー
3 第一回も登壇させていただきました
ライフサイエンス研究とは 「生命とは何か」「生命はどう働くのか」解き明かす学問 「病気を予防する」、「病気になっても早く見つけて治療をする」ために研究される 病気の予防 病気の治療 創薬 ゲノム・遺伝子解 析 医療の充実
ヒトのゲノムデータのサイズ ヒトのゲノムデータの一 人あたりのサイズ = 100〜200 GB
ヒトのゲノムデータのサイズ ヒトのゲノムデータの一 人あたりのサイズ = 100〜200 GB 文字列だけの情報で 100GB近くある
ゲノムデータ解析における課題 100〜200 GB ヒトのゲノムデータ 大規模なゲノムデータを効率的に処理する基盤づくりが重要 臨床・治験を成り立たせるための 数十万人規模のゲノムデータ が必要 ✕
Case 1: Nextflow バイオインフォマティクスパイプラインのオーケストレーション
Nextflow ゲノム解析など計算量が大きいバイオインフォマティクス用に特化した、再現性の高いパイプライン を作るためのワークフローエンジン。並列処理や GPUでの処理を得意とする。
nf-snowflake SnowflakeでNextflowを使うための公式プラグイン。 Snowflake-Labsが公式サポートしている
params.sra_list = "ids.txt" params.outdir = "results" process FASTQ_DUMP { tag
"$sra_id" container 'biocontainers/sra-tools:2.10.0' input: val sra_id output: tuple val(sra_id), path("*.fastq.gz"), emit: reads script: """ fastq-dump --gzip --split-files ${sra_id} """ } process FASTQC { tag "$sra_id" container 'biocontainers/fastqc:v0.11.9_cv8' publishDir "${params.outdir}/fastqc_individual", mode: 'copy' input: tuple val(sra_id), path(reads) output: path "*.html" path "*.zip" script: """ fastqc -q ${reads} """ } workflow { Channel .fromPath(params.sra_list) .splitText() .map { it.trim() } .set { sra_ch } dump_ch = FASTQ_DUMP(sra_ch) FASTQC(dump_ch.reads) } Nextflowファイル:main.nf nf-snowflakeプラグイン nextflow.config nf-snowflakeの使い方
SPCS jobのspec定義 ・volumeMountsに input/output/workdirを指定 ・各種volumeにNXF_INPUT, RESULTS, WORKDIR)といっ た形でステージを割り当てる
Demo
https://github.com/Snowflake-Labs/nf-snowflake/issues/15 (余談)Snowflake社員の方に手厚くサポートしていただきました
Case 1: NVIDIA Parabricks SPCS Job + GPUコンテナによるゲノム解析
ヒトのゲノムデータが解析可能になるまでの処理時間 100〜200 GB ヒトのゲノムデータ = 2~8時間
NVIDIA Parabricks 【概要】 ・NVIDIAによるGPUによる並列計算でゲノム解析を劇的に高速化するソフト ウェア ・CPU比で最大約 40倍の高速化を実現 【欠点】 ・研究者が GPUを用意する方法が限定的(クラウドに精通した方が少ない)
・企業の研究者はスーパーコンピュータを使うことが難しい 高速だが、 GPU環境を用意するのがむずい
18 ゲノム解析に SPCSを使うメリット わずか1コマンドで GPUコンピュートプールが作成できるところが非常に簡便
SPCS Job で Parabricks を実行 Gemone Stage ゲノムファイル Parabricks image
Results Stage SPCS job (GPU)
Demo
まとめ ・SPCS job はかなり便利 ・ライフサイエンス研究において SPCSは強力な武器になりうる ・NextflowやParabricksを組み合わせることで高速なゲノミクス解析が可能にな りつつある
今日の発表の Zennの記事
ご清聴ありがとうございました