Upgrade to Pro
— share decks privately, control downloads, hide ads and more …
Speaker Deck
Features
Speaker Deck
PRO
Sign in
Sign up for free
Search
Search
2002_Interspeech報告.pdf
Search
Ryo Masumura
February 13, 2020
Research
0
480
2002_Interspeech報告.pdf
Ryo Masumura
February 13, 2020
Tweet
Share
More Decks by Ryo Masumura
See All by Ryo Masumura
クロスモーダル表現学習の研究動向: 音声関連を中心として
ryomasumura
3
990
MediaGnosis IEEE ICIP2023 Industry Seminar
ryomasumura
0
430
複数人会話データを活用した音声言語処理とアプリケーション(slud研究会招待講演)
ryomasumura
0
910
1907_ICASSP報告.pdf
ryomasumura
0
140
対話コンテキストを扱うターン交替点検出の検討
ryomasumura
0
450
階層再帰型Encoder-Decoderに基づく談話コンテキストEnd-to-End音声認識
ryomasumura
0
660
学会に発表者として継続的に参加するためのセルフマネージメント
ryomasumura
11
8.2k
対話コンテキストを考慮したニューラル通話シーン分割
ryomasumura
1
370
複数言語複数タスクを扱う発話意図推定モデリングのための敵対的学習の検討
ryomasumura
0
330
Other Decks in Research
See All in Research
Elix, CBI2024, スポンサードセッション, Molecular Glue研究の展望:近年の進展とAI活用の可能性
elix
0
130
ラムダ計算の拡張に基づく 音楽プログラミング言語mimium とそのVMの実装
tomoyanonymous
0
400
CoRL2024サーベイ
rpc
1
1.5k
新規のC言語処理系を実装することによる 組込みシステム研究にもたらす価値 についての考察
zacky1972
1
320
書き手はどこを訪れたか? - 言語モデルで訪問行動を読み取る -
hiroki13
0
140
ダイナミックプライシング とその実例
skmr2348
3
590
Weekly AI Agents News! 11月号 プロダクト/ニュースのアーカイブ
masatoto
0
290
[輪講] Transformer Layers as Painters
nk35jk
4
650
チュートリアル:Mamba, Vision Mamba (Vim)
hf149
6
2.1k
한국어 오픈소스 거대 언어 모델의 가능성: 새로운 시대의 언어 이해와 생성
inureyes
PRO
0
220
The many faces of AI and the role of mathematics
gpeyre
1
1.6k
Data-centric AI勉強会 「ロボットにおけるData-centric AI」
haraduka
0
440
Featured
See All Featured
Code Review Best Practice
trishagee
67
18k
Unsuck your backbone
ammeep
669
57k
We Have a Design System, Now What?
morganepeng
51
7.4k
Large-scale JavaScript Application Architecture
addyosmani
511
110k
Six Lessons from altMBA
skipperchong
27
3.6k
Stop Working from a Prison Cell
hatefulcrawdad
267
20k
Visualization
eitanlees
146
15k
Imperfection Machines: The Place of Print at Facebook
scottboms
267
13k
個人開発の失敗を避けるイケてる考え方 / tips for indie hackers
panda_program
100
18k
The World Runs on Bad Software
bkeepers
PRO
67
11k
Helping Users Find Their Own Way: Creating Modern Search Experiences
danielanewman
29
2.4k
[RailsConf 2023] Rails as a piece of cake
palkan
53
5.2k
Transcript
SLP第131回研究会 国際会議INTERSPEECH2019報告 音声の自己教師あり表現学習 NTT 増村 亮
自己教師あり(Self-Supervised)表現学習とは? • ラベルなしのデータのみから行える範囲内でタスクを設定し、 それを解くモデル化を行うことで表現空間を学習する手法 (これまではUnsupervised Learningでまとめられていたが最近はこう呼ぶ) • 代表的な例①:オートエンコーダのモデリング • 考え方:入力自身を復元できるような表現は有用な表現のはず
• 代表的な例②:自己回帰モデリング • 考え方:未来のコンテキストを予測できるような表現は有用な表現のはず • 強み: 教師あり学習等の事前学習に コスト0で手に入るラベルなしデータを活用できること
音声分野の研究例① • Audio Word2Vec [Chung+ Interspeech 2016] • アイデア:入力セグメント自身を復元できるように学習した 表現空間は有用なのでは?
つまり、系列オートエンコーダを構成
音声分野の研究例② • Speech2Vec [Chung+ Interspeech 2018] • アイデア:前後のセグメントを予測できるように学習した 表現空間は有用なのでは? 今のセグメントから
前後のセグメントを予測
音声分野の研究例③ • Unspeech [Milde+ Interspeech 2018] • アイデア:あるセグメントを周辺セグメントから予測できるように 学習した表現空間は有用なのでは? 周辺セグメントから
間のセグメントを予測するタスクを解く
音声分野の研究例④ • Contrastive Predictive Coding [van den Oord+ NIPS 2018]
• アイデア:未来のセグメントかどうかを見分けられるように学習し た表現空間は有用なのでは? 未来のセグメントを相互情報量 基準で見分けられるようにする
Interspeech2019における研究動向 • 自然言語処理分野のBERT等の成功により、 自己教師あり表現学習の文献が増加傾向にある • 注目①:これまでの特徴量抽出のノウハウを利用した表現学習 • 注目②:”発話内という情報”を明示的に利用した表現学習 ~その1~ •
注目③:”発話内という情報”を明示的に利用した表現学習 ~その2~ • 注目④: Transformer自己回帰モデルベースの表現学習
• アイデア:波形情報から対数パワースペクトルや MFCC、F0、零交差率を予測できるエンコーダは 音声を扱う問題に有用な表現を埋め込むことがで きるのでは? • 結果:エンコーダにSincNet[Ravanelli+ 2018]を 用いて学習することにより、MFCCやログメル フィルタバンク係数よりも高い性能を達成、特に
話者認識や感情分類では特に有用 Learning Problem-agnostic Speech Representations from Multiple Self-supervised Tasks Santiago Pascual, Mirco Ravanelli, Joan Serrà, Antonio Bonafonte1, Yoshua Bengio 「これまでの特徴量抽出のノウハウを利用した表現学習」
• アイデア:同一発話内の音声に対してエンコーダの 出力が類似するように、そして異なる発話から取り 出された音声に対してエンコーダの出力が類似しな いようモデル化すれば、話者の分類に有用な表現を 得られるのでは? • 結果:エンコーダにSincNetを用いて学習してから、 さらにd-vectorを学習することにより、話者認識タ スクにおいて高い性能を達成
Learning Speaker Representations with Mutual Information Mirco Ravanelli, Yoshua Bengio 「 ”発話内という情報”を明示的に利用した表現学習 ~その1」
Self-supervised speaker embeddings Themos Stafylakis, Johan Rohdin, Oldrich Plchot, Petr
Mizera, Lukas Burget • アイデア:同一音声内の別セグメントのオートエ ンコーディング(音素系列経由のオートエンコー ディング)を助けることができる表現は、話者等 の情報を含む表現なのでは? ※ ASRを使う点はややずるい… • 結果:学習した表現を話者認識タスクで利用する ことで、d-vectorと遜色ない性能を達成 「 ”発話内という情報”を明示的に利用した表現学習 ~その2~」
Unsupervised Representation Learning with Future Observation Prediction for Speech Emotion
Recognition Zheng Lian, Jianhua Tao, Bin Liu, Jian Huang 「Transformer自己回帰モデルベースの表現学習」 • アイデア:Transformerのデコーダ部分である masked multi-head self attentionベースの自 己回帰モデルを用いて、現在までの情報から未 来のフレームを予測できるように学習すれば有 用なエンコーダを構成できるのでは? • 結果:感情認識タスクの事前学習に用いること により高い性能を達成