Slide 1

Slide 1 text

ImageFlux Live Streaming pixiv Inc. Isamu Mogi 2018.9.25

Slide 2

Slide 2 text

● 自己紹介 ● ImageFlux Live Streamingの概要 ● ImageFlux Live Streamingによるライブ配信のやり方 ● ImageFlux Live Streamingの変換処理の詳細 ● デモ 2 目次

Slide 3

Slide 3 text

3 自己紹介 ● 茂木 勇 ● ピクシブ株式会社 ImageFlux事業部 エンジニア ● インターネット上では saturday06 という名前で活動 しています ○ https://twitter.com/saturday06 ○ https://github.com/saturday06 茂木 勇 エンジニア

Slide 4

Slide 4 text

4 ライブ動画配信を高速で実現するクラウドサービス Live Streaming

Slide 5

Slide 5 text

● モバイル含む、Webブラウザからプラグイン不要でライブ動画配信を開始 ● HLS形式でブラウザ、アプリに配信 ● hls.js, ExoPlayerなど一般的なHLSクライアントで再生可能 ● 好きな解像度/品質にスケーリングして配信 ● WebRTCとHLSを組み合わせることで、低遅延と大規模配信を両立 5 ImageFlux Live Streaming

Slide 6

Slide 6 text

6 ImageFlux Live Streamingの概要図 配信者 視聴者 ImageFlux Live Streaming ● WebRTCで受け取った動画をHLSに変換して配信 ○ WebRTC:非常に低遅延かつ、ブラウザからプラグインなしで動画配信可能 ○ HLS:遅延が多めである代わりに、大規模配信が可能 ■ iOSアプリに対して動画配信をする場合はこの形式を用いる必要がある WebRTC HLS

Slide 7

Slide 7 text

7 ImageFlux Live Streamingの概要図 配信者 視聴者 ImageFlux Live Streaming WebRTC HLS この部分は、 WebRTC SFU Sora を用いて実現しています (後のセッションで株式会社時雨堂の@voluntasさんから解説あると思います)

Slide 8

Slide 8 text

1. 配信者のリクエストに応じて、配信チャンネル作成 APIを実行し、チャンネルIDと視聴URL を取得。 2. 配信者は 1. で得たチャンネルIDとSoraサーバーのURLを、SoraのSDKに渡すことで配信 を開始 3. 視聴者は 1. で得た視聴URLをHLSプレイヤーに渡すことで視聴を開始 8 配信のやり方

Slide 9

Slide 9 text

  $ curl -H "Content-Type: application/json" \ -H "X-Sora-Target: ImageFlux_20180905.CreateChannel" \ -H "Authorization: Bearer $ACCESS_TOKEN" \ -XPOST -d ' { "hls": [ { "video": { "width": 640, "height": 480, "fps": 30, "bps": 1000000 }, "audio": { "bps": 64000 } } ] }' https://live-api.alpha.imageflux.jp/ 9 配信チャンネルを作るAPI

Slide 10

Slide 10 text

  $ curl ... -XPOST -d '{ ... }' https://live-api.alpha.imageflux.jp/ 10 配信チャンネルを作るAPI

Slide 11

Slide 11 text

  $ curl ... -XPOST -d '{ ... }' https://live-api.alpha.imageflux.jp/ { "channel_id": "", "sora_url": "ws://example.com:5000/signaling", "playlist_url": "https://example.com/hls/XXXX/XXXXXXXX.m3u8" } 11 配信チャンネルを作るAPI

Slide 12

Slide 12 text

  $ curl ... -XPOST -d '{ ... }' https://live-api.alpha.imageflux.jp/ { "channel_id": "", "sora_url": "ws://example.com:5000/signaling", "playlist_url": "https://example.com/hls/XXXX/XXXXXXXX.m3u8" } 12 配信チャンネルを作るAPI(配信側) 配信者は、この情報を SoraのSDKに渡して配信を開始する

Slide 13

Slide 13 text

  $ curl ... -XPOST -d '{ ... }' https://live-api.alpha.imageflux.jp/ { "channel_id": "", "sora_url": "ws://example.com:5000/signaling", "playlist_url": "https://example.com/hls/XXXX/XXXXXXXX.m3u8" } 13 配信チャンネルを作るAPI(視聴側) 視聴者はこのURLをHLS動画プレイヤーで再生

Slide 14

Slide 14 text

14 後ほどデモを行います!

Slide 15

Slide 15 text

- ImageFlux Live Streamingで用 いられているものと同様の構成 で、ライブ配信を実現 - 加えて、WebRTC SFU Soraとの 連携により、複数人同時配信・配 信者同士のリアルタイムコミュニ ケーションを実現 15 事例:pixiv Sketch LIVE

Slide 16

Slide 16 text

16 WebRTC から HLSへの変換 配信者 視聴者 1. WebRTCの復号化 2. Opus音声の取り出し 3. H.264映像の取り出し 4. 音声と映像の同期 5. バッファリング 6. トランスコード 7. HLSセグメント化

Slide 17

Slide 17 text

17 WebRTC から HLSへの変換 配信者 視聴者 1. WebRTCの復号化 2. Opus音声の取り出し 3. H.264映像の取り出し 4. 音声と映像の同期 5. バッファリング 6. トランスコード 7. HLSセグメント化

Slide 18

Slide 18 text

● WebRTC SFU Soraが配信者とWebRTC通信を確立し、暗号化された通信を復号化する ● 復号化により得たRTPストリームを後段へ流す ○ これらの動作を、 WebRTC SFU SoraのRTP転送機能を用いて実現している 18 変換(1/7) WebRTCの復号化

Slide 19

Slide 19 text

19 WebRTC から HLSへの変換 配信者 視聴者 1. WebRTCの復号化 2. Opus音声の取り出し 3. H.264映像の取り出し 4. 音声と映像の同期 5. バッファリング 6. トランスコード 7. HLSセグメント化

Slide 20

Slide 20 text

● 前段から流れてきたRTPから、Opus音声を取り出す。 ● 音声は、RTPパケットひとつにつきデフォルトで 20msづつ含まれるので、それを拾って次 段の音声トランスコーダーに流す。 20 変換(2/7) Opus音声の取り出し ● 仕様書に沿ってOpus Payloadを拾って後段に流す

Slide 21

Slide 21 text

21 WebRTC から HLSへの変換 配信者 視聴者 1. WebRTCの復号化 2. Opus音声の取り出し 3. H.264映像の取り出し 4. 音声と映像の同期 5. バッファリング 6. トランスコード 7. HLSセグメント化

Slide 22

Slide 22 text

● 前段から流れてきたRTPから、H.264映像を取り出す。 ● 映像は、音声とは違い分割して送られてくることがあるため注意して復元 ○ STAP-A形式: 一つのパケットに複数の動画フレームが存在する形式 ○ FU-A形式: 複数のパケットから一つのフレームを作る方式 ● 復元したら、次段の動画トランスコーダーに流す 22 変換(3/7) H.264映像の取り出し

Slide 23

Slide 23 text

● 例:STAP-A形式: 一つのパケットに複数の動画フレームが存在する形式 23 変換(3/7) H.264映像の取り出し

Slide 24

Slide 24 text

24 WebRTC から HLSへの変換 配信者 視聴者 1. WebRTCの復号化 2. Opus音声の取り出し 3. H.264映像の取り出し 4. 音声と映像の同期 5. バッファリング 6. トランスコード 7. HLSセグメント化

Slide 25

Slide 25 text

● RTPでは音声と映像のタイムスタンプはそれぞれ違うランダムな時刻を開始時刻とする仕 様になっているため、RTPの受信側はそれをよしなに同期する必要がある ○ 一般的にはRTCPというプロトコルと連携して同期を行うが、技術的な制約でいまのと ころその方式が使えない ● 映像、音声各々のパケットのタイムスタンプと実際の受信時刻を見ながらタイムスタンプ、 フレームを次段の処理に流す。 ● 映像が飛ぶのよりも音声が飛ぶほうが不快度が高いため、可能な限り音声のタイムスタン プはそのままにして映像のタイムスタンプを調整するようにする。 25 変換(4/7) 映像と音声の同期

Slide 26

Slide 26 text

26 WebRTC から HLSへの変換 配信者 視聴者 1. WebRTCの復号化 2. Opus音声の取り出し 3. H.264映像の取り出し 4. 音声と映像の同期 5. バッファリング 6. トランスコード 7. HLSセグメント化

Slide 27

Slide 27 text

● 適切にバッファリングし、パケットが遅延しても再生が途切れなくなるようにする ● 本システムでは、例えば500msまでの遅延を許容する場合「処理中のフレームのタイムス タンプを500ms未来のものであるとする」という方式を用いる。 ○ 遅れずに来たパケットは、500ms遅延させてからから次に流す ○ 100ms遅れて来たパケットは、400ms遅延させてから次に流す ○ 500ms遅れて来たパケットは、そのまま次に流す ● Secure Reliable Transport プロトコルなどで用いられている方式 27 変換(5/7) バッファリング

Slide 28

Slide 28 text

● パケットの到達状況をみてバッファリング量を決める ○ バッファリング量を増やすとパケットの遅延に強くなるが、再生の遅延が増える ○ バッファリング量を減らすとパケットの遅延に弱くなるが、再生の遅延が減る 28 変換(5/7) バッファリング

Slide 29

Slide 29 text

29 WebRTC から HLSへの変換 配信者 視聴者 1. WebRTCの復号化 2. Opus音声の取り出し 3. H.264映像の取り出し 4. 音声と映像の同期 5. バッファリング 6. トランスコード 7. HLSセグメント化

Slide 30

Slide 30 text

● RTPで送られてくる映像と音声を、APIで指定されたサイズやビットレートに変換を行う。 ○ 映像はNVIDIA Tesla GPUに搭載されているNVENC/NVDECを利用して変換 ■ 専用ハードウェアのため高速な変換を行うことができる ■ ただ、大量にあるCUDAコアが丸々余っているので有効活用したい ... ○ 音声はCPUで、libopusとlibmp3lameを使って変換 ■ 音声はOpusからmp3へフォーマットの変換も行う 30 変換(6/7) トランスコード

Slide 31

Slide 31 text

31 WebRTC から HLSへの変換 配信者 視聴者 1. WebRTCの復号化 2. Opus音声の取り出し 3. H.264映像の取り出し 4. 音声と映像の同期 5. バッファリング 6. トランスコード 7. HLSセグメント化

Slide 32

Slide 32 text

● HLSとして動画を配信するため、動画ファイルを指定されたサイズに分割する ● ただし、現行設定のmp3ファイルの音声の最小単位は24msのため、HLSのセグメントサイ ズは必ずしもAPIで指定されたサイズにならないことがある。 ○ 例えばHLSのセグメントサイズを1秒とした場合、24msで割り切れないため実際には 984msか、1008msの動画ファイルができてしまう ● 上記のセグメントサイズの平均が APIで指定された値にできるだけ近づくように工夫をして いる。 ● 最後に、出力された動画ファイルを HLSのプレイリストに追記する。 32 変換(7/7) HLSセグメント化

Slide 33

Slide 33 text

33 WebRTC から HLSへの変換 配信者 視聴者 1. WebRTCの復号化 2. Opus音声の取り出し 3. H.264映像の取り出し 4. 音声と映像の同期 5. バッファリング 6. トランスコード 7. HLSセグメント化

Slide 34

Slide 34 text

デモ 34

Slide 35

Slide 35 text

● モバイル含む、Webブラウザからプラグイン不要でライブ配信を開始 ● HLS形式でブラウザ、アプリに配信 ● hls.js, ExoPlayerなど一般的なHLSクライアントで再生可能 ● 好きな解像度/品質にスケーリングして配信 ● WebRTCとHLSを組み合わせることで、低遅延と大規模配信を両立 35 ImageFlux Live Streaming まとめ