先端技術とメディア表現(FTMA2020) 第6回全レポート

先端技術とメディア表現(FTMA2020) 第6回全レポート

6d667e747a4a1cda7d201c3358424257?s=128

Digital Nature Group

July 29, 2020
Tweet

Transcript

  1. photoplethysmography (PPG) 信号 用い , 呼吸数 計測す 腕時計型 ム 開発し

    . 先行研究 比 す い? 技術や手法 キ ? ー ンソー Capnobase data 用い , 評価 行 . 結果 関し , 先 行研究 向 し 記述あ . ? 議論 あ ? 次 読み い論文 ? うや 有効 検証し ? PPG 信号 呼吸数 求 際 , 新 Extreme Learning Machine (ELM) regression いう ム 開発し 点 .PPG 信号 用い , 呼吸数計測 し 腕時計型 ン 提案し 点 . Neural network 違い , 隠 層 学習 必要 し い ,Extreme Learning Machine (ELM) 計算 小 く 良い .Extreme Learning Machine , 複雑 非線形 学習す . Health Chair: Implicitly Sensing Heart and Respiratory Rate,Fog Data: Enhancing Telehealth Big Data Through Fog Computing,Multiparameter Respiratory Rate Estimation From the Photoplethysmogram,EchoWear: Smartwatch Technology for Voice and Speech Treatments of Patients with Parkinson’s Disease,BigEAR: Inferring the Ambient and Emotional Correlates from Smartphone-based Acoustic Big Data 特 し .
  2. ホ 取得し 大規模 音 ー , 利用者 気分 , 感情

    推定す ム (BigEAR) 開発し . ム , 心理学者 音 感情 相関 分析す 手間 省く 期待 . 先行研究 比 す い? 技術や手法 キ ? 乳 患者 ー 行 結果 ,88.76% 精度 . 正解 ー , 心理学者 け . ? 議論 あ ? 次 読み い論文 ? うや 有効 検証し ? 1. 感情 関す 音声 ッ ー 生成す , 加工す psychological audio processing chain (PAPC) ロ , 開 発 , 評価し 点 .2. ー 感情 分析す , 周波数変化 , 周波数範 , ー ネ (sharpness) 知覚的特徴 し 用い 提案し 点 .3. 心理学的 ッ ー , 話者推定 ム 当 手法 提案し 点 .4. 音 ー 感情 分析す いう手法 提案 し 点 . psychological audio processing chain (PAPC) いう , 環境音 心理状態 結び け 処理す いう考え方 提唱し . 感情分類 ,Deep Neural Network 用い 点 . 88.76% いう精度 , 時間 分析 自動化 考慮す , 許容範 考え .
  3. 発話 害 持 ーキンソン病患者 発話訓練 遠隔 ニ ン 可能 し

    ー ッ ー ム あ Echo Wear 開発し . 先行研究 比 す い? 技術や手法 キ ? 実験室 環境 , 3 人 ーキンソン病 ,3 人 健常者 対象 し 実験 行 結果 ム し 有効性 検証 . 結果 可視化 .1ch 2ch 際 比較 行 , 変わ い結果 . ? 議論 あ ? 次 読み い論文 ? うや 有効 検証し ? 研究 ン し , 遠隔 発話訓練 ニ ン す ム 提案 し 点 . ー 特性 把握す , 声量 大 , 基本周波数 分析 対象 し . 今後 ,Echo Wear , 脳卒中 , 脳性麻痺 , 外傷性脳損傷 , し ン症患者 対 象 し 使え 汎用性 あ 考え .
  4. 大量 ー 効率 く扱う ,Big Data いう , ーキ 提案し

    . 先行研究 比 す い? 技術や手法 キ ? 2 ー 行い , 転送 ー 量 比較し , 大幅 削減 . ? 議論 あ ? 次 読み い論文 ? うや 有効 検証し ? Fog computing ー し , ー 削減 , 電力 削減 , 高い効率性 持 , 新 ,Fog Data いう ーキ 提案し 点 ー 縮 ,GNU zip 用い 点 . 電力 実行 可能 設計 重視し . ーン ニン , 動的時間伸縮法 (Dynamic time warping) ム 用い . 特 し .
  5. 椅子型 心拍数 呼吸数 計測す ム 提案し . 先行研究 比 す

    い? 技術や手法 キ ? 研究室 環境 , 心拍数 83%, 呼吸数 73% 精度 計測 . ? 議論 あ ? 次 読み い論文 ? うや 有効 検証し ? 椅子型 ン ン 機器 ンす , 現在 椅子 使用状況 調査し . 椅子 置 調査し . 実環境 , 評価実験 行 . 腕掛け , 背中 ン ー ( 電極 力 ン ー ) 取 付け , 呼吸数 心拍数 取得す . 心拍数 得 , 背中 2 電極 , 腕掛け 1 電極 配置し . 心拍数 取得す ,R-peak detection 用い .R 波 , 心臓 電気刺激 表し , 心電 単一 拍動 最高 ー し 現 . 呼吸数 , 背中 力感知抵抗器 ン ー 使 , 取得す . 研究室 環境 比 , 実環境 , 呼吸数 心拍数 関し , 精 度 し .
  6. 重度 肺炎 患う子供 診断 処置 向 せ 目的 し ,

    呼 吸数 推定す , ー 開発し . 先行研究 比 す い? 技術や手法 キ ? 2 乗平均平方根 誤差 算出し , 既存手法 ,(5.8, 6.2, and 3.9 breaths/min) 対し , 提案手法 3.0 breaths/min 誤差 , 最少 . ? 議論 あ ? 次 読み い論文 ? うや 有効 検証し ? RIAV RIIV RIFV 3 指標 用い , ン ム , 呼吸 推定 行い , 高い推定値 記録し 点 . 振幅 関わ RIAV. 強度 関わ RIIV, 周波数 関わ RIFV 3 指標 使う新 ム 用い , 呼吸数 推定し 点 .RIAV RIIV RIFV 平均 出す ,RIAV RIIV RIFV 算出 , 呼吸数 標準偏差 4 以 , 異常 判定 , 取 除 . 特 し .
  7. ? 先行研究 比べ い? 技術や手法 キモ ? うや 有効 検証し

    ? 議論 あ ? 次 読 べ 論文 ? 光学 ーカー追跡 ステ 制御 ッ コ ター 使 VR 使用し い ユー ー 衝突 触覚刺激 提 供 多く 触覚 イス 両手 ふ しま 身体 一部 し 触覚 ー ッ 与え 手法 ユー ー 何 せ 身体 全身 ー ッ う け トラッキン VR ーン ー ッ 制御 3 コン ー ネント 構成 い ッ コ ター 衝撃 安全 保 証 チ 襲わ 岩や矢 飛 く VR ーン 作 ー ッ 検証し 特 し Lung-Pan Cheng, Patrick Lミhne, Pedro Lopes, Christoph Sterz, and Patrick Baudisch. 2014. Haptic turk: a motion platform based on people. In Proc. CHI. ACM, 3463ど3472.
  8. ? ・VR インタラ ン 行う モー ン ラット ォー 人間

    置 換え 複数人 楽し 軽量 全く新しいモー ン ラット ォー ? ・身体 装着し 衣服 介し VR空間 触覚 ー ッ 得 非拘束 ステ ? ・VRユー 筋肉 電気的筋刺激 EMS 与え ユー ー 筋肉 動 VR空間内 触覚 ー ッ 得 事 ? ・触覚 利用し 方向情報 発信 ベ ト型 ラブ 触覚 ス イActiveBelt
  9. ? ・座 状態 ユー ー 身体 複数 力 ー ッ

    与え 受動的 ビ ー ン 体験し い う 運動感覚 生成 HapSeat
  10. ͲΜͳϞϊʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕज़΍ख๏ͷ؊͸ʁ Ͳ͏΍ͬͯ༗ޮͩͱࣔͨ͠ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ̏࣍ݩ෺ମͷܗঢ়ͱ࣭ײʹର͢ΔײੑͷϞσϧԽ *14+50%  QEG

    ʮ3 ࣍ݩ෺ମͷܗঢ়ɾ࣭ײʯͱͦΕ͔Β ײ͡ΔʮΠϝʔδޠදݱʯ ͷؒͷରԠؔ܎ʹؔͯ͠ ࿹ʹ๊͖෇͘ܗͷدΓఴ͍ܕ΢ΣΞϥϒ ϧϩϘοτΛఏҊ͠ɼεΩϯγοϓදݱΛ ௨༷ͨ͡ʑͳ ϝοηʔδͷ఻ୡΛ࣮ݱ͢Δ͜ͱΛ໨ࢦ͍ͯ͠Δ Πϝʔδݴޠͷ෼ྨ ಉҰܗঢ়ͷ෺ମͰ΋࣭ײʹΑͬͯड͚ΔΠϝʔδ͕ ҟͳΔ ֤ܗঢ়ʹ͓͚Δ࣭ײͱΠϝʔδޠͷ૬ؔؔ܎ Λൃݟ͢ΔͨΊͷ ࣮ݧΛߦͬͨ 1) Ճ౻ढ़ҰɼञҪউਖ਼:ײੑΤʔδΣϯτͱώϡʔ ϚϯϝσΟΞσʔλϕʔεͷݚڀ։ൃ — ײੑ޻๪ɼ γεςϜ/৘ใ/੍ޚɼVol.42, No.5, pp.253–259 (Jun 1998). 2) Kato, T.: Trans-category Retrieval Based on Subjective Perception Process Models, Proc. IEEE Multimedia and Expo ICME2004, TP9-5 (2004). (CD-ROM) 3) Ԯ໺ߊେɼՃ౻ढ़Ұ:ײੑݕࡧγεςϜͷઃܭख ๏:ײੑγεςϜϞσϦϯάɼ৘ใॲཧֶձ࿦จ ࢽ:σʔλϕʔεɼVol.46, No.SIG19(TOD 29) (2005). 4) ଟాণ༟ɼՃ౻ढ़Ұ:֊૚త෼ྨΛ༻͍ͨࢹ֮ײ ੑͷϞσϧԽͱྨࣅը૾ݕࡧ΁ͷԠ༻ɼ৘ใॲཧֶ ձ࿦จࢽ:σʔλϕʔεɼVol.44, No.SIG8(TOD 18), pp.37–45 (2003). 5) ଟాণ༟ɼՃ౻ढ़Ұ:ྨࣅ͢Δը૾ྖҬͷಛ௃ ղੳͱࢹ֮ײੑͷϞσϧԽɼిࢠ৘ใ௨৴ֶձ࿦ จࢽ D-IIɼVol.J87-D-II, No.10, pp.1983–1995 (2004). ҙঊઃܭ΍ΠϯςϦΞίʔσΟωʔτࢧԉ ʹԠ༻͢ΔͨΊʹɼ ϓϦϛςΟϒͳܗঢ়͚ͩͰͳ͘ɼ Ո۩ͳͲͷ෺ମΛ༻͍ͯܗঢ়ͱ࣭ײͷؔ܎Λ෼ੳ͢Δඞཁ͕͋Δ
  11. Interactive 360-Degree Glasses-Free Tabletop 3D Display Motohiro Makiguchi, Daisuke Sakamoto,

    Hideaki Takada, Kengo Honda, Tetsuo Ono 丸い ー 共 作業 ン 360 度卓 ム 紹 利用者 3D ネ し ー 周 い 卓 3D 見 ? 線形 ン ン 学 ニッ ン ン ニッ ッキン ニッ 等 活用し 実装 検証し うや 有効 検証し ? ー ー ン 焦点 当 線形 ン ン 利用し ロ ー 数 従来 5 分 1 程度 削減し 従来 6 倍 表示面積 実現し 先行研究 比 す い? ー 画面 近接度 応 動 視差 提示 制御対象や操作 ッ 数 増え 場合や ーム ー 落 ン ー う 複雑 操作 行い い場合 信号伝送 ロ 拡張す 必要 課題 あ 議論 あ ? 画像 ッ 知覚機構 用い 2 画像 中間的 視点 知覚的 補間 せ 線形 ン ン 活用し ロ ー 数 削減し ン ネ ン ーン 表示領域 拡大 せ 技術や手法 キ ? HoloDesk: Direct 3D Interactions with a Situated See-through Display (CHI'12) 次 読 論文 ? UIST ’19
  12. HoloDesk: direct 3d interactions with a situated see-through display Otmar

    Hilliges, David Kim, Shahram Izadi, Malte Weiss, Andrew Wilson HoloDesk 学 ー ー Kinect 組み合わせ ン AR ム ー ー 3D ン ン 直接対話し い う 錯覚 起 す ー ー 文 通 中 手 入 身 け い ー 使わ 3D ッ 直接触 技術 衝突や摩 擦 正確 近似し 動 実現 Interactions in the Air: Adding Further Depth to Interactive Tabletops Otmar Hilliges, Shahram Izadi, Andrew D. Wilson 他 現実世界 物理的 操作す 方法 近い技術 設計す 通常 卓 組み合わせ 表面 部 空間 活用し 3 次元 ン ン 直感的 操作 う す 目的 し い ホロ ーン ー し 卓 ム 構築し 2 ロ ン ン ッ 特 ロ ン ーン素 材 使用し 超え 深 (50cm) ン ン 可 能 し い す UIST ’09 CHI '12
  13. HaptoMime: Mid-Air Haptic Interaction with a Floating Virtual Screen Yasuaki

    Monnai, Keisuke Hasegawa, Masahiro Fujiwara, 他 浮 す 仮想 ーン ン ー 触覚 ー ッ 触 可能 す 空中 ン ン ム HaptoMime 紹 線 浮 画像 超音波 用い ン ー 触覚 ー ッ 重 合わせ 方法 提案 す 1(b) (c) 示す う 透過鏡 平坦 剛性 高い表面 鏡面 射 利用し 超音波 送出す 線 超音波 伝搬軸 重 合う 学機 器 超音波機器 幾何学的 衝突し し う いう問題 解決し い ネッ Aerial Imaging Plate (AIP) 使用 Active Touch Perception Produced by Airborne Ultrasonic Haptic Hologram Seki Inoue, Yasutoshi Makino, Hiroyuki Shinoda 3 次元的 音響 ネ 分布 計算 再現し 触感 提示し 初 研究 周 取 超音波源 定常的 定在波 音や気流 感 く 次元物体形状 体感 空中触覚提示 世界 初 実現し ー 振動触覚刺激 ン ー ッ 依存す く 次元画像 触 可能 す 静 超音波 用い 空間的 立 触覚画像 生成 す 方法 提案す 従来 手法 比較し 提案手法 ー ッ 遅延や 誤差 起因す 問題 い 時間的超音波変調 い完全 無音 画 像 生成す IEEE ’15 UIST '14
  14. HaptoClone (Haptic-Optical Clone) for Mutual Tele-Environment by Real-Time 3D Image

    Transfer with Midair Force Feedback Yasutoshi Makino, Yoshikazu Furuyama, Seki Inoue, Hiroyuki Shinoda 隣接す 学的 物理的 相互 ーす 互い 高忠実 次元映像 触覚 伴 触 合う 世界初 ン ッ ン ム 提案 一対 ロ ー ー (MMAP) 空中超音波触覚 AUTD 使用す 従来 研究 比較し 1) 次元空間内 ,機器 身 け く,触覚 ー ッ し 相 互作用 行う 可能 あ . 2) 人 け く,物体 物理的 遠隔地 相互作用 可能 あ ロ ム 開発し 触覚 ー ッ 効果 い ー 調査 行 結果,現在 ム 100ms 遅延 許容 示 . AUTD ム 触覚 ー ッ 実際 接触 正確 表現す 浮 画像 ン ン 豊 す CHI '16
  15. どんなもの? どうやって有効だと確証した? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 議論はある? 次に読むべき論⽂は? 従来、⾳楽を探すときタイトルや作曲家、主題によって検索されてき た。この論⽂はマイク⼊⼒を使⽤したオンライン楽譜データベースで ある。データベースを検索するには効率的な⽂字列照合が必要になる 検索はメロディの輪郭や⾳程等々、⼊⼒の近似マッチングの規定、イ

    ンターフェースの⾳楽⽂字起こしモジュールの適応が必要である 有名な合唱曲やショー曲は検索が⼀致する可能性があるが、⺠謡デー タベースはその可能性が低い。 アコースティック⾳楽検索システムのフロントエンドとして使⽤され るGold-Rabinerアルゴリズム、時間領域アルゴリズム、繰り返し ピッチ周期を⾒つけることによってピッチを割り当てる。ピッチがあ ると認識されるサウンドは繰り返しピッチ周期の数で時間領域で動作 するかどうかサンプリングされた波形の構造、周波数領域、⽣成され たスペクトルを調べることで変換できる。 メロディ転写システムMTは、全てのピッチは内部的にMIDIノート に関連し、それぞれが8.176HZからの単位の距離で表される。これ によってノートを識別するために適応させることができる。 被験者実験を⾏い、ムーンリバー、キング・オブ・ザ・ロード、サ マータイムを歌うものである。被験者は最初からキーの変更はできな い。ランダムピッチの問題を抱えた被験者はその正確さは⾳楽の経験 よりも歌の経験に依存していたkとがわかった。単語や⼼地よい⾳節 を歌ように指⽰し、旋律の輪郭と間隔のシーケンスの正確さを判断し た P. Knees and M. Schedl. Music retrieval and recommendation: A tutorial overview. SIGIR ʼ15. Towards the Digital Music Library: Tune Retrieval from Acoustic Input Rodger J.McNab, Lioyd A.Smith, Ian H.Witten, Clare L.Henderson and Sally Jo Counningham
  16. オクターブの⼀般化と曲の認識 曲の認識においてオクターブが⼀般化可能かどうかを調査するた めに⾏われた実験。 オクターブで区切られたトーンつまり、それらの周波数が存在す る場所は2:1の累乗の⽐率は本質的に類似している。ピッチを受 けたユニットからの情報とオクターブで区切られた情報で⼀般化 する。 Octave generation and

    tune recognition DIANA DEUTSCH Center of Human Information Processing University of California,San Diego, La Jolla, Caligornia 92037 ⽂字列から⽂字列への修正問題の拡張 既に編集された編集操作では⽂字列の⼀つのシンボルを別の単⼀ のシンボルに変換し、⽂字列・⽂字に単⼀の記号を挿⼊する。2 つの⽂字列A及びBと2Ws>W1+Wdのような編集編集操作の重み のセットが与えられた場合、2つの⽂字列間の最⼩編集操作距離 を計算するアルゴリズムを導出する。アルゴリズムは時間に⽐例 した、|A|×|B| An Extension of String-to-String Correction Problem ROY LOWRANCE AND ROBERT A. WAGNER
  17. コンテンツベースの⾳楽検索 ⾳楽の特徴として周波数との相関を使⽤するまでの商業⾳楽の発 ⽣を識別するためのマッチング例によるアプローチに基づき、類 似性検索のために⾳を分類するアプローチ、ラウドネス、ピッチ、 明るさ、帯域幅、調和性を波形表現から計算され信号から⾳楽機 能を抽出するアプローチを採⽤し、類似性マッチングのためにツ リー構造ベクトルを使⽤した。これらの計算のコストを削減する ため、オーディオを使⽤することでクエリの問題を回避した。 Content-Based Retrieval

    for Music Collections Yuen-Hsien Tseng Dept. of Library & Information Science Fu Jen Catholic University tseng@blue.lins.fju.edu.tw 曲をハミングすることで⾳楽データベースから曲を検索する。新 しいメロディー表現と新しい階層のマッチング⽅法の提案。クエ リ処理及びデータベースアルゴリズムについての提案。 QBHシステムはMIDIデータベースとマッチングエンジンファイ ルが最初に処理される。メロディ機能はそれらから処理され保存 される。検索が開始されるとハミングクエリはメロディー表現に 変換され、順番にメロディーと照合するために使⽤され、それら の類似性と曲のランクリストを作成する。 A NEW APPROACH TO QUERY BY HUMMING IN MUSIC RETRIEVAL Lie Lu, Hong You,Hong-Jiang Zhang Microsoft Research, China
  18. ⾳楽の検索と推薦のためのLFM-1bデータセット アーティスト、アルバムのレベルに関する情報を提供し、トラッ ク、ユーザー、個々のリスニングイベントに他のデータセットで ⾒られる標準コンテンツを加えた。ユニークな機能として、詳細 なユーザー固有の追加、⾳楽の好みと消費をモデル化する記述動 作などが挙げられる。このデータセットは評価の予測を超える ユーザー認識の⾳楽推奨アプローチのベンチマークの標準になら ない場合既存のデータでうまく補完できる。 The LFM-1b

    Dataset for Music Retrieval and Recommendation Markus Schedl Department of Computational Perception Johannes Kepler University
  19. Sleep Loss Can Cause Death through Accumulation of Reactive Oxygen

    Species in the Gut Alexandra Vaccaro, Yosef Kaplan Dor, Keishi Nambara, Cindy Lin, Michael E. Greenberg, Dragana Rogulja, Show all authors, Show footnotes の 先行研究 比べ 議論 次 読 検証方法 睡眠不足 引 起こすROSの蓄積 腸の酸化 引 起こす この蓄積 防 こ ハエの睡眠 し の生存 可能 した 睡眠不足 る致死の原因 くわ っ い った 腸 の負荷 あった 結論付けた 抗酸化酵素 持 遺伝子導入動物や 抗酸化化合 物の経口投与 ハエ 睡眠 し 寿命 全 う る 調べた The neuroprotective effect of vitamin E on chronic sleep deprivation- induced memory impairment: The role of oxidative stress 睡眠 記憶や学習 役立っ た え腸 のスト ス 克服した し 睡眠不足 るほ の影響 大い 考え るた 睡眠の克服 程遠い
  20. The neuroprotective effect of vitamin E on chronic sleep deprivation-induced

    memory impairment: The role of oxidative stress 睡眠不足 酸化スト ス 誘発し 学習 記憶 プ セス 損 う ここ 強力 抗酸化物質 あるビタミンE 用いた脳の神経保護効果 ットの睡眠不足 る認知障害 防止 する効果 あるこ 示した Metabolic consequences of chronic sleep restriction in rats: Changes in body weight regulation and energy expenditure 疫学研究 い 睡眠不足 肥満発症 スク 高 る さ いる し し ット 用い た研究 睡眠 制限した ット 対象 ット 比較し エネ ー消費 大幅 増加し 体 重 減っ いった 実験 い ゆっく 回転し続ける台 ットの睡眠 効果的 妨 た SLEEP DEPRIVATION DOES NOT AFFECT INDICES OF NECROSIS OR APOPTOSIS IN RAT BRAIN 睡眠不足 ットの脳の壊死や細胞の損失 誘発し い また ット 睡眠 奪う 11~30日ほ く死亡する 解剖学的 死因 明 い Roles for sleep in memory: insights from the fly 睡眠 シ プス結合 恒常的 調整するこ 記憶 思い出す回路? 利益 た す可能性 ある ショウ ョウ エの睡眠のタ イミン 制御する ー 睡眠の認知的利 点 研究する機会 提供する Melatonin Ameliorates Cognitive Impairment Induced by Sleep Deprivation in Rats: Role of Oxidative Stress, BDNF and CaMKII 強力 抗酸化作用 持 メ トニン 睡 眠不足 っ ット 認知能力 損 うこ 防 こ る
  21. Generating Sentences from a Continuous Space Samuel R. Bowman, Luke

    Vilnis, Oriol Vinyals, Andrew M. Dai, Rafal Jozefowicz, Samy Bengio. どんなもの? 【⽂章⽣成VAE】 VAE(変分オートエンコーダ〜)を⽂章に対して利⽤する事で情報を ベクトル化して⽂章⽣成を⾏う 先⾏研究との⽐較 [標準rnnlm(リカレントニューラルネットワーク⾔語モデル)] ・⼀度に1単語ずつ⽂を⽣成し、明⽰的なグローバルな⽂章か らは機能しない ↓ [コレ] ・スタイル/トピック/⾼レベルの構⽂機能など、⽂の全体的な プロパティを明⽰的にモデル化 ・中間⽂(2つの⽂章間を補間する⾸尾⼀貫した⽂章)の⽣成可 技術や⼿法の要点 ・ RNN/Z/RNNという構成のVAE(変分ベイズ法が基礎)をモデル化 有効性の検証法 ・Booksコーパスでトレーニングを⾏い、そのコーパスからの10k ⽂テストセットをテスト 議論の余地 ・⽂意を汲む⽂章全体を⽣成するようなモデルではない →潜在変数の個別のスタイル/構⽂要素への因数分解を調べ、外部 の特徴に条件付けられた⽂を⽣成する事が今後期待される 次に読むべき論⽂ ⽂⽣成×機械学習 Ex.
  22. Neural machine translation by jointly learning to align and translate

    Dzmitry Bahdanau, Kyunghyun Cho, Yoshua Bengio. ・調整と翻訳の共同学習による神経機械翻訳モデル ・従来使われていた固定⻑の⽂ベクトルは、⻑い⽂章の変換には問題があると推測 →各⽬標単語を⽣成する際、⼀連の⼊⼒単語またはエンコーダーによって計算されたタグを モデル(ソフト)検索できるようにすることで、基本的なエンコーダー/デコーダーを拡張 →(特に⻑い⽂章に対する)翻訳パフォーマンスが向上 Learning stochastic recurrent networks Justin Bayer and Christian Osendorfer. ・【STORN】変分推論の進歩を活⽤して、潜在的な変数を持つリカレントニューラルネットワークを 強化して作られる確率リカレントネットワーク ・モデルの詳細… 確率的勾配法でトレーニング 各タイムステップで構造化されたマルチモーダル条件を許可 限界尤度の信頼できる推定器を備える 確定的リカレントニューラルネットワークの⼀般化
  23. Long-term recurrent convolutional networks for visual recognition and description Jeff

    Donahue, Lisa Anne Hendricks, Sergio Guadarrama, Marcus Rohrbach, Subhashini Venugopalan, Kate Saenko, Trevor Darrell. ・画像認識と画像抽出のための⻑期的な反復畳み込みネットワーク(CNNをかけた後、LSTMで処理) ・3種のモデル …連続的な⼊⼒(動画)に対して、単⼀の意味を出⼒ / 単⼀の⼊⼒(静⽌画)に対して、連続的な出⼒(主語-修飾語-述語 等) / 連続的な⼊⼒に対して、連続的な出⼒ ・固定視覚表現を想定するか、シーケンシャル処理の単純な時間平均を実⾏する以前のモデルと⽐較して、 空間的および時間的に構成表現を学習するという点で倍に深くなる ・⾮線形性がネットワーク状態の更新に組み込まれている場合、⻑期的な依存関係を学習することが可能 Neural variational inference for text processing Yishu Miao, Lei Yu, Phil Blunsom. ・テキストの⽣成モデルと条件付きモデルのための⼀般的な変分推論(VAE)フレームワーク ・⽣成ドキュメントモデリングと教師付き質問応答という⾮常に異なるテキストモデリングアプリ ケーションで検証 ・SGVBアルゴリズムを使⽤してトレーニングする場合、シンプルで表現⼒があり、効率的 ・教師なしおよび教師付き学習タスクの両⽅に適する ・⼀般化して任意のタイプのニューラルネットワークへ組み込み可能
  24. Deep generative image models using a laplacian pyramid of adversarial

    networks Emily Denton, Soumith Chintala, Arthur Szlam, Rob Fergus ・【LAPGAN】⾃然画像の⾼品質サンプルを⽣成できる⽣成パラメトリックモデル ・ラプラシアンピラミッドフレームワーク内の⼀連の畳み込みネットワークを使⽤ して、粗いものから細かいものまで画像を⽣成 ・ピラミッドの各レベルでGANを使⽤し、個別の⽣成的インターネットモデルをト レーニング ・sampling model ・training model
  25. 7FOPVT.BUFSJBMT5PXBSET*OUFSBDUJWF 'MVJEJD.FDIBOJTNT $)* ͲΜͳ΋ͷʁ ઌߦݚڀͱൺֱͯ͠Կ͕͍͢͝ʁ ٕज़΍ख๏ͷ؊͸ʁ ༗ޮੑͷ࣮ূํ๏͸ʁ ٞ࿦͸͋Δ͔ʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ มܗೖྗʹԠͨ͡಺෦ͷӷମͷྲྀΕΛར༻ͯ͠৘ใΛදࣔ͢ΔΠϯλϥΫςΟ

    ϒͳࡐྉͷ৽͍͠ΧςΰϦͰ͋Δ7FOPVT.BUFSJBMͱͦͷ੍࡞ํ๏Λ঺հ͠ ͨɻ·ͨͦΕΛઃܭ͠ɺಈ࡞ΛγϛϡϨʔτ͢Διϑτ΢ΣΞ΋։ൃͨ͠ɻ όοςϦʔ΍߶ੑͷߴ͍ίϯϙʔωϯτΛඞཁͱ͠ͳ͍γϯϓϧͳࣗݾ׬݁ܕ γεςϜͰ͋Δ఺ɻ·ͨมܗೖྗʹԠͯ͡ɺ৭ΛมԽͤ͞Δ͜ͱ͕Մೳͳ఺ɻ γϛϡϨʔγϣϯʹ͓͍ͯɺӷମͷ௨࿏෦෼Λ͍͔ͭ͘ͷηϧʹ෼ׂ͠ɺ֤η ϧʹର͠ɺԡ͢ͱݴͬͨ֎෦ಈ࡞ʹΑΓൃੜ͢Δج൘಺෦ͷѹྗ্ঢͱɺج൘ ಺෦ʹଘࡏ͢ΔۭؾͷѹॖʹΑΔ఍߅ѹྗΛܭࢉ͠ɺͦΕͧΕϚοϓʹ͢Δɻ ʢ࡞ۀѹྗϚοϓͱ଱ѹϚοϓʣ͜ͷೋͭͷϚοϓΛར༻ͯ͠ɺج൘಺෦Ͱͷ ྲྀମͷಈ͖ΛγϛϡϨʔτ͢Δɻ ଱ѹϚοϓͱ࡞ಈѹྗϚοϓͦΕͧΕʹର࣮͠ݧΛߦ͍ɺͦͷ݁ՌΛγϛ ϡϨʔγϣϯ݁Ռͱൺֱ͢Δ͜ͱͰɺγϛϡϨʔγϣϯͷଥ౰ੑΛ͔֬Ί ͨɻ·ͨɺ7FOPVT.BUFSJBMΛར༻༷ͨ͠ʑͳΞϓϦέʔγϣϯΛఏҊ ͠ɺͦΕͷ༗༻ੑΛओுͨ͠ɻ ࡐྉͷ੬ऑੑɻੜ࢈ͷࣗಈԽɺେྔੜ࢈Խʹ՝୊͕͋Δɻ·ͨγϛϡϨʔ γϣϯʹؔ͠ɺج൘ͷہॴతมܗ΍ଟ૚ߏ଄΁ͷରԠ͕Ͱ͖͍ͯͳ͍ɻ 56*ʹؔ͢Δ࿦จɻ
  26. .PEJ'JCFS5XP8BZ.PSQIJOH4PGU 5ISFBE"DUVBUPSTGPS5BOHJCMF "$. πΠετ͞ΕͨࢳܕͷΞΫνϡΤʔλͰ͋Δ.PEJ'JCFS͸ɺγϦίϯί ʔςΟϯά͕ࢪ͞Ε͓ͯΓɺ೤΍ిྲྀʹΑͬͯ૒ํ޲ͷՄٯతͳऩॖ· ͨ͸Ͷ͡Εͷಈ࡞Λ͢ΔɻણҡΛ੡଄͢ΔػցͰ࢖༻͢Δ͜ͱ͕ՄೳͰ ͋ͬͨΓɺଞͷετϦϯάΞΫνϡΤʔλͱൺֱͯ͠ഽʹ༏͍ͨ͠Ίɺҥ ෰ʹ࢖ΘΕΔ͜ͱ͕ظ଴Ͱ͖Δɻ Y1SJOU".PEVMBSJ[FE-JRVJE1SJOUFS GPS4NBSU.BUFSJBMT%FQPTJUJPO

    $)* Y1SJOU͸ɺ༷ʑͳӷମࡐྉΛ෯޿͍೪౓Ͱଯੵͤ͞Δ͜ͱ͕Մೳͳɺߴ ਫ਼౓ҹ࡮ϓϥοτϑΥʔϜͰ͋Δɻ͜ΕʹΑͬͯ৽نࡐྉͷ࢖༻Λଅਐ Ͱ͖ΔɻY1SJOU͸༷ʑͳ؀ڥܹࢗԼʢԽֶ൓Ԡɾޫ׆ੑԽɾ༹ӷؾԽͳ ͲʣͰݻԽ͢ΔӷମࡐྉʹରԠ͢ΔͨΊʹɺ෯޿͍ҹ࡮ղ૾౓ͱઃܭͷ ॊೈੑΛ͍࣋ͬͯΔɻ
  27. 5V7F"'MFYJCMF%JTQMBZXJUIB5VCF νϡʔϒͷதʹ͋Δ৭෇͖ӷମͷಈ ͖Λ੍ޚ͢Δ͜ͱʹΑͬͯɺσΟεϓ ϨΠΛ࣮ݱͨ͠ɻνϡʔϒͱӷମ͸ ؀ڥʹԠ༷ͯ͡ʑͳܗΛͱΔ͜ͱ͕ ՄೳͳͷͰɺଟ༷ͳද໘ܗঢ়ʹ৘ใ Λදࣔ͢Δ͜ͱ͕ՄೳͰ͋Δɻ 1SPHSBNNBCMF#MPCT "3IFPMPHJD*OUFSGBDFGPS0SHBOJD 4IBQF%FTJHO

    5&* ࣓ੑྲྀମΛ࢖༻͠ɺήϧͷܗঢ়ΛϓϩάϥϜͰ͖Δ؀ڥΛ։ൃͨ͠ɻ͜ ΕʹΑͬͯɺݱ࣮ۭؒͰ༗ػతͳܗঢ়มԽΛମݧͰ͖Δɻ͜ΕΛ੍ޚ͢ Δϋʔυ΢ΣΞ͸ɺϋχΧϜߏ଄ʹ഑ஔͨ͠ి࣓ੴͱͦͷ੍ޚճ࿏ʹΑ ͬͯߏ੒͞Ε͍ͯΔɻ
  28. (SPXO 1SJOUFE BOE#JPMPHJDBMMZ "VHNFOUFE"O"EEJUJWFMZ.BOVGBDUVSFE .JDSPqVJEJD8FBSBCMF 'VODUJPOBMMZ 5FNQMBUFEGPS4ZOUIFUJD.JDSPCFT  ඍੜ෺܈ूΛഓཆ͢ΔͨΊʹઃܭ͞ Εɺෳ਺ૉࡐΛ૊Έ߹Θͤͯ%ϓϦ

    ϯτ͞Εͨ.VTIUBSJΛ঺հͨ͠ɻϚ ϧνϚςϦΞϧ%ϓϦϯτʹΑͬ ͯɺඍੜ෺ΛғΉ؀ڥΛ࡞Δ͜ͱ ͰɺͦΕͷ੒௕ͷͨΊͷਓ޻తͳੜ ଉ஍Λܗ੒͢ΔෳࡶͳྲྀମܗΛ੡଄ Ͱ͖Δɻ
  29. Koichi Ota / Yuki Ban / Rui Fukui / Shin’ichi

    Warisawa https://dl.acm.org/doi/10.1145/3355049.3360537 どんなもの? 先行研究と比べて何がすごい? 技術の手法や肝は? 議論はある? どうやって有効だと検証した? 次に読むべき論文は? Naoya Koizumi et al. 2012. Stop Motion Goggle: Augmented visual perception by subtraction method using high speed liquid crystal. ACM Int. Conf. Proc. (2012). この研究でつくられたものでは同時に三種類までしか照明環境を提示できない。 シャッターを開きっぱなしにした場合と、特定周波数で開閉させた場合の机の上の 明るさを計測し、その差が小さいことを持って有効だと判断した。 同じ部屋を複数の光空間に分割する研究では人同士の距離が近い場合に対応できて おらず、照明器具の制御する手法では密度が大きくなると求められている光から乖 離したものになったりと、複数人に、一斉に異なる照明環境を 同じ部屋にいる複数の人間に対して異なる照明環境を提示するもの。 人間の光に対する時間的な分解能を利用し、ごく短い時間感覚で照明環境を切り替 え、そのいずれかのみを見せることで実現。 実際に実装したものでは、同時に三種類の照明環境を提示することができる Light’em: A Multiplexed Lighting System (SA’19) 人間は点滅する光の、点滅の周期が十分短いとその光を連続した一様な光と認識する (限界融合頻度)ことを利用している。 複数の種類の光を点滅させ、特定の光が点灯しているときのみ液晶メガネを開き、それ 以外は液晶メガネを閉じて光を遮ることで、ある特定の光のみを認識する。 その周期をずらすことで、同じ空間内の複数の人間に、それぞれ異なる光を提示する
  30. Naoya Koizumi / Naohisa Nagaya / Masahiro Fukukawa / Maki

    Sugimoto / Masahiko Inami https://dl.acm.org/doi/10.1145/2160125.2160139 どんなもの? 先行研究と比べて何がすごい? 技術の手法や肝は? 議論はある? どうやって有効だと検証した? 次に読むべき論文は? 参考文献 ストロボを用いてstop motion viewingを実現しているものはあったが、光を用いずに これを実現しているものはなかった。 ハイスピードシャッターを用いることでmotion blurをなくし、高速に動く物体の形 や動きを捉えることができるようにするゴーグル。 動きの知覚について人間の視覚を拡張する。 Stop motion goggle: augmented visual perception by subtraction method using high speed liquid crystal (AH’12)
  31. Ross T.Smith / Wayne Piekarshi https://dl.acm.org/doi/10.5555/1378337.1378347 どんなもの? 先行研究と比べて何がすごい? 技術の手法や肝は? 議論はある?

    どうやって有効だと検証した? 次に読むべき論文は? Live Coding of a VR Render Engine in VR ディスカッション 実験 関連研究 public, privateなワークスペースにおける(テーブルトップ)マルチビューディスプレ イのコンセプトを提唱し、またマルチビューディスプレイの分類をした。 加えて、4方向からのマルチビューを実現するためのディスプレイのマスクを作成 した。 Public and Private Workspaces on Tabletop Displays. (AUIC’08) マテリアル&メソッド
  32. Markus Schu ̈tz* / Michael Wimmer† https://www.cg.tuwien.ac.at/research/publications/2019/schuetz-2019-LCO/ どんなもの? 先行研究と比べて何がすごい? 技術の手法や肝は?

    議論はある? どうやって有効だと検証した? 次に読むべき論文は? MagniFinger: Magnified perception by a fingertip probe microscope ディスカッション 実験 先行研究ではシーンの変更にフォーカスしていたが、この研究ではシーンからレン ダーエンジン、シェーダーコード、入力システムまで変更することができる。 VRHMDを被ったままライブコーディングを行い、自分がいるVR空間についてリアル タイムで変更を加えられるシステム。 デスクトップの一部をミラーリングしているため、一般のIDEを用いることができる。 Live Coding of a VR Render Engine in VR (IEEE’19) マテリアル&メソッド
  33. Noriyasu Obushi / Sohei wakisaka / Shunichi Kasahara / Atsushi

    Hiyama / Masahiko Inami https://dl.acm.org/doi/abs/10.1145/3305367.3327994 どんなもの? 先行研究と比べて何がすごい? 技術の手法や肝は? 議論はある? どうやって有効だと検証した? 次に読むべき論文は? 参考文献 ディスカッション 実験 触覚をフィードバックとして返している。それによって、像の微細な変化を肌で感 じ取ることができる。 指先に取り付ける顕微鏡デバイス。MagniFingerは装着した指先を当てた部分の像が スクリーン状に映し出される。 指先は器用に動かせることから、より正確に、直感的に観察したい場所を動かすこ とができる。観測された像の輝度に応じて、振動がフィードバックとして与えられ る。 MagniFinger: Magnified perception by a fingertip probe microscope (SA’19) マテリアル&メソッド
  34. Yuhua Jin*, Isabel Qamar*, Michael Wessely*, Aradhana Adhikari, Katarina Bulovic,

    Parinya Punpongsanon, Stefanie Mueller https://dl.acm.org/doi/10.1145/3332165.3347905 どんなもの? 先行研究と比べて何がすごい? 技術の手法や肝は? 議論はある? どうやって有効だと検証した? 次に読むべき論文は? 参考文献 ディスカッション 実験 関連研究 特定の波長の光に晒すことで色が付く性質を持つ photochromic inks を用いた、何度 も色、模様を付け直すことが可能なテクスチャー シアン、マゼンタ、イエローのフォトクロミック色素を混ぜ、それぞれが反応する 周波数が異なることを利用することで、各色を個別に制御することができる。 Photo-Chromeleon: Re-Programmable Multi-Color Textures Using Photochromic Dyes マテリアル&メソッド
  35. ͲΜͳ΋ͷ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ ٞ࿦͸͋Δ ࣍ʹಡΉ΂͖࿦จ͸  ਓؒίʔε ө૾தͷΩʔϑϨʔϜʹରͯ͠ ΞʔςΟετ͕TUZMJ[Fͨ݁͠ՌΛ΋ͱʹWJEFPΛੜ੒͢Δख๏

    ΩʔϑϨʔϜͷςΫενϟͱλʔήοτϏσΦͷߏ଄มԽ͕൓ө͞ΕΔܳज़తͳϝσΟΞͷ඼ ࣭Λอ࣋͠ͳ͕ΒϑϨʔϜຖͷϖΠϯτϓϩηεΛলུͤ͞Δ طଘͷύονϕʔεख๏ʹରͯ͠ෳ਺ͷΨΠυνϟϯωϧΛಋೖ͢ Δ͜ͱʹΑΓੑೳΛ޲্ͤͨ͞·ͨෳ਺ͷΩʔϑϨʔϜ͕༩͑ΒΕ ͯ΋ෆࣗવͳ݁ՌʹͳΒͳ͍Α͏ʹิؒ͢Δख๏ΛఏҊ ैདྷͷύονϕʔεख๏ʹରͯ͠ $PMPSHVJEF .BTLHVJEF  1PTJUJPOBMHVJEF &EHFHVJEF 5FNQPSBMHVJEFͷ̑ͭͷΨΠυν ϟϯωϧΛಋೖͨ͠ طଘͷख๏#FOBSEFUBM<>ͱൺֱͨ͠Γ ॲཧ଎౓ͳͲʹ ͍ͭͯ΋ݕূ ۃ୺ʹর౓͕มΘͬͨ࣌ͷײ౓ʹ໰୊͕͋Δ·ͨর౓ʹ͔͗Βͣۃ ୺ͳߏ଄มԽʹରͯ͠͸՝୊͋Γ #FSOBSEFUBM<>ͳͲ
  36. ݩͷ%ΩϟϥΫλʔΞχϝʔγϣϯʹج͍ͮͯ%ͰϖΠϯτ͞Ε ͨΩʔϑϨʔϜΛࣗಈతʹૠೖ͢ΔΞϧΰϦζϜΛఏҊ·ͨ࣌ؒత ʹॱ࣍ߦͳ͍ͬͯ͘ੑ࣭ͷΞϧΰϦζϜͰ͋Γ ॲཧʹͱͯ΋͕࣌ؒ ͔͔Δ·ͨ ୯ҰͷελΠϧʹറΒΕͯ͠·͏ %FFQOFVSBMOFUXPSLΛ༻͍ͯϦΞϧλΠϜʹTUZMFUSBOTGFSΛߦ ͏ख๏ݻ༗ͷελΠϧʹറΒΕͣ ೚ҙͷελΠϧʹదԠͰ͖Δ͠ ͔͠

    χϡʔϥϧωοτϫʔΫΛ༻͍ͨΞϓϩʔν͸Ұൠʹ೉ղͳτ ϨʔχϯάϓϩηεΛཁ͢ΔͨΊ Ϣʔβʔͷίϯτϩʔϧʹ੍ݶ͕ ͔͔Δ
  37. ೥ͷ࿦จͰελΠϧΛผͷը૾ʹద༻͢Δख๏Ͱ޿͘ීٴͨ͠ ख๏αϯϓϧϕʔεͷΞϓϩʔνͰҎલ·Ͱ͸ελΠϧຖʹϝιο υΛௐ੔͢Δඞཁ͕͕͋ͬͨ ελΠϧͷݟຊͱλʔήοτࣸਅͷ྆ ํʹΨΠμϯενϟϯωϧΛઃ͚Δ͜ͱʹΑΓ ࣗಈతʹύονϕʔ εͷ߹੒ΞϧΰϦζϜΛΨΠυ͢Δ ΦϒδΣΫτ෼ྨͰτϨʔχϯά͞Εͨ7((ωοτϫʔΫΛ༻͍ͯ ߹੒ΛΨΠυ͢ΔOFVSBMCBTFͳख๏*NBHF/FUͱྨࣅͨ͠ը૾Ͱ ༻͍ΔͱޮՌత͕ͩ

    ෳࡶͳࣗવ΍ҟͳΔλΠϓͷը૾Ͱ͸੍ޚ͕ࠔ ೉ʹͳΔ
  38. %$(ͷͨΊͷඇ࣮ࣸతͳϨϯμϦϯάͷͨΊͷϑϨʔϜϫʔΫͰ ͋Δ./13ΛఏҊ෯޿੍͍ޚΛඋ͑ͨύΠϓϥΠϯʹΑͬͯϦΞϧ λΠϜͷϑΟʔυόοΫΛՄೳʹ͢Δ·ͨ ಉ੍͡ޚεΩʔϜʹै ͏͜ͱʹΑΓݻ༗ͷϚοϐϯάΛଞͷελΠϧʹదԠͤ͞Δ͜ͱ΋ Մೳ

  39. onNote: Playing Printed Music Scores as a Musical Instrument Yusuke

    Yamamoto Hideaki Uchiyama Yasuaki Kakehi の? 印刷さ た楽譜 楽器 し 直接利用する 新しい音楽演奏シス onNote 先行研究 比べ こ す い? ー 何 演奏し いるの (少 く 音の存在) 楽譜 視 覚的 理解 楽譜 書 いる通 演奏 るた 直感的 理解しやすい 技術や手法のキ ・LLAH(文書画像 取得する手法) 使用した楽譜の画像検索の手法 ・MIDI ータ の紐付け 複数の楽譜の同時取得 の実装 こ 利用した4 の応用 (DJの う 音楽再生 指 る音の出力 楽譜の移動/回転 る音楽エフ クター 楽譜の配置 る作曲) うやっ 有効 検証した? 楽譜検索の安定性 計算コスト パ メータや メ 位置 応 評価 ー のフ ー ック 議論 ある? 指 追跡し 再生する場合 右端 左端の距離 遠いた 改行 時 連続し 音 再生するこ 困難 楽譜 回転する 印刷さ た音符 読 くく る 次 読 べ 論文 ? T. Nakai, K. Kise, and M. Iwamura. Use of affine invariants in locally likely arrangement hashing for camera-based document image retrieval. In DAS, pages 541ど552, 2006.
  40. On the Use of Textural Features for Writer Identification in

    Old Handwritten Music Scores Alicia Fornes, Josep Llados, Gemma Sanchez, Horst Bunke 著者 決定するた 楽譜の 使用する 古い手書 楽譜の作家 識別のた のシス 提示 最初 五線 排除する う 前処理 行った後 音楽記号 クスチ 画像 生成する4 の異 る 方法 適用する(Basic textures, TextLine textures, AspectRatio textures, Resize textures) 生成さ た クスチ 画像 イ ス ー 共起行列 ボー フ タ 適用し 特徴 抽出する 分類 ーク ッ 距離 基 くkNN分類器 使用する The Music Notepad Andrew Forsberg, Mark Dieterich, Robert Zeleznik タッチ ン る直接的 2D スチ 入力 基 い 一般的 楽譜 作成するインタ ク シス Music Notepad 提案 紙 鉛筆 音楽 作成し いる の う 外観 感触 提 供する 確率ベースのインタプ タ 入力さ た スチ 統 合し 最 一般的 表記や編集作業 実行する 表記法 専門 的 形 整えた 表記 基 い 楽器の音 合成した するこ る
  41. AUTOMATIC MAPPING OF SCANNED SHEET MUSIC TO AUDIO RECORDINGS Christian

    Fremerey, Meinard Muller, Frank Kurth, Michael Clausen スキ ンした楽譜の ー 既存の注釈付 オー オ録音のコ クション マッ ン するた の新しい手順 基 い スキ ン さ た楽譜 自動的 識別し 注釈 付けるこ る手法 ス キ ンさ た楽譜 オー オ録音 対し そ 光学音楽認識 (OMR) タ 信号処理 使用し 共通の特徴表現 変換する この共通表現 基 い 2 の異 るタイプの ータの直接比較 容易 る この手法 スキ ンした楽譜の特徴 クエ したオー オコ クション内の検索 可能 る 深刻 OMR抽出エ ー い場合 うまく機能し その う エ ー ある箇所 自動的 明 さ る SmartMusicKIOSK: Music Listening Station with Chorus-Search Function Masataka Goto 音楽 試聴するた の新しい音楽再生インターフ イス ある SmartMusicKIOSK 提案 試聴者 ボタン 押す け 曲 のコー スの先頭や繰 返し構造の う 重要 セクションの先頭 ンプするこ る 同時 曲全体 けるそ のセ クションの配置 視覚的 表示するこ 可能 ある ゆえ 音 楽 試聴する際 自 コー ス部分 探す手間 省くこ 能動的 スニン 体験 容易 する また RefraiD 呼 るコー スセクションの自動検出手法 提案し その効果 確認 した
  42. An Online Handwritten Music Symbol Recognition System Hidetoshi Miyao Minoru

    Maruyama 音楽記号 手書 書 込 その音楽記号 正確 認識 る 優 た ー インターフ イス 作成 こ 達成するた 時 系列 ータ 使用するDPマッチン スト ーク画像の方向特徴 使用するSVMの2 の出力値 基 いたSVM 実行するこ ス ト ークの分類 行う さ 各シンボ のスト ーク 効率的 組 合わせ 自動的 音楽シンボ し 出力する 入力記号 従来の手書 の音楽 同様の方法 記録 るうえ 高い認識 率(スト ーク:97.60% 音楽記号:98.80%) 実現したた 使 いやすい音楽記号認識シス っ いる
  43. Understanding Online Firestorms J. Pfeffer T. Zorbach K. M. Carley

    Understanding Online Firestorms Juergen Pfeffer Kathleen M Carley
  44. Word of mouth as a promotional tool for turbulent markets

    Roger B Mason Novelty and Collective Attention Fang Wu Bernardo A. Huberman
  45. Collective dynamics of small- world networks Kimball Hall A study

    of binary choices with externalities Thomas C Schelling
  46. Inoculation theory of resistance to influence at maturity Josh Compton

  47. ɾॻ͔ΕͨςΩετͷจମΛࢹ֮Խ ɹ͢ΔͨΊͷܭࢉٕज़ͷ঺հ ɾਓʑͷ҉໧ͷจମͷײ֮ʹয఺Λ ɹ౰ͯͨ৽͍͠จষ෼ੳͷํ๏ͷ࣮ূ ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͜ੌ͍ʁ ٕज़΍ख๏ͷΩϞ͸ʁ Ͳ͏΍ͬͯ༗ޮͰ͋Δͱݕূͨ͠ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ

    จମͷྨࣅੑ൑அͷͨΊʹ ͷจઅΛ ͷൺֱʹ·ͱΊͨσʔληοτΛ࡞੒ σʔλΛͭͷτϦϓϨοτηοτʹ෼ׂ͠  ʙ ݸͷτϦϓϨοτΛෆ࿈ଓͳςΩετηοτ͔Β࡞੒ɻ ͜ΕʹΑΓػցֶशϞσϧͷτϨʔχϯάͱςετͷͨΊͷ τϦϓϨοτͷෆ࿈ଓηοτ͕ಘΒΕจମͷ༷ʑͳݟํ͕ Ͱ͖ΔΑ͏ʹҾ༻Λબ୒͢ΔͨΊʹ࢖༻͢ΔύϥϝʔλΛมԽͤ͞Δɻ ֶज़తɺ৬ۀతɺࢲతʹ௕จͷจষΛΑ͘࢖͏ඃݧऀਓʹରͯ͠ Ϟσϧͷਫ਼౓ͷݶք΍ɺͦΕΒͷޡ͕ࠩͲͷΑ͏ʹ ఺ͷͣΕͱͯ͠౤ӨʹݱΕΔ͔ͳͲΛઆ໌্ͨ͠Ͱ ඃݧऀ͕ؾ͍ͮͨύλʔϯ΍ໃ६఺Λઆ໌͢ΔΑ͏ʹࢦࣔͨ͠ ɾϞσϧͷੑೳʹؔΘΒͣจମͷੑ࣭͸ ɹݱࡏͷٕज़Ͱ͸ಛఆͰ͖ͳ͍෦෼͕͋Δ ɾߴ࣍ݩදݱ͔Β%ۭؒ΁ͷμ΢ϯϓϩδΣΫγϣϯ ɹͰ͸χϡΞϯε͕ࣦΘΕΔ 5FTT FUBM *OUFSBDUJOHXJUI-JUFSBSZ4UZMF5ISPVHI$PNQVUBUJPOBM5PPMT 4BSBI4UFSNBO&WFZ)VBOH7JWJBO-JV&SJD1BVMPT $)*
  48. ؔ࿈ݚڀ ຊݚڀ͸จֶతᅂ޷ௐࠪͷ݁ՌΛ໛฿ͨ͠ϞσϧΛ ࡞੒͢Δ͜ͱͰओ؍తͳจֶ൷ධͱࣗવݴޠॲཧͷؒͷ ΪϟοϓΛຒΊΔ͜ͱΛ໨తͱ͍ͯ͠Δ จֶ࡞඼ʹ͍ͭͯͷʮ௚؍ʯΛαϙʔτ͢ΔͨΊͷʮϋʔυͳʯ σʔλΛఏڙ͢Δ࡭ͷຊ͔Βจֶతͳஅย͕ެ։ௐࠪͷͨΊͷ σʔλΛܗ੒͢ΔͨΊʹจֶύωϧʹΑͬͯબ͹Εͨɻ ͦΕͧΕͷηάϝϯτΛͲͷఔ౓จֶతͩͱײ͔ͨ͡ ʹΑͬͯࢀՃऀʹධՁ͢ΔΑ͏ʹࢦࣔͨ͠ɻ ͜ͷબ୒͞ΕͨจֶతηάϝϯτΛ/-5,ύʔαʔΛ༻͍ͯ෼ղ͠

    ֤୯ޠλΠϓΛ෼ੳ͢Δ͜ͱͰௐࠪͷू߹తͳબ୒Λ஧࣮ʹ ࠶ݱ͢ΔϞσϧΛߏங͢Δ͜ͱ͕Մೳͱͳͬͨɻ จֶతͳςΩετͷελΠϧ͸ద੾ͳΧςΰϦͱಛ௃෼ੳํ๏Λ ࢖༻ͯ͠෼ੳ͢Δ͚ͩͰͳ͘ɺਓؒͷઐ໳Ոͷύωϧ͔Β ಋ͖ग़͞ΕͨจֶతͳඒతʮՁ஋ʯͷΑΓओ؍తͳई౓Λ ౷߹͠Α͏ͱ͍ͯ͠·͢ 5PXBSETB.PEFM GPS3FQMJDBUJOH"FTUIFUJD-JUFSBSZ"QQSFDJBUJPO 5FTT FUBM ΢ΟΩϖσΟΞͰ͸ਓؒͷࠪಡऀ͕ಛूهࣄΛࣝผ͢ΔͨΊͷ ج४Λ࣋ͭ৘ใ඼࣭ධՁϞσϧΛఏڙ͍ͯ͠Δɻ ͜ͷʮಛूهࣄ͔Ͳ͏͔ʯͱ͍͏෼ྨ՝୊ʹରͯ͠զʑ͸هࣄͷ จࣈτϦάϥϜ෼෍Λར༻ͨ͠ػցֶशΞϓϩʔνΛఏҊ͢Δɻ զʑͷΞϓϩʔν͸ฤूཤྺͷΑ͏ͳϝλಛ௃ΛධՁ͢ΔͷͰ͸ͳ͘ จମΛධՁ͢Δ͜ͱΛ໨తͱ͍ͯ͠Δ఺Ͱطଘͷݚڀͱ͸ҟͳΔ ಛ௃తͳهࣄΛࣝผ͢ΔͨΊʹ෼ྨثͱͱ΋ʹ༷ʑͳ τϦάϥϜϕΫτϧදݱΛ࠾༻͍ͯ͠Δɻ ಛʹྖҬҠಈ࣮ݧʹ͓͚ΔϩόετੑͱҰൠԽՄೳੑΛݕ౼ͨ͠ɻ ·ͨɺ*2ݚڀͰ͸·ͩߟྀ͞Ε͍ͯͳ͍จࣈτϦάϥϜϕΫτϧ͸ ༗๬ͳදݱͰ͋Γɺ୯७͞Ͱ͸୯ޠ਺ʹΑΔ΋ͷͱඖఢ͢Δ͕ ΑΓߴ͍ࣝผੑΛಘΔ͜ͱ͕Ͱ͖Δɻ طଘͷݚڀͱҟͳΔςΩετදݱͱֶशΞϧΰϦζϜΛ ૊Έ߹Θͤͨ৽͍͠ιϦϡʔγϣϯΛݚڀ͍ͯ͠Δɻ શମͱͯ͠ɺઢܗ47.ͱೋ஋Խ͞Εͨจࣈࡾ伹࿏ϕΫτϧදݱͷ ૊Έ߹Θͤ͸આಘྗͷ͋ΔಛੑΛ͍࣋ͬͯΔ *EFOUJGZJOH'FBUVSFE"SUJDMFT JO8JLJQFEJB /FEJN-JQLB FUBM
  49. ؔ࿈ݚڀ ɾଟ࣍ݩతͳΞϓϩʔνΛ༻͍ͯࢠͲ΋ͷಡऀͷڵຯɾᅂ޷ͱ ɹಡղྗΛಉ࣌ʹຬͨ͢ຊΛఏҊ͢ΔϨίϝϯμʔʮ,3FDʯΛ։ൃ ɾ,3FD͸ݸਓతͳλά΍ධՁͳͲͷݸਓతͳιʔγϟϧϝσΟΞ্ͷ ɹσʔλʹґଘ͠ͳ͍ڭࢣͳ͠Ͱখֶߍ௿ֶ೥޲͚ͷຊΛఏҊ͢Δ ɹํ๏Λ࠾༻͍ͯ͠Δ఺͕৽͍͠ ɾ,3FD͸طଘͷϨίϝϯσʔγϣϯγεςϜͰ͸ରԠͰ͖ͳ͔ͬͨ ɹ৽͘͠ຊΛಡΈ࢝ΊΔࢠͲ΋ͷΈΛର৅ͱͨ͠৽͍͠γεςϜͰ͋Δɻ ɾ,3FD͸ଞͷϨίϝϯσʔγϣϯγεςϜͱ͸ҟͳΓ ɹϢʔβʔͷݸਓ৘ใͷར༻Մೳੑʹґଘ͠ͳ͍

    ɹཱࣗͨ͠ϨίϝϯσʔγϣϯγεςϜͰ͋Δ ,3FDͰ͸Ұൠʹެ։͞Ε͍ͯΔຊͷϝλσʔλΛ׆༻ͯ͠ ʢʣຊͷ௕͕͞୹͘γϯϓϧͰ௚઀తͳจମͳͲ௿೥ྸ૚Λ λʔήοτʹͨ͠ຊͷಛੑΛݕ౼͠ ʢʣຊͷςʔϚͷద߹ੑΛݕ౼͠ ʢʣຊͷ಺༰Λ෼ੳ͠ ʢʣຊͷΠϥετΛൺֱ͢Δ͜ͱͰɺ ࢠͲ΋ͨͪʹಡॻͷָ͠͞Λఏڙ͢Δͱಉ࣌ʹ ࢹ֮తͳࢥߟྗΛཆ͏͜ͱ͕Ͱ͖·͢ɻ "OBMZ[JOH#PPL3FMBUFE'FBUVSFT UP3FDPNNFOE#PPLTGPS&NFSHFOU3FBEFST .BSJB4PMFEBE1FSB FUBM จମʹΑΔϨίϝϯσʔγϣϯͱωΨςΟϒͳࣄྫ͕ Ϣʔβʔͷᅂ޷ʹ༩͑ΔӨڹʹ͍ͭͯݚڀΛߦͬͨɻ ຊ࣮ݧ͸ڠௐϑΟϧλϦϯάΞϧΰϦζϜͱ จମؔ࿈ੑϑΟʔυόοΫΛ૊Έ߹Θͤͨ ϋΠϒϦουηοτΞοϓͰߦΘΕͨɻ -JU3FDͷσʔληοτΛ༻͍ͯจମ͕ຊͷબ୒ʹӨڹΛ ༩͑Δ͜ͱɺจମͰಛ௃͚ͮΒΕͨຊͷ಺༰͕ ڠௐϑΟϧλϦϯάͷ݁ՌΛվળ͢ΔͨΊʹར༻Ͱ͖Δ͜ͱ ൱ఆతͳྫ͸࠷ऴతͳ༧ଌΛվળ͠ͳ͍͜ͱΛ࣮ূͨ͠ ຊݚڀͰ͸ओʹೋͭͷ໨తΛ͍࣋ͬͯΔɻ B จܳॻͷϨίϝϯσʔγϣϯΛվળͰ͖Δ͔ Ͳ͏͔ΛධՁ͢Δ͜ͱ C Ϣʔβʔ͕ؾʹೖΒͳ͔ͬͨຊ͕ϨίϝϯσʔγϣϯΛ վળͰ͖Δ͔Ͳ͏͔ΛධՁ͢Δ͜ͱ 3'෼ྨΞϧΰϦζϜΛ࢖༻ͯ͠Ϣʔβʔͷᅂ޷ʹ͓͚Δ ൱ఆతͳྫͱߠఆతͳྫͷӨڹΛධՁͨ͠ɻ ࣮ݧͷ݁Ռɺ࠷සग़ޠτϐοΫ͸ɺޠኮͷ๛෋͞ɺจॻαΠζɺ ͓Αͼ1045όΠάϥϜͷਖ਼نԽ͞ΕͨϕΫτϧΑΓ΋ ༏Ε͍ͯΔ͜ͱ͕Θ͔ͬͨɻ 4UZMPNFUSJD3FMFWBODFGFFECBDL UPXBSETB)ZCSJE#PPL 3FDPNNFOEBUJPO"MHPSJUIN 1BVMB$SJTUJOB7B[ FUBM
  50. ؔ࿈ݚڀ ຊݚڀͰ͸ஶऀͱॻ੶ͷྨࣅ౓Λܭࢉ͢ΔϓϩτλΠϓΛఏࣔ͢Δɻ ͜ͷΞϓϦέʔγϣϯ͸Ϣʔβ͕ஶऀΛબ୒͢Δ͜ͱΛՄೳʹ͠ γεςϜ͸બ୒ͨ͠ஶऀͷ࡞඼ʹྨࣅ͢ΔଞͷஶऀͷຊΛݕࡧ͢Δɻ ਪનγεςϜͷ։ൃʹ͸ओʹͭͷٕज़͕༻͍ΒΕ͍ͯΔ<>ɻ ίϯςϯπϕʔεͷٕज़<>Ͱ͸ɼϢʔβ͕աڈʹؾʹೖͬͨ΋ͷͱྨࣅͨ͠΋ͷΛਪન͢Δ͜ͱ͕Ͱ͖Δ ͜Ε·Ͱͷݚڀ<  >Ͱ͸ɼஶऀϥϯΩϯά͕ຊͷਪન඼࣭Λ޲্ͤ͞Δ͜ͱ͕ࣔ͞Ε͍ͯΔ ຊݚڀͰ͸ಡऀ͕ࣗ෼ͷ޷͖ͳஶऀʹࣅͨຊΛݕࡧ͢Δ͜ͱΛՄೳʹ͢Δɺ

    ϋΠϒϦουίϯςϯπϕʔεͷਪનϓϩτλΠϓʢਤʣΛఏࣔ͢Δɻ ͜ͷϓϩτλΠϓ͸ॻ੶Λಛ௃ϕΫτϧͱͯ͠දݱ͠಺༰ޠස౓Λ༻͍ͯྨࣅͨ͠ओ୊ͷॻ੶Λݕࡧ͢Δɻ ·ͨɺྨࣅͨ͠จମͷຊΛݕࡧ͢ΔͨΊʹελΠϧಛ௃Λ༻͍͍ͯΔɻ ελΠϧಛ௃͸ओ୊ʹґଘͤͣɺϢʔβʔ͕ಡΈ͍ͨຊͷλΠϓʹ͍ۙຊΛݕࡧ͢Δ͜ͱ͕Ͱ͖ΔͷͰɺ ॻ੶ਪનͷ෼໺Ͱ͸༗๬ͳ෼໺Ͱ͋Δɻ #PPL3FDPNNFOEFS1SPUPUZQF CBTFEPO"VUIPS`T8SJUJOH4UZMF 1BVMB$SJTUJOB7B[ FUBM
  51. Security bugs in embedded interpreters どんなものか 先行研究と比べてどこがすごいか 手法のキモ 有効性の検証について 次に読む

    議論の有無 Avantika Mathur, Mingming Cao, Suparna Bhattacharya, Andreas Dilger, Alex Tomas, Laurent Vivier 組 込 ン 起 う 脆弱性 う 落 穴 影響 セ テ い 紹介 い 今回 手短 時間 あ 重 検証系を読 い ン を 作 や ー 起 や い (error-prone) 拡張可能 あ コー を 再利用 構築 いい 手法を提示 い わ い 有効性 検証 い 特 い 手法 い ン 起 を分類 う 設計を行う い を い 組 込 ン を網羅的 説明 解析を 広い種類 ン 起 う 脆弱性 う 落 穴 い 紹介 い
  52. The Geometry of Innocent Flesh on the Bone: Return-into-libc without

    Function Calls (on the x86) どんなものか 内容 どんなものか 内容 Hovav Shacham 一般的 ー ー 直面 危険 3 要因 来 ン ー 要因 対処 ー ー 安全 を確保 1.脆弱性 深刻度 ン ン ン ンを ン ボ 化 脆弱性 深刻度を下 2.脆弱性 ン 更新 を ン ー 際 ー ー ン を向上さ ン を減 3.危険 さ さ 頻度 ー ー 既知 悪質 セ 前 警告 ー ー 悪質 コンテン 触 頻度を減 Google Chrome セ テ を向上さ 開発 ー セ テ 堅牢性向上 技術を う 使用 を 説明 い Browser Security: Lessons from Google Chrome Charles Reis, et al. 攻撃 多数 短い命令列を組 合わ 任意 計算を可能 を構築 い 同程度 驚異的 攻撃 コー ン ン あ 用い い W⊕X防御 いう方法 return-to-libc attack 効 以前 有効 い 検証 い 実際 セン 配置さ い い libc 命令 ー ン を使用 い libc 特定 関数を削除 セン コー 生成 選択肢を変更 防御 対 攻撃 耐性 高 論文 手法 先行 異 多数 短い命令列を組 合わ 任意 計算を可能 を構築 い コー ン ン 同 い強力 x86 実行 へ return-to-libc 攻撃 ン を可能 新 い技術を提示 い
  53. SAGE: Whitebox Fuzzing for Security Testing どんなものか 内容 どんなものか 内容

    Patrice Godefroid, et al. 拡張指向コン 従来 拡張可能 コン 異 必要 応 ー さ 多 小さ 拡張機能を介 新 い機能を 実装 い Xoc 2 主要 ン ー ー 基 い い 構文 ーン 拡張機能 作者 具体的 構文を使 Language fragmentsを操作 を可能 い 属性 遅延計算 拡張機能を作 際 ー ン を 気 他 拡張機能やコ 解析結果を使用 xoc を使 構築さ 拡張機能 Linux C ン ン あ Sparse を模倣 xsparse C 関数式を追加 xlambda あ 他 13 拡張機能を使 xocを評価 結果 xoc 拡張機能 従来 拡張可能 コン 用 書 同等 拡張機能 一般的 簡潔 あ 拡張機能をコン 可能 あ わ xoc 呼 C 用 拡張指向コン を紹介 い Xoc, an Extension-Oriented Compiler for Systems Programming Russ Cox, et al. 多 セ テ 脆弱性 ン ーネ 上 送信さ や を解析 コー ン ー 結果 発生 例え windows 様々 形式 ー 存在 jpg ー を実装 い コー 破損 jpg画像 引 起 さ ー ー ー う 含 い 場合 コン ー 上 jpg ー を実行 悪意あ コー を 実行 乗 取 う可能性 あ を防 1.逆 セン ー ン ニ ン 2. ン ( ボ テ ) 行わ い ン コー 低 セ テ を見逃 可能性 あ 提案さ whitebox fuzzing あ ン (blackbox fuzzing) 代替 あ whitebox fuzzing 紹介を い
  54. KLEE: Unassisted and Automatic Generation of High-Coverage Tests for Complex

    Systems Programs どんなものか 内容 Cristian Cadar, et al. KLEE 生成 テ 各 ー あ 平均 90% 以上 (中央値: 94% 以上) 高い ン を達成 開発者 手書 テ ー を大幅 上回 他 BUSYBOX embedded system suite 75 同等 ー い 同 を行 31 ー 100% を 達成 さ 良い結果 得 発見 ー KLEE を使用 452 ー ン 適用 56 深刻 を発見 最後 KLEE を使用 BUSYBOX COREUTILS ーテ テ を 機能的 正 い ー 矛盾点を発見 複雑 環境負荷 高い 多様 セ 対 高い を達成 テ を自動的 生成 新 い ンボ 実行 ー KLEEを紹介 い
  55. ? 先行研究 比 す い? 技術や手法 キ うや 有効 検証し

    ? 議論 あ ? 次 読 論文 ? 複数 ー ー 共有 MR 空間内 ン 作 相互作用 せ ム 線 描画 ー ー 動 連動 せ 表現 展示会 ー ー 作成し 相互 影響しあい予想外 表現 生み出す 出来 音 作 け く 複数 ー ー 共有 編集し別 表現 Exploring the Synergy between Live Music Performance and Tabletop Tangible Interfaces. 描画 ー 編集 ー 音声入力 替 え 出来 手 動 け ン 作 HoloLens 4 使い MR 空間 共有す
  56. Smooth Assembled Mappings for Large-Scale Real Walking (SIGGRAPH Asia 2017)

    ? 先行研究 比 す い? 技術や手法 キ うや 有効 検証し ? 議論 あ ? 次 読 論文 ? 狭い実空間内 行 広い仮想空間内 行す 技術 手法 仮想空間 経路 矩形 分割し く いけ い 実空間 広い幅 経路 存在 す 手くい い可能性 あ 18~35 歳 30 人 対し 6 異 形状 仮想空間 2 分以内 ン ム 自由 い う 行距離 計測 仮想空間 広 大 く み 少 く違和感 抑え redirected walking method global mapping method い 分割統治法 利用し 仮想空間 ッ 分割し 実空間 ッ 割 当 い く
  57. ? 先行研究 比 す い? 技術や手法 キ うや 有効 検証し

    ? 議論 あ ? 次 読 論文 ? 絵画内 照明 後 自動挿入す 技術 画像中 背後 源 置い ン い 陰影 濃す 場合や背景 複雑す 場合 他手法 組み合わせ 必要 あ 6 人 被験者 第 段階 先行研究 手法 本手法 み 第 段階 し photoshop 併せ 10 枚 画像 ン 施し ン 付け 所要 時間 計測し 描 絵 ロー 密度 推定し い ロー ー え 必要 い 絵 く ン す 画像照明 ム ロー 密度 高い箇所 ン 等 効 果 多く い 着目し ー 実 際 絵 描く手順 倣 ロー 密度 推定 ン 行 い
  58. ? 先行研究 比 す い? 技術や手法 キ うや 有効 検証し

    ? 議論 あ ? 次 読 論文 ? 1 枚 風景画像 雲 動 色 見 目 変化 別々 予測し 周期的 ニ ー ン 生成 す 生成す ニ ー ン 長す 場合 自然 み 生 し う 出力 ニ ー ン 多様性 一般化能力 ー あ 1 入力画像 対す 最先端 映像予測 比較 GAN,3DCNN ン ー ー 高解像度 長い ニ ー ン生成 可能 直接出力 ーム 生成す く 正則化 用い 学習 予 測し 中間 ッ 間接的 生成し い 長い時間 ニ ー ン 高解像度 (1024*576) 高品質 誤差 抑え 生成す 数百 数千 ム 動画 ー ッ 用い 自己教師あ 学習 動 ( 雲 流 や水 波紋 ) 見 目 ( 昼 夜 い 時間的 色 変化 ) 別々 学習す 2 時空間的 違い ( 時間 変化 度合い 違う ) 考慮し い 従来 手 法 3 次元 あ 2 次元 畳み込み層 使用し 高 学習 予測 可能 し い 画像操作 手法 関す 論文 ーン補完 ム ニン 等
  59. ? 先行研究 比 す い? ネッ 収集し 画像 画像領域 継

    目 け く 意味的 類似し 見 け 画像補完 行う手法 ー ー ー 付け 要 入力画像毎 複数 結果 ッ 生成 James Hays Alexei A. Efros Scene Completion Using Millions of Photographs siggraph2007 ? 先行研究 比 す い? ー ー 動 い う し い領域 示し 領域 大 動 除去し細 い動 残す手法 背景領域 動 領域 自然 み 生 し う部 分 ッ 基 く最適化 入力映像 静 画 ーム ワー し 映像領域 合成し自然 映像 生み出す Selectively De-Animating Video Jiamin Bai, Aseem Agarwala, Maneesh Agrawala, Ravi Ramamoorthi
  60. ? 先行研究 比 す い? 空 領域 自然 置換す 自動背景置換

    ム 入力画像 視覚的 ン 抽出し 空 空以外 領域 区 別 入力画像 意味的 内容 一致す 画像 検索 し 合成 Yi-Hsuan Tsai, Xiaohui Shen, Zhe Lin, Kalyan Sunkavalli, Ming-Hsuan Yang ? 先行研究 比 す い? 有 ン ー ム ニン ン ーネッ 公開 い 写真 各 ン ー ム 生成す 写真 集 視点 変化 補正し ー け 使用可能 す Time-lapse Mining from Internet Photos Ricardo Martin-Brualla, David Gallup, Steven M. Seitz Sky is Not the Limit: Semantic-Aware Sky Replacement
  61. ? 先行研究 比 す い? ー ー 最初 ーム 動

    方向 指定す 対応し 映像 合成す ム 映像 生成す 際 ー ー う 映像 生成す 制御 す 生成品質 高 Zekun Hao Xun Huang Serge Belongie Controllable Video Generation with Sparse Trajectories
  62. ? 先行研究 比 す い? 技術や手法 キ うや 有効 検証し

    ? 議論 あ ? 次 読 論文 ? 実写映像 見本 入力 し 手書 ニ ー ン 生成す 近傍 キー ーム間 構 変化 品質 映像内 照明変化 対応 油絵 水彩 鉛筆 ン 複数 芸術 表現 含 異 いく 映像 適応 し 結果 既存手法 行 場合 比較し う 映像 適用 従来 ニ ー ン 3D ニ ー ン ッ 対処し 実写映像 見本以外 入力 必要 し い 見本 ー 任 入力映像 色情報 ロー推定 用い 生成 近似的 置 時間 使用し 時間的 一貫性 保 ッ ー 合成 ム 併用す 映像 品質 保 ONDŘEJ JAMRIŠKA ŠÁRKA SOCHOROVÁ ,ONDŘEJ TEXLER, MICHAL LUKÁČ ,JAKUB FIŠER JINGWAN LU, ELI SHECHTMAN, DANIEL SÝKORA patch based transfer い
  63. ? 先行研究 比 す い? 風景画像 画像 入力 し 風景画像

    見 目 画像 見 目 合成す ム CNN 画像 ン ン 分離す 合成後 ン ン 失う い Leon A. Gatys, Alexander S. Ecker, Matthias Bethge Image Style Transfer Using Convolutional Neural Networks ? 先行研究 比 す い? 元画像 画像 入力し 元画像 画像 適応し 合成す 教師 し ム ッ ー 手法 異 ー 依存す く合成す 教師 し学習 事前 訓練 CNN 必要 し い Split and Match: Example-based Adaptive Patch Sampling for Unsupervised Style Transfer CVPR2016 Oriel Frigo, Neus Sabater, Julie Delon, Pierre Hellier
  64. ? 先行研究 比 す い? 映像 画像 合成す ム 映像

    キー ーム 伝 せ 映像 整 合性 抑え時間的一貫性 保 画像 時 使え ッ 適応技術 動画 場合 使え 示 し Oriel Frigo, Neus Sabater, Julie Delon, Pierre Hellier ? 先行研究 比 す い? 既存 手法 関連 け 合成手法 元画像 見 目 維持し 画像 ーン 品質 保 Arbitrary Style Transfer with Deep Feature Reshuffle 2018 Ricardo Martin-Brualla, David Gallup, Steven M. Seitz Video Style Transfer by Consistent Adaptive Patch Sampling HAL2018
  65. ? 先行研究 比 す い? 画像 動画全体 適用す 手法 球面画像

    適用 可能 あ 長い時間 映像 整合性 抑え い 整合 起 やすい画像 境界線 抑え 成 し い Manuel Ruder, Alexey Dosovitskiy, Thomas Brox Artistic Style Transfer for Videos and Spherical Images
  66. ? 先行研究 比 す い? 技術や手法 キ うや 有効 検証し

    ? 議論 あ ? 次 読 論文 ? ロ ム け い ー AR ロ ン支援 ー キ 性能向 ッキン ニ ー ン等 強化 ロ ー ン AR 体験 複製 自 由 ロ 作成し う 2 実 施 ッ ッ 作成 ー ー 直接操作 ッ 配置 キ 空間情報 使 後 ン 実行 ッ ン ー し ー ッ 作 い時 ッ ッ す 良い 背景映像 空間情報 キ し ー ーや複数 使 用す く D ー ン 作成す German Leiva, Cuong Nguyen, Rubaiat Habib Kazi, Paul Asente 2.5 次元空間 ー ン
  67. ? 先行研究 比 す い? ー 初期段階 ン ン ニ

    ー ン ン 作成す ロ ン ー 2.5 次元空間 ー ー 作成 ニ ー ン ー ン Han-Jong Kim, Chang Min Kim, Tek-Jin Nam SketchStudio: Experience Prototyping with 2.5-Dimensional Animated Design Scenarios CHI2018 ? 先行研究 比 す い? 拡張現実空間 ン ッ し ッ ー 手法 異 ー 依存す く合成す 教師 し学習 事前 訓練 CNN 必要 し い What You Sketch Is What You Get:Quick and Easy Augmented Reality Prototyping with PintAR Danilo Gasques, Thomas Sharkey, Janet G.Johnson, Nadir Weibel
  68. ? 先行研究 比 す い? 次元空間 作成し 描画キ ン 2

    次元平面 描画し ッ ン ム AR 書い D 曲線 描画キ ン 作成し ッ 描画し ロー ッ ン し 際 視覚的 乱雑 軽減 い Rahul Arora, Rubaiat Habib Kazi, Tovi Grossman, George Fitzmaurice, Karan Singh ? 先行研究 比 す い? 大規模 空間 使 IoT 空間 ン 空間設計 際 技術的実装 キ 持 い ー ロ ン 支援 ー 既存 ソ (Photoshop) 素材 (Lego 紙 ) 使 物理 ニ 動的 ン 映像 投影し迅 簡単 ロ ン 空間 構築 miniStudio: Designers’Tool for Prototyping Ubicomp Space with Interactive Miniature CHI2016 Han-Jong Kim, Ju-Whan Kim, Tek-Jin Nam SymbiosisSketch: Combining 2D & 3D Sketching for Designing Detailed 3D Objects in Situ CHI2018
  69. ? 先行研究 比 す い? ン映像 ン 映像 追加す ム

    体 動 操作 ッ ン す 技術力 必要 せ 作成す ム ッ ン 適用す ー 姿勢 分類 可能 し Nazmus Saquib, RubaiatHabib Kazi, Wilmot Li Interactive Body-Driven Graphics for Augmented Video Performance CHI2019
  70. High-Resolution Image Inpainting with Iterative Confidence Feedback and Guided Upsampling

    どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 次に読むべき論⽂は? 議論はある? 画像ないのオブジェクトの削除など、実際の画像編集 アプリケーションで使われる⾼解像度の画像の⼤きな ⽳を埋めるアプローチを提案。フィードバックを備え た新しい反復修復⽅法を提案。 信頼マップをフィードバックとして使⽤し、書く反復 で⽳内の⾼信頼ピクセルのみを信頼して⽳を段階的に 埋めていく。オブジェクト型の⽳がある画像を収集。 他のメソッドとの視覚的品質を評価するため、修正結 果を11⼈のユーザに⾒せ、最良の結果のものに投票 してもらう。 テストサンプルにおいて、既存の⽅法より優れている ことが実験によって⽰された。Web上でのオブジェ クト削除においてもより良い視覚的品質を実現してい る。 2009 et al.Barnes ⼤きい⽳でも先⾏研究より⾼解像度で⾼品質の修復結 果を⽣成することができる。 Yu Zeng, Zhe Lin, Jimei Yang, Jianming Zhang, Eli Shechtman, Huchuan Lu
  71. Connelly Barnes, Eli Shechtman , Adam Finkelstein , Dan B

    Goldman 新しいランダム化アルゴリズムを使⽤して、類似する画 像パッチを素早く⾒つけ貼り付ける⽅法での画像編集 ツールを提案。 新しいアルゴリズムにより、最近傍マッチングが⾮常に ⾼速になり画像合成のための様々なパッチベースのアプ ローチをリアルタイムのインタラクティブインター フェースに適⽤できるようになった。 しかし、画像を極端に編集するとゴーストなどのアー ティファクトが⽣成されてしまうなどの問題点もある。 Context Encoders: Feature Learning by Inpainting Deepak Pathak, Philipp Krahenbuhl, Jeff Donahue, Trevor Darrell Alexei A. Efros PatchMatch: A Randomized Correspondence Algorithm for Structural Image Editing 視覚的特徴をとらえる教師なし学習アルゴリズムに よりコンテキストベースのピクセル予測を⾏う⽅法 を提案。 畳み込みニューラルネットワークを使って画像のコ ンテキストを理解し予測できるよう学習する。 ⼤きな⽳でも妥当な結果を与えることができる最初 のパラメトリック修復アルゴリズム。
  72. Wei Xiong, Jiahui Yu, Zhe Lin, Jimei Yang, Xin Lu,

    Connelly Barnes, Jiebo Luo 画像修復の際、⽳内の前景領域と背景領域の範囲に関す る情報が不⾜していることにより、そのどちらもが⽳の 中に⼊り込んでいる場合に不⼗分な結果になることがよ くあった。 それらを解消するための前景認識画像修復システムを提 案。モデルは前景の輪郭を最初に予測し、予測された輪 郭をガイドラインとして使⽤し、⽋落している領域を修 復する。 Haoran Zhang, Zhenzhen Hu, Changzhi Luo, Wangmeng Zuo, Meng Wang Progressive Generative Networks(PGN)というフ レームワークを作成し、資源画像の⼤きな⽳を埋め る。このアプローチでは、徐々に⽳を⼩さくしてい き優れた修復結果を⽣み出す。 修復タスクをいくつかのサブタスクに分割すること により、前のサブタスクで学習したエッセンスを利 ⽤して、後続のサブタスクの学習を容易にしている。 ⽳を充填する際の⽅向が⼀⽅向であるため、評価が ⾮常に⾼速。 Foreground-aware Image Inpainting Semantic Image Inpainting with Progressive Generative Networks
  73. Kamyar Nazeri , Eric Ng , Tony Joseph , Faisal

    Z. Qureshi , Mehran Ebrahimi 多くの画像修復の修復部分が過度に平滑化されている。 この研究ではこれを改善するため、細かい部分もよりよ く再現できるようなアプローチを提案。 エッジジェネレータと画像補完ネットワークで構成され る2段階モデルで画像修復を⾏う。。 エッジジェネレータで⽋落部分のエッジを予測し、画像 補完ネットワークで塗りつぶしている。 ⼤きな⽳などがあるとエッジがうまく予測できない。 EdgeConnect: Generative Image Inpainting with Adversarial Edge Learning
  74. Animating Arbitrary Objects via Deep Motion Transfer Aliaksandr Siarohin, Stephane

    Lathuiliiere, Sergey Tulyakov, Elisa Ricci, Nicu Sebe の 先行研究 比べ こ す い 技術や手法のキ こ うやっ 有効 検証した 議論 ある 次 読 べ 研究 ターゲットオ クト 含 Source Image Driving Video 入力 し Source Image Driving Video 従っ 動く動画 生成する Monkey-Net 提案 く動画生成 利用さ る3次元畳 込 使用せ image-to- imageの画像変換の問題 し 解い いる 最終的 Motion Transfer キー イントの差分ベクト 密 optical flow 使い Source Image 変換しDriving Videoの ー の フ ー 生成 する 既存の手法 固有の メイン知識 骨格 顔の表情 利用し い るの 汎用性 低い 例え Everybody Dance Now 人間の 動 X2Face 人の顔の動 し 転写するこ 出来 い 本稿 キー イント 用い 動画 生成し いるた あ ゆるオ クト 様々 動画 Monkey-Net 適用出来る 3種類の ータセット 用い AKD(Average Keypoint Distance) ground truth キー イントの距離の平均 MKR(Missing Keypoint Rate)取得出来 ったキー イントの割合 AED(Average Euclidean Distance)特徴マップ のground truth の距離の3点 既存手法 主 X2Face の比較 行った また 被験者 X2Face Monkey-Net 生成した動画 自 然 見える 判断させる主観評価 行った 今の こ 単一のオ クトの 有効
  75. 2D い 人の姿勢推定 行う 提案 関節の位置 推定し 関節位置 取得する け

    骨格 特定 い 例え 画像中 複数の人 いる場合 の肩 のひ 対応さ せるべ 定ま い う そこ Part Affinity Fields いう考え方 使うPAFs(part affinity fields)affinityの推定 行った 実験 タイ 検出 行い 高い精度の姿勢推定 達成し いる Realtime multi-person 2d pose estimation using part affinity fields Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh Recycle-gan: Unsupervised video retargeting Aayush Bansal, Shugao Ma, Deva Ramanan, Yaser Sheikh 任意のビ オスタイ 別のビ オ 自動的 変換する教師 しの ータ駆動 型の プ ーチ 提案 GAN 用い ある メイン 他の メイン の ターゲ ン 学習する 顔 顔の変換の場合 OpenPose 用い 姿勢推定し いる 顔の表情 動 別の人物 実写 くキ クター OK 変換した 花の開花 の映像 別の種類の花 変換させた 風 強い日の風景動画 穏や 風の 風景動画 変換した するこ 可能
  76. A Neural Algorithm of Artistic Style 提案したスタイ 変換 feed forwardネットワーク

    タイ スタイ 変換 行う方法 提案 Semantic Segmentation の画像変換タスク クセ の損失 やCRF Loss 用い い いる groud truth ウトプットの間の感覚 的 違い(perceptual) 捉えるこ 出来 い い Gatys 知覚 従った損失(Perceptual Loss) 設定し直感的 優 たスタイ 変換 実 現した Backprop 画像 変換するた 時間 る 本稿 そ の良い こ 備え持った感覚的 違い 捉えるこ 可能 feed-forward 素早い変換 可能 手法 提案した Perceptual Losses for Real-Time Style Transfer and Super-Resolution Justin Johnson, Alexandre Alahi, Li Fei-Fei Everybody Dance Now Caroline Chan, Shiry Ginosar, Tinghui Zhou, Alexei A. Efros 踊っ いる人物のsource video 与え た場合 そのパフ ーマンス 新し いターゲット 転送し 任意の ターゲット人物 同 う 踊っ いる動 画 フ イク動画 生成する Image⇒imageの2 メイン間のmapping学習 させるの 全く同 ーションの教師 ータ 準備する必要 あるの 難しい そこ 本稿 poかe⇒imageのimege-to-imege 転送問題 し 解 い いる Sorce image⇒poかe stick figきおe⇒がaおgeが imageの段階 生成 中間 表現 pose情報 使うこ クオ の高い動画合成 実現させた
  77. MoCoGAN: Decomposing Motion and Content for Video Generation Sergey Tulyakov,

    Ming-Yu Liu, Xiaodong Yang, Jan Kautz 従来のGAN る動画生成 GAN る画像生成 比べ 非常 技術 遅 いた 本稿 既存研究 比べ ハイクオ 動画 生成するGANs の一 種 MoCoGANフ ー ワーク 提案 こ 利用し 任意のビ オ 対し その content 写っ る人物 維持し その動 変えた 逆 動 そのまま 任意のビ オのまま contentの変更 可能 し いる content motion 分離するの イント 実験 VGANやTGAN手法 の比較 行い 有効性 検証し いる
  78. Unpaired Motion Style Transfer from Video to Animation の 先行研究

    比較 重要 技術 実験方法 疑問点・感想 次 読 べ 論文 https://deepmotionediting.github.io/papers/Motion_Style_Transfer-camera-ready.pdf 動画 入力 するこ キ クター (3D )の ーション 変化させる 動画 そのまま入力 る ータベース 適用する感情 学習させ く いい Xun Huang, Ming-Yu Liu, Serge Belongie, and Jan Kautz 2018. Multimodal unsupervised image-to-image translation. In Proc. ECCV. 172ど189. 動画 ーションの属性 取得する際 AsaIN(NN) 導入 KFIR ABERMAN YIJIA WENG ∗ DANI LISCHINSKI DANIEL COHEN-OR BAOQUAN CHEN University & AICFVE 別の人間(体格の違う人)の動 スタイ の変更 る う する 実行結果 確認 数種類のコスト関数 ータ セット 実行結果 比較
  79. Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization の

    先行研究 比較 重要 技術 https://arxiv.org/pdf/1703.06868.pdf 画風変換の手法の提案 変換する程度 調整 る 処理の高速化 元画像 スタイ 適用するた の処理 し AdaIN 追加 Xun Huang Serge Belongie Department of Computer Science & Cornell Tech, Cornell University Learning Motion Manifolds with Convolutional Autoencoders の 先行研究 比較 http://www.ipab.inf.ed.ac.uk/cgvu/motioncnn.pdf 畳 込 オートエンコー 使っ 人間 の動 学習 教師 し学習 人間の動 の正確 予測 可能 動作の間のフ ー 補完 不自然 動 識別 動 の類似度の計測 motion manifold 学習する 重要 技術 Daniel Holden1 , Jun Saito2 , Taku Komura1 , Thomas Joyce1
  80. Few-shot Learning of Homogeneous Human Locomotion Styles の 先行研究 比較

    重要 技術 ーションの変換の高速化( タイ 対応) 変数 減 し 処理の高速化 メ の使 用量の減少 PFNN いう ーション学習用のNN 使う I. Mason, S. Starke, H. Zhang, H. Bilen and T. Komura OpenPose: Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields の 先行研究 比較 https://arxiv.org/pdf/1812.08008.pdf タイ 動画(画像) pose 検出 する手法の提案 認識精度 実行速度 速い 多人数のpose 同時 推定可能 重要 技術 Zhe Cao, Student Member, IEEE, Gines Hidalgo, Student Member, IEEE, Tomas Simon, Shih-En Wei, and Yaser Sheikh PAFs 用い 体の部位の向 推定する 足の目印の ータセット 作った
  81. Neural Rendering and Reenactment of Human Actor Videos の 先行研究

    比較 重要 技術 教師 し学習の画像変換手法(MUNIT )の提案 最新の手法 比較し 高いクオ の 画像変換 る 入力画像 コン ン スタイ 分け 異 るスタイ 共通のコン ン 集約する 変換の時 集約したコン ン 情報 ン スタイ 組 合わせる Lingjie Liu1,2 Weipeng Xu1 Michael Zollhoefer1,3 Hyeongwoo Kim1 Florian Bernard1 Marc Habermann1 Wenping Wang2 Christian Theobalt 1
  82. Hybrid animation production and the dream of flight どんなもの? 先⾏研究と⽐べてどこがすごい?

    技術や⼿法のキモは? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? ミニチュアのセットをモーションカメラを ⽤いて撮影した映像と,3DCGで制作した キャラクターを合成して,ストップモーション アニメーションのような質感の映像制作法. また,これを⽤いたショートアニメーション 作品Jasperの制作. フィジカルの温かみと柔軟なキャラクター の動きを組み合わせられるこの⼿法は,広く 使われている.このフィルムの突出した利点 は分からん.強いていうならカメラのコント ロール精度? モーションコントロールカメラ→ ロボットアームには7軸移動回転可能な Kuka robotを使った.カメラマン(ヒト)が⼿ 動でミニチュアセットを撮影する様⼦をス キャンしてMayaに取り込む.ここから理想 のカメラモーションをキャプチャしてロ ボットアームに記憶させて撮影した.Maya とKuka robotの融合は画期的. アニメ付け→ ミニチュアセットをデジタルスキャンして それを元にアニメーションを付けた. 実際の映像制作より.理想的な結果が得られた. 拡張性⼤いにあり. SIMON RIPPINGALE, ANDREW JOHNSTON, ANDREW BLUFF
  83. どんなもの? William JoyceとBrandon Oldenburgに よるショートアニメーション「The Fantastic Flying Books of Mr.

    Morris Lessmore」について.これは,物語の治癒 ⼒についての感動的でユーモラスな寓話. 数々の技術(ミニチュア,コンピュータア ニメーション,2Dアニメーション)を使⽤ して,サイレントフィルムやテクニカラ ミュージカルを想起させる映像の探究し たハイブリッドアニメーション. どんなもの? ハイブリッドアニメーションが従来 のキーフレームアニメーションの代 替⼿段として有効かの検討.ハイブ リッド⽅式では視覚的品質は落ちる ものの,アーティストの仕事量とそ れらの品質劣化を考慮すると,⼗分 代替可能であると考えられる. どんなもの? 顔モーキャプについて.⼤まかなス ケール(表情とか)と局所的なスケー ル(しわとか)を融合させて,より詳細 な顔モーキャプを作った.マーカが 可動化が課題. The Fantastic Flying Books of Mr. Morris Lessmore CLARE FRANCE Comparing traditional key frame and hybrid animation ERIC AHLSTRÖN, LUCAS HOLMQVIST, PRASHANT GASWAMI Pose-space animation and transfer of facial details BERND BICKEL, MANUEL LANG, MARIO BOTSCH, MIGUEL A. OTADUY, MARKUS GROSS
  84. どんなもの? CGフィルムである「Moana」にお ける,⼿描きアニメ(2D)の合成,また その相互作⽤について.3DCGキャラ クターの⽪膚上のタトゥーなどへの ⼿描きアニメの合成を試み,⾮常に シームレスなものができた. どんなもの? ホログラフィック映像,3Dサウンド, ロボット⼯学を組み合わせて無重⼒

    を体験するインスタレーション gravityZEROの制作.リアリティより も芸術要素を重視して,新たな視覚芸 術を提案した. The Role of Hand-Drawn Animation in Disney’s Moana KIM KEECH, RACHEL BIBB, BRIAN WHITED, BRETT ACHORN gravityZero: an installation work for virtual environment SUGURU GOTO, SATORU HIGA, JOHNSMITH, CHIHIRO SUZUKI
  85. どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? 過去のシミュレートされた仮想キャラクターの制御方法論。 視覚的リアリズム、相互作用への応答性の実現、外部摂動に 対するロバスト性、および条件への適応性 先行研究との違いは、物理ベースのシミュレーションと制御

    の設計目標 How to Train Your Dragon: Example-Guided Control of Flapping Flight JUNGDAM WON, JONGHO PARK, KWANYU KIM, and JEHEE LEE, Seoul National University 空力的にシミュレートされ、インタラクティブに制御 可能で、飛行、滑空、ホバリング、ダイビングなどの さまざまな運動能力を備えた、生き物を制御する方法 各運動技能はディープニューラルネットワーク (DNN)として表され、ディープQラーニング (DQL)を使用して学習される。制御方法は、ユー ザーが運動能力のキーフレームを指定できるようにす ることにより、ユーザーが学習プロセスを直接制御で きる 3つの仮想の生物(ドラゴン、ワーム、胞子)のパラメータを設 定して、モデルを作成。ベンチマークテストを活用して3つの環 境で有用性を評価した。 自然な動きを出すにはまだ不十分な要素がある。 急な行動の変化には対応しづらい。しかし強化学習は四肢のない 這う動きや泳ぎなどの動きを一般化することに優れていた。 Mazen Al Borno, Martin de Lasa, and Aaron Hertzmann. 2013. Trajectory Optimization for Full-Body Movements with Complex Contacts. IEEE Transactions on Visualization and Computer Graph
  86. TileGAN: synthesis of large-scale non-homogeneous textures Anna Frühstück, Ibraheem Alhashim,

    Peter Wonka どんなもの? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと証明した? 次に読むべき論⽂は? 100万ピクセルもの情報量を持つ複数の不均⼀な画像を合 成し、ユーザーと対話的に出⼒画像の⾒た⽬を芸術的なも のに変更することもできるアルゴリズム 実際にPCで対話的に100枚の巨⼤な画像に対して実際に合 成を⾏い、画質⾯や実⾏速度などの性能⾯で評価を⾏なっ ている 先⾏研究では作成した画像の⾒た⽬を芸術的なものに変更 することはできない ディープラーニングを⽤いて、中間潜在タイルを定義する ことで効率化された合成の精度を⾼めている。⾒た⽬の操 作については、この潜在タイルの時点で変更している。 潜在タイルにより⾒た⽬に誤りが⽣じることもあること、 タイルの複合で誤りが⽣じることがあることが誤りとして、 ⼤きな情報量を持つ画像を利⽤できるようにすること、天 体に応⽤することを今後の課題として挙げている その他の画像合成に関する論⽂ SIGGRAPH2019,August 1,2019, Anna Frühstück
  87. ? 先行研究 比べ い? 技術や手法 キモ ? うや 有効 検証し

    ? 議論 あ ? 次 読 べ 論文 ? ース ー 画像上 点 打 色 選択 自動的 そ 色 従 色付け Real-Time User-Guided Image Colorization with Learned Deep Priors (SIGGRAPH 2017) 1 点 打 け 全体 色付け 選択 点 位置 ステ 側 予測 色 提案 色 選 適応 ま 短い時間 行わ ユー 1分間 色付け し い そ 結果 ま 自動 色付け 研究 結果 比較し 画像 前面 置い 色 背景 し し 影 響 及 し 細 く色 分け う 必要 点 数 増え しまう Let there be Color!: Joint End-to-end Learning of Global and Local Image Priors for Automatic Image Colorization with Simultaneous Classification. SIGGRAPH 35, 4 (2016) 10個 畳 込 層 ネットワー イン し 最 初 畳 込 層 ユー 入力 組 込 後 3~8個目 畳 込 層 特徴 抽出し そ 画像 色分布 イン ネットワー 別 決 RICHARD ZHANG, JUN-YAN ZHU, PHILLIP ISOLA, XINYANG GENG, ANGELA S. LIN, TIANHE YU, ALEXEI A. EFROS 仏コース2班
  88. ? 先行研究 比べ い? 技術や手法 キモ ? うや 有効 検証し

    ? 議論 あ ? 次 読 べ 論文 ? ース ー 画像 参考画像 用意 そ 似 色付け Deep Exemplar-based Colorization(SIGGRAPH 2018) 色 変化 せ 画像 用い 画像 選ぶ け 変化 せ 操作 容易 あ 他 Colorization 研究 同 画像 使用 し 出 結果 比較し 現実 あ え い う 色 色付けし う し ース ー 画像 参考画 像 輝度 差 あ 生成画像 崩 Progressive Color Transfer with Dense Semantic Correspondences(2019) 輝度 類似度 判別 ブネット そ 類似度 沿 色付け ブネッ ト 2 組 合わせ Mingming He , Dongdong Chen , Jing Liao , Pedro V. Sander , and Lu Yuan Hong Kong UST,University of Science and Technology of China, Microsoft Research 仏コース2班
  89. Autonomous Reconstruction of Unknown Indoor Scenes Guided by Time-varying Tensor

    Fields KAI XU, LINTAO ZHENG, ZIHAO YAN, GUOHANG YAN, EUGENE ZHANG, MATTHIAS NIESSNER, OLIVER DEUSSEN, DANIEL COHEN-OR, HUI HUANG ッ 未知 室内風景 時間的 変化 テンソ 場 用い 自律的 再構築 研究 先行研究 比べ い 技術や手法 キ 次 読 べ 論文 議論 環境 迅速 探索 高品質 ーン再構築 両立 せ テンソ 場 用い 局所的 滑 ッ 生成 テン ソ 場 カ 構造 部分的 再構成 ーン内 大域的 効率的 経路探索 可能 ま ッ カ 動 独立 計画 柔軟 室内空間 探索・走査 実現 ッ カ 軌跡 共同 最適化 く 計画 ン 走査範囲や ッ アー 逆運動学的制約 考慮 い い Survey on path and view planning for UAVs 様々 ーン 大域的経路探索 ーベー 行 場合 行 い い場合 総走査時間 移動距離 比較 テンソ 場 テン 場 生成 グ ン 沿 壁 向け 固定カ キ ン 部屋 同 ー ー 再構成 視覚 的 比較 カ 軌道最適化 効果 実証 軌道最適化 際 直線速度 角速度 制約 緩和 場合 緩和 い い場合 同 経路 沿 再構築 比較 うや 有効 検証
  90. Saliency Diagrams a tool for analyzing animation through the relative

    importance of keyposes 先行研究 比べ い 技術や手法 キ 次読 べ 論文 議論 うや 有効 検証 ・ア ー ョン け 運動 可視化 新 い方法 提案 ・キー ー ア ー ョン イン ー ョン 得 ア ー ョン エン ー図 呼 特徴 計算 ・先行研究 Salient Poses 幾何学的 ー 見 け い う 値 うまく動作 . ・ア 線形 ・計算 削減 い ・用い い グ , ー キー イン 対応 い け く そ キー イン 相対的 重要度 ー 化 い ・ア ー ョン 高次元曲線 表現 際 回転情報 取 込 効率的 カ ・回転情報 追加 ・Saliency diagram ・分布 比較 あま 適 い い ・評価 指標 い ・Key-posture Extraction Out of Human Motion Data
  91. ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕೳ΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮੑͩͱݕূͨ͠ʁ ٞ࿦͸͋Δʁ Everybody Dance Now $BSPMJOF$IBO 4IJSZ(JOPTBS

    5JOHIVJ;IPV "MFYBJ"&GSPT ͋Δਓʹμϯε͍ͯ͠ΔಈըΛ ༻͍Δ͜ͱͰ ͦͷਓ͕·ΔͰ μϯε͍ͯ͠Δ͔ͷΑ͏ʹݟͤΔ΋ͷ ͋Δಈ͖Λଞͷਓʹ༩͑Δͷ͸ɺମ ܕͳͲʹΑΓ͕ࠩ͋ΔͷͰ೉͍͠ ߹੒͢Δ࣌ʹࠎ֨ͷ৘ใΛ༻͍ͯɺ ΞϧΰϦζϜΛܗ੒͍ͯ͠Δ 44*.ɺ-1*14Λ༻͍ͯධՁ ମͷҰ෦෼͚͕ͩ͏·͍͔͘ͳ͔ͬ ͨΓͯ͠͠·͏
  92. ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕೳ΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮੑͩͱݕূͨ͠ʁ ٞ࿦͸͋Δʁ Pifu: Pixel-Aligned Implicit Function for

    High-Resolution Clothed Human Digitization Shunsuke Saito, Zeng Huang, Ryota Natsume, Shigeo Morishima, Angjoo Kanazawa, Hao Li ෰Λண͍ͯΔਓͷը૾Λ༻͍ͯ %ܗঢ়ͱςΫενϟΛਪఆ͢Δ ઌߦͷ΋ͷͱൺ΂ͯ࢖༻͢Δ ϝϞϦ༰ྔ͕গͳ͍ ̏࣍ݩ্ۭؒͰ఺ΛҰ౓ʹͰ͸ͳ͘ ݸʑʹॲཧ͍ͯ͘͠ 14΍$IBNGFSͳͲͷଞͷख๏ͱൺ΂ɺ ΑΓྑ͍΋ͷͱ൑அͨ͠ ෰ͷ৭·Ͱ͸ਪఆ͍ͯ͠ͳ͍
  93. 引き込み式のワイヤーを使⽤して⼿の個々の関節を制御し、VR 空間内で触覚を 再現するシステム、Wireality。 触覚フィードバックシステムは VR 空間への没⼊感を⾼めるために不可⽋だが、 これまでに開発されたものは、価格が⾼い、または⼤掛かりな装置が必要であっ た。しかしこの Wireality は、軽量で低価格、さらに省電⼒であり、⼀般への実

    ⽤化が期待できる。 指先と指の付け根、 ⼿⾸の 7 個所にワイヤーを固定し、 それらが肩に取り付けた ユニットに引っ張られる。これにより、VR 空間でオブジェクトに触るときの感 覚を再現する。 肩のユニットでは、 モーターによりワイヤーが巻き取られる。 VR コンテンツと連動させることで、⼿が物体に触れたときにシステムが作動する。 被験者に素⼿や⼩型のハンドヘルドコントローラーと Wireality のそれぞれを装 着した時の⼿の動きの制限や触覚を⽐較させた。ユーザーには、⼿の複数箇所で フィードバックを感じることで、触覚がより現実に近づいたとコメントされた。 このシステムには2つの課題がある。1つめは、ワイヤーで引き込むことで触覚 を再現するために正⾯から物にアプローチしなければシステムが機能しないこ とだ。2 つめは、ペンやマグカップなどの指を曲げて持つ物に対して機能しにく いことだ。 PinpointFly: An Egocentric Position-pointing Drone Interface using Mobile AR どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? Wireality: Enabling Complex Tangible Geometries in Virtual Reality with Worn Multi-String Haptics Cathy Fang, Yang Zhang, Matthew Dworman, Chris Harrison (仏コース) CHI2020
  94. 好奇心を報酬とすることで、外的報酬が少ない・無いっていう現実に近い状況で も強化学習を行える 予測と実際のシチュエーションの誤差を報酬として好奇心を再現 観測をそのまま利用せず埋め込みができる点。 Intrinsic Curiosity Module(ICM)の ・Forward:ある時刻の状況とそれに対する行動をインプットして次の状況を予 測し、それを実際と比較、誤差から報酬を得るモジュール ・Inverse:状況

    1 と状況 2 をインプットして、そのふたつを繋げるために自身 がとったと考えられる行動を予測するモジュール。 これによって埋め込みを学習 できる。 VizDoom とマリオで、どれだけ探索できるか、またそのトレーニングをどれだ け他のシナリオに応用(般化)できるかテストした。ICM なし、ICM(Inverse 無 し)、ICM で比較。 報酬の密度が高い、 まばら、 極めてまばらの全てにおいて ICM が優位性を示し、 「Inverse 無し」はテクスチャーが多かったりコントロール不能な状況に弱かっ た。また、ICM は報酬無し状態でも学習し、一般化も調整次第で有用だった。 簡単に手に入る報酬にしがみつく拡散的側面があるところ。 ICM と EC が融合した場合どうなるのか。 VIME: Variational Information Maximizing Exploration どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? Curiosity-driven Exploration by Self-supervised Prediction