Upgrade to Pro — share decks privately, control downloads, hide ads and more …

先端技術とメディア表現(FTMA2018) 第4回レポートまとめ

先端技術とメディア表現(FTMA2018) 第4回レポートまとめ

Digital Nature Group

June 22, 2018
Tweet

More Decks by Digital Nature Group

Other Decks in Research

Transcript

  1. Deep Visual-Semantic Alignments for Generating Image Descriptions "OESFK,BSQBUIZ-J'FJ'FJ -*;)&/:6 ਓؒίʔε

    ͲΜͳ΋ͷ ը૾ͷσʔληο τͱͦͷจষͷઆ໌ ݴޠؒͷϞʔμϧؒͷରԠʹ͍ͭͯ ϏδϡΞϧσʔλ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ ੜ੒͞Εͨهड़͕ɺ ϑϧΠϝʔδͷݕࡧ ϕʔεϥΠϯΛ্ճΓ·͢ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ ৞ΈࠐΈχϡʔϥϧωο τϫʔΫͷա৒ը૾ྖҬɺ จষͷ૒ํ޲൓෮χϡʔϥϧωο τϫʔΫɺ ʹجͮ͘ ɻ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ ΠϝʔδηϯςϯεΞϥΠϝϯτධՁ ٞ࿦͸͋Δ ʁ Ϟσϧ͸ͭͷೖྗϐΫηϧ഑ྻͷهड़Λੜ੒͢Δ ݻఆղ૾౓ɻ ࣍ʹಡΉ΂͖࿦จ Green Internet of Things for Smart World
  2. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ͲΜͳ΋ͷʁ Jean Lahoud, Bernard Ghanem

    King Abdullah University of Science and Technology (KAUST) Thuwal, Saudi Arabia 2D-Driven 3D Object Detection in RGB-D Images RGB-DΧϝϥΛ༻͍ͨ3࣍ݩతͳ෺ମೝࣝख๏ ୯Ұͷը૾ͰԞߦ͖Λଌఆͯ͠ ཱମతͳ෺ମೝࣝΛ࣮ݱͨ͠ ICCV ‘17 ଞͷ2ͭͷख๏ͱൺֱ͠ɺ3ഒߴ଎͔ͭྑ޷ͳݕग़ੑೳ Λୡ੒ RGBը૾ͱԞߦ͖ͷ৘ใΛ༩͑ɺपΓͷ෺ମͱ໨ඪ෺ ͷڥքͷ۠ผΛύʔηϓτϩϯͰֶश [9] S. Gupta, R. Girshick, P. Arbel´aez, and J. Malik. Learning rich features from rgb-d images for object detection and segmentation. In ECCV, pages 345–360. Springer, 2014. [19] D. Lin, S. Fidler, and R. Urtasun. Holistic scene understanding for 3d object detection with rgbd cameras. In ICCV, pages 1417–1424, 2013. [23] J. Redmon, S. Divvala, R. Girshick, and A. Farhadi. You only look once: Unified, real-time object detection. In CVPR, pages 779–788, 2016. [26] Z. Ren and E. B. Sudderth. Three-dimensional object detection and layout prediction using clouds of oriented gradients. CVPR, 2016. [30] S. Song and J. Xiao. Sliding shapes for 3d object detection in depth images. In ECCV, pages 634–651. Springer, 2014. @ਓؒ@Ճ౻༏Ұ
  3. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ͲΜͳ΋ͷʁ Sliding Shapes for 3D

    Object Detection in Depth Images Shuran Song and Jianxiong Xiao 3(#%ը૾͔ΒҰൠతͳ%෺ମΛݕग़͢ΔΞϧΰϦζϜ 3(#ϕʔεͷݕग़ͱͲͷΑ͏ʹ݁߹͠ɺ σʔλ͔Βࣗಈతʹ%ಛ௃Λֶश͢Δ͔ ΦϒδΣΫτݕग़ɺ͢ͳΘͪςΫενϟɺর໌ɺܗঢ়ɺࢹ఺ɺࣗ ݾด࠹ɺΫϥολɺΦΫϧʔδϣϯ͓ΑͼηϯαࡶԻͷมԽͷओ ͳ੍ݶΛࠀ෰͢ΔͨΊʹσʔλۦಈํࣜͰԞߦ͖৘ใΛར༻ ͍͔ͭ͘ͷ෺ମʹ͍ͭͯɺෳ਺ͷख๏ ͱը૾ܗࣜʹ෼͚ͯൺֱ࣮ݧΛߦͬͨ Ԟߦ͖ͷݕग़ث͕3(#ͱ3(#%ͷ྆ํͷը૾ʹରͯ͠࠷ઌ ୺ͷΞϧΰϦζϜΑΓ΋େ෯ʹ༏Ε͍ͯΔ͜ͱΛࣔͨ͠ @ਓؒ@Ճ౻༏Ұ
  4. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ͲΜͳ΋ͷʁ Learning Rich Features from

    RGB-D Images for Object Detection and Segmentation Saurabh Gupta1 , Ross Girshick1 , Pablo Arbelaez 1;2 , and Jitendra Malik1 &$$7 3(#ը૾ͱԞߦ͖৘ใΛ༻͍ͨ3(#%ը૾ ͷΦϒδΣΫτݕग़ख๏ ˋͷฏۉਫ਼౓Λୡ੒ɺطଘͷ ํ๏ΑΓ΋ˋ૬ରతʹվળͨ͠ 3(#%ྠֲݕग़ͱ࣍ݩྖҬͷఏࣔɺ ৞ΈࠐΈχϡʔϥϧωοτϫʔΫʹΑΔݕग़ ෺ମݕग़ਫ਼౓Λଞͷݕग़ख๏ͱൺֱ͠ɺ ߴਫ਼౓Ͱ͋Δ͜ͱΛࣔͨ͠ @ਓؒ@Ճ౻༏Ұ
  5. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ͲΜͳ΋ͷʁ Holistic Scene Understanding for

    3D Object Detection with RGBD cameras Dahua Lin Sanja Fidler Raquel Urtasun ICCV ‘13 3(#%σʔλΛ༻͍ͨ԰಺ͷ෺ମͷ൑அɺೝࣝ ҟͳΔιʔε͔Βͷ৘ใΛ౷߹ͯ͠ΩϡʔϘΠυΛ෼ྨ͢ Δ৚݅෇͖ϥϯμϜϑΟʔϧυΛ։ൃɺγʔϯ෼ྨͱ%෺ ମೝ͕ࣝ݁߹͞Εɺ֬཰࿦తਪ࿦ʹΑͬͯղ͘͜ͱ͕Մೳ ϋΠϨϕϧͳ/:6Wσʔληοτʹ ର͢Δ༗ޮੑΛςετͨ͠ ଞͷιʔεʢಈըͳͲʣ͔Βͷ৘ใ Λ૊ΈࠐΉ͜ͱͰɺύϑΥʔϚϯε Λ͞Βʹ޲্ͤ͞Δ͜ͱ͕Ͱ͖Δ طଘͷํ๏ΑΓ΋େ෯ͳվળΛࣔͨ͠ @ਓؒ@Ճ౻༏Ұ
  6. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ͲΜͳ΋ͷʁ You Only Look Once:

    Unified, Real-Time Object Detection Joseph Redmon, Santosh Divvala, Ross Girshick, Ali Farhadi CVPR ‘16 ઌߦݚڀͱ͸ҟͳΔΞϓϩʔνͰߴ଎ͳΞʔΩςΫνϟΛ࣋ͪɺ ൑ผʹཁ͢Δ͕࣌ؒۃΊͯ୹͍ ͭͷධՁͰ׬શͳը૾͔Β௚઀ڥքϘοΫε͓ΑͼΫϥε ֬཰Λ༧ଌ͢ΔχϡʔϥϧωοτϫʔΫ ৽͍͠υϝΠϯ΍༧ظ͠ͳ͍ೖྗʹద༻ ͢Δͱ෼ղ͠ʹ͘͘ͳΔɺઌ୺ͷݕग़γε ςϜΑΓ΋ਫ਼౓͕·ͩྼ͍ͬͯΔ ΦϒδΣΫτݕग़ͷ৽͍͠Ξϓϩʔν @ਓؒ@Ճ౻༏Ұ
  7. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ͲΜͳ΋ͷʁ Three-Dimensional Object Detection and

    Layout Prediction using Clouds of Oriented Gradients Zhile Ren and Erik B. Sudderth ԰಺ͷ࣍ݩ෺ମݕग़ͱۭؒϨΠΞ΢τ༧ଌͷͨΊͷ ৽͍͠දݱͱΞϧΰϦζϜ 46/3(#%σʔλϕʔεΛ༻͍ͨࡍͷੑೳͰ ઌߦݚڀΛେ෯ʹ্ճΔ %ΦϒδΣΫτͷ࢟੎Λ%ը૾ڥքʹڧ݁͘ ͼ͚ͭΔ৽͍͠ޯ഑ޯ഑ʢ$0(ʣಛ௃Λಋೖ େن໛ͳ46/3(#%σʔληοτΛ༻͍ͯ ΞϓϩʔνΛݕূ @ਓؒ@Ճ౻༏Ұ
  8. Toward Multimodal Image-to-Image Translation - NIPS 2017 Jun-Yan Zhu UC

    Berkeley Trevor Darrell UC Berkeley Richard Zhang UC Berkeley Alexei A. Efros Oliver Wang Deepak Pathak UC Berkeley Eli Shechtman Adobe Research UC Berkeley Adobe Research ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ը૾ͷը෩ม׵ΛύλʔϯͰ͸ͳ͘ෳ਺Ͱ͖Δɽ QJYQJYͰ͸ੜ੒࣌ʹ༩͑ΔTFFEϊΠζΛ޻෉ͯ͠΋ NPEFDPMMBQTFͯ͠͠·͕ͬͨɼ͠ͳ͘ͳͬͨɽ D7"&("/ͱD-3("/Λ·ͱΊͨɼ#JDZDMF("/ͱ͍͏Ϟσ ϧɽ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ edges → photos , Google maps → satellite, labels → images, and outdoor night → day images ͷม׵Λpix2pix+noise, cAE-GAN, cVAE-GAN, cVAE-GAN++, cLR-GAN, BicycleGAN Ͱ΍ͬͯΈͨɽGoogle maps → satellites ͰLPIPSͱ͍͏ଟ༷ੑΛଌΔείΞΛൺֱɽ Amazon ϝΧχΧϧλʔΫͰὃ͞Εͨ཰Λൺֱɽ ଟ༷ੑΛଌΔ-1*14ͱ͍͏ࢦඪͷείΞ͸ը૾͕ෆࣗવͳͱ͖΋ ߴ͘ͳΔɽ MBUFOUͷ࣍ݩ͸গͳ͗͢ΔͱNPEFDPMMBQTF͢Δ͕ɼଟ͗͢Δͱ ΑΓଟ͘ͷ৘ใྔΛ࣋ͬͯ͠·͏ͨΊྑ͘ͳ͍ɽ • A. B. L. Larsen, S. K. Sønderby, H. Larochelle, and O. Winther. Autoencoding beyond pixels using a learned similarity metric. In ICML, 2016. େીࠜ޺޾ ਓؒίʔε   
  9. Autoencoding beyond pixels using a learned similarity metric - ICML

    2016 Anders Boesen Lindbo Larsen1 Søren Kaae Sønderby2 Hugo Larochelle3 Ole Winther1,2 1 Department for Applied Mathematics and Computer Science, Technical University of Denmark 2 Bioinformatics Centre, Department of Biology, University of Copenhagen, Denmark 3 Twitter, Cambridge, MA, USA ͲΜͳ΋ͷʁ 7"&ͱ("/Λ૊Έ߹Θͤͨɽ("/ͷEJTDSJNJOBUPSͰ ֶश͞Εͨಛ௃දݱΛ7"&ͷPCKFDUJWFʹ࢖༻Ͱ͖Δɽ େીࠜ޺޾ ਓؒίʔε    Vincent Dumoulin1, Ishmael Belghazi1, Ben Poole2
 Olivier Mastropietro1, Alex Lamb1, Martin Arjovsky3
 Aaron Courville1†
 1 MILA, Université de Montréal, fi[email protected].
 2 Neural Dynamics and Computation Lab, Stanford, [email protected]. 3 New York University, [email protected]. †CIFAR Fellow. ͲΜͳ΋ͷʁ Y͔Β(FOFSBUPSʹΑͬͯਪ࿦ͨ͠[ͱɼ[͔Β (FOFSBUPSʹΑͬͯਪ࿦ͨ͠ϖΞಉ࢜Λ%JTDSJNJOBUPS ʹΑͬͯൺ΂Δɽ ADVERSARIALLY LEARNED INFERENCE - ICLR 2017
  10. InfoGAN: Interpretable Representation Learning by Information Maximizing Generative Adversarial Nets

    - NIPS 2016 • X. Chen, Y. Duan, R. Houthooft, J. Schulman, I. Sutskever, and P. Abbeel. ͲΜͳ΋ͷʁ ڭࢣͳֶ͠शͰੜ੒ը૾Λ੍ޚͰ͖Δ જࡏม਺ͱ؍࡯ͷؒͷ૬ޓ৘ใྔΛ࠷େԽ͢Δ େીࠜ޺޾ ਓؒίʔε    • R. Zhang, J.-Y. Zhu, P. Isola, X. Geng, A. S. Lin, T. Yu, and A. A. Efros. ͲΜͳ΋ͷʁ നࠇࣸਅΛϦΞϧλΠϜͰண৭Ͱ͖ΔɽϢʔβʔΠϯ ϓοτܕͱσʔλυϦϒϯܕͷண৭ख๏ͷ༥߹ɽ  ૄͳೖྗ͔ΒશମΛਪଌɽ  దͨ͠ΧϥʔύϨοτΛαδΣετɽ  ෼Ͱྑ͍ண৭͕Ͱ͖Δ͔࣮ݧɽ  VOVTVBMͳண৭΋ੜ੒Ͱ͖Δɽ  Real-Time User-Guided Image Colorization with Learned Deep Priors - SIGGRAPH 2017
  11. Image-to-Image Translation with Conditional Adversarial Networks - CVPR 2017 •

    P. Isola, J.-Y. Zhu, T. Zhou, and A. A. Efros. ͲΜͳ΋ͷʁ QJYQJY ը૾ͱը૾ͷม׵Λ͓͜ͳ͏ɽ (FOFSBUPSʹ6/FUɼ1BUDI("/Λ%JTDSJNJOBUPSʹ ࢖༻ɽ େીࠜ޺޾ ਓؒίʔε   
  12. $2%-' $. !wT#Nd iUOL#r)!$ Jb.`u'6A($ K{(/ [&m+){t(  o'A=:CE7# 1j*X0<>391Hq

    B83E:@49#!op1Yx Nagk1W,/,& 1yx h#z'SR'?D91_%ZM#/#" @C;51Qc/ f'sP^]P"ZMc%gkW#1\ K{'Vv% fI FlenG         
  13.  !! !"! "    VLF9Q=-7/64NO@JBE4?P9,/  (;%:%2,1VLF4Q=3RU0+29C,/

    IA <KHM> "! !$ !!# "#!! 9TS-85GD*&).'
  14. Graffiti Fur: Turning Your Carpet into a Computer Display Yuta

    Sugiura1, Koki Toda1, Takayuki Hoshi2,Youichi Kamiyama1, Takeo Igarashi3 and Masahiko Inami1 ͲΜͳ΋ͷʁ Χʔϖοτͷໟͷ޲͖Λม͑ͯɺ ΧʔϖοτͰֆΛඳ͘σόΠε 6* ͷ։ൃ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ άϨΞޮՌΛੜͤ͡͞Δ͜ͱ͕ͳ͍σΟ εϓϨΠͱͯ͠࢖༻Ͱ͖ɺҡ࣋ʹ͸ిྗ Λফඅ͠ͳ͍ɻ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ໟൽͷ޲͖Ͱֆ͕͔͚ΔͷͰɺ "6'%ͰໟΛԡ͢͜ͱʹΑͬͯ΋ ֆ͕͔͚Δɻ ٞ࿦͸͋Δʁ ҐஔͷΩϟϦϒϨʔγϣϯΛਓ͕ ΍Βͳ͚Ε͹ͳΒͳ͍ɻΧʔϖο τʹΑͬͯੑ࣭͕มΘΔɻ ࣍ʹಡΉ΂͖࿦จ OmniTouch Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ࢠڙ͕͍Δ̒Ո଒Λট଴ͯ͠࢖͍ ৺஍ͳͲΛฉ͍ͨɻ UIST’14, ਓؒίʔεɹؠ࡚ཬۢ
  15. OmniTouch: Wearable Multitouch Interaction Everywhere Chris Harrison1,2 Hrvoje Benko1 Andrew

    D. Wilson1 Uist’11 ͜ͷσόΠεΛ࢖༻͢Δ͜ͱͰϢʔβʔ͸͋ΒΏΔ৔ ॴΛσόΠεͷද໘ͱͯ͠࢖༻͢Δ͜ͱ͕Ͱ͖Δɻ σϓεηϯαʔͰ౤Өઌͷܗঢ়Λऔಘ͢Δ͜ͱʹΑͬ ͯɺΫϦοΫͳͲͷಈ͖Λऔಘ͢Δ͜ͱ͕Ͱ͖Δɻε ϚϗΑΓ΋޿͍໘ʹ౦ө͢Δ͜ͱͰೳྗΛΑΓൃش͢ Δɻ FoldMe: Interacting with Double-sided Foldable Displays Mohammadreza Khalilbeigi Roman Lissermann Wolfgang Kleine Jürgen Steimle TEI’12 ࣗ༝ʹંΓͨͨΊΔ͜ͱ͕Ͱ͖ΔσόΠεͷ։ൃΛߦͬͨɻ ંΓͨͨΉ͜ͱʹΑͬͯɺંΓͨͨΜͩഎ໘ͷը໘ʹ΋ΞΫ ηε͢Δ͜ͱ͕Ͱ͖Δɻ ਓؒίʔεɹؠ࡚ཬۢ
  16. WorldKit: Rapid and Easy Creation of Ad-hoc InteractiveApplications on Everyday

    Surfaces Robert Xiao Chris Harrison Scott E. Hudson CHI 2013 WorldKit γεςϜ͸σϓεΧϝϥͱϓϩδΣΫλʔΛར༻͢ Δ͜ͱʹΑͬͯɺ༷ʑͳ෺ମͷද໘ΛΠϯλʔϑΣʔεͱ͠ ͯ࢖༻͢Δ͜ͱ͕Ͱ͖Δɻ͋ΒΏΔ΋ͷΛΠϯλʔϑΣʔε ͱͯ͠࢖༻Ͱ͖Δ͜ͱʹΑͬͯɺίϯϐϡʔςΟϯάͷଈ࣌ ΞΫηε͕ՄೳͱͳΔɻΩϟϦϒϨʔγϣϯͳ͠Ͱ೔ৗʹ͓ ͚Δ༷ʑͳ΋ͷΛλονσΟεϓϨΠͱͯ͠࢖͏͜ͱ͕Ͱ͖ Δɻ PINOKY: A Ring That Animates Your Plush Toys Yuta Sugiura1&2, Calista Lee1&2, Masayasu Ogata1&2, Anusha Withana1, Yasutoshi Makino1, Daisuke Sakamoto2&3, Masahiko Inami1&2, Takeo Igarashi2& CHI 2012 ͵͍͙ΔΈʹ࿹ྠΛऔΓ෇͚Δ͜ͱʹΑͬͯɺ͵͍͙ΔΈ Λ֎෦͔Βૢ࡞͢Δ͜ͱͷͰ͖ΔϩϘοτʹ͢Δ͜ͱ͕ Ͱ͖Δɻ͵͍͙ΔΈΛ࢖͏͜ͱʹΑͬͯɺࢠڙͷετϨε Λܰݮͤ͞Δ͜ͱ͕Ͱ͖Δɻ͵͍͙ΔΈ͸೔ৗʹ͓͍༷ͯʑ ͳ৔ॴʹ͋ΔͨΊɺ͜ͷσόΠεʹ͸Ԡ༻ੑ͕͋Δͱߟ͑ ͍ͯΔɻ ਓؒίʔεɹؠ࡚ཬۢ
  17. Detecting Shape Deformation of Soft Objects Using Directional Photoreflectivity Measurement

    Yuta Sugiura1&2, Gota Kakehi1 , Anusha Withana1&2, Calista Lee1 , Daisuke Sakamoto2&3, Maki Sugimoto1&2, Masahiko Inami1&2 and Takeo Igarashi2& UIST 2011 ͵͍͙ΔΈ΍ΫογϣϯͷΑ͏ͳॊΒ͔͍΋ͷͷܗঢ়ͷมԽΛܭଌ͢ Δ͜ͱ͕Ͱ͖ΔແઢσόΠεͷ։ൃɻLEDʹΑͬͯൃͤΒΕͨޫΛIR ηϯαʔ͕൓ࣹΤωϧΪʔΛܭଌ͢Δ͜ͱʹΑͬͯɺλονҐஔͱܗ ঢ়มԽΛݕग़͢Δ͜ͱ͕Ͱ͖Δɻ ϘλϯͷΑ͏ͳσόΠεͱҧ͔ͬͯͨ͘ͳ͍ͨΊɺࢠڙʹͱͬͯ༏͠ ͍σόΠεͰ͋Δɻ ਓؒίʔεɹؠ࡚ཬۢ
  18. UhV_XE ±˜“TÆ[RUJFMKBE ©`§ÍXlz UC`PRѕOT’«LNE ŽØ ¢WÄ][GØÉ   ‚® ·Ð

     =­Šm<p> " #-356&.3)&.-59-05,)&44)44/)0560()345&0(-0+&0( 53)&5/)051*/)05&.,)&.5,(-413()34 !  @QX ? Îky|Eb…´g¦cš \:³RX̖WprjS³Ì–pr jut|wg™¯Md; # XX¹SAd:նȣYv€ FžCaCVŒTªÓgLVIeZSG VEPNF:„WSGdaCWVPN; QXky|XŸ`ˆ¿WaPRÊfd: Á—Š‘Ô`רVUX›gÖÌXky| X†¾Ë°g”QIdJTWaPR‹ƒ‰ ¼WÙDRBd; &013&/-'45)3)1 7-()148-5,&4-0+.) '&/)3& &45-.&5)3&.!2&')!5)3)1*13!905,)5-' )*1'64 »mpsÎky|XµHY:äXi~ n}qxgžÒLRBdN^:ÀLH½Ò MdJTFSGVB; Õ¶ ¬‡X¡NVB²Ï:DzÏXÖÌ X­W{<oºœg¥ŸLN; #"%  $#!!  !%!
  19. Semantic Soft Segmentation Yagiz Aksoy, Tae-Hyun Oh, Sylvain Paris, Marc

    Pollefeys and Wojciech Matusik  ը૾಺ͷҟͳΔΦϒδΣΫτؒͷڥքΛਖ਼֬ʹଊ͑ɼ ಉ͡෺ମ͕͍ࣸͬͯΔྖҬͰ෼ׂ͢Δɽ ैདྷݚڀͰ͸৭Λ༻͍ͯ෼ׂ͍ͯͨ͠ɽ·ͨɼఏҊख ๏Ͱ͸ɼҙຯ࿦తಛ௃ͷͨΊਂ͍ωοτϫʔΫΛ༻͍ Δ͕ɼΫϥεʹґଘ͠ͳ͍ɽ ߴϨϕϧͷ৘ใͱ௿Ϩϕϧͷ৘ใΛ༥߹͢Δϥϓϥγ Ξϯߦྻͷੜ੒ɽ ਺஋తʹൺֱͰ͖ͳ͍ͨΊɼଞͷख๏ͱఏҊख๏ͷ݁ ՌΛࣔͨ͠ɽ·ͨɼఏҊख๏Λ༻͍ͯը૾ฤूΛߦͬ ͨ݁ՌΛࣔͨ͠ɽ ਖ਼֬ͳιϑτηάϝϯςʔγϣϯΛߦ͏͜ͱ͕Ͱ͖Δ ͕ɼ࠷దԽ͍ͯ͠ͳ͍ͨΊ஗͍ɽ લܠͱഎܠͷ৭͕ඇৗʹ͍ۙͱࣦഊ͢Δɽ ,//NBUUJOH<$IFOFUBM> 201813558 ஑ాҏ৫ #4 (ਓؒίʔε) ͲΜͳ΋ͷʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ 4*((3"1)
  20. ؔ࿈࿦จ  ɾKNN Matting [Qifeng Chen, Dingzeyu Li, Chi-Keung Tang]

    LOFBSFTUOFJHICPSBMHPSJUINΛ༻͍ͯɼ*NBHFNBUUJOHΛߦ͏ɽ*NBHF NBUUJOH͸ɼը૾ͷલܠͱഎܠΛ෼཭͢ΔλεΫͰ͋Δɽ·ͨɼϕϯνϚʔΫͰ͸ ࠷ߴਫ४ͷ݁ՌΛಘͨɽ,//NBUUJOH͸3(#৭ۭؒΑΓ)47৭ۭؒͰͷ΄͏͕݁ Ռ͕ྑ͔ͬͨɽ͜Εʹ͍ͭͯ͸ࠓޙௐ͍ࠪͨ͠ɽ ɾDeep Image Matting [Ning Xu, Brian Price, Scott Cohen, Thomas Huang] *NBHFNBUUJOHͷطଘख๏͸ɼෳࡶͳςΫενϟͷ৔߹΍ લܠͱഎܠ͕ࣅ͍ͯΔ৔߹ʹࣦഊ͢Δɽओͳཧ༝ͱͯ͠ɼ ௿Ϩϕϧͷಛ௃ͷΈΛ༻͍͍ͯΔ͜ͱ΍ߴϨϕϧͷ৘ใ͕ ܽམ͍ͯ͠Δ͜ͱ͕ڍ͛ΒΕΔɽୈҰஈ֊ͰɼЋϚοτΛ ੜ੒͠ɼୈೋஈ֊ͰͦΕΛվળ͢ΔEFFQMFBSOJOHϞσϧ Λ༻͍ͨɽ ɾAUTOMATIC SKIN AND HAIR MASKING USING FULLY CONVOLUTIONAL NETWORKS [Siyang Qin, Seongdo Kim, Roberto Manduchi] ࣗࡱΓͷීٴʹΑΓɼը૾ฤू͕੝ΜʹߦΘΕΔΑ͏ʹͳͬͨɽͦͷࡍɼഽ΍൅ɼഎܠͷ ෼཭͕ඞཁ͕ͩطଘख๏Ͱ͸ɼUSJNBQΛ༩͑ͳ͚Ε͹ͳΒͳ͍ɽຊݚڀͰ͸ɼ'$/ͱGVMMZ DPOOFDUFE$3'Λ༻͍ɼQJYFMMFWFMͰഽɾ൅ɾഎܠͷ෼཭Λߦ͏ख๏ΛఏҊ͢Δɽϕϯ νϚʔΫ݁Ռ͸-'8σʔληοτͷҰ෦ͰɼTUBUFPGUIFBSU 201813558 ஑ాҏ৫ #4 (ਓؒίʔε)
  21. ɾA Perceptually Motivated Online Benchmark for Image Matting [Christoph Rhemann,

    Carsten Rother, Jue Wang, Margrit Gelautz, Pushmeet Kohli, Pamela Rott] *NBHF.BUUJOHͷϕϯνϚʔΫςετͷͨΊͷσʔληο τΛ࡞ͬͨ࿦จɽϕϯνϚʔΫσʔληοτʹඞཁͳ৚ ݅Λఏࣔ͠ɼͦΕΛຬͨ͢Α͏ʹσʔληοτΛ࡞ͬͨɽ ໰୊఺ͱͯ͠ɼVTFSTUVEZͰΤϥʔͷࢹ֮తೝ஌͕ᐆດ Ͱ͋Δ͜ͱ͕ڍ͛ΒΕΔɽ ɾPyramid Scene Parsing Network [Hengshuang Zhao, Jianping Shi, Xiaojuan Qi, Xiaogang Wang, Jiaya Jia] ݱࡏओྲྀͱͳ͍ͬͯΔ'$/ϕʔεͷηϚϯςΟοΫ ηάϝϯςʔγϣϯ͸े෼Ͱ͸ͳ͍ɽۭؒϐϥϛο τϓʔϦϯάΛ༻͍ۭͨؒ౷ܭ͸γʔϯશମͷղऍ ʹ໾ʹཱͭɽ ϕϯνϚʔΫςετͰ͸TUBUFPGUIFBSUɽ 201813558 ஑ాҏ৫ #4 (ਓؒίʔε)
  22. Adding Force Feedback to Mixed Reality Experiences and Games using

    Electrical Muscle Stimulation - CHI2018 Pedro Lopes, Sijing You, Alexandra Ion and Patric Baudisch (Hasso Plattner Institute) ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ &.4ʹΑΔྗ֮ϑΟʔυόοΫΛ༻͍ͨ.3ମݧͱήʔϜΛߴΊΔϞόΠϧγ εςϜɻԾ૝ΦϒδΣΫτ͚ͩͰͳ͘ɺখಓ۩΍ΞϓϥΠΞϯεͳͲͷ෺ཧత ΦϒδΣΫτͰ΋ɺϢʔβʔͷख͕ࣗ༝ʹૢ࡞Ͱ͖ΔΑ͏ʹ͠ͳ͕Βɺ෺ཧత ͳྗΛՃ͑Δ͜ͱ͕Ͱ͖Δɻ .3ʹ͓͚Δ৮֮ϑΟʔυόοΫͷ՝୊Ͱ͋ΔɼϢʔβʔ͕෺ཧతͳΦϒδΣΫτʹ৮ΕΒ ΕΔΑ͏ʹखΛ։์͢Δ͜ͱΛ࣮ݱͨ͠ɻԾ૝ΦϒδΣΫτ͚ͩͰͳ͘ɼ෺ཧΦϒδΣΫ τʹ΋੍໿Λ༩͑Δ͜ͱ͕Ͱ͖Δɻιϑτ΢ΣΞΛߋ৽͢Δ͚ͩͰσόΠεͷ6*ΛมߋͰ ͖Δɻ )PMP-FOTͱҩྍ༻ͷిؾܹࢗ૷ஔΛ࢖༻ɻຊͷిۃΛ࿹͓ΑͼݞʹऔΓ෇͚͍ͯΔɻ ిؾܹࢗͷύϥϝʔλͷྫΛࣔͨ͠ɻϗϩϨϯζͷϏδϡΞϧτϥοΩϯάΛ༻͍ͯϢʔβ ͷखͷ௥੻Λ͍ͯ͠Δɻ6OJUZ%ͷ&.4ϥΠϒϥϦΛఏڙ͍ͯ͠Δɻ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ݱ࣮ײͱָ͠͞ΛධՁɻ&.4͋Γͱͳ͠ɻͭͷλεΫɻՈ۩ͷ഑ஔλεΫɻύ νϯίɻόϥϯεήʔϜɻ໊ͷඃݧऀɻϦΞϦςΟ͸ͭͷλεΫʹ͍ͭͯ༗ҙ ࠩ͋Γɻָ͠͞ʹ͍ͭͯ͸ɼՈ۩ͱύνϯίλεΫʹ͍ͭͯ༗ҙ͕ࠩग़ͨɻ ແઢͷ࣮૷ʹ͸ϨΠςϯγ͕͋Δɻྗ֮ϑΟʔυόοΫͷΈͰɼࢦઌʹςΫενϟ ΛϨϯμϦϯάͰ͖ͳ͍ɻތு͞Εͨ৮֮ޮՌ͸.3ͰϢʔβʔΛࡨ֮ͤ͞Δͷʹ ෆे෼ɻ࣮ੈքͷ෺ཧʹج͍ͮͨ৮֮ʹ͢Δ͜ͱΛఏҊɻ GVUVSFXPSLిۃ഑ஔͷ୯७ԽɾࣗಈԽɼ਎ମ࢟੎΍ے೑ർ࿑ͷมԽʹର͢Δγε ςϜͷϩόετੑͷ޲্ɺ༠ൃਵҙےͱਵҙےऩॖΛ۠ผ͢Δ੍ޚϧʔϓͷઃܭɻ -PQFT$)*4PEIJ50( ,JN$)*$BSUFS6*45 )FUUJBSBDIDIJ$)* යࢠҁՖ ਓؒίʔε   
  23. Providing Haptics to Walls & Heavy Objects in Virtual Reality

    by Means of Electrical Muscle - CHI2017 "CTU *OUSPEVDUJPO $PODMVTJPO Ծ૝ݱ࣮ͷน΍ͦͷଞͷॏ͍෺ʹ৮֮Λ༩͑Δɻ&.4ʹΑͬͯ෺ମΛԡͨ͠ͱ͖ͷ൓࡞༻ྗΛϢʔβʹ༩͑ΔɻϢʔβௐࠪࢀՃऀ͸͞ ·͟·ͳ&.4ޮՌΛඋ͑ͨΦϒδΣΫτͱΠϯλϥΫγϣϯͨ͠ɻ൓ൃͱιϑτσβΠϯ͸ʮ௨աΛ๦͛Δʯͱʮݱ࣮తʯͷ؍఺Ͱߴ ͍ධՁΛಘͨɻͭ໨ͷௐࠪͰ͸ɼ͢΂ͯͷΦϒδΣΫτ͕&.4ޮՌΛఏڙ͢Δ73ۭؒͷ୳ࡧʹΑͬͯΞϓϩʔνͷ༗ޮੑΛ࣮ূɻ 73ʹ͓͚Δݱ࣮ײͱ຅ೖײͷ࣍ͷεςοϓͱͯ͠ɼԾ૝ੈքͷ෺ੑΛ఻͑ΔͨΊʹ৮֮Λαϙʔτ͢΂͖ɻܰྔΦϒδΣΫτͷ৮֮ͷγϛϡ Ϩʔτ͸͔ͳΓਐา͖͕ͯͨ͠ɼՈ۩΍นͳͲͷॏ͍෺ମʹ৮֮ΛՃ͑Δ͜ͱ͸ࠔ೉ɻγϛϡϨʔτͨ͠ͱͯ͠΋ɼݻ༗ײ֮γεςϜ͕఍߅ ͷܽ೗ΛϢʔβʹ఻͑ͯ͠·͏ͷͰɼ෺ମΛԡ͠௨ͦ͏ͱ͢Δͱࡨ֮͸ࣦഊ͢ΔɻຊݚڀͰ͸ɼຊ౰ʹ΢ΣΞϥϒϧͳϑΥʔϜɾϑΝΫλͰ ॏ͍ΦϒδΣΫτΛϨϯμϦϯά͢Δํ๏Λ୳Δɻ ॏ͍෺ମ΍੩ࢭͨ͠෺ମͷ৮֮Λ&.4ʹΑͬͯදݱ͢Δ৽͍͠ΞϓϩʔνΛ঺հͨ͠ɻϦΞϧ΢ΥʔΩϯά73؀ڥʹదͨ͠΢ΣΞ ϥϒϧϑΥʔϜɾϑΝΫλͰ࣮ݱͨ͠ɻࠓޙͷݚڀͱͯ͜͠ͷΞϓϩʔνΛ"3Ͱ୳ٻ͢Δ༧ఆɻϢʔβͷࢦઌ͕෺ཧతͳ෺ମ΍น ʹࣗ༝ʹ;ΕΔ͜ͱΛՄೳͱ͍ͯ͠ΔͷͰɼ͜ͷٕज़͸"3ʹద͍ͯ͠Δ͸ͣͰ͋Δɻ යࢠҁՖ ਓؒίʔε    Pedro Lopes, Sijing You, Lung-Pan Cheng, Sebastian Marwecki, and Patrick Baudisch (Hasso Plattner Institute)
  24. HapThimble: A Wearable Haptic Device towards Usable Virtual Touch Screen

    - CHI2016 "CTU *OUSPEVDUJPO $PODMVTJPO ޫֶࣜγʔεϧʔ).%Λ࢖༻͢ΔόʔνϟϧλονεΫϦʔϯ͕ఏҊ͞Ε͍ͯΔ͕ɼ৮֮ϑΟʔυόοΫ͓Αͼ෺ཧత੍໿͕ͳ͍ͨΊɼ ϢʔβʔͷύϑΥʔϚϯε͕௿Լ͢Δɻ͜ͷ໰୊Λղܾ͢ΔͨΊͷ)BQ5IJNCMFͱ͍͏΢ΣΞϥϒϧϋϓςΟοΫσόΠεΛ։ൃɻϢʔ βͷࢦઌʹ༷ʑͳλΠϓͷ৮֮ϑΟʔυόοΫΛఏڙ͠ɼྗͷਁಁਂ౓ۂઢʹج͍ͮͯ෺ཧతͳϘλϯΛ໛฿͢Δɻ Ծ૝λονεΫϦʔϯͷԾ૝ද໘͸ɺ෺ཧతද໘ͷͭͷػೳɺ͢ͳΘͪ৮֮৘ใ͓Αͼ෺ཧత੍໿Λ࣮ݱ͢Δ͜ͱ͸Ͱ͖ͳ͍ɻԾ૝εΫϦʔϯͷ৔߹ɺϢʔβ͸ɺ ΫϦοΫλεΫΛ࣮ߦ͢Δͱ͖ͷঢ়ଶભҠͷදࣔͷͨΊͷࢹ֮త஌֮ͷΈʹґڌ͠ͳ͚Ε͹ͳΒͣɺ͕ͨͬͯ͠ɺϢʔβ͔ΒͷΑΓେ͖ͳ஫ҙΛඞཁͱ͢Δɻ։ ൃͨ͠σόΠεͷ࣮ݧͰ͸ɺϋϓςΟοΫ੍໿ͳ͠ͷ৮֮ϑΟʔυόοΫ͕෺ཧత੍໿Ҏ֎ͷ໾ׂΛՌ͍ͨͯ͠Δ͜ͱɺ͞·͟·ͳλΠϓͷ৮֮ϑΟʔυόοΫΛ ༩͑Δ͜ͱ͕Ͱ͖Δ͔Ͳ͏͔ɺͦͯ͠Ϣʔβʔ͕͜ΕΒͷϑΟʔυόοΫͷλΠϓΛ۠ผͰ͖Δ͔Ͳ͏͔Λௐ΂ͨɻ όʔνϟϧλονεΫϦʔϯͱͷ௚઀઀৮ΠϯλϥΫγϣϯͷͨΊͷ৮֮త੍໿ͷͳ͍৮֮ϑΟʔυόοΫͷར఺Λௐࠪ͠ɺ༷ʑͳ ෺ཧతϘλϯΛγϛϡϨʔτ͢Δ΢ΣΞϥϒϧ৮֮σόΠε͕ఏҊɻ࣮ݧͷ݁Ռʹج͍ͮͯɺԾ૝λονεΫϦʔϯͱͷ༰қͳ૬ ޓ࡞༻ΛՄೳʹ͢ΔίϯύΫτͳண༻Մೳͳ৮֮૷ஔΛ։ൃ͢Δ͜ͱΛ๬Ήɻ͞ΒʹɺԾ૝λονεΫϦʔϯͱͷ৽͍ۭؒ͠త૬ ޓ࡞༻ͷͨΊͷ৮֮ϑΟʔυόοΫͷݚڀͷ༨஍͕͋Δɻ යࢠҁՖ ਓؒίʔε    Hwan Kim, Minhwan Kim, and Woohun Lee (Department of Industrial Design, KAIST)
  25. Annexing Reality: Enabling Opportunistic Use of Everyday Objects as Tangible

    Proxies in Augmented - CHI2016 "CTU *OUSPEVDUJPO $PODMVTJPO ৮֮ମݧͷΦϯσϚϯυੜ੒͸ଞͷϑΟʔυόοΫʹൺ΂ͯ஗Ε͍ͯΔɻԾ૝ΦϒδΣΫτͷͨΊͷ࠷ྑͷར༻Մೳͳ৮֮Λఏڙ͢Δͨ ΊʹɼϢʔβʔͷݱࡏͷ෺ཧ؀ڥ͔Βػձతʹ෺ཧΦϒδΣΫτΛซ߹͢ΔγεςϜΛఏҊɻγεςϜ͸ɺϢʔβͷपғΛ࿈ଓతʹ૸ࠪ ͠ɺԾ૝෺ମʹྨࣅ͢Δ෺ཧ෺ମΛબ୒͠ɺબ୒͞Εͨ෺ཧ෺ମʹԾ૝ϞσϧΛॏͶ߹Θͤͯɺࢹ֮৮֮ͷෆҰகΛ௿ݮ͢Δɻ ৮֮ग़ྗΛఏڙ͢ΔͨΊͷٕज़ʹ͸༷ʑͳ੍ݶ͕͋Δ্ʹɼλονͷײ֮͸ݶΒΕ͍ͯΔɻԾ૝ΦϒδΣΫτʹ;ΕΔ͜ͱ͕Ͱ͖ͳ͍ɻԾ૝ ΦϒδΣΫτΛ෺ཧతʹදݱ͢ΔͨΊʹ೔ৗతͳΦϒδΣΫτΛ͠Α͏͢ΔΞϓϩʔν͕͋Δ͕ɼԾ૝෺ମͱಉҰͷ෺ཧతͳΦϒδΣΫτΛ ݟ͚ͭΔ͜ͱ͸ඇ࣮༻తɻԾ૝෺ମͱ෺ཧతͳ෺ମͷෆҰக͕Ϣʔβʔͷ຅ೖײʹӨڹΛٴ΅͢ɻ γεςϜ͸ɺԾ૝෺ମʹྨࣅ͢ΔϢʔβͷपғ͔Βͷ෺ཧతͳ෺ମΛಈతʹݟ͚ͭग़͠ɺͦΕΒΛ෺ཧతʹදݱ͢ΔͨΊʹͦΕΛ࢖ ༻͢ΔɻௐࠪʹΑΔͱɺίϯςϯπ࡞੒ऀ͸ɺԾ૝ΦϒδΣΫτΛ೔ৗతͳ෺ཧతΦϒδΣΫτͱ೔࿨ݟతʹϖΞʹ੍ͯ͠ޚ͢Δ֦ ுݱ࣮ײΞϓϦέʔγϣϯΛઃܭ͢ΔͨΊͷ༗༻ͳπʔϧͱͯ͠ɺ"OOFYJOH3FBMJUZγεςϜΛड͚ೖΕͨ͜ͱ͕໌Β͔ʹͳͬͨɻ යࢠҁՖ ਓؒίʔε    Anuruddha Hettiarachchi, Daniel Wigdor (Department of Computer Science Univ. of Toronto)
  26. AIREAL: Interactive Tactile Experiences in Free Air - TOG2013 "CTU

    *OUSPEVDUJPO $PODMVTJPO "*3&"-͸ɺϢʔβʔ͕෺ཧతͳσόΠεΛண༻͢Δ͜ͱͳ͘ɺࣗ༝ͳۭؾதͰޮՌతͰදݱྗͷ͋Δ৮ײΛఏڙ͢Δɺ৽͍͠৮ٕ֮ज़ Ͱ͢ɻΠϯλϥΫςΟϒͳίϯϐϡʔλάϥϑΟοΫεͱ૊Έ߹ΘͤΔ͜ͱͰɺϢʔβʔʹԾ૝%ΦϒδΣΫτΛײͤ͡͞ɺࣗ༝ͳۭؾ ςΫενϟΛମݧ͠ɺδΣενϟʹର͢Δ৮֮ϑΟʔυόοΫΛड͚औΔ͜ͱ͕Ͱ͖Δɻ ίϯϐϡʔλ֦ுੈքͷ͚͍ܽͯΔ෦෼ͷͭ͸ɺԾ૝ΦϒδΣΫτͷ෺ཧతͳײ͕֮ͳ͍͜ͱɻ͜Ε·Ͱ͸ɼԾ૝෺ମΛײ͡ΔͨΊʹ͸ɺϢʔβ͸৮֮σόΠε Λඋ͑ͨΠϯλϥΫςΟϒͳ໘΍෺ཧత෺ମʹ৮Εͳ͚Ε͹ͳΒͳ͔ͬͨΓɼखା΍ϕϧτ౳ͷσόΠεΛ૷ண͢Δඞཁ͕͋ͬͨɻϢʔβʹ෺ཧతͳσόΠεΛ ૷ணͤ͞Δ͜ͱ͸ɺࣗવͳϢʔβΠϯλϥΫγϣϯΛ๦͛ɺ৮֮ϑΟʔυόοΫΛ༻͍ΔΞϓϦέʔγϣϯͷશൣғΛ੍ݶ͢Δɻ؀ڥ಺ͷϢʔβʔ·ͨ͸ΦϒδΣ ΫτΛܭଌ͢Δ͜ͱͳ͘ɺ๛෋ͳ৮֮ϑΟʔυόοΫΛϢʔβʔʹఏڙ͢ΔͨΊͷ୅ସΞϓϩʔνΛఏҊ͢Δɻ Ծ૝෺ମʹ݁߹͞Εͨࣗ༝ۭؒ৮֮ͷ৽͍ٕ͠ज़Ͱ͋Δ"*3&"-Λ঺հͨ͠ɻΞϓϦέʔγϣϯͷൣғ͸"*3&"-͕Մೳʹ͢ΔΤΩ αΠςΟϯάͳػձͷ͍͔ͭ͘ͱɼະݕ౼ͷະདྷͷΞϓϦέʔγϣϯΛࣔ͢ɻ෺ཧత؀ڥͷ৮֮తͳ૿ڧ͸։͔Ε͍ͯͯΤΩαΠςΟ ϯάͳݚڀ։ൃͷ෼໺Ͱ͋Δɻ යࢠҁՖ ਓؒίʔε    Rajinder Sodhi, Ivan Poupyrev, Matthew Glisson, Ali Israr
 (Disney Research, University of Illinois)
  27. UltraHaptics: Multi-Point Mid-Air Haptic Feedback for Touch Surfaces - UIST2013

    "CTU *OUSPEVDUJPO $PODMVTJPO ௒Ի೾ͷूதΛ࢖༻ͯ͠ɼ৮֮ϑΟʔυόοΫͷ཭ࢄ఺ΛσΟεϓϨΠΛհͯ͠खʹ௚઀౤Ө͢Δ6MUSB)BQUJDTɻԻڹతʹಁ໌ͳσΟε ϓϨΠͷ๬·͍͠ಛੑΛௐࠪ͠ɺγεςϜ͕ۭதͰෳ਺ͷہ෦తͳϑΟʔυόοΫ఺Λੜ੒Ͱ͖Δ͜ͱΛ࣮ূɻҟͳΔ৮֮ಛੑΛ༗͢Δ ϑΟʔυόοΫ఺͕ΑΓখ͍͞෼཭Ͱಉఆ͞ΕಘΔ͜ͱɺඇ઀৮஍఺ͷҟͳΔৼಈप೾਺ΛτϨʔχϯάͰ۠ผ͢Δ͜ͱ͕Ͱ͖Δɻ ͜Ε·Ͱͷݚڀ͸ɼΠϯλϥΫςΟϒͳ໘্Ͱ৮֮ϑΟʔυόοΫΛ࠶ੜ੒͢Δ͜ͱʹয఺Λ౰͍ͯͯͨɻද໘ʹ৮ΕΔલʹ৮֮ϑΟʔυόο ΫΛड৴͢Δ͜ͱ͕༗ӹͱͳΔঢ়گ͕͋Δ͕ɼ͜ΕͷఏڙΛՄೳʹ͢Δ΋ͷ͸Ϣʔβʔ͕σόΠεΛ૷ண͢Δ͜ͱΛඞཁͱ͍ͯͨ͠ɻ 6MUSB)BQUJDTγεςϜ͸ΠϯλϥΫςΟϒͳαʔϑΣεͷ্ʹϋϓςΟοΫϑΟʔυόοΫΛఏڙ͠ɺπʔϧɺΞλονϝϯτɺ·ͨ͸αʔϑΣ εࣗମͱͷ઀৮Λඞཁͱ͠ͳ͍ɻ λον໘্ʹଟ఺Ͱۭதʹଘࡏ͢Δ৮֮ϑΟʔυόοΫΛఏڙ͢Δ৽͍͠ํ๏Λ঺հͨ͠ɻٕज़తධՁ͔ΒϑΟʔυόοΫͷݸʑͷ ఺Λਓؒͷखͷ஌֮ࣝผ஋Λ௒͑Δ΋ͷʹͰ͖Δ͜ͱΛ࣮ূͨ͠ɻL)[ͷ௒Ի೾ʹରͯ͠σΟεϓϨΠද໘ͷ๬·͍͠ಛੑΛཱ֬ ͨ͠ɻϢʔβʔௐࠪͷ݁ՌɼҟͳΔ৮֮ಛੑΛ༗͢ΔϑΟʔυόοΫ఺͕ΑΓখ͍͞෼཭Ͱ۠ผͰ͖Δɻ܇࿅ʹΑͬͯҟͳΔ৮֮ಛ ੑΛࣝผͰ͖ΔɻຊγεςϜʹΑͬͯ΋ͨΒ͞Εͨ৽͍͠ΠϯλϥΫγϣϯͷՄೳੑʹ͍ͭͯݕ౼ͨ͠ɻ යࢠҁՖ ਓؒίʔε    Tom Carter, Sue Ann Seah, Benjamin Long, Bruce Drinkwater, Sriram Subramanian (Department of Computer Science1 and Department of Mechanical Engineering2 University of Bristol, UK)
  28. HUMAN ACTION GENERATION WITH GENERATIVE ADVERSARIAL NETWORKS Mohammad Ahangar Kiasari,

    Dennis Singh Moirangthem, Minho Lee どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモ どうやって有効だと検証した? 議論はある? 次に むべき論文は? 連続する一連の人間の行動を生成するための新しいアル ゴリズムを 究する GANにのみ基づいており、与えられたクラスラベルと初期 姿勢に条件付けられた特定のクラスの人間の動きを生成し、 可変クラスのランダムzで各クラスに なるスタイルを生成 することができる、 ぎ目がない連続したモーション オートエンコーダと条件付きGANを組み合わ せたモデル ベンチマークNTU RGB + Dデータセット(Shahroudy et al., 2016)に基づいてモデルを評価 RNNを使用する 存のヒューマンアクション予 モデルとは なり、 数の連続的な人間の行動を生成するために、自動エン コーダーと条件付きGANのフレームワークをエンドツーエンド で提案、 ぎ目のない 移を う一連の連続的な動作を生成 Barsoum et al., 2017 201511520 木 (人間コース) CVPR2018
  29. HP-GAN: PROBABILISTIC 3D HUMAN MOTION PREDICTION VIA GAN Emad Barsoum,

    John Kender, Zicheng Liu どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモ どうやって有効だと検証した? 議論はある? 次に むべき論文は? HP-GANと ばれるこのモデルは、以前のポーズで条件付けら れた 来の人間のポーズの確率 度関数を学 確率的な動き予 のために深いニューラルネット ワークを使用するのが初めて 改良されたWasserstein生成 対ネットワーク (WGAN-GP)[10]の修正バージョンを使用 トレーニングを安定させ、改 するために、GANの損失 に加えてスケルトンの物理に基づいたカスタム損失を追 加する トレーニングループを続けると、すでに収 してからト レーニングが分 する可能性がある I. Gulrajani, F. Ahmed, M. Arjovsky, V. Dumoulin, and A. C. Courville. Improved training of wasserstein gans. CoRR, abs/1704.00028, 2017. 201511520 木 (人間コース) SVPR2017
  30. SKELETON-AIDED ARTICULATED MOTION GENERATION Yichao Yan* , Jingwei Xu* ,

    Bingbing Ni, Wendong Zhang, Xiaokang Yang どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモ どうやって有効だと検証した? 議論はある? 次に むべき論文は? スケルトンを用いた関 運動生成法を提案 大規模な 何学的変化を う画 /ビデオを生成でき ること 動き中の 何学的変化のためのガイダンスとし てスケルトン情報を利用 KTHとHuman3.6Mを含む2つのヒューマンアクション データセットでモデルをテスト 生成された動作シーケンスは、 製の動作認識フレーム ワークによっても認識可能 Mart´ n Arjovsky, Soumith Chintala, and L´eon Bottou. 2017. Wasserstein GAN. CoRR abs/1701.07875 (2017). 201511520 木 (人間コース) ACMMM2017
  31. DEEP REPRESENTATION LEARNING FOR HUMAN MOTION PREDICTION AND CLASSIFICATION Judith

    Butepage, Michael J. Black, Danica Kragic, Hedvig Kjellstrom どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモ どうやって有効だと検証した? 議論はある? 次に むべき論文は? モーションキャプチャデータの大量コーパスからジェネリック 表現を学 し、目に見えない新しい動きに一 化する人間の モーションキャプチャデータの深い学 フレームワークを提案 少数の行動に限定されない、日々の人間の行動の長 期予 のための教 なし学 表現スキームを開発 DNN, CNN モデルをCMU mocapデータセットの大部分でトレーニ ングして、ジェネリック表現を生成 3つのモデル(対 、 み込み、 )のパフォーマンス の違いは、パラメータの数と各ネットワークの構造に よって影響を受ける可能性がある ] G. Alain and Y. Bengio. What regularized auto- encoders learn from the data-generating distribution. Journal of Machine Learning Research, 15(1):3563– 3593, 2014. 201511520 木 (人間コース) CVPR2017
  32. ON HUMAN MOTION PREDICTION USING RECURRENT NEURAL NETWORKS Julieta Martinez

    , Michael J. Black , and Javier Romero どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモ どうやって有効だと検証した? 議論はある? 次に むべき論文は? 人間の動きに 型的に使用される 準RNNモデルに3つ の変 を提案し、人間の動き予 に関する最先 の性能 を得る でスケーラブルなRNNアーキテクチャをもた らす 以前の作業よりも優れた残差接続を備えたシーケン シオシーケンスアーキテクチャを開発 人間の動きに 型的に使用される 準RNNモデ ル 最先 の手法で使用されているアーキテクチャ、損失関 数、トレーニング手 を見て、最近のRNNの方法を分 アクションラベルの形でネットワークに高度な監督を行 うとパフォーマンスは向上しますが、 監視のベースラ インは 常に競争力がある [Duan et al. 2016] DeepLoco 201511520 木 (人間コース) CVPR2017
  33. GENERATIVE ADVERSARIAL NETS Ian J. Goodfellow , Jean Pouget-Abadie ,

    Mehdi Mirza, Bing Xu, David Warde-Farley, Sherjil Ozair , Aaron Courville, Yoshua Bengio どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモ どうやって有効だと検証した? 議論はある? 次に むべき論文は? 対プロセスを介して生成モデルを推定するための新しいフ レームワークを提案 多くの種 のモデルおよび最 化アルゴリズムに対 して特定のトレーニングアルゴリズムを生成するこ とができる adversarial nets 生成モデルが多 パーセプトロンにランダムノイズを渡 すことによってサンプルを生成し、識別モデルも多 パーセプトロンである特 なケースを 究 これらの研究の方向性が有用であることが示 される、 対的モデリングフレームワークの実行可能性を実証 Bastien, F., Lamblin, P., Pascanu, R., Bergstra, J., Goodfellow, I. J., Bergeron, A., Bouchard, N., and Bengio, Y. (2012). Theano: new features and speed improvements. Deep Learning and Unsupervised Feature Learning NIPS 2012 Workshop. 201511520 木 (人間コース) NIPS2014
  34. 2 PROCEDURAL VORONOI FOAMS FOR ADDITIVE MANUFACTURING ®TRANSACTIONS ON GRAPHICS

    2017¯ €ž GMD=IBL179¨y@L’‰R : -°d2kq“vY:(97 !0ŒR/+2¬2p›¥:†5 9tˆ2x~± tˆ  0GMD=IBL17 9’‰R2s  kq:Wo(9’‰R2EJHO A:†59 3 21­Q' - -°ƒUi‚2…‰:2f h/^‘2[m"8†59ªz:‡d (9±39kq:eŽ(9…‰: †59,52fh/[m:‡d(9±  Vœ–™/2„¤ `\“|¦ZŸš.30$°¨y@L ’‰R2EJHOA:•wud(9% /.p›¥:‡d'°ŒR2kq: _Z&*- 9‹± 4)°{b–™® ¯ /„¤',±ƒ1°e«1FKNC' 62:ŸŠ',±|n1° IBL/k q2¡S:',± P©>O?   r]HB<;Xsc­²g §}Ta  Jonas Zehnder, Espen Knoop, Moritz Bächer, and Bernhard Thomaszewski. £¢ 9˜h`#$0 /”“2kq: —&0 ± `#0_l1j ±
  35. 3 @h1?4  OG:6.-BPJjmM gYAI  QX$HNTC+(^f$62/>"7,8< 0?3;>9=54$V[l  

      +dZ k)&+c%D* bL("!K_l :/>eW"E\$Fi+SeWlR]a# '     +U` (l
  36. 4 'J%  92,:6MP7 I?*4  380F L 38%K1& NG-

    D/+0F # C: ;B< @O =5"(E)A   !$ >H. ;B<@O
  37. 5 +A#*$  5/'& -62BD3 @9,1    

       <04. =!()"%*?>8;7:C
  38. Virtual Reality and Attitudes toward Tourism Destinations *JT15VTTZBEJBI %BO8BOH $IFOHF

    )FMFO +JB ͲΜͳ΋ͷʁ Ͳ͏΍ͬͯ༗ޮͩͱ൑அ͔ͨ͠ 73Λ༻͍ɺ؍ޫ஍ͷ৘ใΛݟͤΔ͜ͱͰɺͦͷ ؍ޫ஍ʹߦ͖ͨ͘ͳΔ͔Ͳ͏͔ͱ͍͏ଶ౓ͷมԽ Λܭଌͨ͠΋ͷɻ ઌߦݚڀͱͷൺֱ 73ମݧ͕΋ͨΒ͢৺ཧతͳӨڹʹ͍ͭͯͷ࿦จ ͸ෳ਺͋Δ͕ɺ؍ޫ࢈ۀͷ৽͍͠ϚʔέςΟϯά ख๏ΛఏࣔͰ͖Δͱ͍͏఺Ͱ͸ॳͷݚڀςʔϚ ٕज़΍ख๏ͷΩϞ ࣄલʹͦͷ؍ޫ஍ʹߦͬͨ͜ͱ͕͋Δɾͳ͍ 73ମݧͷࡍͷ).%ͷछྨ౳ͷ৘ใΛ͋Β͔͡Ί ऩू͠ɺෳ਺ͷධՁํ๏Ͱݕ౼͍ͯ͠Δ఺ɻ 73ͷධՁํ๏ͱͯ͠ଶ౓ͷมԽͱ͍͏ٕज़ʹΑͬ ͯ΋ͨΒ͞ΕΔӨڹʹண໨͍ͯ͠Δ఺ ࣄલʹඃݧऀͷ73ମݧͷܦݧ৘ใɺࠓ·Ͱͷཱྀ ߦઌͷ৘ใ౳ͷجຊআ๏Λऩूɻ "/07"ͱ͍͏ධՁʹΑͬͯඃݧऀಉ࢜Λൺֱɻ ઌߦݚڀʹΑΔධՁํ๏Λ༻͍ͨ73ମݧͷ຅಄ ײͷܭଌ౳ɻෳ਺ͷࢹ఺͔Βͷݕূ͔Βߟ࡯ɻ ٞ࿦͸͋Δ͔ ඃݧऀͷภΓ͕େ͖͘ɺ࣮ݧͷߟ࡯ͱͯ͠׬શͱ ͸ݴ͑ͳ͍ɻΑΓ޿͍ൣғͰඃݧऀΛूΊɺ࣮ݧ ͷσʔλΛऩू͢Δඞཁ͕͋Δɻ ࣍ʹಡΉ΂͖࿦จ 73ମݧʹ͓͚Δ৺ཧ࣮ݧʹؔ͢Δ࿦จ 73ମݧͷධՁํ๏ʹؔ͢Δ࿦จ ߴ૔ྱ ਓؒίʔε *OGPSNBUJPOBOE$PNNVOJDBUJPO5FDIOPMPHJFTJO5PVSJTN
  39. FMPQNFOU PGBO&.(DPOUSPMMFEIBOEFYPTLFMFUPOGPSQPTUTUSPLFSFIBCJMJUBUJPO        

                 š€~{MQ§u j6ein^cC[K=YG3plgh\›ƒFZbf^ oQ•«³ŽˆrxR¯ LO>JH4 ‹P¤US@VQ  !%/&$("!$)"+#% +"'**(%&%*1%&,# *+(.*(*!&%&((&+)*$ '**(%(&%!*!&%2  jojo8–v`6b9 y‘WªQ_mR5 jf6q¥Œ\†;¬žQ”\¨±#))!/DK:dg hQ>Y‡Q¢@\¤TJH4 N]OVQ5 ¦œŸONL•«³?…JH–Q\L¢ƒ\¤T ZBMPXJKQ¢@\©<VQ4 z² –‚D‡Q˜tCONaqkoQVQPwDKR°;4   D>D3–‚D‡WŸ‡QX<P”?±‰DK;Z VQR™¡?s?Z4 ®—Q’­ L@ZIA£E“}sL!%&-\ 70)ŠQ˜tC| „DH4  
  40. FLIPPIN : E P -based Book UI Design in a

    Public Space CHI 17 Koichi Yoshino, Koichi Obata, and Satoru Tokuhisa どんなもの? 行研究と べてどこがすごい? 技 や のキモはどこ? どうやって 効だと検 した? 議 はある? に むべき は? 多くの人に使ってもらうこと,読みやすさなどが向上し た. Bookisheet: Bendable device for browsing content using the metaphor of leafing through the pages 201713110 藤 #4 (人間コース) 公共スペースでの のユーザビリティを 型UIによって改 する.また,デザインガイ ドラインを 案する. タッチパネルUIなどと べると, でも簡 に 扱える. に 型UIを いること. じコンテンツを含むタッチパネルUIを使 し てもらい 較した.
  41. Bookisheet: Bendable device for browsing content using the metaphor of

    leafing through the pages UbiComp 2008 Jun-ichiro Watanabe, Arito Mochizuki, and Youichi Horry 201713110 藤 #4 (人間コース) 2 のプラスチック と曲げセンサおよびLDRによって,ページをめくる 作を再現し,デジタルコ ンテンツを 作する.曲げることが可 なディスプレイに使 できる.
  42. PaperID: A Technique for Drawing Functional Battery-Free Wireless Interfaces on

    Paper CHI 16 Hanchuan Li, Eric Brockmeyer, Elizabeth J. Carter, Josh Fromm, Scott E. Hudson, Shwetak N. Patel, and Alanson Sample 201713110 藤 #4 (人間コース) バッテリーフリーのRFIDタグによって をインプットデバイスに える研究.センシングおよび 号 技 によってタグがどのように 作されたかを する.このタグは印刷,トレース, に よって くことが可 .
  43. QOOK: a new physical-virtual coupling experience for active reading UIST

    13 Yuhang Zhao, Yongqiang Qin, Yang Liu, Siqi Liu, and Yuanchun Shi 201713110 藤 #4 (人間コース) QOOKはインタラクティブリーディングシステムである. な と な の を 合す る.このシステムは何もないページに,プロジェクタを いてデジタルコンテンツを映し す.
  44. The mixed reality book: a new multimedia reading experience CHI

    EA 07 Raphael Grasset, Andreas Duenser, Hartmut Seichter, and Mark Billinghurst 201713110 藤 #4 (人間コース) 々なメディアを 合させ,デジタル に強化した の 案. の形を ったまま, 覚 , 覚 に強化する.コンピュータビジョンを いたトラッキングによって 現し た.
  45. SequenceBook: interactive paper book capable of changing the storylines by

    shuffling pages CHI EA 10 Hiroki Yamada 201713110 藤 #4 (人間コース) インタラクティブな システムの 案.これはICタグとそれぞれのページにRFIDアンテナが み込まれた の である.ユーザはストーリーラインを好きなように えることが可 である.
  46. Deep Video Portraits HYEONGWOO KIM, PABLO GARRIDO,AYUSH TEWARI, WEIPENG XU,JUSTUS

    THIES, MATTHIAS NIESSNER,PATRICK PÉREZ,CHRISTIAN RICHARDT,MICHAEL ZOLLHÖFER,CHRISTIAN THEOBALT どんなもの? どうやって 効だと検証した? 先行研究と比べてどこがすごい? 技術や手 のキモはどこ? 議 はある? 次に読むべき は? 201813564 土屋 馬 #4 (仏コース) SIGGRAPH 2018 機械学習を いて,ソースビデオの人 (顔)から ターゲットビデオの人 (顔)へ転送し,3Dアニメー ションを再構築する手 の提案 これまでの手 では,顔の表情の制御しかできな かったが,これはフル3Dで頭部姿勢,表情,視線や 瞬きを制御する事ができる. 制度を向上させるために敵対生成学習の cGAN(conditional generative adversarial network)を い ている. 3つの異なる動画での質の検証と,大規 なWeb上 でのユーザスタディを行い,生成された動画がリア ルであるという意見が多かった. 胴体や髪の の動き,背景を制御できない. Thies et al. 2016 Karras et al. 2018 Wang et al. 2017
  47. Instant noodles as a major cause of pediatric burns ʹΞ͵಼༲ʃ

    ঘ͠͏͞Θଡ͚͹ਕ͗ܨݩͤΖՒউͳ͏͑ উ֒ɽ࠹΍ଡ͏Ώ͜ʹ͹ݬҾͺ΢ϱηνϱ φϧʖϟϱͶΓΖ΍͹ͫͮͪɽ ʹ͑Ώͮͱ෾ੵͪ͢ʃ 2012೧1݆͖Δ2016೧10݆Ͷ͖͜ͱѪ્൩ ௫බӅ͹ൿේՌͶՒউ͗ݬҾͲΏͮͱͪ͘ 15ࡂҐԾ͹׳ं͹͑ͬྈ਎͖Δࣰݩ͹ࢂՅ ͳࣰݩ݃Վ͹ޮන͹ಋқ͗ಚΔΗͪࢢڛ͹ υʖνΝ෾ੵɽ Κ͖ͮͪ͞ͳ ࢢڛ͹ՒউΝ๹͛ͪΌͶࢢڛͪͬ͹घ͹಩͚Ғ஖ Ͷ΢ϱηνϱφϧʖϟϱΝ஖͖͵͏Γ͑ͶͤΖ͵ ʹ਎͗ࢢڛΝ؄ࢻͤΖ͹ͺ༙ްɽ ෾ੵ݃Վ ෺ಇਭΝӁ΋͞ͳͶΓΖՒউɼϙρφχϨϱέʀ ηʖϕͶΓΖՒউΓΕ΢ϱηνϱφϧʖϟϱͶΓ ΖՒউ͹ׄ߻͹Ά͑͗ଡ͏͞ͳɽ ࣏Ͷಣ΋΄͘࿨ชͺʃ ΢ϱηνϱφϧʖϟϱ͗ରͶ༫͓ΖӪڻͶؖͤΖ ࿨ชΝ୵ͪ͢͏ʄ 201611432 Ԯ෨ཀྵँࢢ ʤ෻αʖηʥ Ӏ༽ݫʁ https://www.derm-sinica.com/article/S1027-8117(17)30303-8/pdf
  48. M deli g Vell Facial Hai f A e i

    Sca e i g Silh e e Chloe LeGend e Loc H nh Shanhe Wang Pa l Debe ec SIGGRAPH 松野瑞生 仏コ ス どんなもの シ エットに沿って散在している凹凸を観察 することで、顔の産毛を デ グする 先行研究と比べてどこがすごい デ グされた産毛を Dの顔のスキ に加え、新しい照明下で ダ グを生成 し、それは実際の写真の外観と一致する 技術や手法のキ はどこ 頭の m後ろに明るい白熱スポット イトをおいて、 m離れて mmマク ズのCanon DX Ma k II DSLRカ で顔を撮影したところ どうやって有効だと検証した この手法を使用して、スキ の顔と首 に 本の毛髪を作り、A noldでいく つかの ダ グを行った 議論はある 実験では産毛の量が写真よりも多く生成 したが、全体的な長さ、向き、および局所 的な変動性はよく一致していた 次に読むべき論文は Jan Koende ink and S l ia Pon The Sec e of Vel e Skin Mach Vi ion A l Se
  49. Comicolorization: Semi-Automatic Manga Colorization Chie Furusawa, Kazuyuki Hiroshiba, Keisuke Ogaki,

    Yuri Odagiri どんなもの? に むべき は? 究と べてどこがすごい? 技 や のキモはどこ? 議 はある? どうやって だと した? マンガのタイトル を にカラー化する 201813559 開 #4 ( コース) 画 とは に 画 の を いる。 キャラクター を したクラス を学 する。 にマンガをカラー化し、 じキャラクターが じ で さ れていることを確 した。 SIGGRAPH Asia 2017 マンガのタイトル をカラー化すると、 じキャラクターでも コマごとで が異なってしまう を解 した。 ひとつのパネルに のキャラクターがいる 、カラー化に する がある。 Iizuka et al. Let there be Color!: Joint End-to-end Learning of Global and Local Image Priors for Automatic Image Colorization with Simultaneous Classification[2016]
  50.          

       "(*% (""&!*" !%! "%$,% *%#+$$" "% (*% %  %"+'("),&$"&'%"' &('! CRDLF. ¼/D‚QŽ>@ˆ“©AT0bfSXeF D2y¡Qœ›;P‘¬°ƒ§~Tp[o^ iQ¨s;P €—M•¶FWkGC9. C3M>@»‰=B†™:<. x¤G1P. E®KJ7¿³G.   º¹{±  ²Z0] |©_hrdUX]Q¾½:@-‚F_Y jrd0\mr-†Œ4NH§~QKgq _]Ÿ£Q­8 _hrdUcX¦Œµ¶Q½2P9BAnr aiž¥BuDO¢¼D]`VpF˜y¡ Q†Œ;P9B6A7P Š‡BFv2G. t·©¯’ª µ¶6ˆ“©D…wQœ›A 7P \0rF}›M”šF‹«O?I:DCFy ¡´–F¸¤Et·Wl0QC3z„;P5 Understanding and improving the realism of image com- posites
  51. ே㛫 201611451 㒔⠏㝠భ Rapid Interactive Real-time Application Prototyping for Media

    Arts and Stage Performance SIGGRAPH ASIA 2015 Miao SongࠊSerguei A. MokhovࠊSudhir P. MudurࠊPeter Grogono ᴫせ ࢖ࣥࢱࣛࢡࢸ࢕ࣈ࡞ࢢࣛࣇ࢕࢝ࣝ࢔ࣉࣜࢣ࣮ࢩࣙࣥࡢ㧗㏿ࣉࣟࢺࢱ࢖ࣆࣥࢢ(ࡢࢥ࣮ࢫ?) SIGGRAPH ASIA ࡛ࢹࣔࢆᐇ₇ࡋࠊࡑࡢࢹࣔࡢ〇స㐣⛬ࢆグ㘓ࡋࡓ ఱࢆࡸࡗࡓ? ࢹࢪࢱ࣓ࣝࢹ࢕࢔ไస࡟࠾ࡅࡿ㧗㏿ࣉࣟࢺࢱ࢖ࣉࡢฎ⌮ࡢࡓࡵ࡟ OpenGL ࡟᥋⥆ࡉࢀࡓ KinectࠊWiiࠊiDevices ࡞࡝ࡢࢭࣥࢧ/ࢥࣥࢺ࣮ࣟࣛࢆ ౑⏝ࡋࡓࠋ ⤫ྜ࣐ࣝࢳࢹࣂ࢖ࢫࡢࡸࡾ࡜ࡾࡢヲ⣽࡟↔Ⅼࢆ࠶࡚࡚ࠊཷㅮ⏕࡟ OpenGL ࢆ౑⏝ࡋࡓࢸࢡࢫࢳࣕࡸࣅࢹ࢜ࢆసᡂࡋࠊࣜ࢔ࣝࢱ࢖࣒࡛ฎ⌮ࡉࡏ ࡿࠋ ఱࢆ౑ࡗࡓ? ILLIMITABLE SPACE SYSTEM(ISS) ᑐᛂࡍࡿ࢖࣓࣮ࢪ࣐ࢵࣆࣥࢢ࡜」ᩘࡢධຊࢹࣂ࢖ࢫ࡟ࡼࡿ㡢ኌࡸࢪ࢙ࢫࢳࣕ࡞࡝ࡢධຊ࡟ᇶ࡙࠸࡚どぬຠᯝࡸ㡢ᴦࡢどぬ໬ࢆసᡂࡍࡿࡓࡵ ࡟౑⏝ࡉࢀࡿࢯࣇࢺ࢙࢘࢔
  52.          

      %44-521)55)0-6, %1(-',%)/)** %/&,( >975$@*#2 3<-;B(01) %-"#C8!$6=  4D). :'?+*DA) *%')62*%') QŒC`ŽpH]aig<— \U")0&2("9aig<SGU" 12$)0&2("Pqvƒ s{tH]}T"|ML[xš??UPV; KFTaig<U—•VruH]UA; dklhc<emnT"B–›NUPV;Q ?@U`YOvƒGL w?Tw?`ˆ[S?‡‚ …IN`”~G ja`†XJ9 )0&2("12$)0&2(" T’E=NUgfb€™`y_JL: "Z6vŠP—ozB>]A‰WL aig<U„B>ML[K^VR@{˜G OD]UA !)3%460)162*1)4+8(7%1')()5)%4', 42.)'65+)1'81)4+8     # "   ‘    œ‹“
  53. $MPUI$BQ4FBNMFTT%$MPUIJOH$BQUVSFBOE3FUBSHFUJOH ෰Λணͨਓ෺͔Β%εΩϟϯʹΑͬͯҥ෰ͱಈ͖ Λଊ͑ͯ ෰ͷΈΛநग़͠ ৽͍͠ମܕʹௐ੔͢Δٕ ज़όʔνϟϧࢼணͳͲʹԠ༻͢Δ ͲΜͳ΋ͷ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠

    ٞ࿦͸͋Δ ࣍ʹಡΉ΂͖࿦จ͸ ৽͍͠ϚϧνΫϩε%ϞσϧΛ࢖༻ͯ͠ ҥ෰ͷ֤ ෦෼Λࣗಈతʹ෼ׂ͠ ਎ମͷ࠷খݶͷܗঢ়Λਪఆ ͠ ҥ෰ͷ%มܗΛ௥੻Ͱ͖Δ ϚϧνΫϩε%Ϟσϧ ૸Δ δϟϯϓ͢ΔͳͲͷಈ࡞Λ͢ΔඃࣸମΛࡱӨ ͨ͠δʔϯζ 5γϟπͳͲ༷ʑͳҥ෰Λணͯݕূ ͨ͠ ࣮༻Խʹ޲͚ͯ ۗ କޱ ϘλϯͳͲͷෳࡶͳܗঢ় Λ΋ͭҥ෰ͷϞσϦϯά͕ඞཁ·ͨ ωΫλΠ΍ε ΧʔτͷΑ͏ͳମܕʹඞͣ͠΋ؔ܎ͳ͍Α͏ͳҥ෰ ͷϞσϧԽ΋ඞཁ 'FEFSJDB#PHP +BWJFS3PNFSP (FSBSE1POT.PMM BOE .JDIBFM+#MBDL%ZOBNJD'"6453FHJTUFSJOH )VNBO#PEJFTJO.PUJPO*O*&&&$POGPO$PNQVUFS 7JTJPOBOE1BUUFSO3FDPHOJUJPO $713  ௕୩઒ཅฏ෹ίʔε (&3"3%10/4.0-- 4&3(*16+"%&4 40//:)6 .*$)"&-+#-"$,
  54. ͲΜͳ΋ͷʁ Ͳ͏΍ͬͯݕূͨ͠ʁ ઌߦݚڀͱൺ΂ͯ ٕज़ͷΩϞ͸ʁ ٞ࿦ ࣍ʹಡΉ࿦จ ҏ౻ 
 
 $ISPNB(MBTTFT$PNQVUBUJPOBM(MBTTFTGPS

    $PNQFOTBUJOH$PMPVS#MJOEOFTT ৭֮ো֐Λิ͏ͨΊͷPQUJDBMTFF UISPVHI).%ϦΞϧλΠϜͰ؀ڥΛ ෼ੳ͠ɼ֎؍ΛมԽͤ͞Δ ΧϥʔϑΟϧλΛ༻͍ͯಛఆ೾௕ͷΈิర͢ Δάϥε͸͋Δ͕ɼ$ISPNB(MBTTFTͰ͸Ϣʔ βʔ͕ݟ͍ͯΔ؀ڥΛऔಘ͠มԽͤ͞Δ Ϣʔβʔ͕ݟͯΔ؀ڥ͔Β৭໡ͷਓ͕ݟ͑ʹ͍͘৭Λࣝผ͢Δ
 ΧϝϥͰࢹ֮৘ใΛऔಘ͢Δ͕ɼζϨ͕ੜ͡ΔͷͰ41"".ʹࣅͨ ΩϟϦϒϨʔγϣϯ
 ৭֮ো֐ΛγϛϡϨʔγϣϯ͢ΔઌߦݚڀΛద༻ɼͦ͜Ͱੜ੒͞ Εͨը૾ͱݩͷೖྗը૾ͷޡ͔ࠩΒϚεΫΛੜ੒
 Ϣʔβʔࢹ఺ʹΧϝϥΛ഑ஔͯ͠ɼͦͷJTIJIBSBUFTUΛࡱӨͨ͠ͷ Λඃݧऀʹݟͯ΋Β͍ɼ਺ࣈͷ஌֮ʹؔ͢Δඃݧऀ࣮ݧΛߦͬͨ
 ࣮ݱՄೳੑʹ͍ͭͯͷςετ
 HPPHMFHMBTTΛ༻͍ͨ৭֮ো֐ʹؔ͢Δݚڀͱͷൺֱ
 ϋΠίϯτϥετͷΦϒδΣΫτʹয఺Λ߹Θ ͤͨ࣌ɼζϨ͕ੜ͡Δ͜ͱ͕͋Δ͕ όϦϑΥʔ ΧϧσΟεϓϨΠΛ࢖༻͢Δ͜ͱͰղܾՄೳ
 NT΄ͲͷϨΠςϯγ͕͋Δ !1 $)*`
  55. ͲΜͳ΋ͷʁ Ͳ͏΍ͬͯݕূͨ͠ʁ ઌߦݚڀͱൺ΂ͯ ٕज़ͷΩϞ͸ʁ ٞ࿦ ࣍ʹಡΉ࿦จ ҏ౻ 
 
 )ZESP.PSQI4IBQF$IBOHJOH8BUFS.FNCSBOF

    GPS%JTQMBZBOE*OUFSBDUJPO εϓʔϯʹਫ͕౰ͨͬͨ࣌ʹͰ͖ΔΑ͏ ͳບΛ੍ޚ͢ΔɼΠϯλϥΫςΟϒͳσΟ εϓϨΠ ਫ͕౰ͨͬͨ࣌ͷບ͸Ξʔτ 5IF8BUFS .FNCSBOF$SFBUVSFT Ͱ͸༻͍ΒΕ͖͕ͯͨɼ ද໘ܗঢ়Λߟ͑Δ͜ͱͰບͷܗঢ়ΛಈతʹมԽ ͤ͞Δݚڀ͸ͳ͔ͬͨ γεςϜ্෦ʹऔΓ෇͚ΒΕͨΧϝϥͰΦϒδΣ Ϋτ΍ਓͷखΛऔಘɼͦΕΛ΋ͱʹບͷܗঢ়Λม Խͤͯ͞खʹ৮Εͳ͍Α͏ʹ͢Δ͜ͱ΋Մೳɽ ಛʹͳ͠ ࡞Δ͜ͱ͕Մೳͳܗঢ়͕ݶΒΕ͍ͯΔɽܗঢ়Λ࡞ΔͨΊͷϒ ϩοΫػߏ͸͸ݱࡏݸ͕ͩɼ͜ΕΛ૿΍͢͜ͱͰղ૾౓͸ ্͕Δ
 ऄޱͷେ͖͞ʹରͯ͠ݱࡏͷϓϩτλΠϓ͸େ͖͗͢Δ !2 5&*`
  56. ͲΜͳ΋ͷʁ Ͳ͏΍ͬͯݕূͨ͠ʁ ઌߦݚڀͱൺ΂ͯ ٕज़ͷΩϞ͸ʁ ٞ࿦ ࣍ʹಡΉ࿦จ ҏ౻ 
 3FTPMVUJPO&OIBODFE-JHIU'JFME/FBSUP&ZF %JTQMBZ6TJOH&TIJGUJOH.FUIPEXJUI#JSFGSJOHFOU

    1MBUF ෳ۶ં൘ʁΛ༻͍ͯMJHIUpFMEOFBS FZFEJTQMBZͷղ૾౓ΛߴΊΔख๏ ϨϯζΞϨΠΛ༻͍ͨMJHIUpFMEOFBSFZFEJTQMBZ͸ղ ૾౓͕௿͍
 ϐϯϗʔϧΞϨΠϕʔεͷMJHIUpFMEOFBSFZFEJTQMBZ ͸ղ૾౓ɼ'07͸͍͍͕ɼޫޮ཰͕ѱ͍ ෳ۶ં൘ͱ5/൘ʹΛ༻͍ͨ࣌෼ׂଟॏԽ ൒ըૉ ը૾γϑτ
 8JMM"MMFOͷఏএͨ͠XPCVMBUJPOʹࣅ͍ͯΔ ݩͷMJHIUpFMEOFBSFZFEJTQMBZʹదԠ͠ɼ64"' Λ౤Өͯ͠ࡱӨ͢Δ͜ͱͰۭؒ෼ղೳ͕QQE ͔ΒQQEʹͳΔ͜ͱΛ֬ೝͨ͠ ಛʹͳ͠ !3 4*%`
  57. ͲΜͳ΋ͷʁ Ͳ͏΍ͬͯݕূͨ͠ʁ ઌߦݚڀͱൺ΂ͯ ٕज़ͷΩϞ͸ʁ ٞ࿦ ࣍ʹಡΉ࿦จ ҏ౻ 
 
 0QUJDBMTFFUISPVHI.BYXFMMJBOOFBSUPFZF

    EJTQMBZXJUIBOFOMBSHFEFZFCPY )0&Λ༻͍ͨFZFCPY͕޿͍ϚΫε΢Σ ϧࢹͷ໢ບ౤Ө ैདྷͷϚΫε΢Σϧࢹͷ໢ບ౤ӨͰ͸FZFCPY͕ڱ͍ɽ $()Λ༻͍ͨඃࣸքਂ౓͕ਂ͍΋ͷͳͲ΋͋Δ͕ɼηο τΞοϓ͕େ͖͘ͳͬͯ͠·͏ɽ ෳ਺ͷԜ໘ڸ͕ه࿥͞Ε͍ͯΔ)0&Λ ༻͍Δ͜ͱͰɼूޫ఺Λෳ਺࡞Γɼ FZFCPYΛ޿ͨ͘͠ ࢹ఺ҐஔΛͣΒͨ࣌͠ͷΠϝʔδΛࡱӨͨ͠
 Χϝϥͷয఺ڑ཭ΛมԽͤͨ͞ͱ͖Ͱ΋ը૾ ʹয఺͕͍͋ͬͯΔͷΛ֬ೝͨ͠ ໨ͷճసʹϩόετ͡Όͳ͍
 ྡΓ߹͏ूޫ఺ಉ࢜ͷؒʹ໨͕͋Δͱ͖ɼ Πϝʔδ͕ബ͘ݟ͑ͨΓɼॏͳͬͯݟ͑Δ !4 0QUJDT-BUUFST`
  58. ͲΜͳ΋ͷʁ Ͳ͏΍ͬͯݕূͨ͠ʁ ઌߦݚڀͱൺ΂ͯ ٕज़ͷΩϞ͸ʁ ٞ࿦ ࣍ʹಡΉ࿦จ ҏ౻ 
 )JHISFTPMVUJPOBEEJUJWFMJHIUpFMEOFBSFZF EJTQMBZCZTXJUDIBCMF1BODIBSBUOBNr#FSSZQIBTF

    MFOTFT ੾Γସ͑Մೳͳ1BODIBSBUOBN#FSSZ Ґ૬ϨϯζͷੵΈॏͶʹΑΔϚϧνϑΥʔ ΧϧϓϨʔϯͷ%σΟεϓϨΠ ௐ੔ՄೳͳϨϯζΛ༻͍ͯয఺ڑ཭Λม͑Δ σΟεϓϨΠ͸͋Δ͕ɼԠ౴଎౓͕஗͍͠ɼ ΢ΣΞϥϒϧʹ͢Δʹ͸େ͖͗͢Δ ߴ଎Ԡ౴ՄೳͳQBODIBSBUOBNCFSSZMFOT
 ߆ଋઢܗ࠷খೋ৐Λ༻͍ͨBEEJUJWFMJHIU pFMEͷੜ੒ ࣮ࡍʹઌߦݚڀΛࢀߟʹ1#-Λ࡞੒͠ɼԠ౴଎౓Λ ௐ΂ͨ ̎ͭͷ1#-Λ༻͍ͯBEEJUJWFMJHIUpFMEΛ࡞੒ͨ͠ ࡞੒ͨ͠1#-ͷԠ౴଎౓͸NTͰϑϨʔϜϨʔ τ͕L)[ͷσΟεϓϨΠͰ͸े෼ʹૣ͍
 ղ૾౓͕एׯ௿Լ͍ͯ͠Δ͕ɼແࢹͰ͖ΔϨϕϧ !5 015*$4&913&44`
  59. ͲΜͳ΋ͷʁ Ͳ͏΍ͬͯݕূͨ͠ʁ ઌߦݚڀͱൺ΂ͯ ٕज़ͷΩϞ͸ʁ ٞ࿦ ࣍ʹಡΉ࿦จ ҏ౻ 
 
 5PXBSETQBTTJWF%SFqFDUBODFpFMEEJTQMBZT

    എޙ͔Βͷর໌ʹΑͬͯมԽ͢Δ% MJHIUpFMEͱ%σΟεϓϨΠΛ૊Έ߹ Θͤͨ Ϩϯζͱண৭ύλʔϯΛ༻͍Δ͜ͱ Ͱɼଟ͘ͷදݱ΍ϋΠίϯτϥετ ΛՄೳʹ͍ͯ͠Δ ϨϯζΞϨΠͱ͍͔ͭ͘ͷϨϯζΛ༻ ͍ͨQBTTJWFͳޫֶܥʹΑͬͯ൓ࣹΛ ࠶ݱ͍ͯ͠Δ ෳ਺ͷϓϩτλΠϓ੡଄ɼઃܭ͠ಘΒ Εͨը૾ΛࡱӨͨ͠ എ໘͔ΒͷೖࣹޫʹͷΈ͔͠ରԠ͍ͯ͠ͳ͍
 ೖࣹ͕֯ઙ͍৔߹ɼݟ͑Δ૾͕࿪Ή
 ෳࡶͳMJHIUpFMEΛ࠶ݱͰ͖ͳ͍ !6 50(`
  60. ͲΜͳ΋ͷʁ Ͳ͏΍ͬͯݕূͨ͠ʁ ઌߦݚڀͱൺ΂ͯ ٕज़ͷΩϞ͸ʁ ٞ࿦ ࣍ʹಡΉ࿦จ ҏ౻ 
 
 4QFD'BC"3FEVDFS5VOFS.PEFMGPS5SBOTMBUJOH

    4QFDJpDBUJPOTUP%1SJOUT ෳ਺ૉࡐΛ༻͍ͨ%ϓϦϯτͷࡍʹɼ ΞϧΰϦζϜͷઃܭɼ։ൃɼ࣮૷ͳͲΛ ؆୯ʹ͢ΔͨΊͷந৅ԽϝΧχζϜ ಛఆͷ໨తʹର͢Δܭࢉػॲཧ͸͕͋ͬͨɼ DBVTUJDT΍Өɼ෺ମͷܗঢ়มܗͳͲɼ໨తͷΦ ϒδΣΫτΛಘΔͨΊͷܭࢉػॲཧΛ؆୯ʹ͢ ΔͨΊͷϑϨʔϜϫʔΫͷఏҊ͸ͳ͔ͬͨ ͍͔ͭ͘ͷม׵ϓϩηεΛ࣮૷ͨ͠ DBVTUJDTͱͦΕΛੜ੒͢ΔΦϒδΣΫτɼ ಛఆͷมܗڍಈΛ΋ͭΦϒδΣΫτͳͲ 
 !7 ֶձ໊