Upgrade to Pro — share decks privately, control downloads, hide ads and more …

先端技術とメディア表現(FTMA2018) 第3回レポートまとめ

先端技術とメディア表現(FTMA2018) 第3回レポートまとめ

Digital Nature Group

June 22, 2018
Tweet

More Decks by Digital Nature Group

Other Decks in Research

Transcript

  1.          

     ,+$($,(" #%# ()*#$#')#)&,)&'#'# !()+#' /%* '#  .    '- ) HZIRK2 ˆ£S¡ÅK_u ®˜’‹G¼NEH<9@=52    ˪Ž¥  §…a3f OAL a}m}lYÀ¨Kv3d3JµŒ@W ÆK¦Ä—n\fr{] H6SCEǕBG‘¤?A2 J»QN:ÉÂL2 ‰ÉL4W2 pj3}J±Ã>XW “K~IW¦KÆJ5 ;D8K¯ŠY½ž?0¾‚ÈK c}rz8 UIWcqhkoYÈ5Eš¸”™Y°´?Á­ ?A1 Ÿ©„œ–K ]}jx`ew}fs3f ÆFLI5†TV¢5^[|iz n\fr{]¦Yy[zj]tF º7TM› ?0ÊPG‡·Á¿Y³¬@W¸[zbygt ²8D¹ƒ«94VŸÈ¶Ic]g ¦Ä€JD5E
  2.      *6*4&4170!4-1-8&5& &4&5-0,&1"&.*2&1&)* "4&15&(6-215214&3,-(5"  

      = ,663)2-24+                /-8-*4&7#425 *64*85.-&1)$*1);&(.&; 1:6*1)*)'564&(652170&1&(6245-120376-1+!;56*05< *9%24.%#! =   ,663)2-24+       {•qO“‘M‚uOfX@dea[LFJ |BAohnKOŽW–yHUrN€SBE O’OsAW]ljo@cHU‚ubX_g oY? —œ‘—ŒL”GohnKO]ljo@cN‡ zFI?    Ÿ†x  „v\@_ i[`nLFJ…W~™HU‹‰bX_go Y?t‰ƒ’  bX_goYW}‡FI? NHUrNPRTŠCVUw˜W›™HU B>^ZacWšHDLKˆ‡EVUdpag _cm@kW›™HVQžA?
  3.    "    -(854-(24.$2 +--+)(3*$*2$.:$'+4(6(0')(3$6+' 0-9/($58$6+'+.$/'$//90/)

    ! ; &40%(2 =   $/4$$2%$2$! A€šr›N cXbgnY"(2.((2? cXbgnYPƒSL APk@`@O– O“wHT?u‘P~€W£¢GK>k@`@ DcXbgnYhmj@i™P \faZ]d O‰UK’Ž‰UTŸ W…RK‚†? !         $2&(-00(-*0+203*+3*++$/'$44+($(3 /84(/'('%342$&430/5.$/$&4023+/0.154+/)934(.3; (7#02,#! =  *441'0+02)*441'0+$&.02)      ¤zˆP{M€sqPJRPgo^lir ›Nœ¡LBT52<(8?zˆvp|xMe[@ iP¤˜WQ|VIK>•”OžzG KŠGCzˆW—TFMDLETœ¡W}S„ GKCT?    ¥Œy‡  ‹t_@b
  4.          

         "02)-"#(%2%-.<2 .11"4)230;+)% .(%9%")4):0% -0.#%%$)-'1.&2(% 2(--3"+6,/.1)3, .- 1%0-2%0&"#%.&25"0%"-$%#(-.+.'6 7  %5!.0*!  8   lgmFSUPOQPi[^pE=nBcaG ok@ID `Zrj_WVK\qmGhH] JCDdA?MNRT    sfYb  eXL>N
  5. Show and Tell: A Neural Image Caption Generator 0SJPM7JOZBMT``"MFYBOEFS5PTIFW``4BNZ#FOHJP``%VNJUSV&SIBO -*;)&/:6

    ਓؒίʔε ͲΜͳ΋ͷ ίϯϐϡʔλϏδϣϯͱػց຋༁ͷਐาΛ૊Έ߹ Θͤɺ ը૾Λهड़͢ΔࣗવจΛੜ੒͢ΔϞσϧɻ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ Ϟσϧ͸ɺ ܇࿅ը૾͕༩͑ΒΕͨλʔήο τهड़ จͷ໬౓Λ࠷େʹ͢ΔΑ͏ʹ܇࿅͞ΕΔɻ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ ݱࡏͷ࠷ઌ୺ͷ#-&6είΞ͸ύεΧϧσʔλ ηο τͰ͸ɺ ͜ͷΞϓϩʔνͰ͸͕ಘΒΕɺ ਓؒ͸໿Ͱ͋Δ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ ͍͔ͭ͘ͷϝτϦοΫɺ σʔλιʔεɺ ͓ΑͼϞσϧ ΞʔΩςΫνϟΛ࢖༻ͯ͠Ұ࿈ͷ࣮ݧΛ࣮ࢪͨ͠ɻ ٞ࿦͸͋Δ ʁ ը૾هड़ͷͨΊʹར༻Մೳͳσʔληο τͷ αΠζ͕૿େ͢ΔʹͭΕͯɺ /*$ͷΑ͏ͳΞϓ ϩʔνͷੑೳ΋޲্͢Δ ࣍ʹಡΉ΂͖࿦จ Green Internet of Things for Smart World
  6. 䚷䚷䚷䚷䚷䚷䚷䚷䛹䜣䛺䜒䛾 䚷䚷䚷䚷䛹䛖䜔䛳䛶᭷ຠ䛰䛸ᐇド䛧䛯䛛 䚷䚷䚷ඛ⾜◊✲䛸ẚ䜉䛶䛹䛣䛜෶䛔 䚷䚷䚷䚷䚷䚷䚷䚷㆟ㄽ䛿䛒䜛 䚷䚷䚷䚷䚷ḟ䛻ㄞ䜐䜉䛝ㄽᩥ䛿 䚷䚷䚷䚷䚷䚷ᢏ⾡䜔ᡭἲ䛾䜻䝰䛿 95+0'䛻୕㠃䛾䝍䝑䝏䝇䜽䝸䞊䞁䛸䝕䝥䝇䜹䝯䝷䜢ྲྀ䜚௜䛡䜛 䛣䛸䛷䚸࿘䜚䛾ே㛫䛸䜲䞁䝍䝷䜽䝔䜱䝤䛻 95䛷㛵䜟䜜䜛䜘䛖䛻䛧 䛯䝕䜱䝇䝥䝺䜲䚹እ䛾ே㛫䛾䝆䜵䝇䝏䝱䞊䜔䝍䝑䝏䛺䛹䜢

    95✵ 㛫䛻ᣢ䛳䛶䛔䛡䜛䚹 㛵䜟䜚᪉䛾䝅䝘䝸䜸䜢」ᩘ‽ഛ䛧䛶䚸ᴦ䛧䛥䛺䛹䜢 8VHU6WXG\䛷 ㄪᰝ䛧䛯䚹 እ㒊䝉䞁䝃䜢౑䛳䛯ᡭἲ䛜௒䜎䛷䛯䛟䛥䜣䜔䜙䜜䛶䛔䛶䚸 +0' 䛰䛡䛷┦஫స⏝䜢᏶⤖䛥䛫䛶䛔䜛䜒䛾䛿䛺䛔䚹 䝀䞊䝮䜢䛩䜛䛸䛝䛻 +0'䜢⿕䛳䛶䛔䜛ே䛸⿕䛳䛶䛔䛺䛔ே䛾䝟 䝽䞊䝞䝷䞁䝇䛜㐪䛖䛣䛸䚹 +0'䜢⿕䛳䛶䛔䜛ே䛿እ䛛䜙䛾௓ධ 䜢୙ᛌ䛸ឤ䛨䜛䛣䛸 䝍䝑䝏䝉䞁䝃䞊䛷 㠃䜢ᅖ䛳䛶䝕䝥䝇䜹䝯䝷䜢௜䛡䛯䛣䛸䛷䚸䝍䝑 䝏䛰䛡䛷䛺䛟䝆䜵䝇䝏䝱䞊䛺䛹䛾ㄆ㆑䜒ྍ⬟䛻䛺䛳䛯䚹 /XQJSDQHODO ே㛫௒஭&+,
  7. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ͲΜͳ΋ͷʁ "JS4XJQF(FTUVSF3FDPHOJUJPO6TJOH0QFO$7JO"OESPJE%FWJDFT5XJOLMF 4IBSNB 4BDIJO,VNBS /BWFFO:BEBW

    ,SJUJLB4IBSNB 1JZVTI#IBSEXBK BOESPJEͷεϚϗͷΧϝϥͰۭதͰͷεϫΠϓ ͢ΔΑ͏ͳδΣενϟʔΛೝࣝ͢ΔγεςϜ ޫྔͷٸܹͳมԽ΁ͷରԠ ॲཧೳྗ͕ݶΒΕ͍ͯΔϞόΠϧػثͰɺಈ తεϫΠϓδΣενϟʔͷೝࣝʹ͓͚Δਫ਼౓ ͰˋΛୡ੒ [1] Song, J.,Soros, G. , Pece, F. , Fanello, S. , Izadi, S. , Keskin , C. &Hilliges , O. (2014). In-air Gestures Around Unmodified Mobile Devices. Proc.ACM UIST 2014. [2] Joshi, T. J. , Kumar, S. , Tarapore, N. Z. &Mohile, V. (2015). Static Hand Gesture Recognition using an Android Device.International Journal of Computer Applications(0975 – 8887) Volume 120, No. 21. [3] Rautaray, S. S. &Agrawal, A. (2012). Real Time Hand Gesture Recognition System for Dynamic Applications. International Journal of UbiComp (IJU), Vol.3, No.1. [15] Dixit, V. &Agrawal, A. (2015). Real-Time Hand Detection & Tracking for Dynamic Gesture Recognition. I.J. Intelligent Systtems and Applications. [16] Patil, T. B. , Jain, A. , Sawant, S. C. , Bhattacharyya, D. & Kim, H.J. (2016). Virtual Interactive Hand Gestures Recognition System in RealTime Environments. International Journal of Database Theory and Application, Vol.9, No.7 (2016), pp.39-50. *&&&b ΞϯυϩΠυσόΠεͷਖ਼໘ͷΧϝϥͰ̐ʙ̕ඵͷδΣ ενϟʔΛࡱӨ͠ɺॲཧʹཁ͢Δղ૾౓͕খ͍͞΄Ͳ εϐʔυ͕ߴ଎Խ͍ͯ͠Δ͜ͱΛࣔͨ͠ ϦΞϧλΠϜܭࢉʹΑΔߦྻׂΓ౰ͯͷͨΊ ͷ0QFO$7ͷΞϓϦέʔγϣϯ
  8. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ͲΜͳ΋ͷʁ Static Hand Gesture Recognition

    using an Android Device Tejashri J. Joshi, N. Z. Tarapore ,Shiva Kumar ,Vivek Mohile εϚʔτϑΥϯʹ͓͚Δ੩తδΣενϟʔΛ ೝࣝ͢ΔͨΊͷख๏ ܭࢉͷগͳ͍ಛ௃நग़ͷͨΊʹओ੒෼෼ੳ 1$" Λద༻ ੩ࢭͨ͠खͷ࢟੎Λೝࣝ͢Δ࣮ݧͰ ˋͷਫ਼౓Λୡ੒ ޫྔͷ৚݅ͱഽͷ৭ͷ৚݅ʹରͯ͠ͷରԠ δΣενϟʔΛೝࣝ͢ΔͨΊͷ͢΂ͯͷϓϩηε͕σόΠ ε্Ͱ࣮ߦ͞ΕΔͷͰɺϦΞϧλΠϜʹγεςϜʹదԠ͢ Δ͜ͱ͕Մೳ *+$"
  9. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ͲΜͳ΋ͷʁ *OBJS(FTUVSFT"SPVOE6ONPEJpFE.PCJMF%FWJDFT +JF4POH (B CPS4P

    „SP „T 'BCSJ[JP1FDF 4FBO'BOFMMP 4IBISBN*[BEJ $FN,FTLJO 0UNBS)JMMJHFT ϞόΠϧػثपลͷΠϯλϥΫγϣϯۭؒ Λ֦ுͨ͠৽͍͠ػցֶशΞϧΰϦζϜ ޿ൣғͰδΣενϟʔΛೝࣝ͠ɺϢʔβͷมԽΛ αϙʔτɺর໌৚݅ΛมԽͤ͞Δ͜ͱ͕Մೳ ϐΫηϧϥϕϦϯάλεΫͷͨΊͷϞόΠϧ σόΠε༻ͷ3'ͷ࠷ॳͷϦΞϧλΠϜ࣮૷ ϢχʔΫͳܗ΍ྠֲΛఏڙ͢ΔδΣενϟʔͷ ೝࣝͱ۠ผΛ΋ͱʹࣔ͢ͷͰɺδΣενϟʔͷ ඍົͳҧ͍Λ൑அͰ͖ͳ͍Մೳੑ͕͋Δ ೝࣝਫ਼౓ʢˋςετ͓ΑͼˋτϨΠϯʣɺϝϞϦϑο τϓϦϯτ͓ΑͼͦͷଞͷϞσϧύϥϝʔλͷӨڹͷௐࠪɺ Ճ͑ͯϢʔβʔධՁ 6*45
  10. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ͲΜͳ΋ͷʁ 7JSUVBM*OUFSBDUJWF)BOE(FTUVSFT3FDPHOJUJPO 4ZTUFNJO3FBM5JNF&OWJSPONFOU 5#1BUJM "BLBTI+BJO

    4VQSJZB$4BXBOU %FCOBUI#IBUUBDIBSZZBBOE)ZF+JO,JN IJDTA '15 ख࿩Λ୯ޠ΍จʹม׵Ͱ͖ΔγεςϜ 8FCΧϝϥΛհͯ͠Ϣʔβ͕ߦ༷ͬͨʑͳखͷδΣενϟ Λड͚ೖΕɺͦͷҙຯΛॲཧ͠ɺσʔλϕʔεͷఆٛ͞ Εͨ஋ͱҰகͤ͞ɺରԠ͢Δग़ྗΛը໘ʹදࣔ ͜Ε·Ͱ͜ͷΑ͏ͳγεςϜ͸ଘࡏ͠ͳ͔ͬͨ ਂ౓Λݕग़͢Δखஈͷݕ౼ ͋Β͔͡ΊδΣενϟʔΛొ࿥͠ɺΧϝϥͰ ࡱӨͨ͠खͷը૾͔ΒͲͷΑ͏ͳ୯ޠͰ͋Δ ͔ΛࣝผͰ͖Δ͔Ͳ͏͔࣮ݧͨ͠
  11. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ͲΜͳ΋ͷʁ 3FBM5JNF)BOE%FUFDUJPO5SBDLJOHGPS%ZOBNJD(FTUVSF3FDPHOJUJPO 7BSTIB%JYJU "OVQBN"HSBXBM ө૾͔ΒछྨͷҟͳΔδΣενϟʔΛ

    ೝࣝ͢ΔͨΊͷख๏ ෳࡶͳഎܠͱޫྔͷ৚݅΁ͷରԠɺ̏࣍ݩతͳೝࣝ ݸͷδΣενϟʔͷσʔληοτͰςετɺฏۉೝࣝ཰͸ ˋ 1$"ɺ"//ɺ47.ɺ%58ͳͲͷैདྷͷΞϓ ϩʔνͱൺֱͯ͠ɺΑΓྑ͍ೝࣝ݁Ռ ੜ੒γʔέϯεΛϞσϧԽ͢Δڧྗͳ౷ܭπʔϧ ͱͯ͠ͷӅΕϚϧίϑϞσϧ *+*4"
  12. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ͲΜͳ΋ͷʁ 3&"-5*.&)"/%(&4563&3&$0(/*5*0/4:45&. '03%:/".*$"11-*$"5*0/4 4JEEIBSUI43BVUBSBZ "OVQBN"HSBXBM

    Ծ૝؀ڥʹ͓͚ΔδΣενϟʔʹΑΔ෺ମૢ࡞ͷ ఏҊͱ࣮૷ɺޮ཰త͔ͭϢʔβϑϨϯυϦʔͳ ώϡʔϚϯίϯϐϡʔλΠϯλϑΣʔεΛఏڙ Ϣʔβ͓Αͼಛʹ਎ମো֐ͷ͋ΔϢʔβʹɺͦͷ࣮ߦՄ ೳੑ͓Αͼ༰қ͞ʹैͬͯδΣενϟΛఆٛ͢Δॊೈੑ δΣενϟΛίϚϯυʹ͢Δ͞Βʹਖ਼֬ͳม׵ ఏҊ͞ΕͨδΣενϟೝࣝγεςϜͷੑೳͱ࣮ ߦՄೳੑΛௐ΂ΔͨΊʹɺݎ࿚ੑɺεέʔϥϏ ϦςΟɺܭࢉޮ཰ɺϢʔβʔͷڐ༰஋Λௐ΂ͨ *+6
  13. Pose Guided Person Image Generation – NIPS 2017 Liqian Ma1

    Xu Jia2 Qianru Sun3 Bernt Schiele3 Tinne Tuytelaars2 Luc Van Gool1,4 1KU-Leuven/PSI, TRACE (Toyota Res in Europe) 2KU-Leuven/PSI, IMEC 3Max Planck Institute for Informatics, Saarland Informatics Campus 4ETH Zurich ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ը૾ͷਓͷϙʔζΛɼೖྗͨ͠ϙʔζʹม׵ɽ ΑΓߴը࣭Ͱม׵Մೳɽ ૈ͍ը૾Ͱͷϙʔζม׵ͱɼը૾ͷߴղ૾౓Խ ຊ෺ϖ Ξͱੜ੒ϖΞͷࣝผ ͷஈ֊ʹ෼͚ͨɽ ࠷৽ͷϙʔζਪఆثΛ࢖༻ͯ͠ੜ੒ͨ͠ ݸͷLFZQPJOUΛϙʔζ৘ใͱͯ͠࢖༻ɽ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ %FFQ'BTIJPOͱ.BSLFUσʔληοτΛ࢖༻͠ ͯଞख๏ͱൺֱɽ44*.ͱ*ODFQUJPOTDPSFͰͷධՁ͸ ଞख๏ͱಉఔ౓ɽϢʔβʔελσΟͰߴධՁɽ உঁͰͷσʔληοτ਺ʹภΓ͕͋ΓɼੑผΛؒҧ ͑΍͍͢ɽ෰ͷڥքͷಛ௃Λ௫ΈͮΒ͍ɽ %JTFOUBOHMFE1FSTPO*NBHF(FOFSBUJPO %1(  େીࠜ޺޾  ਓؒίʔε  
  14. Looking to listen at the cocktail party a speaker-independent audio-visual

    model for speech separation - SIGGRAPH 2018 ARIEL EPHRAT, Google Research and The Hebrew University of Jerusalem, Israel INBAR MOSSERI, Google Research
 ORAN LANG, Google Research
 TALI DEKEL, Google Research KEVIN WILSON, Google Research AVINATAN HASSIDIM, Google Research WILLIAM T. FREEMAN, Google Research MICHAEL RUBINSTEIN, Google Research ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ෳ਺ͷ࿩ऀ͔Βɼը૾ͱԻ੠Λ΋ͱʹϑΟϧλΛ࡞੒ ͠ɼ֤ʑͷԻ੠Λநग़Ͱ͖Δɽ "741&&$)%"5"4&5 إಈըͱԻ੠ ͷߏஙɽ Ի੠͕֤࿩ऀ͝ͱʹಠཱ͍ͯ͠ͳ͍σʔληοτ͔Β ֶश͕Ͱ͖Δɽ ֤ʑͷإͷඵؒͷը૾ʢGSBNF GQT ͱ45'5 TIPSUUFSN ϑʔϦΤม׵ ͨ͠Ի੠͝ͱʹֶशɽ࿩ऀ͝ͱͷϚεΫΛग़ྗ ͠ɼ*4*'5ͯ͠Ի੠ʹม׵ɽ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ TJHOBMUPEJTUPSUJPOSBUJP 4%3 ͱ͍͏ࢦඪΛ࢖༻ɽ ଞͷख๏Ͱ͸࿩ऀ͝ͱʹಠཱͨ͠σʔληοτΛ༻͍͍ͯͨʹ ΋͔͔ΘΒͣɼຊख๏ͷ΄͏্͕ճͬͨɽ إͷಈ͖͕ͲΕ͚ͩد༩͔ͨ͠෼ੳͨ͠ɽޱҎ֎΋ॏ ཁΒ͍͠ɽ David F. Harwath, Antonio Torralba, and James R. Glass. 2016. Unsupervised Learning of Spoken Language with Visual Context. In NIPS. େીࠜ޺޾ ਓؒίʔε   
  15. Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks - PMLR

    2017 ARIEL EPHRAT, Google Research and The Hebrew University of Jerusalem, Israel INBAR MOSSERI, Google Research
 ORAN LANG, Google Research
 TALI DEKEL, Google Research KEVIN WILSON, Google Research AVINATAN HASSIDIM, Google Research WILLIAM T. FREEMAN, Google Research MICHAEL RUBINSTEIN, Google Research ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ޯ഑߱Լ๏Λ࢖͍ͬͯΔ͢΂ͯͷख๏ʹ࢖͑ΔNFUB MFBSOJOHख๏.".-ͷఏҊɽ Ϟσϧ΍ύϥϝʔλʹ੍໿ΛՃ͑ͳ͍͍ͯ͘ɽ λεΫू߹ʹ͓͍ͯ'JOF5VOJOH͢Δͱ͍͍஋ʹߦ͘Α͏ͳॳ ظ஋Λֶशɽ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ճؼσʔλϙΠϯτ͕গͳ͍ͱ͖Ͱ΋ɼਖ਼ݭ೾ΛֶशՄೳɽ ෼ྨଞͷϝλख๏ͱൺ΂ͯߴਫ਼౓ ڧԽֶशΑΓૣֶ͘शՄೳ ϚϧνλεΫʹର͢ΔॳظԽΛਂ૚ֶश΍ڧԽֶशͷ ඪ४తͳཁૉͱ͢Δ͜ͱ͕͜Ε͔ΒॏཁʹͳΓͦ͏ɽ Al-Shedivat, Maruan, et al. "Continuous adaptation via meta- learning in nonstationary and competitive environments." arXiv preprint arXiv:1710.03641 (2017). େીࠜ޺޾ ਓؒίʔε   
  16. Deep Image Prior - CVPR 2018 Dmitry Ulyanov Skolkovo Institute

    of Science and Technology, Yandex Andrea Vedaldi University of Oxford [email protected] Victor Lempitsky Skolkovo Institute of Science and Technology (Skoltech) [email protected] ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ʮը૾ͱ͸͜͏͍͏΋ͷʯͱ͍͏ࣄલ৘ใ͕$//ͷߏ଄ࣗ ମʹͦ΋ͦ΋උΘ͍ͬͯΔͱԾఆ͠ɼ୯Ұը૾ͷΈΛ༻͍ͨ ֶशͰɼͦͷը૾ͷEFOPJTJOH IJHISFTPMVUJPO JOQBJOUJOH Λ࣮ݱɽ େྔͷσʔληοτ͕͍Βͳ͍ɽ ϥϯμϜϊΠζ͔Βɼ៉ྷʹ͍ͨ͠ը૾Λۙࣅ͢ΔΑ͏ʹੜ੒ ͤ͞Δͱɼӄʹ  ࣜͷ੍໿͕ຬͨ͞Εɼ͖Ε͍ͳը૾͕ੜ੒ ͞ΕΔɽʢϒϥοΫϘοΫεײʣ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ EFOPJTJOHͰ͸14/3͕405"ͱಉఔ౓   ߴղ૾౓ԽͰ΋14/3͕405"ͱಉఔ౓ 4FU<>ͱ4FU <>σʔληοτͰͱ  JOQBJOUͰ͸ $//ͷߏ଄্ɼ("/ͱಉ༷ɼ֨ࢠঢ়ʹͳΓ΍͍͢ʁ [24] V. Papyan, Y. Romano, and M. Elad. Convolutional neural networks analyzed via convolutional sparse coding. Journal of Machine Learning Research, 18(83):1–52, 2017. େીࠜ޺޾ ਓؒίʔε   
  17. A Neural Representation of Sketch Drawings - arXiv 2017 David

    Ha Google Brain [email protected] Douglas Eck Google Brain [email protected] ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ 3//ͰεέονΛඳ͘ɽ QJYFM͔Βֶश͢Δ΋ͷ͕ଟ͘ɼWFDUPS͔Βֶश͢Δͷ ͸গͳ͔ͬͨɽ જࡏม਺Λ͍͡ΕΔΑ͏ʹͨ͠ɽ FODPEF͸CJEJSFDUJPOBM3// જࡏม਺͸7"& EFDPEF͸ (..ͱTPGUNBY Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ EFOPJTJOHͰ͸14/3͕405"ͱಉఔ౓   ߴղ૾౓ԽͰ΋14/3͕405"ͱಉఔ౓ 4FU<>ͱ4FU <>σʔληοτͰͱ  JOQBJOUͰ͸ σʔλ఺͸఺͘Β͍͕ݶքɽ ෳࡶͳ΋ͷ͸͏·͍͔͘ͳ͍ɽ Ϋϥεͱ͔͸ແཧɽ Rosca, Mihaela, et al. "Variational approaches for auto-encoding generative adversarial networks." arXiv preprint arXiv:1706.04987 (2017). େીࠜ޺޾ ਓؒίʔε   
  18. !0")$ !*hI ES [KFC c&! @R*Pg$16%! Aj%. O#`(&jf%  NJX$^<3279/L

    BU$75824/TPM. 75824$ZD#+ -G.b;/]Y. Hi/D\.'Qe"d=%" 3279 %(,.  W? :_Va>
  19. Mechanism Perfboard: An Augmented Reality Environment for Linkage Mechanism Design

    and Fabrication Yunwoo Jeong, Han-Jong Kim, Tek-Jin Nam ͲΜͳ΋ͷʁ ϩϘοτ΍ΦʔτϚλͷӡಈػߏͷͨΊͷ ϓϩτλΠϐϯάσόΠε ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ϓϩδΣΫλʔΛ૊Έ߹ΘͤΔ͜ͱʹΑͬ ͯɺॳֶऀͰ΋ײ֮తʹ໨తͷӡಈػߏΛ ࡞Δ͜ͱ͕Ͱ͖Δɻ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ໨తͷӡಈʹରͯ͠࠷΋͍ۙӡಈػߏΛఏҊ ͢Δ͜ͱ͕Ͱ͖Δɻ͜ΕͱϓϩδΣΫλʔΛ ૊Έ߹ΘͤΔ͜ͱʹΑͬͯɺॳֶऀͰ΋؆୯ ʹӡಈػߏΛ࡞ΕΔɻ ٞ࿦͸͋Δʁ ӡಈػߏͷࣗಈੜ੒͸ඞͣ͠΋ޮՌతͰ͸ ͳ͍ͨΊɺϢʔβʔ͕దٓमਖ਼͢Δඞཁ͕ ͋Δɻ ࣍ʹಡΉ΂͖࿦จ Computational Design of Mechanical Characters. Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ࢖͍΍͢͞ɺ؆୯͞ͳͲΛϢʔβʔελσΟ Ͱௐࠪͨ͠ɻ ؠ࡚ཬۢɹਓؒίʔε CHI 2018,
  20. Computational Design of Mechanical Characters (ACM Transactions on Graphics (TOG))

    Stelian Coros*1 Bernhard Thomaszewski*1 Gioacchino Noris1 Shinjiro Sueda2 Moira Forberg2 ໨తܗঢ়ͷ෺ମʹಈ࡞Λ͚ͭɺ࣮ࡍʹ3DϓϦϯλʔͰಈ࡞ͤ͞Δ͜ͱ͕ॳֶऀͰ΋Ͱ͖Δɻ CardBoardiZer: Creatively Customize, Articulate and Fold 3D Mesh Models Yunbo Zhang, Wei Gao, Luis Paredes, Karthik Ramani 3D෺ମͷϦϯΫػߏΛ࣮ࡍʹ࡞Δͷ͸3DϓϦϯτɺ૊ΈཱͯΔ͜ͱʹ͕࣌ؒଟ͔͔ͬͯ͘͠·͏ͷͰɺΧʔυ ϘʔυͰӡಈػߏΛ࡞Δ͜ͱʹΑͬͯߴ଎ʹӡಈػߏΛ࡞Δ͜ͱ͕Ͱ͖ͨɻ FoldMecha: Design for Linkage-Based Paper Toys Hyunjoo Oh ॳֶऀͰ΋ࢴͰػցͷػߏΛσβΠϯͰ͖ΔΑ͏ͳΠϯλʔϑΣʔεͷ࡞੒Λߦͬͨɻ MiragePrinter: Interactive Fabrication on a 3D Printer with a Mid-air Display Junichi Yamaoka Ϣʔβʔ͕ϞσϧͷΠϝʔδΛ3DϓϦϯλͷεςʔδ্ʹු༡ը૾ΛݟΔ͜ͱ͕Ͱ͖Δɻ ͜ͷϚγϯΛར༻͢ΔͱϢʔβʔ͸CADιϑτΛར༻࣮ͯ͠ࡍͷ͖΅ͰϞσϧΛ࡞Δ͜ͱ͕Ͱ͖Δɻ Motion-Guided Mechanical Toy Modeling Lifeng Zhu∗ Weiwei Xu†‡ John Snyder § Yang Liu ‡ Guoping Wang∗ Baining Guo‡ Peking University∗ Hangzhou Normal University† Microsoft Research Asia‡ Microsoft Research§ ػցతͳ؝۩ͷػೳͷಈ͖͔Βɺ༷ʑͳࣃंɺ׈ंͳͲͷ༷ʑͳΧϜΛબ୒͠ɺۦಈ্࣠ͷ෦඼ͷϨΠΞ΢τΛ࠷ దԽ͢Δɻ
  21. Machine-learning techniques for fast and accurate feature localization in holograms

    of colloidal particles (SIGGRAPH7 2018) Mark D. Hannel, Aidan Abdulali, Michael O’Brein, David .G. Grier ϗϩάϥϑΟοοΫϏσΦݦඍڸը૾ΛݩʹDBTDBEF DMBTTJpFSTͱ$//Λ࢖ͬͯɺޫࢄཚͷ-PSFO[.JFཧ࿦ ʹج͍ͮͨಁ໌ӷঢ়ͷཻࢠͷΛঢ়ଶΛࢉग़͢Δɻ ઌߦݚڀΛ౿ऻͯ͠ΑΓޮ཰తͳػցֶशͷΞϧΰϦ ζϜΛ࠾༻͍ͯ͠Δɻ·ͨ)BBSDBTDBEFΛ࢖༻͍ͯ͠ ΔͨΊɺਫ਼౓͸एׯ௿͍͕ͦͷ෼ߴ଎͔ͭɺ௿ίετ ͳϦΞϧλΠϜͷ ίϩΠυಛੑݕग़ͷͨΊͷػցֶशͷΞϧΰϦζϜɻ ΞϧΰϦζϜ͸ݕग़݁ՌΛط஌ͷೖྗύϥϝʔλͱൺ ֱͨ͠ɻ ༷ʑͳཻࢠͰ࣮ݧΛߦ͍ͦͷਖ਼֬ੑ͕֬ೝ͞Εͨɻ (59ͳͲ௿ػೳͳ(16Ͱ΋ಈ͘͜ͱΛ֬ೝͨ͠ɻ ಈ࡞͕ߴ଎Ͱ͋ΔͨΊ͋Δ੡඼ͷఆظతͳϞχλϦϯ ά΍؀ڥϞχλϦϯάͳͲʹ༗ޮɻ A. Yevick, M. Hannel, and D. G. Grier, “Machinelearning approach to holographic particle characterization,” Opt. Express 22, 26,884–26,890 (2014). 201813567 দӬঘ೭ #FTMA18 (ਓؒ) ͲΜͳ΋ͷʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ
  22. Holographic characterization of contaminants in water: Differentiation of suspended particles

    in heterogeneous dispersions (Appl. Phys. Lets 2017) Laura A. Philips, David B. Ruffner, fook Chiong Cheong, Jaroslaw M. Blusewicz, Prima Kasimbeg, Basma Wisi, Jeffery R. McCutcheon , David G. Grier ޻৔ഉਫͳͲͷίϩΠυ༹ӷʹؚ·ΕΔ༷ʑͳཻࢠΛ ղੳ͢ΔͨΊʹɺϗϩάϥϑΟοΫϏσΦݦඍڸը૾ ͔ΒίϩΠυͷޫͷࢄཚ΍۶ં཰Λղੳͯͦ͠ͷछྨ Λಛఆ͢Δɻ Machone-learning approach to holographic particle characterization(Opt. Express 2014) Aaron Yevick, Mark Hannel, David G. Grier  47.Λ࢖ͬͯίϩΠυཻࢠͷ̏࣍ݩҐஔ΍ܗঢ়ɺେ͖ ͞Λଌఆ͢Δɻ௿ػೳͳϚγϯͰ΋ಈ࡞͢Δߴ଎ͳϦ ΞϧλΠϜͷਪఆΛՄೳʹͨ͠ɻ 201813567 দӬঘ೭ #FTMA18 (ਓؒ)
  23. Rotational and translational diffusion of copper oxide nano rods measured

    with holographic video microscopy(Opt. Express 2015) Took chino Cheong, David G. Grier ༹ӷதʹඬ͏ࢎԽಔཻࢠͷ̏࣍ݩతͳಈ͖Λϗϩάϥ ϑΟοΫϏσΦݦඍڸํΛ࢖༻͢Δɻ Going deeper with convolutions Christian Szegedy, Wei Liu Yangqing Jia, Pierre Servant, Scott Reed, Dragomir Anguelov, Dumitru Erhan, Vincent Vanhoucke, Andrew RAbinovich  χϡʔϥϧωοτϫʔΫͷվળํͱͯ͠*ODFQUJPOΞʔ ΩςΫνϟΛఏҊͨ͠ɻEFOTFCVJMEJOHCSPDLTͰ༧ ଌ͞ΕΔ࠷దͳૄߏ଄Λۙࣅ͢Δ͜ͱͰɺΘ͔ͣͳܭ ࢉͰ΋࣭ͷߴֶ͍श݁ՌΛग़͢͜ͱ͕Ͱ͖Δɻ 201813567 দӬঘ೭ #FTMA18 (ਓؒ)
  24. Fast Feature indentification for holographic tracking: the orientation alignment transform

    (Opt. Express 2014) Bhaskar Jyoti Krishnatreya and David G. Grier র໌Λ౰ͯͨ෺ମͷ̏࣍ݩతͳҐஔ৘ใΛɺͦΕΒ͕ ࢄཚ͢ΔޫͷҐ૬΍ڧ౓෼෍ʹٴ΅͢Өڹ͔Βଌఆ͢ ΔHolographic microscopy ๏Ͱ͸ཻࢠͷॳظҐ૬ͷ৘ใ ͕ඞཁͰ͋Δɻ͜ͷ࿦จͰ͸ͦͷॳظҐ૬Λਖ਼͔֬ͭ ߴ଎ʹਪఆ͢ΔΞϧΰϦζϜΛఏڙͨ͠ɻ 201813567 দӬঘ೭ #FTMA18 (ਓؒ)
  25. どんなものか と べてどこがすごいか や のキモ どうやって だと したか に むべき

    201611455 永 #3( コース) #FTMA18 Hand-drawn Animation with Self-shaped Canvas SIGGRAPH'17 2Dキーフレームアニメーションを き で する しい 。キーフレームに って された3 を つキャン バスに くことで,マッピングされたアニ メーションの で,奥 き 覚の きが られる。 きで3 のアニメーションを くこ とができる。 キャンバスに3 を えることに よって, きで3 の きを れる。 BetweenIT: An Interactive Tool for Tight Inbetweening Autocomplete Hand-drawn Animations 3つ以 のキーフレームを 可すると, い シークエンスのアニメーションを でき る。 に くと, なくスクリーン に いて, かすことができる。 Masaki Fujita Tokyo Institute of Technology, Suguru Saito Tokyo Institute of Technology
  26. Globally and Locally Consistent Image Completion Satoshi Iizuka, Edgar Simo-Serra,

    Hiroshi Ishikawa  γʔϯͷେہతɾہॴతͳ੔߹ੑΛߟྀͨ͠ը૾ิ׬ ख๏ͷఏҊɽࣗવͳը૾ิ׬Λߦ͏͜ͱ͕Ͱ͖Δɽ طଘख๏Ͱ͸େہతಛ௃Λߟྀ͓ͯ͠Βͣɼ·ͨɼ৽ ͨͳΦϒδΣΫτΛੜ੒͢Δ͜ͱ͕Ͱ͖ͳ͍ɽ͞Βʹɼ ఏҊख๏Ͱ͸ը૾αΠζ΍ϚεΫ͢Δ৔ॴ͕Մมɽ ৞ΈࠐΈ૚ͷΈͰߏ੒͞Εͨิ׬ωοτϫʔΫ͕ը૾ Λੜ੒͠ɼେہతɾہॴతωοτϫʔΫ͕ͦΕΒ͕ࣗ વ͔Ͳ͏͔Λ൑அ͢Δ Ϣʔβௐࠪͱطଘख๏ͱͷൺֱɽإิ׬΍෺ମ࡟আͷ λεΫΛߦ͏ɽ إͳͲ෦෼తʹϚεΫ͞Ε͍ͯΔͱࣦഊ͢Δ͕ɼإʹ ಛԽͤ͞Δͱ͏·͍͘͘ɽ·ͨɼߏ଄Խ͞ΕͨςΫε νϟͷิ׬͸͏·͍͘͘ɽ .BTLTQFDJpDJOQBJOUJOHXJUIEFFQOFVSBM OFUXPSLT<3PMG,„PIMFSFUBM> 201813558 ஑ాҏ৫ #3 (ਓؒίʔε) ͲΜͳ΋ͷʁ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٞ࿦͸͋Δʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ 4*((3"1)
  27. ؔ࿈ݚڀ
 ɾMask-specific inpainting with deep neural networks. [Rolf K¨ohler et

    al. 2014] ଟ͘ͷम෮ख๏͸ະ஌ͷϐΫηϧΛਪଌ͢ΔͨΊͷྑ͍ΠϝʔδϞσϧ͕ඞཁɽຊख๏Ͱ͸ɼΠϝʔδύονʹΑΔ௚઀ͷϚο ϐϯάΛֶश͢ΔɽϚοϐϯά͸σΟʔϓχϡʔϥϧωοτͰදݱ͞Εɼେن໛ͷσʔλΛࣗಈͰֶश͢Δɽ࣮ݧʹΑΔͱֶ शϕʔεͷख๏Ͱ࠷ߴਫ४ͷ݁ՌΛಘΔ͜ͱ͕Ͱ͖ͨɽ ɾDeep Learning Face Attributes in the Wild. [Ziwei Liu et al. 2015] ෳࡶͳإͷଐੑΛ༧ଌ͢Δ͜ͱ͸೉͍͠ɽଐੑΛ༧ଌ͢Δ৽͍͠σΟʔϓϥʔχϯάϑϨʔϜϫʔΫΛఏҊ͢Δɽ ఏҊख๏Ͱ͸ɼࣄલʹௐ੔͞Εͨͭͷ$//ͱ-/FU "/FUΛΧεέʔυ઀ଓ͢Δɽ-/FU͸إͷϩʔΧϦθʔγϣϯͷେن໛ ͳҰൠతΦϒδΣΫτΧςΰϦͰ܇࿅͞Εɼ"/FU͸إͷଐੑͷେن໛ͳσʔλͰ܇࿅͞Ε͍ͯΔɽ ·ͨɼೖྗαΠζͷਖ਼نԽΛߦ͏ඞཁ͕ͳ͘ɼߴ଎ͳॱ఻ൖΛߦ͑Δɽ ɾFully Convolutional Networks for Semantic Segmentation. [Jonathan Long et al. 2015] ৞ΈࠐΈχϡʔϥϧωοτϫʔΫ͸૚ΛॏͶΔ͝ͱʹಛ௃Λநग़͍ͯ͠Δ͕ɼҐஔ৘ใ͕ࣦΘΕΔɽΠϝʔδηάϝϯςʔγϣ ϯʹؔͯ͠ෆརͰ͋ΔͨΊɼ͢΂ͯͷ૚Λ৞ΈࠐΈͦ͏ͱͨ͠GVMMZDPOWPMVUJPOBMOFUXPSLTΛఏҊ͢Δɽ৞ΈࠐΈ૚ͷΈͰ ߏ੒͞Ε͍ͯΔͨΊɼ೚ҙͷը૾αΠζΛѻ͑Δɽ·ͨɼ࠷ߴਫ४ͷ݁ՌΛಘΔ͜ͱ͕Ͱ͖ͨɽ ɾContext Encoders: Feature Learning by Inpainting. [Deepak Pathak et al. 2016] ίϯςΩετϕʔεͷϐΫηϧ༧ଌʹΑΔڭࢣͳ͠ࢹ֮తಛ௃ֶशΞϧΰϦζϜΛఏҊ͢Δɽ ίϯςΩετΤϯίʔμͰ͸ɼ೚ҙͷը૾ྖҬʹ৚͚݅ͭΒΕͨίϯςϯπΛੜ੒͢Δɽ ͜ΕΒΛୡ੒͢ΔͨΊʹ͸ɼίϯςΩετΤϯίʔμ͸ը૾શମͷ಺༰Λཧղ͠ɼ͍͍ײ͡ͷը૾Λੜ੒͢Δඞཁ͕͋Δɽֶ श࣌ʹ͸ఢରతଛࣦΛ࢖͍ɼෳ਺ͷख๏Λ༻͍ͯఆྔతʹධՁͨ͠ɽ ɾImproved Techniques for Training GANs. [Tim Salimans et al. 2016] ը૾ੜ੒ͱ൒ڭࢣ͋Γֶशͷͭʹয఺Λ͋ͯɼ("/ϑϨʔϜϫʔΫ্ͷ৽͍͠ػೳͱɼτϨʔχϯάख๏ΛఏҊ͢Δɽ 'FBUVSFNBUDIJOHͰ͸ͭͷೖྗΛEJTDSJNJOBUPSʹ༩͑ͨͱ͖ɼͦΕͧΕͷதؒ૚ͷೋ৐ޡࠩΛখ͘͢͞Δ͜ͱͰ HFOFSBUPS͕ΑΓຊ෺ʹ͍ۙσʔλΛੜ੒͢Δɽ·ͨɼHFOFSBUPS͕ଟ༷ੑΛ࣋ͭΑ͏ʹEJTDSJNJOBUPSʹධՁͤ͞Δ 201813558 ஑ాҏ৫ #3 (ਓؒίʔε)
  28. É©¡–LçSJM>9C?51 MaNXP1 “½Y¹òPcuQM>1 M6YIJ÷§HL ¿AG1 ¶OãWS:ăíQ1 ”ăQ4]1   

                 ÐÀŽ™Kjcv2qmbr}e`Ï¢ K:]itv{2l õäQ¤ÄPž¢YÃÏOZIJ®€@^]PK ¾üÚOQFPðPĂo2l`†öC]Lþ58X/ GH­ˆP¸¢KQ¤ÄPž¢OZ[DŸ‡QáBHIG 0¥•OZ]ÏPëÀ0ÖV`âÏPƒOÒ5Gdnix}` w2h2PÝ:¼AGÍPÿO¬_EJô[UEG\ATUEG\ AG>LK¥•OZ]ÏPëøLÖV`°£/ ž¢óêNmbq2ÄOÏ¢AJX[IJ¸±P mbr}eLçSJM68î5G/ >^UKP’‘ON8IG¦÷»ú‹.揄‹.卋 Pivt{2p/ 3›Î²ÞLù´Pè…Q«59£¸öQ×5/ £²PñòHLĄ9âÏOý^J¦Ø@^J5]PK; Pà:LAJQé·Ê 0ÅÂO¬_EJåÜd2y2K¹ºPāsb}p`āYC "*)*!*"#)*)$#*()    ďf2j ÑÛƾ
  29.  *"#)!)-#')' ÅÔK³6 oqbjPŠæ      

        |g}kzj8[ߗUK<Ï¢oqbj $,'( *!! $-%)   Ó]>LKÁ‹P„ËÏ¢`٘C]oqbjP¨~LŠæ (*'"#)$%'(##)($#(&*#(#+')*!#+'$#"#)( Ž™O7=]β.ŒA@Lé‰@Pœ`ÕSG¸¢ ')*!'!)-%%!)$#(#"#*)*'##*()'( Ç̚R9‚û@^J5]µĀPÕ¯LìÈ
  30. Comparing Computer-Based Drawing Methods for Blind People with Real-Time Tactile

    Feedback - CHI2018
 Jens Bornschein, Denise Bornschein, Gerhard Weber (Technische Unversitat Dresden Institute of Applied Computer Science) ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ೖग़ྗͷͨΊͷ࣍ݩ৮֮ϐϯϚτϦΫεσΟεϓϨΠΛ༻͍ͨࢹ֮ো֐ऀͷ ͨΊͷϫʔΫεςʔγϣϯɻ࣮ੈքͷΦϒδΣΫτγϧΤοτͷϝχϡʔϕʔ εɺδΣενϟϕʔεɺϑϦʔϋϯυελΠϥε͓Αͼඈߦ࣌ؒʢ5P'ʣਂ౓ ηάϝϯςʔγϣϯͷͭͷҟͳΔೖྗϞμϦςΟΛ࢖༻ͯ͠ɺਤܗΛ࡞੒ɻ ࢹ֮ো֐ऀͷͨΊͷσδλϧඳըπʔϧͷཁ݅ɼʢʣܧଓతͳ৮֮ϑΟʔυόοΫɺʢʣ ޡΓగਖ਼ػೳͷՄೳੑɺʢʣҰൠతͳࢧԉٕज़ʢ"5ʣͱͷޓ׵ੑɺ͓ΑͼʢʣಘΒΕͨ ࢹ֮৘ใΛڞ༗͢ΔՄೳੑը૾ͷ͢΂ͯΛຬͨ͢γεςϜ͸͜Ε·Ͱʹͳ͔ͬͨɻ    Λຬͨ͢͜ͱ͕֬ೝͰ͖ͨɻ  ͸'VUVSFXPSL ࢹ֮ো֐ͷ͋ΔϢʔβ͕ਤ໘ʹϦΞϧλΠϜͰ৮֮తʹΞΫηεͰ͖ΔΑ͏ʹɺ࣍ݩͷϦ ϑϨογϡՄೳͳϐϯϚτϦΫεσόΠεΛ࢖༻ɻղ૾౓͸EQJɻ%0.ͰԦδΣΫτͷ ϓϩύςΟΛద߹ͤ͞Δ͜ͱͰΦϒδΣΫτͷૢ࡞͕ՄೳʹͳΔɻϐΤκۦಈͰ)[ͰϦ ϑϨογϡՄೳɻΑΓ௚ײతʹܗঢ়Λ࡞੒Ͱ͖ΔΑ͏ʹδΣενϟೝࣝΛ࢖༻ɻγϧΤο τΩϟϓνϟʹ͸,JOFDUͷ੺֎ઢ5P'ηϯαʔΛ࢖༻ɻ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ਓͷ໨ͷো֐ऀ͕ͭͷϞμϦςΟΛධՁɻίϐʔ࡞ۀʹΑͬͯɼ༗ޮੑͱޮ཰ੑɼຬ଍౓Λ ௐ΂ͨɻ༗ޮੑʹؔͯ͠͸ΦϯϥΠϯௐࠪ ৹ࠪһͷ͕άϥϑΟοΫεϓϩάϥϜʹؔ͢Δ ܦݧΛ࣋ͭ ɻखຊͱίϐʔͷྨࣅ౓  ΛࣗൃతʹධՁɻ͢΂ͯͷϞμϦςΟ͕ඇϏδϡ ΞϧඳըλεΫʹඇৗʹద͍ͯ͠Δͱ͍͏݁Ռ͕ಘΒΕͨɻϝχϡʔϕʔεͷΠϯλϥΫγϣϯ ͸ඇৗʹྑ͍ͱධՁ͞Εɼੑೳ΋൪໨ʹߴ͘ɼ࠷΋ਖ਼֬ͳඳըϞμϦςΟͩͬͨɻ ༧૝ʹ൓͠ɼো֐͕ઌఱత͔ޙఱత͔͸ύϑΥʔϚϯεʹ෦෼తʹ͔͠Өڹ͠ͳ͔ͬͨɻελΠϥεϖϯΛ࢖ ༻͢Δͱ͖ʹ໰୊͕͋ͬͨਓ΋͍Ε͹ɼૢ࡞ํ๏Λ͢͹΍͘ཧղͰ͖ͯඳըΛΑΓ଎࣮͘ߦͰ͖Δਓ΋͍ͨɻ ΦϒδΣΫτͷૢ࡞Λ͢ΔͨΊͷΞΫγϣϯΛܭը͢Δ͜ͱʹ໰୊͕͋ͬͨɻઌఱతʹ໡໨తͳࢀՃऀ͸ܗঢ় ૢ࡞΍มܗͷӨڹΛཧղ͢Δ͜ͱ͕ࠔ೉Ͱ͋Δ͜ͱΛ؍࡯ͨ͠ɻૢ࡞·ͨ͸੍ޚίϚϯυʹؔͯ͠ޡղ͕͋ͬ ͨɻ௕͍ςετηογϣϯதʹେ͖ͳർ࿑ޮՌΛ؍࡯͢Δ͜ͱ΋ɺͦΕʹ͍ͭͯใࠂ͞ΕͨࢀՃऀ΋͍ͳ͔ͬ ͨ +FOT#PSOTDIFJOFUBM1&53" +VMJF%VDBTTFFUBM$)* 4IBVO,FUBM$)* 4BJHBOFTI4XBNJOBUIBO$)* 3PCFSU+,+BDPC50*4 යࢠҁՖ ਓؒίʔε   
  31. Digital Drawing Tools for Blind Users A State-of-the-Art and Requirement

    Analysis - PETRA2017 "CTU *OUSPEVDUJPO $PODMVTJPO ࢹ֮ো֐ऀ͸௨ৗɼϩʔςΫͳΞφϩάπʔϧΛ࢖ͬͯඳը࡞ۀΛߦ͏ɻ͜ͷΑ͏ͳπʔϧ͸ਤ໘ͷαϙʔτͱΤϥʔमਖ਼ʹ͚͍ܽͯΔ ͱ͍͏໰୊͕͋Δɻ͜ͷ໰୊Λղܾ͢Δඇࢹ֮తඳըࢧԉͷͨΊͷιϑτ΢ΣΞϓϩδΣΫτͷ෼ੳɼධՁΛߦ͍ɼཁ݅Λநग़͢Δɻ ਓͷࢹ֮ো֐ऀ͕ɼ֤ཁ݅ͷॏཁੑΛධՁͨ͠ɻ ը૾ίϯςϯπͷྔͷ૿Ճ͸ࢿ֨৘ใʹΞΫηεͰ͖ͳ͍໡໨ͷϢʔβʹোนΛ΋ͨΒ͢ɻ͜ͷ໰୊Λࠀ෰͢ΔͨΊʹɺ୅ସͷهड़͓Αͼ৮֮తͳը૾දݱ͕ଘ ࡏ͢Δɻ௨ৗɺΞφϩάํ๏Λ࢖༻͢Δ͕ɻΞφϩάͰ࡞੒͞Εͨ৮֮άϥϑΟοΫεͷ࠶ݱ͸ࠔ೉Ͱɺඳըࢧԉͷྔ͕ݶΒΕ͍ͯΔ͜ͱ͕ଟ͘ɺΤϥʔగਖ਼͕ ܽ೗͍ͯ͠Δͱ͍͏໰୊͕͋ΔɻίϯϐϡʔλϕʔεͷඳըϝΧχζϜ͸ɺ͜ΕΒͷܽ఺Λࠀ෰͢Δͷʹ໾ཱͭɻաڈͷϓϩδΣΫτ͔ΒಘΒΕΔɼϢʔβʔͱ։ ൃऀ͕ద੾͔ͭޮՌతͳඳըΞϓϦέʔγϣϯΛߏங͢Δํ๏ʹ͍ͭͯͷཁ݅ͱਪ঑ࣄ߲ͱ͍ͬͨ஌ݟ͸ෆ׬શͳ··ͷՄೳੑ͕͋Δɻ ݱࡏͷΞφϩάͷඇϏδϡΞϧඳըϝΧχζϜͷ֓ཁΛࣔͨ͠ɻ͞Βʹɺ໡໨ͷϢʔβͷͨΊͷաڈ͓Αͼ࠷ઌ୺ͷιϑτ΢ΣΞαϙʔτυϩʔΠϯάπʔ ϧ͕෼ੳ͞Εͨɻඇࢹ֮తඳըγεςϜʹର͢Δͷཁ͕݅ಋग़ɻݱ࣌఺Ͱར༻ՄೳͳιϦϡʔγϣϯ͸ɺਪ঑͞ΕΔҰ࿈ͷਪ঑ࣄ߲ͱཁ݅Λ͢΂ͯαϙʔ τ͍ͯ͠ͳ͍ɻਓͷϒϥΠϯυࢀՃऀʹΑΔਪનϦετͷϢʔβʔධՁ͸ɺ͢΂ͯͷΤϯτϦ͕ॏཁͰ͋Δ͜ͱΛ͕ࣔͨ͠ɺΞϓϦέʔγϣϯίϯςΩε τͱ࢖༻෼໺ͷಛఆͷχʔζʹ߹ΘͤΔඞཁ͕͋ͬͨʹ΋͔͔ΘΒͣɺϢʔβ͸৮֮ϑΟʔυόοΫɺਝ଎ͳԠ౴࣌ؒɺ͓ΑͼඳըΞϓϦέʔγϣϯͷ৔߹ ͷҰൠతͳࢧԉٕज़ͱͷޓ׵ੑΛڧ͘ਪ঑͢Δ͜ͱ͕Θ͔ͬͨɻ යࢠҁՖ ਓؒίʔε    Jens Bornschein, Gerhard Weber (Technische Unversitat Dresden Institute of Applied Computer Science)
  32. Tangible Reels: Construction and Exploration of Tangible Maps by Visually

    Impaired Users - CHI2016 "CTU *OUSPEVDUJPO $PODMVTJPO ࢹ֮ো֐ͷ͋ΔϢʔβʔ͕5BOHJCMF3FFMTͱ͍͏৽͍͠λΠϓͷ෺ཧతͳΞΠίϯΛ࢖༻ͯ͠ɺಠࣗͷ༗ܗͷϚοϓΛ࡞੒Ͱ͖ΔΑ͏ʹ͢Δ࣮༻త ͳςʔϒϧτοϓΠϯλʔϑΣΠεΛ։ൃɻ҆ఆੑΛอূ͢Δٵ൫ύουͱσδλϧɾϥΠϯΛ໨ʹݟ͑ΔϦτϥΫλϒϧɾϦʔϧͰߏ੒ɻඇࢹ֮ త૬ޓ࡞༻ΛؚΉઃܭ͞ΕͨγεςϜ͕ɺࢹ֮ো֐ͷ͋ΔࢀՃऀ͕༷ʑͳෳࡶ͞ͷϚοϓΛਝ଎ʹߏங͠ɺ୳ࡧͰ͖Δ͜ͱΛཱূͨ͠ɻ νϟʔτɺεΩʔϚɺϚοϓͳͲͷਤܗදݱ͸ࢹ֮ো֐ऀʹͱͬͯຊ࣭తʹΞΫηεෆՄೳͰ͋ΔͨΊɺ৮֮తͳάϥϑΟοΫεʹม׵͢Δඞཁ͕ ͋Δɻ࣓ؾ஍ਤ͸ɺ࡞੒ɼௐ੔͕༰қ͕ͩɺࢹ֮ো֐ͷ͋ΔϢʔβʔ͸ॿ͚ΛआΓͯߏஙͨ͠ΓΞΫηεͨ͠Γ͢Δ͜ͱ͸Ͱ͖ͳ͍ɻࢹ֮ো֐ͷ͋ ΔϢʔβʔʹɺࢹ֮తͳάϥϑΟοΫͷ෺ཧతදݱΛࣗ෼Ͱߏங͢Δํ๏Λఏڙ͢Δ͜ͱʹΑͬͯɺ͜ΕΒͷ੍ݶΛࠀ෰͢Δ͜ͱΛ໨ࢦͨ͠ɻ ۩ମతͳάϥϑΟοΫεΛߏங͠ɺ୳ࡧ͢ΔͨΊͷ࣮ମతͳ୎্ΠϯλϑΣʔεΛఏҊɻΑΓਖ਼֬ʹ͸ɺϙΠϯτͱϥΠϯΛ࣮ݱ ͢ΔͨΊʹ࢖༻Ͱ͖Δ৽͍͠λΠϓͷϑΟίϯͰ͋Δ5BOHJCMF3FFMTͷઃܭʹ͍ͭͯઆ໌ͨ͠ɻͦΕΒ͕҆ఆ͠ɺૢ࡞͕༰қͰ͋ ΓɺҟͳΔෳࡶ͞ͷۭؒදݱΛ఻͑ΔͨΊʹ࢖༻Ͱ͖Δ͜ͱΛࣔͨ͠ɻ යࢠҁՖ ਓؒίʔε    Julie Ducasse, Marc Mace, Marcos Serrano, Christophe Jouffrais (Univ. of Toulouse - IRIT, CNRS - IRLT)
  33. Tangible Reels: Construction and Exploration of Tangible Maps by Visually

    Impaired Users - CHI2011 "CTU *OUSPEVDUJPO $PODMVTJPO ΞΫηγϒϧͳλονεΫϦʔϯΠϯλʔϑΣΠεΛ࡞੒͢Δࡍͷ՝୊ͷͭͱͯ͠ɺࢹ֮ো֐ऀ͕࣮ࡍʹλονεΫϦʔϯΛ࢖༻͢Δํ๏ʹ͍ͭͯͷཧղ͕ෆ଍ ͍ͯ͠Δ͜ͱ͕ڍ͛ΒΕΔɻࢹ֮ো֐ऀͱͦ͏Ͱͳ͍ਓ͕λονεΫϦʔϯδΣενϟʔΛ࢖༻͢Δํ๏Λൺֱͨͭ͠ͷϢʔβʔௐࠪΛ࣮ࢪɻࢹ֮ো֐ऀ͸ɺ໨ ͕ݟ͑Δਓͱ͸ҟͳΔδΣενϟʔઃఆΛ͍ͯ͠Δ͜ͱ͕Θ͔ͬͨɻࢹ֮ো֐ऀ͕ߦͬͨδΣενϟʔͷεϐʔυɺαΠζɺܗঢ়ͱɺࢹྗͷ͋Δਓʑ͕ߦͬͨδΣ ενϟʔͱͷؒʹ༗ҙ͕ࠩ͋Δ͜ͱ͕Θ͔ͬͨɻ ΞΫηεՄೳͳλονεΫϦʔϯʹ͸ɺґવͱͯ͠ϢʔβͱσβΠφͷ྆ํʹ՝୊͕͋Δɻ  ϒϥΠϯυϢʔβʔͷλονεΫϦʔϯΠϯλʔϑΣ Πε͸ϓϥοτϑΥʔϜʹΑͬͯେ͖͘ҟͳΔɻ  εϚʔτϑΥϯҎ֎ͷσόΠεʹΞΫηεՄೳͳλονεΫϦʔϯΠϯλϑΣʔεΛ֦ு͢Δํ ๏ͷྫ͸͘͝Θ͔ͣͰ͋Δɻ  σβΠφʔ͸ɺδΣενϟʔ͕໡໨ͷϢʔβʔʹద͍ͯ͠Δ͔Ͳ͏͔Λݕ౼͢Δඞཁ͕͋Δɻࢹ֮ো֐ऀ͕λονε ΫϦʔϯͱͲͷΑ͏ʹର࿩͢Δ͔Λௐࠪ͢ΔͭͷϢʔβʔௐࠪΛ௨ͯ͡ɺ͜ΕΒͷ໰୊ղܾʹऔΓ૊Ήɻ ࢀՃऀͷ޷ΈͷδΣενϟϕʔεͷίϚϯυΛɺλϒϨοτ1$্Ͱ࡞੒͢ΔΑ͏ʹٻΊͨɻࢹ֮ো֐ऀ͸͸ɺࢹྗͷ͋Δਓͱ͸ҟͳΔδΣε νϟʔΛఏҊ͍ͯͨ͠ɻ໡ਓͱࢹྗͷ͋Δਓʑ͕ͲͷΑ͏ʹಉ͡δΣενϟʔΛ࣮ߦ͢Δ͔ͷҧ͍Λௐ΂ɺ໡ਓ͕࡞Γग़ͨ͠δΣενϟʔͱؑ ৆ਓ͕࡞Γग़ͨ͠δΣενϟʔ͕ͲͷΑ͏ʹҟͳΔ͔Λࣔ͢ࢦඪΛఏࣔͨ͠ɻࢹ֮ো֐ऀ͕λονεΫϦʔϯͱͷ΍ΓͱΓʹ͍ͭͯͲͷΑ͏ʹ ߟ͍͑ͯΔ͔ɺ·ͨɺࢹྗͷ͋Δਓʹൺ΂ͯλονεΫϦʔϯ্ͰδΣενϟʔΛͲͷΑ͏ʹ࣮ߦ͢Δ͔ʹ͍ͭͯͷ৽͍͠৘ใΛఏڙɻ යࢠҁՖ ਓؒίʔε    Shaun K. Kane, Jacob O. Wobbrock, Richard E. Ladner (The Information School, DUB Group University of Washington, Computer Science & Engineering, DUB Group University of Washington)
  34. Linespace: A Sensemaking Platform for the Blind. - CHI2016 "CTU

    *OUSPEVDUJPO $PODMVTJPO දࣔ಺༰Λ࣋ଓͤ͞Δ͜ͱ͸ɺࢹ֮ো֐ͷ͋ΔਓͷͨΊͷײܹ֮ࢗγεςϜΛઃܭ͢Δ্Ͱ࠷΋ॏཁͰ͋Δɻ͜ͷ໨ඪΛ೦಄ʹઃܭ͞Εͨ৮֮σΟεϓϨΠγες ϜΛఏҊ͢ΔɻຊγεςϜͷج൫͸ϑΟϥϝϯτͷ੝Γ্͕ͬͨઢΛҹ࡮͢ΔͨΊʹ%ϓϦϯλΛ࢖༻͢Δ͜ͱʹΑͬͯୡ੒͞ΕΔେ͖ͳ৮֮σΟεϓϨΠͰ͋ Δɻιϑτ΢ΣΞ͸ɺը໘ͷߋ৽Λ࠷খݶʹ཈͑ΔͨΊʹେ͖ͳεϖʔεΛ࢖༻͢Δɻਓͷࢹ֮ো֐ऀͰγεςϜΛධՁɻࢀՃऀ͸γεςϜʹ޷ҙతͰɺಉ࣌ʹ ෳ਺ͷϏϡʔΛ࣋ͭ͜ͱ͕༗༻ͩͱදݱͨ͠ɻΑΓ఻౷తͳυοτΑΓ΋ઢͷදݱྗ͕޲্͍ͯ͠Δ͜ͱΛɺ৘ใΛίʔυԽ͢Δͷʹ༗༻Ͱ͋Δͱ൑அͨ͠ɻ ۭؒϝϞϦΛߏங͢Δ͜ͱ͕ॏཁͳͷͰɺදࣔ͞Εͨ಺༰Λߋ৽͢ΔͱɺϢʔβͷۭؒϝϞϦ͕ෆਖ਼ʹͳΔՄೳੑ͕͋Γɺ࠷ѱͷ৔߹ɺσΟεϓϨ ΠશମΛखಈͰ࠶εΩϟϯ͢Δඞཁ͕͋Δɻදࣔ಺༰Λ࣋ଓͤ͞Δ͜ͱ͕࠷༏ઌࣄ߲Ͱ͋Δ͕ݱࡏͷγεςϜ͸ͦΕ͕ࠔ೉Ͱ͋Δɻͦ͜ͰɼϢʔβ ͷۭؒతͳهԱΛอ࣋͢ΔͨΊʹදࣔߋ৽Λ࠷খݶʹ͢ΔΑ͏ʹઃܭ͞Εͨ৮֮σΟεϓϨΠγεςϜΛఏҊ͢ΔɻσΟεϓϨΠΛඇৗʹେ͖͘࡞ ੒͠ɺදࣔ͞Εͨ಺༰Λอଘ͢ΔͨΊʹ͜ͷදࣔεϖʔεΛ׆༻͢ΔΑ͏ʹιϑτ΢ΣΞγεςϜΛઃܭ͢Δ͜ͱʹΑͬͯɺ͜ΕΛୡ੒͢Δɻ ࢹ֮ো֐ऀ͕ۭؒίϯςϯπͱର࿩Ͱ͖ΔΑ͏ʹ͢Δର࿩ܕγεςϜͷ-JOFTQBDFΛఏҊͨ͠ɻ%ϓϦϯλʹج͍ͮͯɺදࣔྖҬΛDNY DNʹ֦ு͢Δ͜ͱ͕Ͱ͖ͨɻΠϯλϥΫγϣϯۭؒͷ֦େʹΑΓɺύχϯά΍ζʔϜͳͲɺଟ͘ͷλΠϓͷσΟεϓϨΠߋ৽͕ෆཁʹͳ ΓɺϒϥΠϯυϢʔβ͸ৗʹۭؒࢀরܥ಺ʹͱͲ·Δ͜ͱ͕Ͱ͖ͨɻ-JOFTQBDFΛͲͷΑ͏ʹ֦ுͯ͠ɺࢹ֮ো֐ͷ͋ΔϢʔβʔ͕ΑΓෳࡶͳ ηϯε࡞੒λεΫΛࢧԉͰ͖ΔΑ͏ʹ͢Δ͔Λݕ౼ͱϞόΠϧ൛ͷ࡞੒Λ༧ఆɻ යࢠҁՖ ਓؒίʔε    Saiganesh Swaminathan, Thijs Roumen, Robert Kovacs, David Stangl, Stefanie Mueller, and Patrick Baudisch (Hasso Plattner Institute)
  35. The Use of Eye Movements in Human-Computer Interaction Techniques: What

    You Look At is What You Get - TOIS1991 "CTU *OUSPEVDUJPO $PODMVTJPO ߴ଎ͰศརͳิॿϢʔβؒ௨৴Ϟʔυͱͯ͠؟ͷಈ͖ͷ༗༻ੑΛௐ΂Δɻ͜ͷഔମΛར༻͢Δ্Ͱͷোน͸ɺࢹઢ௥੻ٕज़Ͱ͸ͳ͘ɺ໨ͷಈ͖ΛϢʔ βʔͱίϯϐϡʔλͷର࿩ʹࣗવͰअຐʹͳΒͳ͍Α͏ʹ૊ΈࠐΜͩ૬ޓ࡞༻ٕज़ͷݚڀͰ͋ΔɻຊߘͰ͸ɺਓؒͷཁҼ΍ٕज़తߟ࡯໨ͷಈ͖Λೖ ྗഔମͱͯ͠࢖༻͠Α͏ͱ͢ΔࡍʹɼߟҊ࣮͠૷ͨ͠࠷ॳͷ؟ٿӡಈʹجͮ͘ΠϯλϥΫγϣϯٕज़Λهड़͠ɺͦͷܦݧͱ؍࡯Λใࠂ͢Δɻ Ϣʔβίϯϐϡʔλର࿩͸ɺίϯϐϡʔλ͔ΒϢʔβ·ͰͷଳҬ෯͕Ϣʔβ͔Βίϯϐϡʔλ·ͰͷଳҬ෯ΑΓ΋͸Δ͔ʹେ͖͍ͱ͍͏܏޲͕͋ΔɻϢʔβʔ ͔Βίϯϐϡʔλ΁ͷਝ଎Ͱ؆୯ͳ௨৴Ϟʔυ͸ɺ͜ͷෆۉߧΛղফ͢Δͷʹ໾ཱͭɻ௥Ճͷೖྗഔମͱͯ͠Ϣʔβͷ໨ͷಈ͖Λಋೖ͢ΔՄೳੑʹ͍ͭͯݕ౼͢ Δɻ໨ͷಈ͖Λଌఆ͠ɺϦΞϧλΠϜͰͦΕΒΛใࠂ͢Δٕज़͸վળ͞Ε͍ͯΔ͕ɺϢʔβίϯϐϡʔλͷର࿩ʹ؟ͷಈ͖Λศར͔ͭࣗવͳํ๏Ͱ૊ΈࠐΉద ੾ͳର࿩ٕज़͕ඞཁͱ͞Ε͍ͯΔɻ͜ͷΑ͏ͳ૬ޓ࡞༻ٕज़ͱͯ͠ͷҼࢠ΍ൃୡʹؔ͢Δ/3-ͷݚڀʹ͍ͭͯड़΂ΔɻߟҊ࣮͠૷ͨ͠࠷ॳͷ؟ٿӡಈʹجͮ͘Π ϯλϥΫγϣϯٕज़ʹ͍ͭͯهड़͠ɺܦݧͱ؍࡯݁ՌΛใࠂ͢Δɻ ೖྗσόΠεͱͯ͠ͷΞΠτϥοΧʔ͸ɺϚ΢ε΍ΩʔϘʔυ͕͋Δͱ͍͏ҙຯͰ͸ʮ׬શʯͱ͸΄Ͳԕ͍ɻ͜Ε͸ɼػثͷݶքͱਓؒͷ໨ͷಈ͖ͷ྆ํʹΑͬͯҾ͖ى ͜͞ΕΔɻಘΒΕΔਫ਼౓͸ɺϚ΢εΑΓ΋ैདྷͷλονεΫϦʔϯʹࣅ͓ͯΓɺͦͷൣғ͸୯Ұͷ$35σΟεϓϨΠΛ΄ͱΜͲ෴͏͜ͱ͕Ͱ͖ͳ͍ɻ૷ஔ͸ɺඇ৵ೖੑ͔ ͭඇ઀৮ੑͰ͋Δ͕ɺແࢹ͢Δ͜ͱ͸ࠔ೉Ͱ͋ΔɻγεςϜ͕ਖ਼ৗʹಈ࡞͍ͯ͠Δ৔߹ɺೖྗ಺༰ΑΓΉ͠ΖϢʔβʔͷҙਤʹԠ౴͢Δڧྗͳҹ৅Λ༩͑Δ͜ͱ͕Ͱ͖Δɻ ͜ΕΛୡ੒͢ΔͨΊʹɼϢʔβʔʹಛผͳ໨ͷಈ͖Λͤ͞Δ͜ͱΛඞཁͱ͢ΔΑΓ΋ɼεΫϦʔϯΛݟ͍ͯΔͱ͖ͷϢʔβʔͷࣗવͳ໨ͷಈ͖͔Β৘ใΛಘΔɻ යࢠҁՖ ਓؒίʔε    ROBERT J. K. JACOB (Naval Research Laboratory)
  36. TOTAL CAPTURE: A 3D DEFORMATION MODEL FOR TRACKING FACES, HANDS,

    AND BODIES Hanbyul Joo, Tomas Simon, Yaser Sheikh どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモ どうやって有効だと検証した? 議論はある? 次に むべき論文は? 表情、体の動き、手のジェスチャーを含む人間の動きを マーカーなしでキャプチャーするための統一された変形 モデル 人間の (表情)、手の動き、体の動きを同時にマー カーなしでキャプチャできること 利用可能なパーツテンプレートモデル[33,13] を 一のスケルトン にシームレスに統合 初期化を70人の人物を使用して最 化し、 化された パラメータ化を使用 モデルを 動するために な3Dキーポイント検出のみ を使用しても、 力的で現実的な結果を示す。 T. Simon, H. Joo, I. Matthews, and Y. Sheikh. Hand keypoint detection in single images using multiview bootstrapping. In CVPR, 2017. 201511520 木 (人間コース) CVPR2018
  37. HAND KEYPOINT DETECTION IN SINGLE IMAGES USING MULTIVIEW BOOTSTRAPPING Tomas

    Simon, Hanbyul Joo, Iain Matthews, Yaser Sheikh どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモ どうやって有効だと検証した? 議論はある? 次に むべき論文は? マルチカメラシステムを使用して、手の関 のような、 しやすいキーポイントに対する かい検出器を するアプローチを提示 手の関 をRGB画 に( 度を必要とせずに)位置 づけることができる マルチビューブートストラップによって、 を体 化 小さな注 付きデータセットで された い検出器を使用し て、キーポイントのサブセットを 切なビューにローカライズ し、 な3D三 量を使用して不正な検出を 外 より少ないカメラおよび少ない環境(例えば、 数の 電話)で動作するように方法を 強にすること M. Andriluka, L. Pishchulin, P. Gehler, and B. Schiele. 2D human pose estimation: New benchmark and state of the art analysis. In CVPR, June 2014. 6 201511520 木 (人間コース) CVPR2017
  38. CAPTURING HANDS IN ACTION USING DISCRIMINATIVE SALIENT POINTS AND PHYSICS

    SIMULATION Dimitrios Tzionas, Luca Ballan, Abhilash Srikantha, Pablo Aponte1, Marc Pollefeys, Juergen Gall どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモ どうやって有効だと検証した? 議論はある? 次に むべき論文は? 数の同期RGBカメラ(Ballan et al。2012)と RGB-Dカメ ラ(Tzionas et al。2014)の 勢 定を統一 手のポーズの現実感と物理的な 当性を高める ほぼすべてのコンポーネントが 一の目的関数 で統一されているため、 準化された最 化手 法で最 化 29個のシーケンスに対する 々のアプローチを定性的お よび定量的に 価 および物理学の用語は 勢 定をわずかにしか減少 させないが、特にオクルージョンおよび視 データの の下で、 された動きのリアリズムを高める Baran, I., & Popovi´c, J. (2007). Automatic rigging and animation of 3d characters. TOG, 26(3). 201511520 木 (人間コース) CVPR2016
  39. CONVOLUTIONAL POSE MACHINES Shih-En Wei, Varun Ramakrishna, Takeo Kanade, Yaser

    Sheikh どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモ どうやって有効だと検証した? 議論はある? 次に むべき論文は? 勢 定タスクのために画 特 および画 空間モデルを 学 するために、 み込みネットワークをポーズマシンフレー ムワークにどのように組み込むことができるかに関する体 的 な設計 連 ポーズ 定のような構造化予 タスクにおいて、 変数間の長 性を 的にモデル化すること 多関 ポーズ 定のための み込みポーズマシ ン(CPM) MPII、LSP、およびFLICのデータセットを含む 準的なベンチ マークに関する最先 の結果を達成し、中間 の監視を り 返しながら多 アーキテクチャを共同でトレーニングする効 果を分 一のエンドツーエンドアーキテクチャで 数の人を処 理することは、 難な問題 M. Andriluka, L. Pishchulin, P. Gehler, and B. Schiele. 2D human pose estimation: New benchmark and state of the art analysis. In CVPR, 2014. 201511520 木 (人間コース) CVPR2016
  40. FACE2FACE: REAL-TIME FACE CAPTURE AND REENACTMENT OF RGB VIDEOS Justus

    Thies, Michael Zollh¨ofer, Marc Stamminger, Christian Theobalt, Matthias Nießner どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモ どうやって有効だと検証した? 議論はある? 次に むべき論文は? ターゲットビデオシーケンス(例えば、Youtubeビデオ) のリアルタイムの 面再現のための新規なアプローチを提示 ソースシーケンスは ビデオストリームであり、 商品ウェブカメラでライブキャプチャされる 事前に記録されたトレーニングシーケンスに基 づく新しいグローバル 体モデルベースバン ドリング手法を使用 ウェブカメラでキャプチャされたソースビデオストリー ムを使用してターゲットのYoutubeビデオを 作するラ イブセットアップで結果を表示 VR / AR、電話会議、 されたオーディオによるビデオのオン ザフライダビングの分野で、多くの新しくてエキサイティング なアプリケーションのためのシステムが構 される O. Alexander, M. Rogers, W. Lambeth, M. Chiang, and P. Debevec. The Digital Emily Project: photoreal facial modeling and animation. In ACM SIGGRAPH Courses, pages 12:1–12:15. ACM, 2009. 201511520 木 (人間コース) CVPR2016
  41. LIFTING FROM THE DEEP: CONVOLUTIONAL 3D POSE ESTIMATION FROM A

    SINGLE IMAGE Denis Tome, Chris Russell, Lourdes Agapito どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモ どうやって有効だと検証した? 議論はある? 次に むべき論文は? 2Dジョイント 定と3Dポーズ再構成について共同して考える 一の生のRGB画 からの3D人体 勢 定の問題に対する統一さ れた定式化を提案 2Dおよび3Dエラーの点でHuman3.6Mデータセット の最先 の結果を達成 2次元ランドマーク位置と3次元ランドマーク 位置の 定について共同して 論を利用する み込みポーズマシンスタイルの2Dランドマーク検出器によっ て提供される画 の外 ベースの予 [44]と、3D人間のポーズ の新規な事前トレインモデルに 化された 何学的3D 格情 報とを組み合わせる これらのシステムを統合して信 性の高いリアルタイム 3Dポーズ 定量を提供することは 来の方向性 A. Agarwal and B. Triggs. Recovering 3d human pose from monocular images. IEEE transactions on pattern analysis and machine intelligence, 28(1):44– 58, 2006. 2 201511520 木 (人間コース) CVPR2017
  42. 2 PRINTED PERFORATED LAMPSHADES FOR CONTINUOUS PROJECTIVE IMAGES ¬TRANSACTIONS ON

    GRAPHICS 2016­ ~› ^` &dj®¤“/JL 50LI‰S(uo&GKB3,L <–&3DBHK;‡ ž t‚ v|¯ t‚  -A4,.;M Ž(W{n 8FLAE:I[®\p®i m®](?GDL6®'(‹ Š‰Sqg&(• &¯ VZ±‹Š‰S®GKB 2L@,L 5®uo¨®U… XZ±8FLA \p®P”®] }Ÿ T˜ €¢ >L@;LK!O"#%'®  BHK;™¨(£¥&U$ &>L@;LK(ˆs&_ª —Qx¯ Œp ®U…\p ®uo‰S   h‡(‘z†’a  BH K6hš¯ N§1L5  rcD:*)Ysf«°l ¦yRe  Haisen Zhao, Lin Lu, Yuan Wei, Dani Lischinski, Andrei Sharf, Daniel Cohen-Or, and Baoquan Chen ¡ œSm7+=C9.JK4; JL<-@&¯ &^ƒ w©b!®1K;G5;q„ k&¯
  43. 3 5X4!  HA0'=IDZ]F WM9C  .2$.&12-13(:+*4 @ U O7

    [#1%), ( ;V:6K<G 21"/JN\ RXQB> ?EPL SY8T  !&/JN\
  44. 4 .X,  >7&4?:Y[< WG/8  1LTPH+" $(',%J?  #)-SO

    N06? D; C=ARBIZ E9MQ$*!23V  FU5 @KBIZ
  45. CJP4ZOD8FBSBCMF)BQUJD*0%FWJDFGPS4ZODISPOPVT,JOFTUIFUJD*OUFSBDUJPO     ¦‹„|?C¾q ŒG>D'ž?]_SY) u>C~s¶JM–MP' ”u>Á¡žCu>¥£9N6?3>4N( ‘B¸HF4IC

     ####  $!%# " $" %#%# $"%###$% `d`d,žuW+Y- zšJ—ÃCVcD* ·i~B15N  ‚«? P·iµ}BKM”‡9N y‰( @QAIC* ª±]_SYPÇ0=¬•?~s¶P·²>4Nª°( {Î h~˜™ÈPŠÉ8;[a^TURBKN¤3/ N?A1Ê0(G;'Äh“BÀ…•C~¼xËP† ›7:=0Nn»¢3/N( ƈ¢CœÅ ­3·²8;uPÀ…•­t?‚«¯>¾q8; ƒo'&D#'§=CÀ…•B10=­t3‚ «¯KM®42<;(  
  46. 1PTTFTTFE)BOE")BOE(FTUVSF.BOJQVMBUJPO4ZTUFNVTJOH&MFDUSJDBM4UJNVMJ         

      `d`d,žuW+Y- zšJ—ÃCVcD* C Cg°?—C¶Žv€P”…´Bpº9N6?3 >4;( @QAIC* ¦P >Wf^e+d9N(rwj¨PRXY^9N' m©´AICP³H6?3>4N {Î ½kÈ'¤p¢J~¹¿ÍPŠÉ9N6??'Z\^ R\bC’¶lPŸLA5OEALA0( .CvÌ
  47. Investigating Tilt-based Gesture Keyboard Entry for Single-Handed Text Entry on

    Large Devices CHI ‘17 Hui-Shyong Yeo, Xiao-Shen Phang, Steven J. Castellucci, Per Ola Kristensson and Aaron Quigley どんなもの? と べてどこがすごい? 技 や のキモはどこ? どうやって だと した? はある? に むべき は? グリップを変える必要がないため、 末をしっかり保持 できる。 shorthand writing on Stylus Keyboard 201713110 藤 #3 (人間コース) きを いた 。ShapeWritingを きを って う。 でもすぐ える。既 の きベースの に べ が い きを いてShapeWritingを うこと。 既 の と 、その の などを 較した。
  48. WatchWriter: Tap and Gesture Typing on a Smartwatch Miniature Keyboard

    with Statistical Decoding CHI ‘16 Mitchell Gordon, Tom Ouyang, and Shumin Zhai 201713110 藤 #3 (人間コース) スマートウォッチ で のタイピングとジェスチャによるタイピングの を えるキーボード。 スマートフォン けの 間の ミスを解 する技 を し、 さな画 にでも なタイピ ングを える。
  49. Vulture: A Mid-air Word-gesture Keyboard CHI ‘14 Anders Markussen, Mikkel

    Rønne Jakobsen, and Kasper Hornbæk 201713110 藤 #3 (人間コース) のためのWord-gestureキーボード。タッチ のWord-gestureキーボードのアルゴリズムを でも できるようにした。ワードの りにはピンチを した。 データに基づいて、 でのテキスト を させる を した。
  50. Personal Space: User Defined Gesture Space for GUI Interaction CHI

    ‘14 Youli Chang, Sehi L'Yi, Kyle Koh, and Jinwook Seo 201713110 藤 #3 (人間コース) で かないターゲットにTiltSlide, TiltReduction, TiltCursorを いて を かせる。この を 既 と 較し、 を した。
  51. Investigating the Effects of Encumbrance on One- and Two- Handed

    Interactions with Mobile Devices CHI ‘14 Alexander Ng, Stephen Brewster and John Williamson 201713110 藤 #3 (人間コース) 何かを運んでいるときや いているとき のスマートフォン のターゲット の 果を べる。 の3 について 価した。
  52. 1e Filter: A Simple Speed-based Low-pass Filter for Noisy Input

    in Interactive Systems CHI ‘12 Géry Casiez Nicolas Roussel & Daniel Vogel 201713110 藤 #3 (人間コース) 1ユーロフィルタは でこう応 のノイズを り くシンプルなアルゴリズムである。 このアルゴリズムは簡 に でき、ほとんどリソースを としない。 かりやすい つのパラ メータによって、簡 に できる。
  53. Reflections on the “gesture-first” hypothesis of language origins "EBN,FOEPO ͲΜͳ΋ͷʁ

    Ͳ͏΍ͬͯ༗ޮͩͱ൑அ͔ͨ͠ ൃ࿩ͱ਎ৼΓૉͿΓͷؔ࿈ੑʹؔͯ͜͠Ε·Ͱͷ ݟղ΁ͷධՁͱɺݴޠͷىݯʹ͓͚ΔδΣενϟʔ ىݯઆʹରͯ͠ҟٞΛএ͑Δ΋ͷɻ ઌߦݚڀͱͷൺֱ ͜Ε·Ͱͷݚڀ੒ՌʹΑͬͯɺԐਓྨͷίϛϡχ έʔγϣϯख๏ͱͯ͠δΣενϟʔ͕ىݯͰ͋Δ ͱ͞Ε͖͕ͯͨɺͦΕΛ΋͏Ұ౓ߟ͑௚͍ͯ͠Δɻ ٕज़΍ख๏ͷΩϞ Ԑਓྨͷ؍࡯ͱਓؒͷίϛϡχέʔγϣϯख๏͔ ΒɺδΣενϟʔ͕ίϛϡχέʔγϣϯʹ͓͍ͯ Ͳ͏໾ׂΛՌ͍ͨͯ͠Δͷ͔Λ࠶֬ೝ͠ɺ͜Ε· ͰͷݚڀͰఏࣔ͞Ε͖ͯͨઆΛҰͭҰͭݕূɻ ࠷ऴతʹޱߢݴޠͱδΣενϟʔݴޠͷൃੜ͸ີ ઀ʹؔΘ͍ͬͯΔ͜ͱΛ࿦͍ͯ͡Δ఺ɻ ͜Ε·Ͱʹఏࣔ͞Ε͖ͯͨͭͷઆΛͦΕͧΕݕ ূ͠ɺ֤આʹ࿦ཧతͳղΛग़͢͜ͱ͕೉͍͜͠ͱ Λ೺Ѳ͢Δɻͦͷޙɺ֤આʹ͓͍ͯಘΒΕͨ஌ࣝ Λ΋ͱʹݴޠىݯʹؔͯ͠ޱߢݴޠͱδΣενϟʔ ݴޠ͕ͱ΋ʹߏங͞Ε͖ͯͨ͜ͱ͕Θ͔ͬͨɻ ٞ࿦͸͋Δ͔ ޱߢݴޠͱδϟενϟʔݴޠɺ૒ํͱ΋ίϯςΩ ετʹΑΓҙຯ߹͍͕มΘͬͯ͘Δ͕ɺͦͷ෦෼ ʹରͯ͠࿦͡Δඞཁ͕͋Δͱߟ͑ΒΕΔɻ ࣍ʹಡΉ΂͖࿦จ ݴޠͷίϯςΩετʹ͓͚ΔมԽʹ͍ͭͯ ٞ࿦͞Ε͍ͯΔ࿦จɻ ߴ૔ྱ ਓؒίʔε 4QSJOHFS
  54. $&UHDWLYH&RPSXWLQJ%DVHG,QVSLUDWLRQ$VVLVWDQWWR3RHP*HQHUDWLRQ 4LQ\XQ/LX/LQ=RX+RQJPLQJ&KH+DL\XQ:DQJ<XQ]KL-LQ+RQJML<DQJ 䝴䞊䝄䛾ዲ䜏ഴྥ䛛䜙㑅ᢥ䛥䜜䛯᪤Ꮡ䛾リ䜢ᵓ㐀໬䛧䚸㡩䛺䛹 䛾᝟ሗ䛛䜙䜢༢ㄒ䜢ᙜ䛶䛿䜑䜛䛣䛸䛷᪂䛯䛺リ䜢⏕ᡂ䛩䜛䝅䝇 䝔䝮䚹 䛹䜣䛺䜒䛾" ඛ⾜◊✲䛸ẚ䜉䛶䛹䛣䛜䛩䛤䛔 " ᢏ⾡䜔ᡭἲ䛾䜻䝰䛿䛹䛣 "

    䛹䛖䜔䛳䛶᭷ຠ䛰䛸᳨ド䛧䛯 " ㆟ㄽ䛿䛒䜛" ḟ䛻ㄞ䜐䜉䛝ㄽᩥ䛿 " ௰ᮧຬ㤿 ௖䝁䞊䝇 $QROGVLOHQWSRQG« $IURJMXPSVLQWRWKHSRQG VSODVK6LOHQFHDJDLQ BBBDGMBBDGMBBQB« BBBQBBYBLQWRWKHBQB BYBBDGMBDJDLQ SLHFHIXO BBSLHFHIXOBDGMBBQB« BBBQBBYBLQWRWKHBQB BYBBDGMBDJDLQ ,63$1)&67,6&& ༢ㄒ䛾㑅ᢥ䛻䝉䝬䞁䝔䜱䝑䜽䜴䜵䝤୪䜃䛻⢭⚄ศᯒ䚸ㄆ▱ᚰ⌮Ꮫ 䛚䜘䜃♫఍ᚰ⌮Ꮫ䛛䜙ᢳฟ䛥䜜䛯ᚰ⌮Ꮫ⌮ㄽ䜢฼⏝䛧䛶䛔䜛䚹 +DLNX*HQHUDWLRQ8VLQJ'HHS1HXUDO1HWZRUNV 1/3
  55. Exploring Multimodal Watch-back Tactile Display using Wind and Vibration ͲΜͳ΋ͷʁ

    ৼಈͱ෩Λ૊Έ߹ΘͤΔ͜ͱʹΑΔ΢ΥονόοΫ σΟεϓϨΠ৘ใ఻ୡೳྗͷ֦ு  ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ܹࢗͷಛੑΛมԽͤ͞ΔͷͰ͸͘ ҟͳΔܹࢗͷ૊Έ ߹ΘͤʹΑΓ৘ใྔΛ૿΍ͨ͠  ٕज़΍ख๏ͷΩϞ͸Ͳ͜ʁ ൽෘͷ௧֮Λ௚઀ܹࢗ͢Δৼಈͱ૊Έ߹ΘͤΔܹࢗ ͱͯ͠ ิ׬͢ΔΑ͏ʹ௧֮΁ͷܹ͕ࢗऑ͘Թ֮΍ ྫྷ֮Λܹࢗ͢Δ෩ΛબΜͩ͜ͱ  Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ݸผ࢖༻ ಉ࣌࢖༻ ஞ࣍࢖༻ͷ̏ύλʔϯͷ࢖༻ํ ๏ʹ͍ͭͯ ඃݧऀΛ༻͍֤ͯύλʔϯͷܹ͕ࢗ۠ผ Ͱ͖Δ͔Λ࣮ݧ͠ ஞ࣍࢖༻ʹؔͯ͠͸ߴ͍είΞ ˋ Λه࿥  ٞ࿦͸͋Δ͔ʁ ਪ঑͞Ε͍ͯΔαΠζΑΓσΟεϓϨΠαΠζ͕খ ͔ͬͨ͞ͷͰ ΑΓେ͖ͳσΟεϓϨΠͰ࣮ݧͨ͠ ΒΑΓྑ͍݁Ռ͕ग़ΔՄೳੑ͋Γ  ࣮ݧ͸ശͷதʹखΛೖΕͯߦΘΕ͓ͯΓ ۭؾͷྲྀΕ ͕ଘࡏ͢Δݱ࣮ۭؒͰ࢖༻ʹ଱͑͏Δ͔͸ෆ໌  ࣍ʹಡΉ΂͖࿦จ͸ʁ DPNCJOBUJPOPGFMFDUSJDBMBOENFDIBOJDBMTUJNVMBUJPO GPSIJHIpEFMJUZUBDUJMFQSFTFOUBUJPO CHI 2018 Youngbo Aram Shim, Jaeyeon Lee, Geehyuk Lee ෹ίʔε  খྛܚେ
  56. Deep Video Portraits HYEONGWOO KIM,PABLO GARRIDO,AYUSH TEWARI and WEIPENG XU,JUSTUS

    THIES and MATTHIAS NIESSNER,PATRICK PÉREZ,CHRISTIAN RICHARDT,MICHAEL ZOLLHÖFER,CHRISTIAN THEOBALT SIGGRAPH 2018 どんなもの? 人間の表情を別人の顔で再現する 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? 201813560 左方智樹 (仏コース) 表情だけでなく、3次元での頭の位置、 回転、視線、瞬きもできるようになった 生成系ニューラルネットワーク 動画の2/3で訓練して残りでテストし、誤 差を数値評価。結果が現実的かどうか ユーザースタディ 大きな表情の変化、頭の回転、髪の毛、 体の動きで映像にムラがでる。 解像度がそこまで高くない Karras et al. 2018
  57. ClothCap: Seamless 4D Clothing Capture and Retargeting GERARD PONS-MOLL SERGI

    PUJADES SONNY HU MICHAEL J. BLACK どんなもの? 201611456 林 直輝 #3 (仏コース) 4Dスキャンから衣服とその動きをキャプチャする。 先行研究と比べてどこがすごい? 3Dスキャンからの衣服の取り込みに対処するこれまでの方法は、単一の衣 および単純な動きに限定されていて、細部が欠如していたり特殊なテクス チャパターンを必要としていたりした。 技術や手法のキモはどこ? SIGGRAPH 2017 マルチパート3Dモデルを使用して時間の経過とと もに衣服の3D変形を追跡する手法 どうやって有効だと検証した? さまざまな衣服を使用してさまざまな動的な動作を 行うさまざまな被写体を撮影した。 体型の異なるモデルも使用した。 議 はある? 袖口やボタン、ネクタイなどの衣 に対応できると うに改良する必要がある。 次に読むべき 文は?
  58. Deep Video Portraits HYEONGWOO KIM,PABLO GARRIDO,AYUSH TEWARI and WEIPENG XU,JUSTUS

    THIES and MATTHIAS NIESSNER,PATRICK PÉREZ,CHRISTIAN RICHARDT,MICHAEL ZOLLHÖFER,CHRISTIAN THEOBALT SIGGRAPH 2018 どんなもの? 人間の表情を別人の顔で再現する 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? 201813560 左方智樹 (仏コース) 表情だけでなく、3次元での頭の位置、 回転、視線、瞬きもできるようになった 生成系ニューラルネットワーク 動画の2/3で訓練して残りでテストし、誤 差を数値評価。結果が現実的かどうか ユーザースタディ 大きな表情の変化、頭の回転、髪の毛、 体の動きで映像にムラがでる。 解像度がそこまで高くない Karras et al. 2018
  59. $&UHDWLYH&RPSXWLQJ%DVHG,QVSLUDWLRQ$VVLVWDQWWR3RHP*HQHUDWLRQ 4LQ\XQ/LX/LQ=RX+RQJPLQJ&KH+DL\XQ:DQJ<XQ]KL-LQ+RQJML<DQJ 䝴䞊䝄䛾ዲ䜏ഴྥ䛛䜙㑅ᢥ䛥䜜䛯᪤Ꮡ䛾リ䜢ᵓ㐀໬䛧䚸㡩䛺䛹 䛾᝟ሗ䛛䜙䜢༢ㄒ䜢ᙜ䛶䛿䜑䜛䛣䛸䛷᪂䛯䛺リ䜢⏕ᡂ䛩䜛䝅䝇 䝔䝮䚹 䛹䜣䛺䜒䛾" ඛ⾜◊✲䛸ẚ䜉䛶䛹䛣䛜䛩䛤䛔 " ᢏ⾡䜔ᡭἲ䛾䜻䝰䛿䛹䛣 "

    䛹䛖䜔䛳䛶᭷ຠ䛰䛸᳨ド䛧䛯 " ㆟ㄽ䛿䛒䜛" ḟ䛻ㄞ䜐䜉䛝ㄽᩥ䛿 " ௰ᮧຬ㤿 ௖䝁䞊䝇 $QROGVLOHQWSRQG« $IURJMXPSVLQWRWKHSRQG VSODVK6LOHQFHDJDLQ BBBDGMBBDGMBBQB« BBBQBBYBLQWRWKHBQB BYBBDGMBDJDLQ SLHFHIXO BBSLHFHIXOBDGMBBQB« BBBQBBYBLQWRWKHBQB BYBBDGMBDJDLQ ,63$1)&67,6&& ༢ㄒ䛾㑅ᢥ䛻䝉䝬䞁䝔䜱䝑䜽䜴䜵䝤୪䜃䛻⢭⚄ศᯒ䚸ㄆ▱ᚰ⌮Ꮫ 䛚䜘䜃♫఍ᚰ⌮Ꮫ䛛䜙ᢳฟ䛥䜜䛯ᚰ⌮Ꮫ⌮ㄽ䜢฼⏝䛧䛶䛔䜛䚹 +DLNX*HQHUDWLRQ8VLQJ'HHS1HXUDO1HWZRUNV 1/3
  60. ACM Transactions on Graphics (TOG) Volume 34-6, November 2015, Article

    No. 199/SIGGRAPH Asia 2015/SIGGRAPH 2017 Real-Time Live! Data-driven Fluid Simulations using Regression Forests どんなもの? L bor Ladický Sohyeon Jeong Barbara Solenthaler Marc Pollefeys Markus Gross 先行研究と比べてどこがすごい? 技術と手法のキモはどこ? どうやって有効だと検証した? 議 はある? 次に読むべき 文は? リアルタイムでの 子法 体シミュレーションを、機 械学習を用いて高速化する 計算 の大幅な軽減 予想外な挙動を起こしにくい 様々な属性の 体に対応 子の挙動を機械学習モデル(regression forest)に計 算させ学習させることでシミュレーションを近似的に 行う 実際に様々な 体及び剛体と、それらの相互作用をシ ミュレートした 物 シミュレーションそのものより精度に る 学習データそのものにメモリのリソースを割く必要 がある 精度とデータ の兼ね合い MACKLIN, M., AND MUELLER, M. 2013. Position based fluids. ACM Transactions on Graphics (Proceedings SIGGRAPH) 32, 1 5. 201510013 稲葉優樹 (仏コース)
  61. 1MBZGVM1BMFUUF"O*OUFSBDUJWF1BSBNFUSJD$PMPS.JYFSGPS"SUJTUT        EUFMH, ”ƒ€zDŸJBE75<81,

    wN‹¦HZfIE7, E2NAB¨@DŽ:?, x¬I0Q, ‰GLJ6¬£I, 4h-ci`bT‡’<Q+tH|T …>QO2GYh-T‡’C6Q+ ˆ©:?v§‘T¤H‘G–6u3Q 7D5qž+…>„S=?‘GMm{ :BŠœ™G¥o+ ¡1B1QtH‘˜Gn;BWk_h [aVeGˆ1N<1Yh-ci`b 5“’9RQw+ cWj`bg-]˜†TƒFA?+tr— GYh-Tˆ2D6*Wk_-dX-^ª ~HŒª9T p<QO2Gl«:?+ ci`bYh-H¥‚5r•GEHO 2Fm{TyK<4GIA6P:F1     ›š}s .¢\-^/ $#'(&!# " (( % )%"$&(!$#
  62.          $

    ###"  !"  {y( %   ,0! 53 !# ""A<,= °Z)^   r® ¸»ˆ $" u¯IQX_[o)?6=BTUQnipAw€O ~E7TUQngobRBºvO§¡6&9NKO ^WqSq`)hUS^B|¥/K•ƒ‹B:GB VSenSqO¢7M:GAœ£š·?cfS ^š·A.3MŸ¹x©’BºvO±½6:' .+)(2  ¬¤“@•ƒC&TUQnip0Œ´A @M'TUQnipB•ƒA‡HJ2Š ¹5NMTUQngobRhPX`O„ ¦6™Ÿ’OC;1L?»z7M4?>& œ?”6:cfS^?B˜…‰¹O —}58M4?0>1M' '-%& §lSXAµG†FN:o]a e@j)e?&cfS^A”›5 N:^WqkTqd5N:ŽK/ ,kboQp?,-<Bt@M^ WqSq`)hUS^B¾>–¶ #4*1/ ª­Sq`hU)^BTUQngobR‚‘Oœ£ š·*œBsž&œB¼{.JDœB§ +? ™žBš·*™Ÿ²³&œ&¨&QX_\go bR&Sq`nX\mq&«{&cfS^YQ.JD ”›+A±½'
  63.    " $ #   ! 

    %  $     !#!!    ’†ÌNÉN\qbht:d:Y¼¶DW''0'36/1,2 }ªMÉN\qbhN}ÃY¸ÌDW`bfo É>U\qbhN®Á·LÍ©Y‹HAW`bfo   • —¼¶O8œÎNÇÈY;w¢R¢~W8Ê ;NÅÒjk]:nv bY”CE • \qbht:d:•ÆNœÎŠ…JO8 ¤N\qbht:d:C>•ÆC I=L>GE?8Ɋ…JO ¤ÅNg:dcehYÌxCE • \qbh•ÆJO^relZ:h?T@Ì=UXI=W?8ÉN\qb hOµ§·L|¯J<W   • ¤„N“» >Um:aY›QI8 ¤NZ:f[bh>UN m:a >ULW£C=\qbhg:dcehY¥C8\qbht:d:Y¼¶ DWiehu:^Y²CE • ‰¡CEpgs9-'7'3!//)''3 • }ªN¼´ÑŸÏ˜È98 8  œÎÇÈK¿CI¦ºÐY¬GE ¥CE—•‚Jˆ{?˚FGE//)''3Y‘ÌCI8}Ã?¸ÌB XI=W>½¶CE ®Á\vbdvbN±?­>GEm:ažMPIÅÒ  • ŽŒN‡JO8\qbht:d:Y«SCIg:dcehY€³DW • }øÌN–K®Á·L\vbdvbN¨°YÂzDWEQMO8TVËX EÂzƒ?ÀÍ     "*#3#,'2#1+2//,-+,'#1+2  #1-/'12%*#41#$*+.)*$*+.#5403#/2'(+5+%#.&-'7'+(1/2   ¾¹™yÓ Ä_:b
  64. Deep Video Portraits ͲΜͳ΋ͷʁ ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝ʁ Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ιʔεΞΫλͷϏσΦͷΈΛೖྗͱͯ͠λʔήο

    τΞΫλʔͷϙʔτϨʔτͷΞχϝʔγϣϯΛ߹ ੒͠ϨϯμϦϯά͢Δ ιʔεϏσΦ͔Β࠶ߏ੒͞ΕͨϔουΞχϝʔγϣ ϯͷύϥϝʔλͰૈ͍߹੒ΞχϝʔγϣϯΛϨϯ μϦϯάɺ܇࿅͞ΕͨωοτϫʔΫʹૹΔ͜ͱͰ ࣌ؒతʹҰ؏ੑͷ͋Δ࣮ࣸతͳϏσΦʹม׵ إ໘ͷද৘ͷૢ࡞ͷΈʹݶఆ͞Εͣɺ̏%ͷ಄෦ ͷҐஔ΍಄ͷճసɺ໨ͷڼࢹɺॠ͖Λλʔήοτ ΞΫλͷϙʔτϨʔτϏσΦʹసૹͰ͖Δ 4UBUFPGUIFBSUͷࢹઢղੳͷख๏΍Ի੠͔Βͷ ߹੒ख๏ͱൺֱ̑ඵؒͷΫϦοϓΛݟͤͯݱ࣮ ͷө૾ͩͱࢥ͏͔ϢʔβʔελσΟ τϨʔχϯάίʔύεͷൣғ಺ͰͳΒ͏·͘ಈ࡞ ͢Δ͕ۃ୺ͳಈ͖͞ΕΔͱਫ਼౓ʹӨڹύϥϝτ ϦοΫϕʔεͷΈͷͨΊഎܠͷ੍ޚ͸ແཧ State of the Art on Monocular 3D Face Reconstruction, Tracking, and Applications Siggraph’18 'UNB େ৿ɹޭଠ࿠
  65. DenseReg: Fully Convolutional Dense Shape Regression In-the-Wild ͲΜͳ΋ͷʁ ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝ʁ

    Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ৞ΈࠐΈճؼωοτϫʔΫΛ༻͍ͯࡾ࣍ݩΦϒδΣ ΫτϞσϧͱ̎%ը૾ͱͷରԠϑΟʔϧυΛཱ֬ ͢Δʢ೥൛ʣ ηϚϯςΟοΫιϑτηάϝϯςʔγϣϯͱճؼ ωοτϫʔΫͷ૊Έ߹Θͤ3(#ೖྗʹ׬શʹґ ଘϑΟʔυϑΥϫʔυͷ$// 3(#Πϯϓοτʹ׬શʹґଘ͓ͯ͠Γωοτ্ ʹస͕͍ͬͯΔը૾ʹରͯ͠ద༻͢Δ͜ͱ͕Մೳ ͦΕͧΕͷಈ࡞ʹ͍ͭͯݕূ͠ɺಛʹը૾ηάϝ ϯτͱϥϯυϚʔΫ༧ଌʹؔͯ͠͸ઌߦݚڀͱൺ ֱ ख࡞ۀͰߦ͏ςοηϨʔγϣϯͷཻ౓Λେ͖͘͢ Ε͹͢Δ΄Ͳϥϕϧ͕ෳࡶԽ͠ɺτϨʔχϯάʹ ࢖༻Ͱ͖Δσʔλ͕ݮগͯ͠ύϑΥʔϚϯε͕௿ Լ͢Δ 'UNB େ৿ɹޭଠ࿠ Rıza Alp Gu ̈ler, Yuxiang Zhou, George Trigeorgis, Epameinondas Antonakos, Patrick Snape, Stefanos Zafeiriou, Iasonas Kokkinos