先端技術とメディア表現(FTMA2020) 第1回全レポート

先端技術とメディア表現(FTMA2020) 第1回全レポート

6d667e747a4a1cda7d201c3358424257?s=128

Digital Nature Group

July 29, 2020
Tweet

Transcript

  1. Demonstrating David Meets Goliath: Combining Smartwatches with a Large Vertical

    Display for Visual Data Exploration(2018) どんなもの? スマートウォッチと⼤型ディスプレイの両⽅の ⻑所を兼ね備えたシステムの開発。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? 実際にシステムを使ってもらい、ユーザから評 価をもらい、集計した。 スマートウォッチとディスプレイ間を相互に作 ⽤させられる仕組みの実装。 “BodyLenses”(2015) No.1 タブレット型端末の場合と異なり、スマート ウォッチを使う場合、ユーザは端末を⾒ず、 ディスプレイに集中していた。 ・そもそもディスプレイとスマートウォッチ、 それぞれの研究は盛んに⾏われているが統合し たシステムがあまり研究されていない。
  2. BodyLenses: Embodied Magic Lenses and Personal Territories for Wall Displays(2015)

    どんなもの? ・マジックレンズをマウスとキーボードの代わ りに⾝体を使って制御する。 ・レンズによって個⼈の作業領域をつくる。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? システムの実装 ⾝体の動き、画⾯との距離によって、レンズ (ウィンドウ)を変化させる。 “Body-centric Interaction”(2010) No.2 状況に適したレンズの形がまだわかっていな い。混雑した状況でのユーザ特定が正確に⾏ えない。 ⾝体による⼊⼒の研究、デバイスと⼈の距離の 研究、マジックレンズの研究を組み合わせた。
  3. SpiderEyes: designing attention- and proximity-aware collaborative interfaces for wall-sized displays(2014)

    どんなもの? 壁サイズのディスプレイで近接(Proximity) を扱う。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? 被験者8⼈で実験 ⽬を検出するアルゴリズムと深度センサを使っ てユーザを追跡する。 “Proxemic Interaction”(2010) No.3 通⾏⼈と画⾯を⾒る⼈を分けるだけでなく、 画⾯を操作する⼈とそうでない⼈をうまく分 ける⽅法が必要。 ・壁サイズのディスプレイで近接性を扱う研究 がまだされていなかった。 ・共同で近接性を扱うシステムを使うことがで きる(ここでは最⼤四⼈)。
  4. Interactive public ambient displays: transitioning from implicit to explicit, public

    to personal, interaction with multiple users(2004) どんなもの? インタラクティブなパブリックアンビエント ディスプレイ。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? 実験を⾏い、実際に操作させた。 画⾯に近づくにつれ、公共的なものから個⼈的 なものになり、暗黙的な操作から明⽰的な操作 になる。 “Hello.wall”(2003) No.4 明⽰的な操作を⾏わずにパブリックからパー ソナルに切り替える⽅法が必要。 ・パブリックな情報とパーソナルな情報、両⽅ にアクセスできる。 ・暗黙的な操作と明⽰的な操作を組み合わせて いる。
  5. Shadow reaching: a new perspective on interaction for large displays(2007)

    どんなもの? 影を使うことで遠距離での操作を容易にする。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? 三つの異なるアプリケーションを開発した。 実際の光源もしくは仮想的な光源によって影を つくり、カーソル⼊⼒の代わりにそれを使って ⼊⼒を⾏う。 “VIDEOPLACE”(1985) No.5 影によって物理的な⾝体性を維持し、遠近法 によって遠距離での⼊⼒を可能にすることか ら、⼤型ディスプレイの⼆つの重要な問題を 同時に解決している。 ・影を遠近法ベースに変換して使う。 ・影によって個⼈を特定できる。
  6. Hello.Wall -- Beyond Ambient Displays(2003) どんなもの? 壁を個⼈的な空間にした。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい?

    技術や⼿法のキモはどこ? 次に読むべき論⽂は? LEDを使って光のパターンをつくり、それに よってインタラクションを⾏う、装置をつくっ た。 個⼈的な空間と公共的な空間を定め、それに よって作⽤を変化させる。 “Ambient Displays”(1998) No.6 公共のモノで個⼈的な通信を⾏うという考え を提⽰した。 壁と⼈の距離に応じてエリア分けし、エリアに よって異なる作⽤を⽤いた。
  7. Ambient Displays: Turning Architectural Space into an Interface between People

    and Digital Information(1998) どんなもの? アンビエントディスプレイという概念を提唱。 アンビエントディスプレイとはインターフェイ スとして物理環境全体を利⽤するディスプレイ。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? アンビエントメディアの製作。 アンビエントルームでは、ある情報をこの部屋 の物理空間の⼀部に写像することができる。 コンピュータの内側に⼈を配置させた。 “Tangible Bits”(1998) No.7 物理空間のインターフェースの出⼒をどの五 感に訴えるものにするか。 ディスプレイを画⾯から物理空間へ移動させた。
  8. Tangible Bits: Towards Seamless Interfaces between People, Bits and Atoms(1998)

    どんなもの? GUIを超える、物理空間を⽤いた新たなインター フェースTUI(Tangible User Interface)の提唱。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? metaDESK,、transBOARD、ambientROOMと いう三つのプロトタイプの作成。 GUIの機能を⽇常空間の物体で⾏えるようにし た。 例えば、物体の直感的移動で画⾯が拡⼤される。 “The Computer for the 21st Century”(1999) No.8 光や影などの光学的なメタファーが役に⽴ち そう。metaDeskでは仮想的なレンズを使っ た。 無意識の明⽰的ではないインターフェースの提唱。
  9. Proxemic Interaction: Designing for a Proximity and Orientation- Aware Environment(2010)

    どんなもの? デバイスとの距離を継続的に⼊⼒として扱う。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? 左記のような環境を構築。 ⾚外線カメラを使って⼈、デバイスを追跡する。 “The Computer for the 21st Century”(1999) No.9 デバイスと⼈の距離に適切な距離は定められ るか。 ⼈と公共的なデバイスの距離に応じた出⼒の研究 とデバイスとデバイスの距離に応じた出⼒の研究 を組み合わせ、それを統合した環境をつくった。
  10. Body-centric interaction techniques for very large wall displays(2010) どんなもの? 壁サイズのディスプレイでの⼊⼒のために、全⾝

    の仮想モデルを使った⼊⼒を⾏う。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? 6⼈のユーザーから予備的なユーザーフィード バックを収集した。 全⾝をモデル化し、それを⽤いて⼊⼒を⾏う。 "Distant freehand pointing and Clicking"(2005) No.10 よりきめの細かい⾝体モデルの開発が必要。 特に⼿と指。 磁気位置センサーとビジョントラッキングに よって体の関節の3次元位置をリアルタイムで 測定する。
  11. Distant freehand pointing and clicking on very large, high resolution

    displays(2005) どんなもの? 壁サイズのディスプレイでフリーハンドポイン ティングおよびクリック操作ができるシステム。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? 実験を⾏って、精度、かかる時間をほかの⼿法 と⽐較した。 モーショントラッキングシステムを使って、⼿ の位置情報を取得する。 “VIDEOPLACE"(1991) No11 コンピュータビジョンの発展でトラッキング デバイスが必要なくなると⼿だけで⼊⼒でき るようになる。 レーザーポインターなどの道具を使わずに⾃分 の⼿だけで操作ができる。
  12. Project Zanzibar: A Portable and FlexibleTangible Interaction Platform(2018) どんなもの? 配置された物体を検知し、ユーザのタッチや

    ジェスチャも感知するマットの開発。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? ゲームと教育アプリケーションのプロトタイプ を製作。 NFCタグをつけた物体を検知する。 静電容量感知によってジェスチャを感知する。。 “SLAP”(2009) No12 複数の物体との相互作⽤が実現できるほど⼗ 分な表⾯積があるのと同時に携帯性も兼ね備 えている。 ・光学テーブルトップシステムより今のポータ ブル化の⽂脈に沿っている ・タッチスクリーンのような⾯積の制限がない ・カメラ追跡で⽣じる照明と限定された空間の 問題が⽣じない
  13. Skinput: Appropriating the Body as an Input Surface(2010) どんなもの? ⽪膚を使って⼊⼒を⾏う。

    どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? 実験を⾏い、精度を測定した。 ・コンピュータビジョンを⽤いるより計算コ ストが低い ・⾐服にデバイスを⼊れるより安価 精度を⾼めるために⽪膚の⼊⼒場所を指定。 "Scratch Input"(2008) No13 この⽣体⾳響システムを使えば、体を動かし ているときもうまく⼊⼒可能。 指の衝撃による⽪膚の変位によって⽣成され る波を検知して、⼊⼒位置を特定する。
  14. SLAP widgets: Bridging the gap between virtual and physical controls

    on tabletops(2009) どんなもの? 仮想的なコントロールに簡易的な物体を⽤い、 フィードバックを得る。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? ユーザ調査を⾏い、仕様説明の時間、タスク完 了時間の変化を調べた。 仮想的なコントロールのように安価で柔軟に 扱え、物理的なコントロールのように精度が ⾼く、直感的に扱える。 テーブルの下に⾚外線カメラを配置。物体が⾚ 外線が反射することでその物体を特定できる。 “DataTiles”(2001) No14 触覚フィードバックを使えば、視覚を使わず に済むという利点がある。
  15. Augmented Surfaces: A Spatially Continuous Work Space for Hybrid Computing

    Environments(1999) どんなもの? 物理的なオブジェクトの間でデジタル情報をス ムーズに交換できるようにするコンピューター 拡張環境の設計と実装。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? グループ活動を含むいくつかの共同利⽤を⾏った。 ・他の⽤途を持つオブジェクトにデジタル情 報を与える。 ・オブジェクトは空間的に継続している ・カメラとマーカーを使って物体を認識する。 ・プロジェクターによって視覚的にデータの やり取りを⾏う。 “mediaBlocks”(1998) No15 異なるアプリケーションの場合はデータの通 信が⾏えない場合がある。
  16. TUIC: Enabling Tangible Interaction on Capacitive Multi-touch Display(2011) どんなもの? オブジェクト特有のマルチタッチを⾏うことで

    オブジェクトを認識させる。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? TUICタグの実装 センサやカメラなどの追加の装置を⽤いるこ となく、オブジェクトの認識を⾏える。 空間タグ(位置で認識)と周波数タグ(周波 数で認識)の使い分けが重要。 周波数を変えることで画⾯へのタッチパター ンを複数個つくり、オブジェクトを識別する タグをつくる。 “SenseTable”(2001) No16
  17. DataTiles: A Modular Platform for Mixed Physical and Graphical Interactions(2001)

    どんなもの? 取り外し可能なウィンドウ。GUIと物理オブ ジェクトの両⽅の⻑所を兼ね備えたシステム。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? DataTilesシステムのデモをユーザに体験させ た。 このタイルはGUIの拡張に必要なスケーラビ リティを持った物理オブジェクトである。 物理オブジェクトにはスケーラビリティがな く、乱雑で、損失が⽣じる。これをどこまで 許容するか。。 タイルにRFIDタグを埋め込み、それらを識別 できるようにする。 No17
  18. Sensetable: A Wireless Object Tracking Platform for Tangible User Interfaces(2001)

    どんなもの? 多数の物理オブジェクトを確実に追跡でき、か つそれをダイヤルとして⽤いるための⼿法。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? 化学反応の教材としてのアプリケーションと シュミレーションを⾏うアプリケーションの 開発。 ・コンピュータビジョンを⽤いた場合に⽣じ る遮蔽物や照明の問題が⽣じない。 ・オブジェクトにダイヤルを載せられる。 電磁感知を⽤いれば、コンピュータービジョ ンを⽤いる場合に⽣じる問題から解放される。 ・オブジェクトに付与した回路によってタブ レットはオブジェクトを検知する。 No18
  19. Alternative Avenues for IoT: Designing with Non-Stereotypical Homes(2019) どんなもの? ⼀般的ではない家にIoTを提案し、IoTを再考す

    る。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? ⼀般的ではない設計の家の住⼈と協⼒し、彼 らの家に適したIoTデバイスを考え、その データを分析した。 IoTの研究では家を理想化、ステレオタイプ 化してきた。IoTの新たな⽅向性を探るため に家という概念をとらえなおす。 家という概念を狭めるのでなく、IoTの概念 を広げるという⽅向性を提⽰。 ⼀般的、理想的な家ではなく、⾮ステレオタ イプの家を調査している。 “Internet of things”(2012) No19
  20. Physical telepresence: shape capture and display for embodied, computer-mediated remote

    collaboration(2004) どんなもの? オブジェクトの形状をリモートでレンダリング する。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? 実験を⾏い、被験者にいくつかのタスクをこ なしてもらった。 ・リモートで物理的な相互作⽤を⽣成。 ・相互作⽤をTUIによって作り出す。 垂直⽅向の⼒しかないのでオブジェクトをつ かむことはできないが、傾きをつくってスラ イドさせて移動させることは可能。 “PSyBench”(1998), “The Actuated Workbench”(2002) No.20 ・リニアアクチュエータを⽤いて、2.5Dのディ スプレイを製作。 ・深度センサを⽤いて、オブジェクトとジェ スチャーを検知。
  21. Tangible Interfaces for Remote Collaboration and Communication(1998) どんなもの? オブジェクトを⽤いたインターフェスであるTUI を⽤いて、リモートでの共同作業をサポート。

    どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? ⼆つのアプリケーションPSyBenchとinTouch の開発。 リモートでのマルチユーザーインタラクショ ンが可能になるようにタンジブルインター フェースを拡張した。 物理的な世界での相互作⽤を⽤いることで、 デジタルでの共同作業を⼿助けできる。 “The Actuated Workbench”(2002) No.21 PSyBench:スイッチでオブジェクトの位置を把 握し、ボードの下の電磁⽯によって移動する。 inTouch:ローラーの動きを位置センサに よって監視し、同期する。
  22. The Actuated Workbench: Computer-Controlled Actuation in Tabletop Tangible Interfaces(2002) どんなもの?

    磁⼒を使ってテーブル上のオブジェクトを2次 元で移動させるデバイス。。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? システムの実装とアプリケーションの提案。 このデバイスを使えば出⼒にオブジェクトを ⽤いることができ、フィードバックループを つくれる。 PsyBenchでは移動の向きを指定できなかっ たが、今回は指定できる。 電磁⽯を使ってオブジェクトを動かす。 “Bricks”(1995) No.22 パルス幅変調によって個々の電磁⽯の強度 を制御でき、それによって動きを滑らかに できる。。
  23. Sublimate: State-Changing Virtual and Physical Rendering to Augment Interaction with

    Shape Displays(2013) どんなもの? 形状ディスプレイと拡張現実を統合したシステ ム。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? 地理空間データの可視化などのサンプルアプ リケーションの製作。 実験を⾏い、被験者にタスクをこなしても らった。 ARの仮想オブジェクトに形状を持たせた。物 理的な形状をARによって補助させたともいえ る。 形状ディスプレイは、他の触覚⼊⼒デバイス と⽐べて⾃由度が⼩さい。 オブジェクトの形状は2.5Dの形状ディスプレ イを通じてレンダリングされる。 “HoloDesk”(2012) No.23
  24. HoloDesk: Direct 3D interactions with a situated see-through display(2012) どんなもの?

    ⾝体にハードウェアを装着せずに、3D映像と のインタラクションを可能にする。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? ユーザ調査を⾏った。 ・3Dでの出⼒に合わせて3Dでの⼊⼒を⾏う。 ・ユーザがデバイスを着⽤する必要がない。 触れることができない領域が存在した。 ・RGBカメラを使って、視点に合わせる。 “C-Slate”(2007) No.24 ・Kinectを使って、物理オブジェクト(⼿ など)を追跡するのでセンサの装着が不要。
  25. Jamming user interfaces: Programmable particle stiffness and sensing for malleable

    and shape-changing devices (2012) どんなもの? 物体の形状の状態遷移をコントロールするジャ ミングという技術をユーザーインターフェイス に適⽤する。 どうやって有効だと検証した? 議論はある? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 次に読むべき論⽂は? 4つのアプリケーションの開発 例)Transparent Haptic Lens:画像の⼀部 分にレンズを乗せ、触ることでその部分の固 さが分かる。 ジャミング技術をHCIに導⼊した。そのため に形状の変形とユーザー⼊⼒を検出する⼿法 を考えた。 形状をより速く変更する技術が必要。 IRスキャンシステムと容量性形状センシング を⽤いる。 “ClaytricSurface”(2012) No.25
  26. Semantic Image Synthesis with Spatially-Adaptive Normalization CVPR2019) 
 ? うや

    有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? ン ック ッ 対 Detail 持 画像 生成す conditional normalization 方法 SPatially-Adaptive (DE)normalization 提案 各 層 直後 情報 埋 込 ー 合成画像生成
 情報 情報 分 制御 実現
 いう 定義
 復元度 計測
 生成画像 元 画像 比較
 既存手法 大 く 回 
 
 正規化 後 用い 空間 フ ン変換 際 失わ 情報 補完す 
 
 
 
 AdaIN VAE cGAN 関係 pix2pix VAE 用 い 発展 ネッ ワーク 構成 利用す 更 品質向 見込 ?
  27. Semantic Soft Segmentation(SIGGRAPH 2019) 
 ? うや 有効 検証 ?

    先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? 画像 色や クス ニュー ネッ ワーク 意味 解釈 シーン 分析す フ く 画像 領域 分割す フ 構築す 特徴ベク 異 対象 間 区 す 犬 毛や髪 毛 半透明 物体 存在 ー 分 可 能 既存 二 同 物体 画像感 同 ン 発見す 既存 手法 対応す 点 抽出 処理 結果 並べ 比較 被験者実験 目的 画像内 各 ク 同 ン 属す 可 能性 あ す シ ン行列 作 際 局所的 手 意味情報 用い 2011; Tai et al 2007; Tan et al. 2016Aksoy et al. 特徴抽出 用い CNN 部分 大 い 複数枚 画像同士 分析 分類 考え い 前景抽出 用い
  28. Neural Best-Buddies: Sparse Cross-Domain Correspondence(SIGGRAPH 2019) 
 ? うや 有効

    検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? 2 枚 画像 入力 意味的 関連す 部分や幾何的 関 連す 部分 抽出す 見 目 似 い い 違う種類 分類 画像間 局所的 考慮す 対応す 点 発見す クロス ン間 評価 行 い 他 手法 存在 い いう前提 ImageNet 訓練 似 う 手法 比較 CNN 深い層 特徴点 す 始 浅い層 戻 いく CNN 処理 積 重 いく 特徴点 ッ ッ 作 そう 深い層 浅い層 特徴点 関連 辿 いく 入力画像 関連す 店 見 け Yosinski et al. 2015; Zeiler and Fergus 2013 高 化 い 一 ク 複数 ー 分割 あ 物体認識 入す 解決す
  29. A Style-Based Generator Architecture for Generative Adversarial Networks CVPR2019) 


    ? うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? GAN 高解像度 画像 生成す Generator 新 ー ク 提案 • StyleTransfer AdaIN PGGAN 取 入 特徴 段階的 独立 生成 示す 定量評価 手法 提案 
 線形 近い→自然 
 く い多次元超平面 
 他 手法 良い成績
 潜在変数 直接画像 生成す く 固定 ン ソ 画像 生成 潜在変数 取 込 
 演算 追 
 AdaIN PGGAN Droplet 呼 特徴的 発生 Progressive growing 思わ 顔 向 歯 追従 い
  30. TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translation(CVPR 2019) 
 ? うや 有効

    検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? 猫 人間 い ク ス 跨 大 形状 変化 伴う画像 スタ 変換 実現 CycleGAN 拡張 形状 スタ 変換 実現 元画像 体勢 保 ン変換 い ロ ス 解釈可能性 高い FID 生成 ータ 実 ータ 分布 近 & LPIPS( 生成画像 多様性 ) 人 評価 結果 本物 い 顔体 向 入力画像 似 い 直近 手法 比較 最高スコ 画像 空間 見 目空間 変換 そ 空間 変換 行う CycleGAN ResNet HourGlass フュー ーワーク い ソース 引 張 う い
  31. StackGAN: Text to Photo-realistic Image Synthesis with Stacked Generative Adversarial

    Networks (ICCV 2017) 
 ? うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? ス 表現 高解像度 写実的 画像 生成 ス ッ 生成 行う 例 → 短いク バシ 青 白 鳥 大意 映 画像 生成す 成 い や要素 い 表現 い 
 対 学習 行 
 人 評価実験 評価 
 
 ス ンコー 非線形 変換 潜在変数 偏 生 え 潜在変数 次元 大 く 学習 不安定 
 そ 用意 ス分布 無作 値 幅 広い分布 生成
 ス ッ 目 画像 ス 埋 込 ベク 用い 細部 画す 
 Stacked generative adversarial networks 複雑 画像 生成す うす 構 練 必 要 あ そう
  32. Image-to-Image Translation with Conditional Adversarial Networks(CVPR 2017) 
 ? うや

    有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? GAN 汎用的 画像変換 実現 いタスク 画像 入力 学習す pix2pix ケーション cGAN 使 image-to-image 変換 い 一般化 (general-purpose) 解決策 提示 ソーシン 的 サービス AMT 用い 人手 使 本 物 生成 画像 人 提示 選 せ G U ー NET D PATCHGAN 畳 込 得 特徴 ッ あ 1pixel 入力画像 あ 領域 影響 映 い 画像全体 バッ 分割 そ 単位 真贋 定 Singaraju and Vidal 2011; Tai et al. 2007; Tan et al. 2016 output 複雑 分 cGAN 単体 cGAN + L 方 精 度 良 そう
  33. Large Scale GAN Training for High Fidelity Natural Image Synthesis

    ICLR2019) 
 ? うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? 512×512 高解像度画像生成 使わ く 計算資源 潤沢 使え 精度 く いう 示 大規模 GAN 訓練す 時 問題 不安定性 い 考 察 ス 
 評価
 倍々 い スコ 昇
 ー バー う 良い勾配 え 
 学習 推論 タ ン 違う分布 生成 方 結果 良く → 
 PGGAN バッ サ 大 く 行 時崩壊す 時 あ 大 画像 生成 う 崩壊 原因 崩壊 直前 G ス ク 爆発 そ く学習安定化 重要 要素 あ 現在 技術 安定化 厳 そう
  34. Progressive Growing of GANs for Improved Quality, Stability, and Variation(ICLR

    2018) 
 ? うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? GAN 高解像度 画像 安定 生成 う 高解像度 生成 画像 ン ム要素 強く D 容易 ネッ ワーク全体 学習 不安定 問題 克服 従来 GAN 〜 倍学習 早い Sliced Wasserstein 距 スコ 改善 GAN 鮮明 画像 生成 い 段階的 学習 入 ニバッ 標準偏差 多様性
 始 8 枚見せ 後 層 挿入 解像度 →8 枚 本物画像 ネッ ワーク 安定化 せ → 繰 返 解像度 
 
 G 各々独立 い ータ ッ 頻出す 傾向 引 張 傾向 あ 顔 向 対 歯 追 い い
  35. Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks(ICCV 2017) 
 ?

    うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? 教師 ータ 画像 入力す け 二 入力間 関係性 推定 画風変換 行う 教師 ータ 用意す 難 く 教師 ータ 学習 行え 点 大 い タスク依存 い 汎用的 使え 画像 特徴 捉え いう 写 い 関係 捉え スタ ンスフ ー 行う他 ム 結果 検証 教 師あ 学習 あ pix2pix 同等 ク 実現 サ ク 一貫性損失 入 求 い写像 い 逆写像 入力 ータ 復元 入力 ータ 比較す 損失 算出 DCGAN 変形 伴う う 変換 微妙 見 目 く う 生成系 調整 い 写真 絵 変換す 際 木 建物 変換す 失敗 見
  36. Unsupervised Representation Learning with Deep Convolutional Generative Adversarial Networks( ICLR

    2016) 
 ? うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? 画像 入力 学習 画像 出力す GAN 学習 安定性 向 出力 画像 鮮明 向 せ 教師 学習 対 CNN 入 学習 安定 せ 制約 盛 込 DCGAN いうネッ ワーク構 Generator 入力 z い 画像 関す 面白いベク 属性 示す MNIST,TFD,CIFAR-10 実際 学習 行 い分類タス ク 性能 評価 Generator,Discriminator 全結合層 く CNN 入 学習 安定 い問題 対 バッ 正規化 入 活性化関数 RELU tanh, LeakyRelu 入 GAN 学習 不安定 い 残 video や Audio ン空間 y 転用 潜在空間 索 将来的 行い い
  37. Conditional Generative Adversarial Network(2014) 
 ? うや 有効 検証 ?

    先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? Conditional GAN ータ 生成 コン ロー う GAN 生成す 画像 明示的 分け 学習時 ベ 情 報 入 
 
 ータ 対 実験 行い ーネ 密度推定 尤 度 評価
 条件 え い い場合 精度 他 手法 精度 超え い い
 条件付 関数 定義 い 
 各入力 ベ 情報 混 あ け
 良い あ そう タ 付 際 一 一 個 暑 複数 タ 扱う 良い結果 出 知 い
  38. Generative Adversarial Networks(2014) 
 ? うや 有効 検証 ? 先行研究

    く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? Generator,Discriminator ニュー ネッ ワーク 用い 競合 せ 多数 画像 入力 学習 画像 生成す サン 生成や学習 時点 コフ連鎖や近似推論ネッ ワーク 用い い 計算コス 抑え 生成 識 一緒 訓練す 生成 学習困難性 回避 MNIST,TFD,CIFAR-10 実際 学習 行 い 対数尤 度 評価 最初 ン ム 生成す ン ッ 本物 識 生成 偽物 画像 識 目的関数 共有 G 最小化 D 最大化 VAE ? 学習 不安定 D 更新せ G 過度 ーニン いけ い 高解像度 画像 生成す 至 い
  39. Avatar-Net: Multi-scale Zero-shot Style Transfer by Feature Decoration(CVPR2018) 
 ?

    うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? 一 学習 ネッ ワーク い スタ 対応 い いう ベ 学習 際 含 い スタ 対応 う 画風変換 汎用性 度 ク 点 先行研究 比べ 性能 良 い WCT 間 StyleSwap 組 合わせ MSCOCO 訓練 出力 度 比較 他 手法 色 滲 線 う 箇所 線 保 画風 変換 動画 対 フ ーム間 親和性 あ 出力 コン ン スタ そ 中間特徴 白色化 特徴間 コサ ン類似度 最大 置換 
 スタ 画像 中間特徴 固有値固有ベク 変換 
 WCT StyleSwap AdaIN StyleDecorator 写像 置 換え再構築す ス ッ 学習可 能 置 換え 効率的 実行 堅牢
  40. Universal Style Transfer via Feature Transforms NIPS 2017) 
 ?

    うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? スタ 画像 学習 ータ い ー 変換 度合い 調整す 画風変換 ム whitening coloring 処理 入 汎用性 品質 効率 いう今 ー フ 課題 すべ バ ンス く解 決 他 手法 実際 結果 比較 品質 処理 度 汎用性 全 両立 い 断 コン ン 画像 中間特徴 白色化 物体 構 情報 保 画風 情報 削 落 す スタ 画像 中間特徴 固有値固有ベク 使 白色化 特徴 変換 WCT decompositionStep CPU ベース GPU 効率化 い
  41. Fast Patch-based Style Transfer of Arbitrary Style 
 ? うや

    有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? スタ 画像 学習す 必要 い画風変換 ム コン ン 中間特徴 スタ 画像 中間特徴 置換す StyleSwap いう手法 発明 スタ 学習す 必要 い 効率的 変換 実現 他 手法 実際 結果 比較 異 初期化状態 標準偏差 収束 必要 ーション 少 い コン ン 画像 スタ 画像そ 中間特徴 バッ 出 バッ コサ ン類似度 最大 置換 学習済 スタ 固有 画風変換 ム ス ー 及 い ビ 適用す フ ッ ー現象 生 あ 全体 や ッ 間 スタ 考慮 い い
  42. Arbitrary Style Transfer in Real-time with Adaptive Instance Normalization(ICCV2017) 


    ? うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? 一 学習 ネッ ワーク い スタ 対応 い いう動機 学習 際 含 い スタ 対応 う 画風変換 Instance Normalization 拡張 学習 時 含 い いスタ 対応可能 直接的 スタ 統計的特徴 付 い Gatys 50-100 ーション 時 同 く い 品質 Ulyanov 手法 対 本手法 ス 画像 初見 あ 考慮す 強力 一般化能力 備え い 言え content 特徴量 style 特徴量 平均 分散 揃え せ AdaptiveIN 正規化時 バ ス スタ 画像 平均 分散 入 Instance Normalization スタ 画像 平均 標準偏差 用い い 特徴量 用い 方 いい ?
  43. A Learned Representation For Artistic Style (ICLR 2017) 
 ?

    うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? 複数 スタ 学習 行う 学習後 ータ 調整す スタ 調整す ベク 動 す け 一 訓練済 ネッ ワーク い い 適用 複数スタ 変換 け 遅い 早く変換 け あ スタ 特化 いう ー フ 解消 他 スタ 学習す 際 1 学習す 高 収束 す 確認 (5000step 1 学習 際 40000step 相当 conditional instance normalization 入 各スタ 正規化後 スケー ン ータ シフ ー タ 共有す CNN 重 多く スタ 共有す 言う発見 Perceptual Losses for Real-Time Style Transfer and Super-Resolution ECCV16 スタ 数 増え ータ 数 線形 増 いく スケー い
  44. Perceptual Losses for Real-Time Style Transfer and Super-Resolution ECCV16 


    ? うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? A Neural Algorithm of Artistic Style 発展 せ タ ム 実施す 超解像度 他 画像変換タスク 適用 良い結果 得 per-pixel 損失関数 perceptual 損失関数 組 合わせ 感覚的 違い 捉え 高 タスク 実行 度面 Gatys 手法 比べ 大体 1000 倍高 化 MS COCO 画像 対 実行 結果 示 い スタ やコン ン pixel 単位 考え く 損失計算 際 書く層 出力 比較 単方向 N ニュー ネッ ワー ク 訓練す Image Style Transfer Using Convolutional Neural Networks(CVPR2016) 色付けや ン ック ン ーション い Perceptual 損失関数 適用 他 目的 訓練 損失計算 用い タスク 行え 可能性 あ
  45. Image Style Transfer Using Convolutional Neural Networks(CVPR2016) 
 ? うや

    有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? コン ン 画像 スタ 画像 入力す コン ン 画像 画風 スタ 画像 変換 出力 出 く ク ス分類 用い ネッ ワーク 浅い層 入 替え 画風 変換 ? いう発想 画風 g 行列 表現 生成画像 ム行列 参照画像 ム行列 近 け ム行列間 誤差関数 画像間 スタ 損失関数 定 義 最小化 VGG16 解像度 甘い 処理時間 長い 入 場合 あ
  46. VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION(ICLR 2015) ∗

    & 
 
 
 ? うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? ImageNet いう大規模画像 ータ ッ 学習 16 層 画像認識 CNN CNN 深 大規模画像認識設定 精度 及 す影響 調べ 非常 小 い畳 込 フ タ 深い畳 込 ネッ ワーク 構成 
 ータ数 増 抑え 劇的 精度 向 せ 
 使 比較
 小 いフ ター 持 畳 込 層 〜4 連続 重 ー ン 層 サ 半分 す いう過程 繰 返 う
 他 階層深くす 精度良く ? 検証 9層 層 方成績良 深け 良い わけ い
  47. LiveCap: Real-Time Human Performance Capture From Monocular Video(2019 SIGGRAPH) 


    ? うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? タ ム ーション シス ム 事前 用意 ス目 骨格検出 顔 ー 位置 推定 ス目 布や皮膚 変形 ッ ン 入力 RGB いけ 必要 い ス 必要 い RGB 一 タ ム 動く い 単眼 骨格検出 存在 精細 生成す 存在 い い 布 非剛体 考慮 い 再構成密度 精度 面 評価 行 七人 被験者 様々 種類 衣服 着せ ーション 撮影 度回転や ン 動 ッ ン 成 先行研究 使用 ス シーケンス 実行 IoU 優 い 事前 用意す 部分部分 素材 ク ス 分 類す 体 可動域や時間 考慮 スケ ン 姿勢 並列化 MonoPerfCap ン ーション系 タ ム い推定 比べ タ ム 処理 精度 限界 あ 事前 用意す 大 い 大 く変異 時 追い い
  48. MonoPerfCap: Human Performance Capture from Monocular Video(2018 SIGGRAPH) 
 ?

    うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? 単眼 行う ーション シス ム 事前 用意 骨格情報 推定 人体 構 組 合わせ 変形 RGB いけ 人間 動 衣服や皮膚 非剛体 変形 伴う 高 動作 可 能性 あ 厳 や ス ンサー 使用 い 屋外 使用 屋内屋外 手持 固定 男性女性 衣服 種類 変更 実験 フ ーム ー値 比較 RGB 単眼 情報 不足す 事前 情報 取得 D 再構成 独立 く時間的 幅 持 フ ーム 考慮す シ ッ 抽出 クス 変形 せ 骨格検出 フ ーム予測系 ン ーション系 遮蔽 部分 大 く 素早い動 場合破綻す 可 能性 大 く 骨格検出 せい 爪先 い 足元 弱い ロ ー 変わ 物 対 今 単眼 厳 い
  49. Real-time Pose and Shape Reconstruction of Two Interacting Hands With

    a Single Depth Camera(2019 SIGGRAPH) 
 ? うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? ス 一 行う ー ー タ ム 両手 ッ ン 形状 再構成 行う 既存 手法 大部分 片手 両手 強く握 複雑 ンタ クション 可能 タ ム 動く 手 形 自動 フ ッ 破綻 場合 復帰 容易 Tzionasr ータ ッ 用い LeapMotion 手法 比較 時 破綻 ニュー ネッ ワーク 深度画像 右手 左手 区 ータ 手 姿勢 形状姿勢 表す MANO ハン 衝突 定 手 球 表現す 手法 使用 骨格検出 フ ーム予測系 ン ーション系 ックハン ニュー ネッ ワーク ー ク 選択 軽量化 余 地 あ 素早い動 や片方 手 大 く遮蔽 場合 厳 い 手 形 鮮明 い
  50. VNect: Real-time 3D Human Pose Estimation with a Single RGB

    Camera(SIGGRAPH 2017) 
 
 ? うや 有効 検証 ? 先行研究 く べ す い? 議論 あ ? 技術や手法 ? 次 読 べ 論文 ? 単眼 RGB 次元骨格推定 タ ム 行う CNN 運動学 基 い 推定す Depth → 太陽 影響 い 屋外 使用可能 タ ム 動く 汎用的 入力 動く 既存 D 骨格推定 骨盤 推定 位置 す 実際 ケーション 作成 比較 Kinect 比較 場合 屋内 同等 性能 屋外 Kinect 破綻 対 問題 く動い 映像 処理す 手法 対 関節 位置 誤差 比較 CNN 回帰 D D 関節位置 推定 運動学 基 い 骨格 形成 D ー ッ 各関節 軸 拡張 heatmap based bodyjoint detection formulation [Tompson et al. 2014] 多人数 ータ ッ 準備 厳 い 複数人 実装 不可能 思わ D 推定 大 い そ 技術 進 す D 推定 精度 向 す 可能性 あ
  51. 4QSJOHMFUT&YQSFTTJWF 'MFYJCMFBOE4JMFOU0O4LJO5BDUJMF*OUFSGBDFT ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ /VS"MIVEB)BNEBO "ESJBO8BHOFS

    4JNPO7PFMLFS +ÛSHFO4UFJNMF∗ +BO#PSDIFST $)*` ̒ύλʔϯͷදݱ͕Ͱ͖ৼಈ͠ͳ͍ൽෘʹ ௚઀షΔ৮֮ΠϯλʔϑΣΠε ہॴతͳܹࢗΛ༩͑දݱ͕๛͔Ͱܰ͘ॊΒ ͔͘Ի͕ͤͣΤωϧΪʔ΋গͳͯ͘ࡁΉ 4."Λ΋͍ͪͨΠϯλʔϑΣʔεͷ։ ൃɺධՁΛߦͳ͍ͬͯΔ ̒ύλʔϯͷ৮֮Λఏࣔ͢ΔͨΊʹബͯ͘ ॊೈͳܗঢ়هԱ߹ۚΛ༻͍ͨ ہॴతͳܹࢗΛ༩͑ΔͨΊʹৼಈΛ༻͍ͯ ͍ͳ͍ ඃݧ࣮ݧΛߦ͍ɺܹࢗʹؾ෇͚Δ͔ʁ൑ผ Ͱ͖Δ͔ʁշద૷ணͰ͖Δ͔ʁ6TFSͷঢ় ଶ ཱͪɺ࠲Γ ͕ͲͷΑ͏ʹӨڹΛ༩͑Δ ͔ʁΛௐ΂ɺద੾ͳܹࢗͱ஋Λܾఆͨ͠ ڳΛͭͶΔܹ͕ࢗ࠷΋ؾ෇͖΍͍͢ɻ ͔͠͠ɺڳໟ͕ҾͬுΒΕͯ௧͍ टʹ૷ண͢Δͱෆշײ͕͋Δ
  52. #VC#PXM%JTQMBZ7FTTFM6TJOH&MFDUSPMZTJT#VCCMFTJO%SJOLBCMF#FWFSBHFT ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ "ZBLB*TIJJ *UJSP4JJP 6*45`

    ిؾ෼ղͰൃੜͨ͠ؾ๐܈ͷϐΫηϧΛར ༻ͨ͠ӷ໘σΟεϓϨΠɺҿྉͷද໘ʹ ºϐΫηϧͷυοτϚτϦΫεύλʔ ϯΛੜ੒͢ΔΧοϓܕσόΠε ϦϑϨογϡϨʔτ͕ૣ҆͘͘େ͖͞΋ௐ અͰ͖ΔͨΊ೔ৗͷΦϒδΣʹຒΊࠐΊΕ Δɻ௿ίετͰըૉ਺ΛมߋͰ͖Δ ֎෦͔ΒͷΨεڙڅ΋Մಈ෦඼΋ඞཁͳ͍ ిղ๏Λ࢖༻͠ɺΑΓߴີ౓ͷϚτϦοΫ εిۃΛඋ͑ͨ1$#Λ࢖༻ͯ͠ɺΑΓߴղ ૾౓ͷσΟεϓϨΠΛ؆୯ʹ࣮ݱ ༗֐෺࣭ͷൃੜ͠ͳ͍ਫ਼੡ਫʹॏ୸ࢎφτ Ϧ΢Ϝͷˋ༹ӷΛిղӷͱͯ͠࢖༻ ๐Λ؍࡯Ͱ͖ΔΑ͏ʹίʔΩʔͰண৭ͨ͠ ϐΫηϧ਺ɺղ૾౓ɺάϨʔεέʔϧΛ૿ ΍ͯ͠ɺදݱͷଟ༷ੑΛߴΊΔ
  53. 4IBQF#PUT4IBQFDIBOHJOH4XBSN3PCPUT ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ 3ZP4V[VLJ $MFNFOU;IFOH :BTVBLJ,BLFIJ

    5PN:FI &MMFO:J-VFO%P .BSL%(SPTT  %BOJFM-FJUIJOHFS  6*45` ࣗݾมܗՄೳͳϩϘοτͷूஂతߦಈΛ௨ ͯ͡ܗঢ়Λܗ੒͢Δ෼ࢄܗঢ়มԽΠϯλʔ ϑΣʔε΁ͷ৽͍͠ΞϓϩʔνͰ͋Δܗঢ় มԽ܈ϩϘοτ ߴ଎Ҡಈ͢Δઢܗܗঢ়มԽΠϯλʔϑΣʔ εͷ։ൃɺࣗݾม׵ͷ௥ՃػೳʹΑΔӨڹ ͷௐࠪɻ ௚ઢํ޲ʹܗঢ়มԽ͍ͤͯ͞Δ͕ɺෳ਺ͷ ϩϘοτͱ࿈ܞ͠มܗʹॊೈੑΛ࣋ͨͤͯ ͍ΔʢϞδϡϥʔܕઢܗ࡞ಈϢχοτʣ ͦΕΛ࣮ݱͤ͞ΔখܕΞΫνϡΤʔλػߏ ΞΫνϡΤʔλͷ଎౓ͳͲͷ߲̓໨ͷٕज़ తೳྗΛධՁ ֤ϩϘοτͷ࣓ؾ઀ଓɺ೺࣋Մೳͳ%ܗ ঢ়ʹ૊ΈཱͯΔɺϩϘοτಉ࢜ͷিಥɺε έʔϦϯάɺҠಈೳྗ͸௿͍ɺόοςϦʔ ໰୊ɺτϥοΩϯάํ๏ͷվળ
  54. 53"/4%0$,&YQBOEJOHUIF*OUFSBDUJWJUZPG1JOCBTFE4IBQF%JTQMBZTCZ%PDLJOH.FDIBOJDBM5SBOTEVDFST ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ ,FO/BLBHBLJ :JOHEB 3PHFS

    -JV $IMPF/FMTPO"S[VBHB )JSPTIJ*TIJJ 5&* ग़ྗͱೖྗͷ྆ํͷΠϯλϥΫγϣϯػೳ ΛڧԽ͢Δϐϯϕʔεͷܗঢ়มԽσΟεϓ ϨΠ ಈతͳΠϯλϥΫγϣϯੑͷͨΊͷ୯Ұܗ ঢ়σΟεϓϨΠͷදݱྗɺదԠੑɺΧελ ϚΠζੑΛ֦ு JO'03$&ͷϐϯʹ༷ʑͳछྨͷτϥϯε σʔαʔͷυοΩϯάΛՄೳʹ͍ͯ͠Δ ϞʔγϣϯτϥϯεϛολͷࡾछྨΛྗͷ ఻ୡޮ཰ɺදࣔྖҬɺղ૾౓ɺ଱ٱੑͷ؍ ఺͔Βൺֱ͍ͯ͠Δ ࣮ࡍʹීٴ͢Δ͜ͱΛߟྀ͢Δͱɺ഑ઢ΍ ૊ΈཱͯΞΫνϡΤʔλͷબ୒ʹ׳Ε͕͍ ΔͱΖ͕໰୊఺Ͱ͋Δ JO'03$&#JEJSFDUJPOBM'PSDF`4IBQF %JTQMBZGPS)BQUJD*OUFSBDUJPO
  55. 8SB1S4QPPM#BTFE'BCSJDBUJPOGPS0CKFDU$SFBUJPOBOE.PEJpDBUJPO ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ +PBOOF-FPOH +PTF.BSUJOF[ 'MPSJBO1FSUFOFEFS

    ,FO/BLBHBLJ )JSPTIJ*TIJJ ࢳɺϦϘϯɺςʔϓɺϫΠϠʔͳͲͷط੡ ͷࡐྉΛίΞߏ଄ʹר͖෇͚Δ%Φϒ δΣΫτͷ৽͍͠੡࡞ํ๏ɺδΣενϟͰ ϞσϦϯάͰ͖Δ ̳ϓϦϯλʹΑΔຒΊࠐΈͳͲ͸༻͍ͣ ࢳר͖Λ༻͍Δɻૉࡐ΋ॊΒ͔͍ɻΦϒ δΣΫτΛ֦ுͰ͖Δɻ த৺෦ͷࢳΛަࠩͤ͞Δ͜ͱͰڧ౓Λ૿͠ ࢳ΋અ໿͠ɺपล෦ͷࢳ͸੔͑Δ͜ͱͰ׈ Β͔ͳද໘ʹ͍ͯ͠Δ ඃݧऀ࣮ݧɺΞϓϦέʔγϣϯͷهड़͸ಛ ʹͳ͠ ΧϝϥͰτϥοΩϯά͢Δ͜ͱͰܗঢ়Λम ਖ਼ɺ࣠ͷճసʹΑΔΑΓࣗ༝ͳܗঢ়ͷ࡞ ੒ɺ੍࡞ϓϩηεΛҰ෦ݩʹ໭͢ 1BUSJDL#BVEJTDIBOE4UFGBOJF.VFMMFS 1FSTPOBM'BCSJDBUJPO 5&*
  56. .PSQI*0&OUJSFMZ4PGU4FOTJOHBOE"DUVBUJPO.PEVMFTGPS1SPHSBNNJOH4IBQF$IBOHFTUISPVHI5BOHJCMF*OUFSBDUJPO ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ 3ZPTVLF/BLBZBNB∗ 3ZP4V[VLJ∗ 4BUPTIJ/BLBNBSV

    3ZVNB/JJZBNB :PTIJIJSP,BXBIBSB :BTVBLJ,BLFIJ %*4` ιϑτϩϘοτͱܗঢ়มԽΠϯλʔϑΣʔ εʹΑΔɺϓϩάϥϛϯά༻ͷ׬શʹιϑ τͳݕ஌͓Αͼ࡞ಈϞδϡʔϧ ઌߦݚڀ͸ೖग़ྗ྆ํͷػೳΛ͍࣋ͬͯΔ΋ͷ͸গ ͳ͘ɺ͋ͬͨͱͯ͠΋ଟ༷ͳมܗΛηϯγϯάͰ͖ ͳ͔ͬͨɻ ஄ੑಋిੑεϙϯδΛ༻͍ͨɼ҆શͰɼ׬શʹॊΒ ͔͘ɼେ͖ͳมܗೳྗΛ΋ͭσόΠε ஄ੑεϙϯδΛ༻͍͍ͯΔͨΊѹॖ͚ͩͰ ͳ͘৳ॖ΋ՄೳͳͷͰมܗࣗ༝౓͕ߴ͍ ϕϩʔζߏ଄ͱϫΠϠʔΛ૊Έ߹Θͤͯॎ ʹ͚ͩมܗ͢ΔΑ͏ʹ͍ͯ͠Δ ಋిੑεϙϯδηϯαͷมܗ཰ͱ఍߅஋ͷ ؔ܎Λଌఆͨ͠ɻ ը૾ॲཧιϑτͱը૾ղੳΛ༻͍ͯɺԖ௚ ํ޲ͷมܗ཰Λଌఆͨ͠ɻ ૉૣ͘ϥϑϞʔγϣϯΛ࡞੒͠ɺͦΕΛࣗ ಈతʹσδλϧύϥϝʔλʹม׵ͯ͠ɺ Ϣʔβʔ͕ਖ਼֬ʹίϯτϩʔϧͯ͠ௐ੔Ͱ ͖ΔΑ͏ͳγεςϜʹ޲͍͍ͯΔ
  57. BNCJFO#FBU8SJTUXPSO.PCJMF5BDUJMF#JPGFFECBDLGPS)FBSU3BUF3IZUINJD3FHVMBUJPO ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ ,ZVOH:VO$IPJ )JSPTIJ*TIJJ 5&*`

    Ϣʔβʔͷ৺ഥ਺ʹج͍ͮͯ৮ܹ֮ࢗΛհ ͯ͠ϑΟʔυόοΫΛఏڙ͢Δखट૷ணܕ ͷϞόΠϧ৺ഥ਺ௐ੔૷ஔ Ϣʔβʔͷೝ஌ෛՙ΁ͷӨڹ͕গͳ͍ Ի΍ࢹ֮ޮՌΛར༻͠ͳ͍͜ͱͰϢʔβʔ ͷ৔ॴ΍ঢ়ଶʹӨڹ͞Εͳ͍ ഽʹ৮ΕΔɺϢʔβʹෆշײΛ༩͑ͳ͍Α ͏ʹϞόΠϧੑͱܰྔੑΛߟྀ͍ͯ͠Δɺ ৺ଁͷޑಈʹࣅ༷ͨʑͳ৮ܹ֮ࢗΛఏڙ ٕज़తͳධՁͱͯ͠ίΠϧΞΫνϡΤʔλ ͷύϧε෯ͱফඅిྗΛ࿹ʹ૷ணͯ͠ଌఆ ͭͷԾઆΛཱͯɺࢹ֮ɾௌܹ֮ࢗͱൺֱ ͯͦ͠ͷ༗ޮੑΛධՁ ௌܹ֮ࢗͱ૊Έ߹Θͤͨ৮֮όΠΦϑΟʔ υόοΫΛఏڙ͠ɺͦͷ༗ޮੑΛݱࡏͷݚ ڀͱরΒ͠߹ΘͤΔ͜ͱ͕࣍ͷεςοϓ
  58. 4ZOD%PO**#JP4ZODISPOJDBM$PNNVOJDBUJPO ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ *TTFZ5BLBIBTIJ "LJIJUP*UP 4"

    ϓϨθϯτ༻ͷശΛ࣋ͭͱശ͕ಈ͖աڈͷ ਓ͔Βಘͨ৺ഥʹ߹Θͤͯޫͷ఺໓Λ൐͏ அଓతͳ຺ഥԻ͕ૹΒΕ৺ഥಉظʹΑͬ ͯɺඇݴޠతʹ૬खʹײ৘Λڞ༗͢Δ ٕज़తख๏͸ͳ͠ ৺ഥ͕ಉظ͞ΕΔͱɺࢀՃऀͷੜཧঢ়ଶɺ ಛʹ॥؀͕աڈͷਓʹࣅ͖ͯͯɺه࿥தʹ ͍࣋ͬͯͨײ৘ͱಉ͡Α͏ͳײ৘Λ࣋ͭΑ ͏ʹͳΔ ٕज़తʹݕূͨ͜͠ͱ͸ͳ͠ ৺ଁͷഥಈͷϦζϜΛίϯτϩʔϧͰ͖Ε ͹ɺԿΒ͔ͷํ๏Ͱײ৘Λࢥ͍ग़͢͜ͱ͕ Ͱ͖ΔͷͰ͸ͳ͍͔ -*55-&+0)/ 48 "/%'044 ," &ODZDMPQFEJBPGDPNNVOJDBUJPO UIFPSZ4"(&1VCMJDBUJPOT  *ODPSQPSBUFE
  59. &YQBOE'BC'BCSJDBUJOH0CKFDUT&YQBOEJOHBOE$IBOHJOH4IBQFXJUI)FBU ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ )JSPLJ,BJNPUP∗ +VOJDIJ:BNBPLB∗ 4BUPTIJ/BLBNBSV

    :PTIJIJSP,BXBIBSB :BTVBLJ,BLFIJ ൃ๐ࡐྉΛ༻͍ͨ๲ுΦϓδΣΫτͷ੡଄ ൃ๐ค຤ͱॊೈੑͷ͋Δ઀ணࡎΛ૊Έ߹Θ ͤΔ͜ͱͰɺ࠷େͰ໿ഒʹ๲ு͢Δ๲ ுମΛ࡞੒ ̏%ϓϦϯλ΍ϨʔβʔΧολʔ๊͕͑Δڧ౓΍ αΠζͷ໰୊Λࠀ෰ɺ๲ு͢ΔͷͰ༌ૹίετ͕ ҆͘ͳΔɺ๲ு཰Λ੍ޚ͠ͳ͕Βෳࡶͳߏ଄෺Λ ܗ੒͢Δ͜ͱ͕Մೳɺ ہॴతʹ๲Β·͢͜ͱ͕Ͱ͖ΔΑ͏ʹ̏% ϓϦϯλΛ༻੍͍ͯ࡞͓ͯ͠Γɺ$"%Λ ༻͍ͯγϛϡϨʔγϣϯΛͰ͖ΔιϑτΛ ઃܭͨ͠ ࡐྉͷൺ཰ͱ๲ு཰ͷؔ܎Λௐ΂ͨ ߴղ૾౓ͷ෺ମΛਝ଎ʹ࡞੒͢ΔͨΊʹ͸ɺ%ϓϦ ϯλͷҹ࡮଎౓΍67র໌ͳͲͷ੍ޚΛվળ͢Δඞཁ ͕͋Δɻ ௚ײతͳϞσϦϯά؀ڥΛ࣮ݱ͢ΔͨΊͷιϑτ ΢ΣΞͷվળ ҹ࡮Մೳͳܗঢ়ͷ੍ݶɺͻͼׂΕ͠΍͍͢ -PX'JEFMJUZ'BCSJDBUJPO4QFFEJOHVQ %FTJHO*UFSBUJPOPG%0CKFDUT 5&*
  60. -JDLFS"5POHVF3PCPUGPS3FQSFTFOUJOH3FBMJTUJD5POHVF.PUJPOT ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ 3ZPUB4IJKP .J[VLJ/BHBOP *[VNJ.J[PHVDIJ

    5BLBIJSP"OEP ,BOKJ5BNVSB ,FJHP)JLJ 4IP4BLVSBJ ,PJDIJ)JSPUB 5BLVZB/PKJNB 4"` ਓؒͷઉͷಈ͖Λ໛฿͢Δ͜ͱ͕Ͱ͖Δॊ ೈͳઉϩϘοτ ઌߦݚڀ͸ɺ࣮ࡍͷઉͷے೑ܥͷϝΧχζ ϜΛ࠶ݱ͢Δ͜ͱʹয఺Λ౰͍ͯͯΔ͜ͱ ͕ଟ͘ɺେܕԽ͕ͪ͠ɺجຊతͳઉͷಈ͖ Λ࠶ݱ͢Δ͜ͱʹண໨ ۦಈ෦ʹ͸ɺઉ෦༻ͷࠨӈରশ۶ۂػߏͱ टৼΓػߏ͕ઃ͚ΒΕ͍ͯΔɻ֗ಓֶతݟ ஍͔Βݟͯ΋ϦΞϧͳಈ͖͕࠶ݱͰ͖Δɻ లࣔձʹలࣔ͠൓ԠΛ֬ೝͨ͠ ߏ଄ͷ࠷దԽ΍૷ஔͷখܕԽΛਤΓɺਓؒ ΍ಈ෺ͱͷࣾձత݁߹ޮՌ͕ಘΒΕΔ͔Ͳ ͏͔Λ֬ೝ͍͖͍ͯͨ͠ *O#JPNFDIBOJDTPG-JWJOH0SHBOT )ZQFSFMBTUJD$POTUJUVUJWF-BXTGPS 'JOJUF&MFNFOU.PEFMJOH
  61. -FWJ1SPQT"OJNBUJOH-FWJUBUFE0QUJNJ[FE'BCSJD4USVDUVSFTVTJOH)PMPHSBQIJD"DPVTUJD5XFF[FST ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ 3BGBFM.PSBMFT"TJFS.BS[P4SJSBN4VCSBNBOJBO%JFHP.BSUJOF[ 6*45 ϏʔζΛ͚ͭͨಁ໌ͳບΛԻڹු༲Ͱ੍ޚ

    ͢Δ࿦จɺಁ໌ͳນʹ͸ө૾Λ౤ӨͰ͖Δ ઌߦݚڀͰ͸੩తͳු༡·ͨ͸ඇৗʹݶΒ Εͨಈ͖͔͠Ͱ͖ͳ͍ɺ࿈ଓతͳදࣔ໘Λ ૢ࡞ɺҐ૬Λ࠷దԽͯ͠τϥοϓ߶ੑΛ࠷ େԽ γϯάϧϏʔζʢҐஔ੍ޚͷΈʣσϡΞϧϏʔζ ʢ࣠पΓͷ%Ґஔͱ޲͖ʣͭҎ্ͷϏʔζ ʢ%P'੍ޚʣͳͲͷ੍ޚ͕Ͱ͖ΔɺϏʔζΛ͚ͭ ΔҐஔΛ࠷దԽ͢Διϑτͷ։ൃɺԻڹ์ࣹѹʹ Өڹ͞Εͳ͍ಁա཰Λ࣋ͭບΛ࢖༻ Ϗʔζͷ਺ͱͦͷزԿֶత഑ஔʹԠͯ͡ු ্ͤ͞Δ͜ͱ͕Ͱ͖Δບͷ࠷େͷେ͖͞Λ ௐࠪ ບͷॏྔ෼෍Λߟྀ͢ΔͱϏʔζ਺͕૿΍ ͤΔ 4PVOE#FOEFS%ZOBNJD"DPVTUJD $POUSPM#FIJOE0CTUBDMFT ͕ࣜΘ͔ΔΑ͏ʹ਺ֶͷษڧ
  62. NJMMJ.PSQI'MVJE%SJWFO5IJO'JMN4IBQF$IBOHF.BUFSJBMTGPS*OUFSBDUJPO%FTJHO ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ 2JVZV-V+JGFJ0V+PÄP8JMCFSU"OESÉ)BCFO)BJQFOH.J)JSPTIJ*TIJJ 6*45 ϛϦϝʔτϧεέʔϧͷྲྀମۭؒ΍ྲྀ࿏ͷ

    ઃܭۭؒΛ࣋ͭ༗ܗͷΞΫνϡΤʔλΠϯ λʔϑΣʔε ̲̼εέʔϧͷख๏͕ଟ͍த̼̼εέʔϧ Ͱ࣮૷͍ͯ͠Δ ϛϦྲྀମۭؒΛઃܭɾ੡࡞͢Δ͜ͱͰɺബບࡐྉΛ ༻͍ͨߴप೾ۦಈɺྲྀΕͷஞ੍࣍ޚɺߴ෼ղೳઃܭ ͕Մೳ ΞΠςϜͷॊΒ͔͞΍ܰ͞Λଛͳ͏͜ͱͳ͘ηϯγ ϯάγεςϜΛຒΊࠐΉͨΊʹɺۚଐԽϚΠϥʔΛ࢖ ༻ ৼಈप೾਺ͷௐࠪͷͨΊʹۂ͛ۂ཰൒ܘΛ ଌఆ͢ΔϓϥοτϑΥʔϜΛઃܭ ੵ૚Խ͢Δ͜ͱͰෳ਺ͷػೳΛ૊Έ߹Θͤ ΔɺϑΟϧϜͷ͞ΒͳΔബԽɺ 5IFSNPSQI%FNPDSBUJ[JOH% 1SJOUJOHPG4FMG'PMEJOH.BUFSJBMTBOE *OUFSGBDFT
  63. "%1SJOUFS)FBEBTB3PCPUJD.BOJQVMBUPS ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ 4IPIFJ,BUBLVSB :VUP,VSPLJ BOE,FJUB8BUBOBCF

    %ϓϦϯλϔουΛ࣠ϚχϐϡϨʔλͱͯ͠࢖ ༻͢Δ͜ͱͰɺҹ࡮͞Εͨ෦඼ͷ૊Έཱͯɺࢧ࣋ ࡐͷഁஅɺϏϧυϓϨʔτ্Ͱͷҹ࡮෺ͷಈ࡞ͳ Ͳɺߴ౓ͳՃ޻΍ར༻ΛՄೳʹ͢Δ৽ͨͳํ๏ ػೳϔουΛख࡞ۀͰϓϦύϨʔγϣϯ͠ ͯަ׵͢Δඞཁ͕ͳ͍ɺҰ୆ͷϓϦϯλͰ ෳ਺ͷ࡞ۀΛߦ͑Δ ϏϧυϓϨʔτ͔Βണ͕Ε΍͍͢Α͏ʹ઀ ஍໘͕গͳ͘༰қʹണ͕ΕΔΑ͏ʹࢧப΋ ͋ΔɺҰํണ͕Εʹ͘͘͢ΔͨΊʹ͸ϑΟ ϥϝϯτΛԡ͠෇͚ΔΑ͏ʹ͍ͯ͠Δ ࡾͭͷΤϯυΤϑΣΫλʔΛ੍࡞͠ɺൺֱ ͨ͠ %ϓϦϯλ͸ͲΜͳ΋ͷͰ΋͍͍͕Ϗϧ υϓϨʔτ͸ΨϥεͰ͋Δඞཁ͕͋Δɺ ϑΟϥϝϯτ΋1-" ̙̏ϓϦϯλͷੑೳʹґଘ͢Δ 6*45
  64. .)BJS$SFBUJOH/PWFM5BDUJMF'FFECBDLCZ"VHNFOUJOHUIF#PEZ)BJSUP3FTQPOEUP.BHOFUJD'JFME ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ 3PHFS#PMEV 4BNCIBW+BJO +VBO1BCMP'PSFSP$PSUFT

    )BJNP;IBOH BOE4VSBOHB/BOBZBLLBSB ମໟʹडಈతͳ࣓ੑମΛద༻͠ɺ֎෦͔Β ͷ࣓ྗઢΛհͯ͠ମໟΛܹࢗ͢Δ͜ͱͰɺ ৮֮ϑΟʔυόοΫΛ࣮ݱ͢Δख๏ ిࢠػثΛਓମʹ௚઀઀৮ͤͨ͞Γɺਓମ ʹറΓ෇͚ͨΓ͢Δඞཁ͕ͳ͍ɻ ൽෘΛ௚઀৮ͬͨͱ͖ͷͱ͏ͳڧ͍ײ֮ʹ Αͬͯػೳ͠ͳ͘ͳΔɺಠಛͷඍົͳ৮֮ ײ֮ΛੜΈग़͢  .)BJSײ֮ͷ஌֮ಛੑɺݶքɺղ૾౓ Λཧղ͠ɺ ໟ൅ͷ෺ཧతͳܹࢗʹର͢ ΔϢʔβʔͷշదੑͱड༰ੑΛ6TFSධՁ ͨ͠ Ϣʔβʔͷײ֮͸ϙδςΟϒͳײ৘΍མͪ ண͖ͷ͋Δײ৘ʹؔ࿈͍ͯ͠Δ ࣓ੴͷܗʹΑͬͯײ͕֮มΘΔ 1BJOBOE5PVDI3PMFTGPS$5BDUJMF "⒎FSFOUTJO1BJO*OIJCJUJPOBOE5BDUJMF "MMPEZOJB 6*45
  65. .PSQIMPVS1FSTPOBMJ[FE'MPVSCBTFE.PSQIJOH'PPE*OEVDFECZ%FIZESBUJPOPS)ZESBUJPO.FUIPE ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ :F5BP̈ :PVOHXPPL%P̉ )VNQISFZ:BOH

    :J$IJO-FF (VBOZVO8BOH $BUIFSJOF.POEPB +JBOYVO$VJj 8FO8BOH -JOJOH:BP খഴคϕʔεͷੜ஍ͷܗঢ়มԽಛੑΛ࣮ݱ ͢ΔͨΊʹɺ୤ਫɾਫ࿨ௐཧϓϩηεΛར ༻ͨ͠৽ن͔ͭ؆ศͳػߏΛ։ൃ छྨͷҟͳΔܹ͕ࢗτϦΨʔ มܗ৯෺ͷੜ࢈աఔͷύοέʔδԽΛࢼΈ ͍ͯΔ γʔτঢ়ͷੜ஍ͷද໘ʹߔΛ͚ͭΔ͜ͱ Ͱɺੜ஍ͷ๲५଎౓΍୤ਫ଎౓Λ੍ޚ͠ɺ ύελͷܗঢ়ΛมԽͤ͞Δɺߔͷ޲͖Ͱม ܗํ޲͕มԽ͢Δ ܭࢉઃܭπʔϧʹ૊ΈࠐΉͨΊʹߔͷܗঢ়ύϥϝʔ λɺੜ஍ͷܗঢ়ύϥϝʔλɺ੒෼૊੒ΛؚΉύϥϝʔ λΛ༻͍ͯɺมܗڍಈΛܭࢉ ܗঢ়มԽ͢Δ৯඼ͷຯͱػೳʹ͍ͭͯɺਓʑ͕Ͳͷ Α͏ʹೝࣝ͢Δ͔Λௐࠪ ιϑτ໘ͰࣗಈԽ͞Ε͍ͯͳ͍ϓϩηε͕ ͍͔ͭ͋͘Δ ৯඼͕ௐཧͷਐḿঢ়گΛࣔ͢ࢦඪͱͳΔ 5SBOTGPSNBUJWF"QQFUJUF4IBQF$IBOHJOH'PPE5SBOTGPSNTGSPN%UP% CZ8BUFS*OUFSBDUJPOUISPVHI$PPLJOH 0SHBOJD1SJNJUJWFT4ZOUIFTJTBOE%FTJHOPGQ)3FBDUJWF.BUFSJBMTVTJOH .PMFDVMBS*0GPS4FOTJOH "DUVBUJPO BOE*OUFSBDUJPO 6*45
  66. 4LJO0O*OUFSGBDFT"#JP%SJWFO"QQSPBDIGPS"SUJpDJBM4LJO%FTJHOUP$PWFS*OUFSBDUJWF%FWJDFT ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ .BSD5FZTTJFS (JMMFT#BJMMZ $BUIFSJOF1FMBDIBVE

    &SJD-FDPMJOFU "OESFX$POO "OOF3PVEBVU σόΠεࣗ਎͕ൽෘΛ࣋ͭ͜ͱͰɺΤϯυ ϢʔβʔͷͨΊͷ৽͍͠ೖྗδΣενϟʔ ʢͻͶΔɺͻ͔ͬ͘ͳͲʣΛՄೳʹ͢Δݚ ڀ ൽෘͷಛੑΛ໛฿ͯ͠ΠϯλϥΫςΟϒͳ σόΠεΛڧԽ͢Δ͜ͱΛ໨ࢦ͍ͯ͠Δ ൽԼ૚ʹয఺Λ౰͍ͯͯΔ ബ͘ɺϚϧνλονδΣενϟʔΛݕग़Ͱ ͖Δ੩ి༰ྔࣜΛ࠾༻ ਓؒͷൽෘͷݟͨ໨ͱײ৮Λ͍͔ʹ࠶ݱ͢Δ͔Λɺ ͭͷϢʔβʔελσΟΛ௨ͯ͠ݕূɺൽෘ্Ͱࣗવʹ ߦΘΕ͍ͯΔδΣενϟʔΛ͍͔ʹͯ͠εΩϯΦϯΠ ϯλʔϑΣʔεʹஔ͖׵͑Δ͜ͱ͕Ͱ͖Δ͔Λ୳ٻ ϩόετੑΛධՁ͢ΔͨΊʹ͸ɺ͞ΒͳΔ ςετ͕ඞཁɺαϯϓϧΛऔΔ෦ҐʹΑͬ ͯύϥϝʔλ͕มԽ͢Δ &WBMVBUJPOPGCJPNFDIBOJDBM QSPQFSUJFTPGIVNBOTLJO 6*45
  67. 4FMGIFBMJOH6*.FDIBOJDBMMZBOE&MFDUSJDBMMZ4FMGIFBMJOH.BUFSJBMTGPS4FOTJOHBOE"DUVBUJPO*OUFSGBDFT ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ ,PZB/BSVNJ∗ 'BOH2JO∗ 4JZVBO-JV

    )VBJ:V$IFOH +JBO[IF(V :PTIJIJSP,BXBIBSB .PIBNNBE*TMBN -JOJOH:BP ֎෦͔Βͷܹࢗ΍઀ணࡎΛඞཁͱͤͣɺػ ցతɾిؾతଛইΛຊ࣭తʹࣗݾम෮͢Δ ͜ͱ͕ՄೳͳιϑτϘσΟܕΠϯλʔϑΣ Πε ֎ྗ͕ඞཁͳ͘म෮ՄೳͰ͋Γɺࣗݾम෮ػೳΛԿ ౓Ͱ΋࢖͑Δ ݻӷք໘͕࣋ͭ࠶ߏ੒ੑɺมܗੑɺద߹ੑΛ࣮ݱ͠ ͳ͕ΒɺӷମͷΑ͏ʹ࣏༊ɾ༥ண͢Δ͜ͱ͕Ͱ͖Δ ߏ଄తʹյΕ΍͘͢ಋిੑ΋௿͍1#4ͱ ωοτϫʔΫΛܗ੒͢Δ̢̬̘̣̩͂Λ૊ Έ߹ΘͤΔ͜ͱͰಋిੑͱڧ౓ͱम෮ੑΛ อ͍ͬͯΔ ̨̥̗͓Αͼ̢̨̬̘̣̩̥̗͂ͷిؾ త͓Αͼػցతಛੑͷ྆ํʹ͍ͭͯɺ੾அ ͓Αͼ઀߹લ͓Αͼ઀߹ޙͷৄࡉͳੑೳධ Ձ ੡଄ํ๏ʹ͕͔͔࣌ؒΔͷͰ̳̏ϓϦϯ ςΟϯάͱ૊Έ߹Θ͍ͤͨ .FDIBOJDBMMZSPCVTU SFBEJMZSFQBJSBCMF QPMZNFSTWJBUBJMPSFEOPODPWBMFOU DSPTTMJOLJOH 6*45
  68. )BQ4FOTF"4PGU)BQUJD*0%FWJDFXJUI6OJOUFSSVQUFE%VBM'VODUJPOBMJUJFTPG'PSDF4FOTJOHBOE7JCSPUBDUJMF"DUVBUJPO ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ 4BOH)P:PPO∗ 4JZVBO.B∗ 8PP4VL-FF

    4IBOUBOV5IBLVSEFTBJ %J4VO ∗∗ 'MÂWJP13JCFJSP BOE+BNFT%)PMCFSZ ྗ֮ͱৼಈ৮֮ͷͭͷػೳΛ࣮ݱͨ͠ι ϑτ৮֮*0σόΠε 17%'Λϕʔεʹͨ͠ಈ࡞ͱηϯγϯάػ ೳͷಉ࣌ۦಈΛ࣮ݱ͍ͯ͠Δʹ΋ؔΘΒͣ খܕԽ͞Ε͍ͯΔ  ڧ༠ిମບΛಋిੑۜిۃͰύλʔχϯά͠ҹ࡮ٕज़ Λ༻͍ͯݸʑͷ܁Γฦ͠ϢχοτΛܗ੒͠ɺ Ϩʔβʔ ύλʔϯԽ͞Εͨ೪ணϑΟϧϜΛ༻͍ͯෳ਺ͷϢχοτ Λਨ௚ํ޲ʹੵ૚͠ɺڧ༠ిମϙϦϚʔͱిۃ૚͕ަޓ ʹੵ૚͞Εͨଟ૚ߏ଄Λܗ੒͢Δ ӈ୺ͷਤ ిؾతͳಛੑධՁʹΑΓηϯα͓ΑͼΞΫ νϡΤʔλͱͯ͠ͷ)BQ4FOTFͷੑೳΛݕ ূ ϢʔβεμσΟΛ௨ͯ͠ɺػೳੑΛݕূ ݁߹෦෼ͷ଱ٱੑΛௐ΂Δඞཁ͕͋Δ ਓ͕ײ͡औΕΔৼಈ਺ʹ࠷దԽ͞Εͯͳ͍ ֎؍Λ៉ྷʹ͢Δඞཁ͕͋Δ ՄௌҬͰৼಈͰ͖ΔͷͰԻΛग़͢͜ͱ͕Ͱ͖Δ͔΋ ͠Εͳ͍ 6*45
  69. 1IPUP$ISPNFMFPO3F1SPHSBNNBCMF.VMUJ$PMPS5FYUVSFT6TJOH1IPUPDISPNJD%ZFT ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ :VIVB+JO *TBCFM2BNBS .JDIBFM8FTTFMZ

    "SBEIBOB"EIJLBSJ ,BUBSJOB#VMPWJD 1BSJOZB1VOQPOHTBOPO 4UFGBOJF.VFMMFS ͋Δ೾௕ͷޫΛ౰ͯΔͱಁ໌͔Β৭෇͖ʹ มԽ͢ΔϑΥτΫϩϛοΫΠϯΫΛ༻͍ͨ ࠶ϓϩάϥϜՄೳͳଟ৭ςΫενϟ ઌߦݚڀͱൺ΂ͯɺղ૾౓ɺ৭Ҭɺϋʔυ ΢ΣΞͷෳࡶੑ͕վળ͞Ε͍ͯΔ ෺ମʹਧ͖͔͚ΒΕΔϑΥτΫϩϛοΫ ίʔςΟϯάΛ։ൃ ΠϯΫͷ഑߹཰͸ɺ೾௕ͷॏͳΓΛ࠷খݶ ʹͭͭ͠؀ڥޫԽͰ΋҆ఆ͢Δ΋ͷʹͨ͠ ҟͳΔ৭νϟϯωϧؒͷॏͳΓΛ࠷খݶʹ཈͑ͨ ϑΥτΫϩϛοΫ৭ૉΛબ୒Ͱ͖ΔΑ͏ʹɺ֤ϑΥ τΫϩϛοΫ৭ૉͷٵऩεϖΫτϧΛٻΊͨ ࣮ݱՄೳͳ৭ҬΛධՁ͠ɺ෺ཧతͳ৭͕Ծ૝తͳ৭ ʹͲͷఔ౓͍͔ۙΛ൑அ ࠓޙ%ϓϦϯςΟϯάʹ੡࡞ํ๏Λ֦ு :BNBEB$IFNJDBMT$P3FUSJFWFE %FDFNCFS GSPNIUUQ ZNEDIFNDPN 6*45
  70. 7JCSBUPNBUJD1SPEVDJOHWPDBMWJCSBUPVTJOH&.4 ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ 3ZPIFJ'VTIJNJ &JTVLF'VKJOBXB 5BLVKJ/BSVNJ

    5PNPIJSP5BOJLBXB .JDIJUBLB)JSPTF ") ڳࠎߕঢ়થͱԣִບͷے೑΁ͷ&.4ʹ ΑͬͯϏϒϥʔτΛ؆୯ʹ࣮ݱ͢Δݚڀ ػցతʹԻ੠ϏϒϥʔτΛ࠶ੜ͠Α͏ͱ͍ͯ͠Δɻภ৺Ϟʔλʔ ͷڧ͍ৼಈͰػցతʹڳΛػցతʹৼಈͤ͞Δ7PJDF7JCSBUPSz ͱൺ΂ɺΑΓখ͍͞ɻϏϒϥʔτΛशಘ͢ΔͨΊͷࢧԉٕज़ͷ։ ൃΛߦ͍ͬͯΔɻ&.4Λ࢖ͬͯਓମͷಈ͖Ͱ͸ͳ͘ؾྲྀ ޴Λ௨ Δۭؾ ͷ੍ޚʹয఺Λ౰͍ͯͯΔɻ ឿໟߕঢ়થ͓Αͼԣִບͷے೑ͷഥಈΛ੍ޚ͢ΔࣄͰɺϏϒϥʔ τͷप೾਺ͱৼ෯Λ੍ޚͰ͖ΔΑ͏ʹ͍ͯ͠Δɻ੍ޚΛ୯७Խ͢ ΔͨΊʹిۃͷ਺Λগͳ͍ͯ͘͠Δɻ೚ҙͷڧ͞ͱස౓ͰܹࢗΛ ௐઅ͢Δ͜ͱ͕Ͱ͖ͨΓɺ:PVUVCFʹ্͕͍ͬͯΔۂͷϏϒ ϥʔτΛ໛฿ͤͨ͞Γ͢Δ͜ͱ͕Ͱ͖Δ6*Λ։ൃ͍ͯ͠Δɻ ిۃ഑ஔ ңͱट ͷͭͷ৚݅Ͱ6TFS4UVEZΛ ߦͬͨɻܹࢗͳ͠ ࣗવঢ়ଶ wిۃ͕ңͷपΓʹ͋ Δ ң wిۃ͸टͷपΓʹ͋Δ ट ্هͷࡾͭͷঢ় ଶͰՎͬͯ΋Β͍ɺΞϯέʔτΛߦͬͨɻ ๬·͍͠ిۃͷ഑ஔͱܹࢗͷڧ͞͸ਓʹΑͬͯҟ ͳΔͨΊɺے೑ΛͲͷΑ͏ʹಈ͔͢ͷ͔ΛֶͿ͜ ͱ͕೉͍͕͠ɺϏϒϥʔτͰՎ͏͜ͱΛ͍ͭɺͲ ͜Ͱڧௐ͢΂͖͔ͱ͍͏ࣄ͸ڭ͑ΒΕΔɻ
  71. 3'5PVDI1BET#BUUFSZMFTTBOE8JSFMFTT.PEVMBS5PVDI4FOTPS1BET#BTFEPO3'*% ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ .FOH+V)TJFI+S-JOH(VP$IJO:VBO-V)BO8FJ)TJFI3POH)BP-JBOH#JOH:V$IFO 6)'ଳ3'*%Λϕʔεʹͨ࣍͠ݩλονη ϯαύουͷి஑ϨεɺϫΠϠϨεͷϞ

    δϡʔϧઃܭͷγεςϜ σʔλ఻ૹͷͨΊͷ௥Ճͷϋʔυ΢ΣΞͱిݯ Λඞཁͱ͠ͳ͍ ΧϝϥͷΑ͏ʹΩϟϦϒϨʔγϣϯ΋ඞཁͳ͍ ճ࿏ʹେܕͷΞϯςφΛඞཁͱ͠ͳ͍ 6)'ଳ3'*%λάͷճ࿏ͷҰ෦Λ੾அ͢Δ ͜ͱͰ৮͚ͬͨ࣌ͩ௨ి͠৴߸ΛૹΔΑ͏ ʹͳΔ 6)'ଳ3'*%λάΛࡾछྨ༻ҙͦ͠ΕͧΕ ̍̌ݸͮͭ༻͍ͯൺֱ͍ͯ͠Δ ෳ਺ͷλά͕༗ޮʹͳΔͱׯবͯ͠͏·͘ ݕग़Ͱ͖ͳ͍ ΞϯςφΛ࠶ઃܭ͢Δ͜ͱͰਫ਼౓Λ্͛Β ΕΔ͔΋ɺDNYDNͱղ૾౓͕௿͍ 6*45
  72. 7FOPVT.BUFSJBMT5PXBSET*OUFSBDUJWF'MVJEJD.FDIBOJTNT ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ )JMB.PS5JBOZV:V,FO/BLBHBLJ#FOKBNJO)BSWFZ.JMMFS:JDIFO+JB)JSPTIJ*TIJJ $)*` ѹྗ΍ۂ͛ͳͲͷϢʔβʔ͔Βͷೖྗʹ

    ΑͬͯมܗʹԠ౴͢Δྲྀମػߏͷઃܭख๏ Λఏࣔ ιϑτϚςϦΞϧ಺ʹྲྀମܦ࿏Λܗ੒͢Δ ͱ͍͏৽͍͠ΞϓϩʔνͷఏҊ ࣮૷ͯ͠͠·͑͹ϋʔυ΢ΣΞʹΑΔ੍ޚ ͕͍Βͳ͍ Ϣʔβʔ͕੩຺ߏ଄ͷϞσϧԽɺγϛϡ Ϩʔγϣϯɺௐ੔Λߦ͏͜ͱ͕Ͱ͖Δઐ༻ ͷઃܭπʔϧΛ࣮૷ γϛϡϨʔγϣϯͰ࢖༻ͨ͠ϞσϧΛςε τ͢ΔͨΊʹ͍͔ͭ͘ͷ࣮ݧΛઃܭ͠ɺະ ܾఆͷύϥϝʔλΛଌఆʢ଱ѹϚοϓɺʣ ࡐྉࣗମʹ͔͔Δྗ΍νϟϯωϧ಺ͷߴѹ΁ͷ ରԠʹΑͬͯେܕԽͰ͖Δɺ௕࣌ؒͷ࢖༻ʹ Αͬͯؾ๐͕ग़ͯ͘Δɺଟ૚ߏ଄ͱަࠩ͸γ ϛϡϨʔτͰ͖ͳ͍ɺӷମࡐྉΛม͑ͯΈΔ (FPSHF.8IJUFTJEFT5IF PSJHJOTBOEUIFGVUVSFPGNJDSPqVJEJDT /BUVSF   
  73. 5BDUUPP"5IJOBOE'FFM5ISPVHI5BUUPPGPS0O4LJO5BDUJMF0VUQVU ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ "OVTIB8JUIBOB%BOJFM(SPFHFS+ÛSHFO4UFJNMF 6*45` Ϣʔβʔͷൽෘʹిؾ৮֮Λग़ྗ͢ΔͨΊ

    ͷϑΟʔϦϯάɾεϧʔɾΠϯλʔϑΣʔ ε ߴղ૾౓Ͱ͋Δ৮ܹ֮ࢗͱిؾܹࢗΛཱ྆ ͢ΔΠϯλʔϑΣʔεͷ։ൃɺॊೈੑ΋͋ Δ εΫϦʔϯҹ࡮ͱϨʔβʔύλʔχϯάΛ࢖༻ ͯ͠࡞੡͞Εͨ৽͍͠૚ঢ়ͷΞϓϩʔνʹΑͬ ͯൽෘͱిۃͷؒʹ΢Σοτήϧ͕ඞཁͳ͍ ਓͷࢦઌͷిؾ৮֮ͱಉ౳ͷղ૾౓Λ࣋ͭ  ൽෘʹ৮֮Λ༩͑Δ͜ͱ͕Ͱ͖Δ͔ʁ ֎෦͔Β ͷ৮ܹ֮ࢗΛײ͡Δ͜ͱ͕Ͱ͖Δ͔ʁ  ਎ମͷ೉͍͠৔ॴʹ΋͔ͬ͠Γͱ૷ணͰ͖ɺ଱ٱ ੑ͕͋Δͷ͔ʁ Λඃݧऀ࣮ݧͰௐ΂ͨ ৮ܹ֮ࢗͱίϯϐϡʔλͰੜ੒͞Εܹͨࢗ Λ૊Έ߹ΘͤΔ͜ͱ͕ՄೳʹͳΔ͜ͱΛࣔ ͨ͠ ਫʹΑΔӨڹ͕େ͖͍ 4NBSU5PVDIFMFDUSJDTLJOUPUPVDIUIF VOUPVDIBCMF %FTJHOPGFMFDUSPUBDUJMFTUJNVMBUJPOUP SFQSFTFOUEJTUSJCVUJPOPGGPSDFWFDUPST
  74. *OUFMMJHFODF"VHNFOUFE3BU$ZCPSHTJO.B[F4PMWJOH ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ :JQFOH:V (BOH1BO :POHZVF(POH

    ,FEJ9V /FOHHBO;IFOH 8FJEPOH)VB 9JBPYJBOH;IFOH ;IBPIVJ8V 1-640/&b ϥοταΠϘʔάΛߏங͠ɺػց஌ೳΛ౷ ߹ͯ͠໎࿏୤ग़λεΫΛߴ଎Խ͢Δํ๏Λ ࣮ূ ੜ෺ͱػցͷ྆ํ͕ͦΕͧΕͷ௕ॴΛੜ͔ ͨ͠αΠϘʔάΛ։ൃ͠༗༻ੑΛࣔͨ͠ ۭؒೝࣝೳྗʹ༏ΕͨωζϛΛ࣮ݧʹ༻͍͍ͯΔ಺ ଆલ಄ଋʹిؾܹࢗΛྲྀ͢ࣄͰυʔύϛϯΛग़͠ใ ुͱͯ͠લํʹਐΊ͍ͯΔɺମੑײ֮ൽ࣭ʹిؾࢗ ܹΛ༩͑ΔࣄͰωζϛ͕ώήʹԿ͔৮Ε͔ͨͷΑ͏ ʹࡨ֮ͤ͞ࠨӈํ޲ʹճస͢Δώϯτʹ͍ͯ͠Δ ίϯϐϡʔλʹΑΔ໎࿏ղ๏ɺϥοτʹΑ Δ໎࿏ղ๏ɺϥοταΠϘʔάʹΑΔ໎࿏ ղ๏ͷ࣮ݧΛߦ͍ൺֱͨ͠ ղ͔ͤΔλεΫྔΛ্͛ෳࡶੑ΋͋͛Δ ίϯϐϡʔλʹΑΔΞγετͷׂ߹Λ͋͛ ΔΧϝϥΛഎෛΘͤͯԿ͔͠ΒͷϑΟʔ υόοΫΛ༩͑Δ 3BUOBWJHBUJPOHVJEFECZSFNPUFDPO USPM/BUVSF
  75. #JPMJUIPHSBQIZ4MJNFNPVMEQBUUFSOJOHPGQPMZBOJMJOF ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂͍͢͝ͱ͜Ζ ٕज़΍ख๏ͷΩϞ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ʁ ٞ࿦͸͋Δ͔ʁ ࣍ಡΉ΂͖࿦จ 5BUJBOB#FS[JOBB ∗ "MJDF%JNPOUFB

    "OESFX"EBNBU[LZC 7JDUPS&SPLIJOB 4BMWBUPSF*BOOPUUBB "44 ೪ەΛ༻͍ͯిࢠճ࿏Λ࡞Δݚڀ ಋిੑϙϦϚʔΛ༻͍Δ͜ͱͰෆ҆ఆͩͬ ͨճ࿏Λ҆ఆԽ͍ͯ͠Δ ϙϦϚʔͷϚεΩϯάΛࢎԽϓϥζϚॲཧ ͢Δ͜ͱͰ໰୊Λղܾ͍ͯ͠Δ ϖτϦࡼʹϙϦΞϛυΛؚΜͩפఱΛ༻͍Δ͜ͱͰפఱ ʹిؾ఻ಋੑΛ͍࣋ͨͤͯΔɻ࣪౓Թ౓͕؅ཧ͞Εͨ ҉ࣨͰ࣌ؒ࠿ഓͨ͠΋ͷΛ༻͍ͨˢͷޙʹەͷܗଶ ΛมԽͤͯ͞Ҡಈ͠ͳ͍Α͏ʹݻఆͨ͠೪ە͕ωοτ ϫʔΫΛ࡞Βͳ͔ͬͨ෦෼͸ϨʔβʔͰ੾Γऔͬͨ ࣮ݧɾ೪ەͷωοτϫʔΫ͕͋Δ෦෼ΛϨʔβʔͰ੾ Γग़͠ɺ೤౬Λ༻͍ͯ೪ەΛચ͍ྲྀͨ͠ ఍஋Ld .Њ  ࣮ݧɾ࣮ݧͷޙɺ೪ەΛ͚ͭͨ··੾Γग़͠ɺ೪ەͷ ্ʹബ͍ບΛॏͶͯ೪ەΛอޢͨ͠ લʹߦͬͨݚڀͰిؾܹࢗΛ༻͍ͯ೪ەͷ ճ࿏Λ࡞Δͱ͍͏΋ͷ͕͋ΔͷͰͦͪΒʹ స༻ͤ͞Δɺ੡࡞ͨ͠ωοτϫʔΫͷதͰ ೪ە͕਺೔͔͠ੜ͖ΒΕͳ͍ $POEVDUJOHQPMZBOJMJOFTEJTDIBSHF MBZFSTGPSFMFDUSPOCFBNMJUIPHSBQIZ
  76. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? ホログラフィックイメージコンバイナーの⾊分散を⽬の前で補正する新しいホログラ フィック回折格⼦を採⽤した独⾃のリレー光学系により、⾼解像度(1280×720p) 広視野(対⾓47度)⾼透明度(85%以上)⼿のひらサイズの⼩型化を実現した。 アイボックスサイズによって虚像の視認範囲は決まる。これが⼈の⽬の⼤きさを超え

    るとホログラムなどの虚像が⾒えようになるが、 LBSベース(レーザービーム⾛査 法)のニアアイディスプレイの⽋点であるアイボックスが⼩さいといった問題は、提 案された光学系では解決されていない。 LBSベースのニアアイディスプレイは軸外収差のためにより⼤きな視野を実現するこ とが困難であったが、新しいホログラフィック回折格⼦を⽤いたリレー光学系を採⽤ したことにより、ホログラフィックイメージコンバイナーの収差を低減することに成 功した。 リレー光学系に共役分散グレーティングであるホログラフィックコンバイナの⾊分散 を打ち消すホログラフィックコンペンセータを設置することで、レーザースペクトル の⾊分散により仮想画質が劣化及び軸外乱視や球⾯収差の補正効果も向上した 実際にプロトタイプを作成し、画像を観察した。 太陽光下でも観察可能な明るさを実現。 観察者が仮想画像の中の⿊を認識できた。(レーザー画像のコントラストが⾼いた め) https://onlinelibrary.wiley.com/doi/abs/10.1002/sdtp.10
  77. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? メタマテリアルミラーを⽤いた網膜投影 マイクロミラーで光線を集光することで、低エネルギーで歪まずに常にピントの合っ た波⾯を投射することができる 従来の網膜投影による視野⾓とアイボックスサイズの問題による光学回路図設計が難

    しかったがこの⼿法を⽤いることで安易に設計可能。 実際にプロトタイプを作成して観察した。 網膜ぼかし?をシミュレートした結果の画像を取得。 マイクロミラーに光線を集光させることで低エネルギーでかつ常にピントの合った波 ⾯を歪まずに投影できる。 また、眼球レンズの光学的な歪みを回避し光学的な回路図を容易に設計するために レーザー投射システムを採⽤。 すべての光学部品が仕様を満たしていれば網膜ディスプレイの視野⾓は、 レーザー光源の視野⾓と⼀致すると書いてあるが実際は? https://doi.org/10.1145/3130800.3130889 https://dl.acm.org/doi/10.1145/3174910.3174911 https://arxiv.org/abs/1804.01253
  78. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 広視野・⾼解像度の光学透過HMDを実現するための新しい⼿法であるエアマウント アイピース(AME)の提案 ゴーストイメージ(レンズ内で反射した光が の

    とかになって写りこむ現象) の影響を考慮した視野⾓の検討。 Near-eye displayの利点の⼀つである視線追跡機能を備えた空中装着型アイスピース の開発 周辺視野を確保するために接眼レンズを⽤いていたが、この⽅法では接眼レンズに よって⾵景が歪められたりすることからシースルーARに適⽤することが困難だった。 透過型ミラーデバイス(TMD)を⽤いた光学シースルー(OST)HMDを⽤いることで可 能となる。(TMDはシースルー光学素⼦により環境の⾵景と視覚情報を同時に得るこ とができるため)またTMDはマイクロミラーで構成されているため歪みを引き起こさ ず、光路⻑が短い(加えてレンズ位置を眼球に近づけることができる)ため視野⾓が広 い。 TMDの原理は再帰反射であるため、転写された画像は点光源の集まりで表される。 よって、TMDの中に配置されたレンズは点光源の集まりによって再現された空中レ ンズのように振舞う点。(ゴーグルがなくてもVRHMDと同様の体験ができる) 実際にプロトタイプを実装し、評価実験を⾏った。 実際の画像、レンズを介した画像、ピッチサイズがそれぞれ0.2mm, 0.3mm, 0.5mm のレンズとTMDの画像を⽐較した。⼗分な画質が得られたがTMDは画像の明るさを 低下させこと、ピッチサイズが⼩さいほど解像度が⾼くなることが確認できた。 TMDとHoloLensを⽐較すると視野⾓がTMDの⽅が⼤きいことが確認できたが、 TMDの⽅はゴーストイメージが起こった。 https://digitalnature.slis.tsukuba.ac.jp/wp-content/uploads/2018/06/2018- siggraph-ame.pdf
  79. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 透過型ミラーデバイス(TMD)を⽤いた広視野⾓、⾼解像度の新しい ニアアイシースルーディスプレイの開発。 シースルーディスプレイでは広視野⾓を得るのが困難であるが、既製品のHMDと TMDを組み合わせて簡単に組み⽴てることができる。

    視野⾓が広い。(光路⻑が短いから) 実際に対⾓視野⾓100度のプロトタイプを作成し画像を取得、観察。 暗くなる。(明るさ減少) TMDを⽤いることで空中で表⽰が可能。 HMDのレンズと同じ機能を持つバーチャルレンズを空中にレンタリングすることで 眼球とレンズの光路⻑が短くなりシースルー機能を備えた広い視野⾓を提供すること ができる。 TMDによって実際の⾵景から明るさが減少した。材質や構造とトレードオフの関係 があるため、考慮すると良い。 ゴーストイメージが現れてしまい、視界を妨げる。不要な光路をカットすることを考 える必要がある。 file:///Users/eusoff/Downloads/3145749.3149425.pdf
  80. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? ライトフィールドを⽤いたニアアイディスプレイの提案 薄型で軽量 ライトフィールドを合成することで鮮明な画像を⾒ることができる 実際にプロトタイプを作成。

    ただのマイクロディスプレイとニアアイライトフィールドディスプレイで⽐較し有効 だと⽰した。(作成したものの⽅が鮮明に写った) 解像度が下がってしまう。 既存のインテグラルイメージングディスプレイとマイクロレンズを⽤いたライト フィールドカメラの類似点を共有して性能を最適化 https://graphics.stanford.edu/papers/lfcamera/lfcamera-150dpi.pdf https://doi.org/10.1145/2185520.2185577
  81. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 次元画像にリアリティを与える技術の提案 従来より透明度と輝度が⾼いホログラフィックスクリーンの作成 照明下でも観察できる 既存のホログラフィック光学素⼦技術を応⽤して独⾃に作ったホログラフィックスク

    リーンを作成。これにより特定の波⻑の光を特定の⾓度で回折、散乱させることが可 能となり、背景の光や明るい照明下でも影響を受けることなくプロジェクターの光を 表⽰することが可能。 実際にプロトタイプを作成。 ⽔平⾯から10度の⾓度でヘイズと相対輝度の関係を調べ、従来の透明スクリーンと⽐ 較。作成したホログラフィックスクリーンはヘイズが低くても⾼い輝度を実現してい ると確認した。 2次元画像だけでなく、3次元映像を作ったらもっとリアリティが増しそう。 光を回折や散乱させてコントロールできれば環境に左右されないことがわかった。 https://dl.acm.org/doi/10.1145/2818466.2818472
  82. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 平らなテーブルの表⾯に3D映像を浮かび上がらせる3Dディスプレイの提案 360度の3D映像を各視聴者が正しい⾓度で観察できる、テーブル上での作業を邪魔し ない、視聴者の数を制限しない、特別なグラス(3Dメガネなど)を着⽤する がない、

    以上の4点をすべて満たしている。 認識される画像は のスクリーンに円形配置されたプロジェクタからスクリーン に向かって投影されたものを統合したもの。統合された画像のペアには両眼視差が含 まれるため⽴体的に⾒える。 実際に作成しデモを⾏い3D映像が表⽰されるのを確認した。 テーブルに着席している⼈を対象にしていたが、後ろで⽴っている⼈にも映像が確認 できた。 3D映像作成するには両眼視差を取得する がある。 特定の部屋の中にいる⼈ の両眼視差を取得できあれば、3Dメガネをかけずに3 D映画を⾒ることは可能? https://www.osapublishing.org/DirectPDFAccess/0D697E94-3CF3-4B8F- 9EE07013CA1C6B93_344413/oe-24-12- 13194.pdf da 1&id=344413&seq=0&mobile=no
  83. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 机 などの光沢がある表⾯に空中画像を形成できる持ち運び可能な光学系PortOn の提案 な光を消去することで空中画像を鮮明に表現できる。(視野⾓制御と偏向操作を

    ⾏った) 偏向 と波⻑ を⽤いることで な光を消去もしくは偏向 態を変える。ただし、 偏向 態によって なるため種類ごとに設計する がある 100mm×125mm種マイクロミラーアレイプレート(MMAP) 源として種タブレッ トそしてそれを収納するケースからなるプロトタイプを作成。プロトタイプ種近く種 光沢 など叩くとマイクが⾳を認識しCGキャラクターを び出せるようにし た。 反射によって形成された画像が削除されている種を確認した。 偏光板を利⽤削除ことで特定の⽅向に振動 みを通過させたり、消 したりでき除。 画では暗削ぎ除もしくは明除削ぎ除場所だ 鮮明に⾒えない Displaying a Vertically Standing Mid-air Image on a Table Surface Using Reflection. (2015)
  84. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? テーブルの表⾯に中空画像を表⽰することができるEnchanTableを提案 反射⾯があれば空中映像を表⽰させることが可能。 Aerial- maging

    Plate(A P)により空中映像を表⽰。 vie - control film(VCF)により な上向きに投射される光(利⽤者に向かう光)を 。(意図 原 になるため) 頭上のプロジェクターで影を表⽰ 実際にプロトタイプを作成、実際の映像を前後左右で観察。 反射⾯があればいいから⾃由 カードゲームとか卓上でできるコンテン に利⽤したら⾯⽩くなりそう Kim, H., et al. 01 . HoVerTable: Dual-sided Vertical Mid-air Images on Horizonta Tabletop Display.
  85. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 対⾯した ーザーに異なる映像を表⽰できる卓上ディスプレイ HoVerTableの開発、提案 結

    AIPを⽤いることで空中画像を形成。 散制御フィルム umistyを⽤いることで⼊ 散させる。これに より空中画像を形成するディスプレイからの光を 散させずにAIPを通過させる、画 像投影のためにA P表⾯で 散させ除といった つの する を満たした。 実際に開発した。 散制御フィルム(Lumisty)がない場合空 みでテーブル ⾯の画像は投影されず、ある場合はテーブル上空中両⽅で画像が表⽰されたのを確認 した。 結像位置が固定されてしまう。( アクチュエーターで可能) Nagakura, T., and Oishi, J. Deskrama. In Proc. of SIGGRAPH Emerging Technologies, ACM ( 6), Article No.6. 表⽰ が⽔平⾯に限定されず、表⽰画像が⾒え⽅(⾒る⽅向)に 存しない
  86. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 視覚の ⾏きに 存しないARメガネIlluminatedFocusの提案 に

    存しないで焦点を合わせ (または外す)ことができる。( までは特定の 離でしか焦点を合わせ除ことができていなかった) 60Hzで周期的に変わ除電気的に焦点調整可能なレンズ(ETL)と⾼速プロジェクターを 同期させて対象に適切なタイミングで照射することでボケ効果を得れる 実際に製作して焦点の移動(奥と⼿前)を⾏いボケ効果及び視覚の奥⾏きに依存して いないのを確認。 視覚増強 複数 ARメガネで適⽤させた。(視界から物体を無くす(存在 を薄める)、視覚的な案内など) 明除いところでは使えない。(暗い場所で使⽤する前提で開発) くない Hajime Hata, Hideki Koike, and Yoichi Sato. 2016. Visual Guidance with Unnotice Blur Effect. In Proc. AVIʼ 16. ACM, 28‒35.
  87. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 点調整可能な近眼⽤ディスプレイ 点調整可能。(今までは固定されていた)これにより、形 覚やより⼤きな深 の判別も可能となる

    点調整 備えた 液晶ディスプレイ 詳しく書いてなくてよくわからなかった 実際に試作して、いくつかのモード(Conventional Near-eye Displays, Adaptive Depth of Field Rendring, Adaptive Focus Display , Accommodation-invariant Near- Eye Display)を評価した 「あらゆるVR/ARディスプレイの究極の⽬標は物理的なシーンに対応する完 な4D ライトフィールドを視聴者の⽬に照射すること」という⾔葉は印象に残った AKELEY, K., WATT, S., GIRSHICK, A., AND BANKS, M. 2004. A stereo display prototype with multiple focal distances. ACM Trans. Graph. (SIGGRAPH) 23, 3.
  88. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 3D画質に影響を与える均⼀性劣化の影響 析し、ビューマップ上のビュー を クロストークノイズ(

    な隣接視差画像間で光線が重なり合う)などを低減 ビューマップ上のビュー指標 出⼒輝度の均⼀性パーフォマンスを向上させ 除。レンチキュラーシート測定した時、画⾯の左上と右上の領域が中央部と⽐べて輝 度値が低くなっていたので平均化した。 テストパターン画像とミド 複数のテスト画像を⽤いた実験を を⾏い、 な隣接ビュー9がビュー1に変換 確認。 第3の視聴位置から撮影された画像に写っていたghost artifacts( 重複したり三 重化したりする)が低減されるのを確認。 出⼒輝度の均⼀性を向上させると知覚される三次元画像の品質が向上する Autostereo displays: 3D ithout glasses N. A. Dodgson
  89. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 3Dメガネなしで⽴体的な映像が⾒ることのできる⾃ ⽴体視ディスプレイを実現す る 技術

    空 (spatial multiplex) 7ビュー(7視点?)液晶パネルとレンチキュラーシー トを持ちいて⽔平⽅向と垂直⽅向のものを重ねることで⽴体画像を表⽰する マルチプロジェクター:各視点に単⼀のプロジェクタ偏を⽤い除(費⽤がかか除、位 置を正確に合わせ除必要があ除) タイムシ偏ケンシャル:⾼いフレ偏ムレ偏トで動作する単⼀ディスプレイを使⽤ 検証していない。基本技術を述べてぎるのみ 空間多重、マルチプロジ クター、タイムシーケンシャルがキーワード。説明が少な すぎて具体的内容はよくわからなかった C. van Berkel and J. A. Clarke, “Characterisation and optimisation of 3D-LCD module design”, Proc. SPIE,301 , 179‒186 (1997) G. R. Little, S. C. Gustafson and V. E. Nikolaou, “Multiperspective autostereoscopic display”, Proc. SPIE, 19, 388‒394 (1994)
  90. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 透過型ARディスプレイの提案。 普通のメガネに近いコンパクトなフォームで広視野 今い視野⾓をもち薄 形。(両⽅満たしてぎるのは初めて)

    空間変調器(LCD)は焦点をぼかされたピンライト(点光源 の疎な配列。プロジェクター⽤の点光源 板に⼩さな⽳を開けて作除。 ⼈間の⽬には感知できず透明 形 実際にプロトタイプを作成し性能評価を⾏ない、視野⾓110度を確認。 アイトラッキングは実装されていない。 デバイスの厚さの減少、透明性 ⽐種改善 改良 して性能上げられる余地 BROWN, M., MAJUMDER, A., AND YANG, R. 00 . Camera- based calibration techniques for seamless multiprojector dis- plays. Visualization and Computer Graphics, IEEE Transactions on 11, (March), 193‒ 6.
  91. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? ⽔⾯下(または⽔⾯上)で⾁眼で⾒れる空中映 ションシステム FairLiftの提案 AR

    にある実 がAR画像を してしまうオクルージョ ⽔を らすことなく、周囲を らすことなく空中映像を表⽰させることが可能。 光学式サブシステムとフィードバック式サブシステムの つから構成。前者は MMAPsを⽤いて⽔位の情報に基づき空中映 形 後者は空 互作⽤が 必要な⽔位の情報記録して前者に送信する。超⾳波センサーで⽔位を追尾することで 空中映像を救い上げることを可能とした。 FairLift(空中映像を⼿のひらで救い上げることが可能)、Augmented RealiTea(カッ プにお茶を注ぐとカップ内に表⽰されてい除蕾が徐々に開花する)、Sky Lanterns(⽔ ⾯に触れると本物の船の周りにランタンの映像が浮かび上がる)の3つのインタラク ション体験を開発。 ⽔は普通の⽔なので⾃由 オクルージョ ?(触れられていない) H. Yamamoto, H. Ka ita, N. Koizumi, and T. Naemura. 2015. EnchanTable: Displaying a Vertically Standing Mid-air Image on a Table Surface using Reflectio
  92. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? ⼊浴剤を⽤いて⽩くした⾵呂の湯の表⾯に情報を投影し,利⽤者がジェスチャーを⽤ いて情報と対話することができるインタラクティブな⽔⾯ディスプレーシステムをの 提案 ⽔に特化したジェスチャー(通常タッチインタラクション)を⽤いることで直感的に

    ⾏えるようにした。(深 カメラを利⽤。RGBカメラよりエラーが少ない) ジェスチャーは、下から指をつく、⼿で⽔を撫でる、⽔を掬う、⽔を打つの4つ。 流体シ ュレーションによりユーザーに拡張現実感を体験させた。 ⼊浴剤で⽔が濁ることで深度カメラからのIRパターンを⽔⾯に拡散させることができ、 それにより⽔深情報を得れる。 実際にシステム及び複数 ケーションを実装。4つのジェスチャーで操作可能 な⽔⾯ユーザーインターフェース、それをを⽤いてのゲームを開発。(シューティン グゲーム、⾦⿂すくい、ポンゲーム) ⽔の濁り具合(⼊浴剤の量)視認性の評価実験を⾏なった。多いほうが⾒やすぎ結果 となった ⾵呂場にプロジ クターを置く必要があるので携帯の⽅がぎぎ。 ジ スチャーによる操作の精度はどれぐらぎか 意図しなぎ操作をしてしまう可能性がありそう P. C. Barnum, S. G. Narasimhan, and T. Kanade. A multi-layered display ith ter drops.
  93. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? ⽔滴を⽤いた多層ディスプレイ 3つのスクリーンをレイヤー に重ねて⼀つのプロジェクターで なった映像を

    す ⽔滴をカメラとプロジェクターと同期して⽣成されるのでカメラを使って⾃動的に⽔ 滴の位置を検出可能とした。これにより容易にコンテンツ制作が可能となった。 (⽔滴の落ちるタイミングはバラバラでありその時差を使って画像を投影している。 よって⽔滴の位置が不正確だったり画像の切り替えタイミングがずれたりするとうま くいかないので⾼い精度である必要がある。) 実際に作成して、映像、⽂字、ゲーム、画像の4つを投射し、映像を確認した。 ⽔滴の数を やす(解像度が上がる。プロジ クターの性能次第で可能。気泡を作っ たり、ジ ットを撹乱することで液滴ストリームを⽣成したりでも やせるらしい) ⽔滴の数が⼤幅に えればや3D没⼊型⽔滴ディスプレイを作成可能 BARNUM, P. C., NARASIMHAN, S. G., AND KANADE, T. 2009. A projector-came system for creating a display with water drops. In IEEE International Workshop Projector-Camera Systems.
  94. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 異なる深度位置で必要な場所だけに を発 させ、プロジ クシ

    ンマッピングを適 ⽤することで3D表⽰可能フ グスクリーンの提案 3D表⽰可能。(従来は D) 深度カメラと ンドトラッキングを組み合わせることで、正確な3D位置に画像の形 成、もしくはフリー ンドのドローイングを可能とした。 実際に製作し、 なる位置にSIGGRAPH が表⽰されるのを確認した。 噴出され、浮遊する 体に れることでインタラクティブなことができる。 A Multi-Layered Display with ater Dropsの⽔滴を限りなく⼩さくしかつ⼤量にか つデイスプレイを多層化したもの。 YAGI, A., IMURA, M., KURODA, Y., AND OSHIRO, O. 2011. 360- degree fog projection interactive display. In Proceedings of SIGGRAPH Asia 2011 Emerging Technologies.
  95. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 体の グディスプレイを開発する スクリーンはミー散乱により同じ視点からしか⾒れないが、 数のプロジ

    クター を組み合わせることにより、同時に 数の視点からそれぞれの 体を認知できる。 なる視点からスクリーンに向けて3つのプロジ クターから映像を投影する。 通常 スクリーンはミー散乱により正⾯からしか⾒えない。しかし、 数のプロジ クターを組み合わせることで正⾯以外( のプロジ クターから⾒たら正⾯)で映像 を観測できる。 プロトタイプを作成し、異なる視点から⾒える複数の画像を1つのスクリーンに投影 した。この時の画像は混ざり合っておらず、単⼀の画像のみが観測できた。(ミー散 乱により正⾯以外の映像は⾒えない) ⽇⽴のTranspost [Otsuka et al.2006]やソニーのRayMod- eler [Ito et al.2010]のよう に、複数の画像を投影する点は同じであるが、向かい側に別の観察者がいる場合プロ ジ クターの光を遮ってしまうため360度にする場合は制約が必要。 ITO, K., KIKUCHI, H., SAKURAI, H., KOBAYASHI, I., YA- SUNAGA, H., MORI, H., TOKUYAMA, K., ISHIKAWA, H., HAYASAKA, K., AND YANAGISAWA, H. 2010. 360- degree autostereoscopic display. In ACM SIGGRAPH 2010 Emerging Technologies, 1.
  96. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? エアロ ル( 体もしくは 体)ベースの

    を⽤いて空 をレン ングする新しぎ⼿法の提案 従来は空 の流れの影響を受けやすく発⽣装置が⼤きな⾯ を めてぎたが、⾵に く 性に れた既製品種スプレー 揮発性の⾼ぎ成分である スプレー種エアロ ルスプ卓ー、分 が短くなく広い芳 ⾹剤⽤ノズルの組み合わせ。 ウェアラブ ケーション、多視点ディスプレイ、ドローンやラジコンモデル カ偏を⽤いた空撮などを⾏ない、観察した ゾ 環境や⼈体への影響による危険性。(可燃性 のため発⽕の危険や、微量の毒を含んでい除可能性もあ除) ガス圧が低いことから引き起こされ除、映 安定性、画⾯⾯積が⼩さい、耐⾵性 (⾵に強いが限界があ除)の問題 RAKKOLAINEN, I., DIVERDI, S., OLWAL, A., CANDUSSI, N., HU ̈LLERER, T., LAITINEN, M., PIIRTO, M., AND PALOVUORI, K. 2005. The interactive fogscreen. ACM SIG- GRAPH 2005 Emerging Technologies, ACM, New York, NY, USA, SIGGRAPH ʼ05.
  97. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? F g screen を⽤いたインタラクティブ

    ーシ ンの提案 インタラクティブな点。 これによりコミュニ ーシ ンやアート、エンターテインメントなど くの分野で応 ⽤できる可能性がある 既に研究され発表されたものを紹介したのみ。検証はしていない 受動的に広告を視聴するのではなく能動的になる可能性。 展⽰会、博物館、科 シアターでのウォ 邪魔にな らない) RAKKOLAINEN, I., PALOVUORI, K. 2004. Interactive FogScreen poster, ACM UIST 2004, Santa Fe, NM, USA, October 24-27, 2004.
  98. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? alk-through型の スクリーンをコンピュータのタッチ 利⽤でき るように拡張したインタラクティブ霧スクリーンの提案

    「⾒る」だけのものだったのをインタラクティブな霧スクリーンになった 低コストの超⾳波トラッキングを⽤いて⼿の動きを追跡してソフトで解析する、表⽰ スクリーンを邪魔しないようにスクリーンの少し⼿前で描く。(先端が湿気に弱いの も理由の⼀つ) デモソフトを使って、画⾯上に燃えるような⽂字を描いた コンピュータビジョンベースの指のトラッキングでも試みている。(他のトラッキン グでも使⽤できる) 詳細な作業をするには精度があまり⾼くないためできない Rakkolainen, I., and Palovuori, K. WAVE ‒ A Walk- thru Virtual Environment. In CD Proceedings of 6th Immersive Projection Technology Symposium in association with IEEE VR 2002 Conference, March 24- 25, 2002, Orlando, FL, USA.
  99. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 3Dプリンタのステージ上に浮遊画像を表⽰できるプリンタ ードウェアの作成、表 ⽰された画像とプリンタの 作を同時に制御できる

    フトウェアとインターフェース の開発、デリングプロセスとマテリアライズプロセスをシームレスにつなぐためのイ ンタラクティブ機能の提案、 デジタル品と実物の物理作品をシームレスに接続するできる。これにより印刷しなが ら3Dオブジ クトを編集できる。 3Dプリンタ(Solidoodle 2nd Generation)、実物結像光学系を搭載した中空ディス プレイ(ASUKANET AI Plate、360mm⾓)、結像光学系を印刷台に対して45度の⾓度 で固定し、光学版の下にディスプレイ(ProLite X2377HDS:サイズ 286.4×509.2mm、解像度1920×1080ピクセル)を配置しこれらの光学系を⽤いるこ とで3Dプリンターに⼲渉することなく空中画像を表⽰することができる。 プリンタにWebカメラを取り付けることでユーザの顔を追尾してモデルの⾓度を変え、 ⽴体的に⾒せる。 実際に作成し、いくつかの実物を製作しながら観察した。(ウサギ、⾞、指輪) シンプルなデザインではできたが複雑なデザインで⽤いるためには機能を追加する必 要がある INTERACTIVE FABRICATION: NEW INTERFACES FOR DIGITALFABRICATION. IN PROCEEDINGS OF THE FIFTH INTERNA TIONAL CONFERENCE ON TANGIBLE, EMBEDDED, AND EMBODIED INTERACTION, (2011)
  100. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? マルチプロジェクタシステムであるFragment Shado を⽤いて 視

    覚的に変換された光と影を する。 次元 与える技術の提案 数のプロジェクタが なる映像を同時に同じ投影⾯に出⼒して個々の出⼒映像を合 成することで、投影⾯上の物理的なレンダ 制御する。 実際に作成して影が⿊のみではないのを確認した。 Movie-in-Shadow [Minomo et al., 2006] 複数のプロジェクターを利⽤することで遮蔽されてできる影は⿊のみではなくいろん な のものができる。(他のプロジェクターからは遮蔽されてないから) 動画で影の上に映像があるように⾒えて⾯⽩かった。
  101. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Altered Touch: Miniature Haptic

    Display with Force, Thermal and Tactile Feedback for Augmented Haptics খܕͷࢦઌ৮֮σΟεϓϨΠͱ, ͦΕΛ༻͍ͨө૾ͱ৮֮ ϑΟʔυόοΫͷදݱʹΑΓ࣮෺ͷ৮֮ಛੑΛมԽͤ͞Δ "Altered Touch"ͱ͍͏ίϯηϓτͷఏҊ 2ݸͷখܕDCϞʔλʔͱͦΕΒʹऔΓ෇͚ΒΕͨϕϧτ͔ ΒॎͷႩஅྗΛൃੜ͍ͤͯ͞Δ খܕͳͷͰ૷ண͕؆୯Ͱ, ·ͨARΞϓϦʹ͓͚Δطଘͷ δΣενϟʔτϥοΩϯάٕज़ʹӨڹΛ༩͑ͳ͍ Ϣʔβʹ૷ணͤ͞, HoloLensʹΑΓ౤Өཱͨ͠ํମΛ௫΋͏ ͱͨ͠ͱ͖ʹ࣭ײΛײ͡Δ͔ௐࠪͨ͠ ౤Ө͞Ε͍ͯΔΦϒδΣΫτ͸ࣗ༝ۭؒͷτϥοΩϯά͸ Ͱ͖ͳ͍ & ݱࡏ, δΣενϟʔͷτϥοΩϯά͸ͱͯ΋ݶ ΒΕΔͷͰ, ର৅ͱͳΔΞϓϦέʔγϣϯ΋ݶΒΕΔ Fernando et al. 2012 Perez et al. 2016 Narumi et al. 2010 Takaki Murakami, Tanner Person, Charith Lasantha Fernando, Kouta Minamizawa SIGGRAPH '17
  102. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Gravity grabber: wearable haptic

    display to present virtual mass sensation ࢦʹ৮ΕͨύουͷมܗʹΑΓ, ௚ײతͳײ͕֮ͳͯ͘΋࣮֬ ʹॏྔײΛײ͡Δ͜ͱ͕Ͱ͖Δͱ͍͏৽͍͠஌ݟʹج͍ͮͨ, Ծ૝෺ମͷॏྔײΛఏࣔ͢Δ΢ΣΞϥϒϧ৮֮σΟεϓϨΠ ෺ମΛ௫Μͩͱ͖, खʹ͔͔ΔѲྗΛਨ௚ԠྗͰ, ෺ମʹ࡞ ༻͍ͯ͠ΔॏྔΛႩஅԠྗͰ࠶ݱ͢Δ͜ͱͰ෺ମͷॏྔײ Λ࠶ݱͨ͠ ैདྷͷ઀৮σΟεϓϨΠͰ෺ମͷॏྔײΛදݱ͢Δʹ͸࿹΍खटʹ૷ண͢Δ େ͖ͳ઀஍૷ஔ͕ඞཁͰ͕͋ͬͨ, ࢦύουͷมܗͰॏྔײΛ࠶ݱ͢Δ͜ͷ ૷ஔ͸ࢦઌͷΈʹ૷ண͢Δγϯϓϧͳඇ઀஍σΟεϓϨΠʹΑΓ࣮ݱͰ͖Δ ඃݧऀʹൃ๒ενϩʔϧͳͲॏ͞ͷҟͳΔ༷ʑͳখܕͷ ΩϡʔϒΛ࣋ͨͤͨޙ, ͦͷॏྔײΛ࠶ݱͯ͠ॏ͞ΛͲͷఔ ౓஌֮Ͱ͖͔ͨௐࠪΛߦͬͨ ૷ஔ͸਌ࢦͱਓࠩ͠ࢦʹͦΕͧΕ૷ண࣮ͯ͠ݧ͞Ε͓ͯ Γ, 2ຊͷࢦͰߦ͏ಈ࡞͔࣭͠ྔײΛ࠶ݱͰ͖ͳ͍ (ͭ·Ή etc.) ɹMinamizawa et al. 2006 ɹMinamizawa et al. 2007 ɹImmersion Co. Ltd. 2000 Kouta Minamizawa, Souichiro Fukamachi, Hiroyuki Kajimoto, Naoki Kawakami, Susumu Tachi SIGGRAPH '07
  103. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Vibrotactile and Pseudo Force

    Presentation using Motor Rotational Acceleration DCϞʔλΛৼಈΞΫνϡΤʔλͱͯ͠༻͍ͯ, ϞʔλʹΑΔৼ ಈ΍ճసʹΑΓੜ͡Δٖࣅతͳྗͷ૊Έ߹ΘͤʹΑΓ, ࢦઌ΁ ͷ޿ൣғͳ৮֮ͷఏࣔΛߦ͏σόΠε Α͘෼͔Βͣ… ৮֮ఏࣔʹ༻͍ΒΕ͖ͯͨϦχΞৼಈΞΫνϡΤʔλΑΓେ͖͍Ԡ ౴଎౓ͰόωͳͲʹΑΔҠಈ੍ݶ΋ͳ͍ ඃݧऀͷࢦઌʹϞʔλΛ༻͍ͨৼಈΞΫνϡΤʔλΛऔΓ෇ ͚ͯ, ൃੜٖͤͨ͞ࣅతͳྗͱඃݧऀͷײ͡ํͰҧ͍͕ͳ͍ ͔ͱ͍͏ਖ਼౴཰Λ࣮ݧ ݱࡏͷਖ਼౴཰͸90%ఔ౓͕ͩ, ͜ΕҎ্ͷ޲্ʹ͸ผͷఏ ࣔํ๏Λݕ౼͢Δඞཁ͕͋ΔͱࢥΘΕΔ (࣮ݧͰ༻͍ͨڒ ೾ܗͰ͸ͳ͘ඇରশৼಈͷ೾ܗΛ༻͍ΔͳͲ?) K. Yatani et al. 2009 F. Masaaki et al. 2001 Vibol Yem, Ryuta Okazaki, Hiroyuki Kajimoto HAPTICS SYMPOSIUM '16
  104. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Occlusion-aware Hand Posture Based

    Interaction on Tabletop Projector ୎্ͷ౤Өը૾Λ͍͔ͭ͘ͷδΣενϟʔʹΑΓૢ࡞͢Δͨ ΊͷΠϯλϥΫγϣϯϑϨʔϜϫʔΫͷఏҊ ϢʔβͷखͷҐஔ΍࢟੎Λݕग़͠, ΦΫϧʔδϣϯʹΑΓਫ਼౓͕མͪΔՄೳੑͷ ͋ΔΠϯλϥΫγϣϯ͸੍ݶ͢ΔΑ͏ʹ ·ͨ, ө૾ΑΓखͷ3࣍ݩతͳҐஔΛݕग़͠, എܠ͔Βͷਂ౓ͱൺֱ͠, ౤ӨΦϒ δΣΫτʹ৮Ε͍ͯΔ͔Ͳ͏͔Λݕग़͢ΔΑ͏ʹ ਪఆͨ͠खͷ࢟੎ʹԠͯ͡ར༻ՄೳͳΠϯλϥΫγϣϯΛܾఆ͢Δ Α͏ʹ͠, ΦΫϧʔδϣϯʹΑΓࢦઌͷݕग़ͳͲͷਫ਼౓͕མͪΔ͜ͱ ΛճආͰ͖Δ ΠϯλϥΫγϣϯٕज़ΛऔΓೖΕͨARΞϓϦͷαϯϓϧͷ σϞΛߦͬͨ ୎্͚ͩͰͳ͘෦԰εέʔϧͷ౤Ө΍, ARάϥεͳͲͷΧ ϝϥϕʔεͷϋϯυΠϯλϥΫγϣϯγεςϜͳͲ΁ͷద ༻Մೳੑ Robert Xiao et al. 2016 Robert Xiao et al. 2018 Eisuke Fujinawa, Kenji Goto, Atsushi Irie, Songtao Wu, Kuanhong Xu UIST'19 Adjunct
  105. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? MRTouch: Adding Touch Input

    to Head-Mounted Mixed Reality HololensͳͲΛ༻͍ͨෳ߹ݱ࣮ײγεςϜͷͨΊͷϚϧνλο νೖྗํ๏ ਂ౓Χϝϥ, ੺֎ઢΧϝϥʹΑΔϦΞϧλΠϜݕग़ͱΠϯλʔϑΣʔεද໘ͷτϥο ΩϯάΛ૊Έ߹Θͤ, ख΍಄͕ಈ͍͍ͯͯ΋ࢦͷτϥοΩϯά΍ද͕ࣔ҆ఆͯ͠ߦΘ ΕΔΑ͏ʹ͍ͯ͠Δ นͳͲΛλονεΫϦʔϯʹݟཱͯΔͨΊ, ௥Ճͷϋʔυ΢ΣΞ΍ Ϣʔβ, ؀ڥͷΩϟϦϒϨʔγϣϯΛඞཁͱͤͣ, Ϣʔβ͕׳Εͨ (આ໌ෆཁͳ)UIΛఏڙͰ͖Δ ιϑτ΢ΣΞͷϓϩτλΠϓΛ࡞੒͠, HololensΛ༻͍ͯ σόοάΛߦͬͨ ࢦ͍ࣔͯ͠͠ΔࢦҎ֎ͷࢦʹ΋൓Ԡͯ͠͠·͍, ݕग़͕͏·͍͔͘ͳ͍ ͜ͱ͕͋ͬͨ ·ͨ, ϗόʔͷײ஌ਫ਼౓͕ѱ͘, λονΛݟಀ͢ͱ൓Ԡ͞Εͳ͍Α͏ʹ ͳΔ͜ͱ͕͋ͬͨ Robert Xiao, Julia Schwarz, Nick Throm, Andrew D. Wilson and Hrvoje Benko IEEE Transactions on Visualization and Computer Graphics
  106. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? PortOn: Portable mid-air imaging

    optical system on glossy materials ޫ୔ͷ͋Δฏ໘ঢ়ʹஔ͍ͨͱ͖ʹ, ད؟ࢹ͕Մೳͳۭத૾Λܗ ੒Ͱ͖ΔσΟεϓϨΠ ภޫૢ࡞ʹΑͬͯෆཁͳޫΛআڈ͢Δ͜ͱͰ૾Λ઱໌ʹද ͍ࣔͤͯ͞Δ ޫ୔໘ʹ൓ࣹ͢Δ͜ͱ͕ͳ͘, ը૾ͷ౤ӨΛΑΓ઱໌ʹݟͤΔ͜ͱ ͕Ͱ͖Δ ͳ͠ Yu Matsuura et al. 2018 Hiroki Yamamoto et al. 2015 Ayaka Sano, Naoyo Koizumi SIGGRAPH Asia 2019
  107. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? EnchanTable: Displaying a Vertically

    Standing Mid-air Image on a Table Surface using Reflection ޫ୔ͷ͋Δฏ໘ঢ়ʹஔ͍ͨͱ͖ʹ, ད؟ࢹ͕Մೳͳۭத૾Λܗ ੒Ͱ͖ΔσΟεϓϨΠ ςʔϒϧͷഎޙʹࡱ૾ૉࢠΛ഑ஔ͠, ౤ࣹ͞ΕΔޫΛAerial- Imaging Plate (AIP)ʹΑΓص্ʹ൓ࣹͤ͞Δ͜ͱͰ, ը૾͕ςʔϒ ϧʹਨ௚ʹཱͬͨঢ়ଶͰ౤Ө͞ΕΔ ςʔϒϧʹ൓ࣹ໘͕͋Ε͹Α͘, ςʔϒϧ্ʹ૷ஔΛஔ͘ඞཁ͕ͳ͍ λϒϨοτ୺຤΍෺ཧΦϒδΣΫτ౳ͱͷΠϯλϥΫγϣ ϯʹΑΔ৽ͨͳγεςϜͷݕ౼ Asukanet et al. 2013 Hiroki Yamamoto, Hajime Kajita, Naoya Koizumi, Takeshi Naemura ITS 2015
  108. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? FairLift: Interaction with Mid-air

    Images on Water Surface ਫ໘Լɾਫ໘্ʹ೑؟ͰݟΔ͜ͱ͕Ͱ͖Δө૾Λ౤Ө͢ΔΠ ϯλϥΫγϣϯγεςϜͷఏҊ micro-mirror array platesʹΑΓσΟεϓϨΠͷө૾Λਫ໘ʹ൓ࣹͤ͞, ը૾Λු ͔ͼ্͕ΒͤΔ ·ͨ, ௒Ի೾ηϯαͰදࣔҐஔΛݕग़͠, දࣔ͢Δ͜ͱ΋Ͱ͖Δ ਫ্දࣔʹՃ͑, ௒Ի೾ηϯαʹΑΔϢʔβͱͷΠϯλϥΫγϣϯγ εςϜ΋࣮ݱՄೳʹͳΔ ෾ਫ΍ӍʹೞΕͨಓ࿏ͳͲ, ༷ʑͳ৔ॴͰͷ׆༻Մೳੑ H. Koike et al. 2013 M. Otsubo 2014 Yu Matsuura, Naoya Koizumi ACM SIGGRAPH 2018
  109. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Object-wise 3D Gaze Mapping

    in Physical Workspace ϢʔβͷࢹઢΛ௥੻͠ɼͦΕΛ෺ཧతͳ࡞ۀۭؒ಺ͷ3࣍ݩΦ ϒδΣΫτʹϚοϐϯά͢Δ3࣍ݩࢹઢϚοϐϯάγεςϜ ө૾σʔλ͔ΒVisual SFMΛ༻͍ͯΦϒδΣΫτͷܗঢ়΍Χϝϥͷ࢟੎ਪఆΛߦ ͍, ϥϕϧ෇͚͞Εͨ3DϞσϧΛ࡞੒͍ͯ͠Δ ࢹઢߦಈͷՄࢹԽʹؔͯ͠, Ұਓশө૾ʹࢹઢͷཤྺΛϚοϐϯάͰ ͖, ΑΓ௚ײత͔ͭޮ཰తʹϢʔβͷࢹઢߦಈΛՄࢹԽͰ͖Δ ࢹઢϚοϐϯάͷਫ਼౓ଌఆ ·ͨ, Ϣʔβ͕͍͔ͭ͘ͷ৯඼Λݟ͍ͯΔͱ͍͏έʔεελσΟΛ ࣮ࢪ͠, ࢹઢͷཤྺ͔Βඃݧऀ͕ڵຯΛ͍࣋ͬͯΔ৯඼Λ༧ଌͨ͠ র໌ͷӨڹͳͲͰे෼ͳө૾͕औΕͳ͔ͬͨͱ͖, ө૾ϑ ϨʔϜ͔Βे෼ͳಛ௃఺Λநग़͢Δ͜ͱ͕Ͱ͖ͣ, ਫ਼౓͕ େ͖͘Լ͕Δ Changchang Wu et al. 2011 Kakeru Hagihara, Yuta Itoh, Keiichiro Taniguchi, Keita Higuchi, Irshad Abibouraguimane, Jiu Otsuka, Maki Sugimoto, Yoichi Sato AH2018
  110. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Enchanting Your Noodles: GAN-based

    Real-time Food-to-Food Translation and Its Impact on Vision-induced Gustatory Manipulation ARΛϕʔεͱͯ͠৯඼ͷݟͨ໨ΛϦΞϧλΠϜͰมԽͤ͞, ࢹ ͕֮ຯ֮ʹ༩͑ΔΫϩεϞʔμϧޮՌ?Λར༻ͨ͠৽͍͠ຯ֮ ૢ࡞ΠϯλϑΣʔε StarGANΛϕʔεͱͯ͠, ݩͷ৯඼ͷө૾ΛϦΞϧλΠϜʹ3D৯඼ Ϟσϧʹஔ͖׵͑ͨ΋ͷΛHMD্Ͱද͍ࣔͤͯ͞Δ ಛఆͷछྨͷ৯඼ͷ৭΍৯ײύλʔϯΛมԽͤ͞Δ͚ͩͰͳ͘, Ϣʔ β͕࣮ࡍʹ৯΂͍ͯΔ৯඼ͷมܗʹԠͯ͡ಈతʹը૾ΛมԽͤ͞Δ ඃݧऀʹ࣮ࡍʹө૾Λݟͤͳ͕Β৯΂ͤ͞, ࢹ֮ૢ࡞ʹΑΓ ຯ֮΍ᄿ֮ʹมௐ͕ग़Δ͜ͱΛಥ͖ࢭΊͨ ඃݧऀͷաڈͷܦݧͱຯ֮ͳͲͷมௐͱͷؔ܎ͷௐࠪ U. Choi et al. 2018 T. Narumi et al. 2011 Kizashi Nakano, Keiji Yanai, Kiyoshi Kiyokawa, Nobuchika Sakata 2019 IEEE Conference on Virtual Reality and 3D User Interfaces (VR)
  111. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Augmented Reality Flavors: Gustatory

    Display Based on Edible Marker and Cross-Modal Interaction ࢹ֮ͱᄿ֮Λ௨ٖͯ͡ࣅతͳຯ֮Λఏࣔ͢Δʮٖࣅຯ֮σΟε ϓϨΠʯ ᴩͬͨΓׂͬͨΓͨ͠৯඼ͷ֤ϐʔεͷܗঢ়΍ҐஔͳͲΛϦΞϧλ ΠϜͰݕग़Ͱ͖ΔEdible MarkerγεςϜʹΑΓ, ֤ϐʔεʹϚʔΧΛ ׂΓৼΔ͜ͱ͕Ͱ͖, ผͳΫοΩʔͷө૾Λఏࣔ͢Δ͜ͱ͕Ͱ͖Δ ࿦จͰ͸ΫοΩʔʹࢹ֮΍ᄿ֮৘ใΛARϚʔΧʔύλʔϯͰॏͶ߹ Θͤͯ, ࢹ֮΍ᄿ֮, هԱͳͲଟ͘ͷཁҼͷӨڹΛड͚Δຯ֮ΛมԽ ͤ͞Δ͜ͱʹ੒ޭ͍ͯ͠Δ ඃݧऀʹ૷ஔΛண͚ͨঢ়ଶͰΫοΩʔΛ৯΂ͯ΋Β͍, Ϋο ΩʔͷԽֶ੒෼Λม͑Δ͜ͱͳ͘ຯ֮ΛมԽͤ͞ΒΕΔ͔࣮ ݧͨ͠ Takuji Narumi, Shinya Nishizaka, Takashi Kajinami, Tomohiro Tanikawa, Michitaka Hirose CHI 2011
  112. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? AquaTop Display: Interactive Water

    Surface for Viewing and Manipulating Information in a Bathroom ෩࿊ͷന౬?ͷද໘ʹ৘ใΛ౤Ө͠, δΣενϟʔΛ༻͍ͯର ࿩͕Ͱ͖ΔΠϯλϥΫςΟϒͳσΟεϓϨΠγεςϜ ਂ౓ΧϝϥΛ༻͍ͯϢʔβͷखͷҐஔͳͲΛϦΞϧλΠϜʹऔಘ͠, ·ͨ, Ґஔͷج४ͱͳΔ͕มԽ͠΍͍͢ਫ໘ͷߴ͞ʹରͯ͠ಈతʹ ΩϟϦϒϨʔγϣϯΛߦ͍ͬͯΔ ਫ໘Λಥ͘, ෡ͰΔ, ͘͢͏, ୟ͘ ͱ͍ͬͨਫʹؔΘΔ༷ʑͳγʔϯ Ͱస༻ՄೳͳδΣενϟʔʹ͍ͭͯݕ౼͍ͯ͠Δ Ϣʔβͷ;ͱͨ͠ಈ͖(खΛ౬ધ͔Βཋ૧ͷԑʹҠಈͤ͞ΔͳͲ)͕δΣ ενϟʔͱޡೝ͞ΕΔՄೳੑ͕͋Δ ·ͨ, δΣενϟʔʹΑΔਫ໘ͷߴ͞ͷมԽʹΩϟϦϒϨʔγϣϯ͕௥ ͍͔ͭͳ͍͜ͱ΋͋Δ Hideki Koike, Yasushi Matoba, Yoichi Takahashi ITS 2013
  113. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? On top of tabletop:

    A virtual touch panel display ϓϥΠόγʔอޢΛߟྀ͠, ςʔϒϧද໘Λެ։σΟεϓϨΠ ͱ͢Δͱڞʹςʔϒϧ্ʹݸਓ৘ใ౳ΛӾཡ͢ΔͨΊͷϓϥΠ ϕʔτͳσΟεϓϨΠΛఏڙ͢ΔγεςϜ ϓϥΠϕʔτͳ৘ใΛ౤Ө͢ΔͨΊͷLCDεΫϦʔϯʹදࣔ͞Εͨ ը૾ΛڸͰ൓ࣹͤͨ͋͞ͱϑϨωϧϨϯζ?Λ௨աͤ͞, ୎্ʹ޲ ͔࣮ͬͯ૾Λܗ੒͢ΔΑ͏ʹͨ͠ ςʔϒϧτοϓγεςϜΛڞ༗ͷϫʔΫεϖʔεͳͲͱ͚ͯͩ͠Ͱͳ ͘, ςʔϒϧήʔϜ౳ͷϓϥΠϕʔτͳ৘ใΛѻ͏Α͏ͳ༻్ͱͯ͠ ΋࢖༻ՄೳͰ͋Δ Ծ૝ύωϧͷදࣔҐஔΛมԽͤ͞Δ͜ͱ͸·ͩͰ͖ͳ͍ͷ Ͱ, Ϣʔβ͕࠲ΔҐஔ΍ऩ༰ਓ਺ʹ੍໿͕͋Δ Li-Wei Chan, Ting-Ting Hu, Jin-Yao Lin, Yi-Ping Hung, Jane Hsu Third IEEE International Workshop on Tabletops and Interactive Surfaces
  114. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Make your own Retinal

    Projector: Retinal Near-Eye Displays via Metamaterials Ϩʔβ૸ࠪʹΑΓ໢ບ্ʹ௚઀ը૾ΛϨϯμϦϯά͢ΔσόΠ ε ಁաܕϛϥʔσόΠε (TMD)ΛϨʔβΛूޫ͢ΔͨΊʹ༻͍, ௿ΤωϧΪʔͰ ৗʹϐϯτͷ͋ͬͨ೾໘Λ࿪·ͣʹ໢ບ΁౤ࣹͨ͠ ·ͨ, ϨϯμϦϯάͷࡍʹ3࣍ݩϗϩάϥϜͳͲΛΑΓܭࢉྔͷগͳ͍2࣍ݩ౤ Өը૾ʹม׵ͨ͠ (TMDޫֶܥͱແݶয఺౤Ө๏Λ࠾༻ͨ͠ͷͰϨϯμϦϯά ʹ͓͚Δޫֶ৘ใ͸2࣍ݩߦྻͱͯ͠ม׵Ͱ͖Δ) ޫֶճ࿏ઃܭ͕༰қʹͳΓ, ໢ບ౤Өϋʔυ΢ΣΞͷਝ଎ͳ௥ै͕ ՄೳʹͳΔ ·ͨ, ৗʹϐϯτͷ߹ͬͨ೾໘Λ࿪·ͣʹ౤ࣹ͢Δ͜ͱ͕Ͱ͖Δ ΧϝϥͰͲͷΑ͏ʹݟ͑Δ͔ࡱӨ͠, γʔεϧʔը૾ͷ ݟ͑ํ΍retinal blurͷγϛϡϨʔγϣϯΛߦͬͨ Yoichi Ochiai. 2018 Kazuki Otao et al. 2018 Yoichi Ochiai, Kazuki Otao, Yuta Itoh, Shouki Imai, Kazuki Takazawa, Hiroyuki Osone, Atsushi Mori, Ippei Suzuki ACM SIGGRAPH 2018 Posters
  115. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Transmissive Mirror Device based

    Near-Eye Displays with Wide Field of View ࢢൢͷHMDͱTMDΛ૊Έ߹Θͤͯ؆୯ʹηοτΞοϓ͕Ͱ͖ Δ؆қͳγʔεϧʔσΟεϓϨΠ near-eye see-through display͸Ϩϯζͱ؟ٿͷؒͷޫ࿏௕͕௕͍ͱࢹ໺͕֯ ڱ͘ͳͬͯ͠·͏͕, TMDʹΑΓͰ͖ΔԾ૝తͳϨϯζʹϢʔβ͕೷͖ࠐΉ ͜ͱͰϨϯζͱ؟ٿؒͷޫ࿏௕͕୹͘ͳΓ, ࢹ໺͕֯େ͖͘ͳΔ γʔεϧʔͰ͋Γ, ͔ͭࢹ໺͕֯޿͍ ࢢൢͷHMDͱຽੜ༻ͷTMDͰࢼ࡞ػΛ࡞Γ, طଘͷVRίϯ ςϯπͳͲΛ౤Ө࣮ͯ͠ݧͨ͠ TMDΛ࢖༻͢Δͱɺೋॏ൓ࣹͨ͠ը૾͕ࣼΊʹදࣔ͞ΕΔΑ͏ʹͳΔͨ Ί, ෆཁͳޫ࿏ΛΧοτ͢ΔͳͲରࡦ͕ඞཁ TMDͷ੡଄ਫ਼౓ʹΑͬͯएׯө૾ʹ໰୊͕ग़Δ͜ͱ΋͋Δ (ӷথʹภޫ ϑΟϧλʔΛऔΓ෇͚Δͱ௿ݮ͢Δ) Kazuki Otao et al. 2017 Kazuki Otao et al. 2018 Kazuki Otao, Yuta Itoh, Shouki Imai, Kazuki Takazawa, Hiroyuki Osone, Yoichi Ochiai SIGGRAPH ’18 Emerging Technologies
  116. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? How could we ignore

    the lens and pupils of eyeballs: Metamaterial optics for retinal projection metamaterial mirrorΛ༻͍ͯ, ໢ບ౤Өͷڞ௨ͷ໰୊Ͱ͋ΔϨ ϯζ΍೒࠼͕໢ບͷલʹ͋ΔͨΊͷࢹ໺֯ͷڱ͞΍eyeboxͷ খ͞͞Λղܾ͢ΔΞΠσΞͱαϯϓϧͷఏࣔ Ծ૝తʹܗ੒ͨ͠ϨϯζΛ೷͖ࠐΉͷͰ͸ͳ͘, ϨϯζΛ؟ٿͷҐஔʹ഑ஔ ͢Δ (=໢ບ౤ӨΛߦ͏) ໢ບʹ౤ࣹ͢Δ͜ͱͰ, ೒࠼͕ಈ͍ͯ΋ө૾ͷࢹ໺֯͸มΘΒͣ, ઌ ߦݚڀͰ໰୊ͱͳ͍ͬͯͨΰʔετ૾΋೒࠼ͰΧοτ͞ΕΔΑ͏ʹ ͳΔ εΫϦʔϯΛ໢ບʹݟཱ࣮ͯͯݧΛߦͬͨ ۭதϨϯζ্ͰߜΓ (೒࠼ͷ໾ׂ)΍ϨϯζΛ഑ஔɾҠಈͤ͞ ͯ΋ɺεΫϦʔϯ্ʹ૾͕Ͱ͖Δ͔ௐ΂ͨ ඃݧऀ࣮ݧ΍࣮ࢪମ੍ͷৄࡉͳใࠂॻͷൃද͕ͳ͞Εͯͳ ͍ (͜ΕΒ͸ઌͷൃදͰͳ͞Εͨ?) Joel Kollin et al. 1993 Kazuki Otao et al. 2017 Kazuki Otao et al. 2018 Yoichi Ochiai
  117. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? HaptoClone (Haptic-Optical Clone) for

    Mutual Tele-Environment by Real-time 3D Image Transfer with Midair Force Feedback Micro Mirror Array Plate (MMAP)Λ༻͍ͯྡ઀؀ڥͷ૾Λग़ݱͤ͞ (ޫֶత ͳίϐʔ), Airborne Ultrasound Tactile Display (AUTD)Λ༻͍ͯ૾ʹ৮Εͨͱ͖ʹ৮֮ ϑΟʔυόοΫΛߦ͏ (෺ཧతͳίϐʔ) MMAPͷϛϥʔ෦͸2૚͔ΒͳΓ, MMAPഎ໘ͷը૾ΛԞߦ͖ΛؚΊͯ൓స ͨ͠ঢ়ଶͰલ໘ʹө͢ Αͬͯ, MMAPΛ2ͭ࢖༻͢Δ͜ͱͰ൓సͤͣʹཱମతͳը૾Λผͷۭؒʹ సૹ͢Δ͜ͱ͕Ͱ͖Δ HMD΍৮֮σΟεϓϨΠΛ૷ண͢Δ͜ͱͳ͘, ྡ઀͍ͯ͠Δ3࣍ݩ؀ ڥΛޫֶతɾ෺ཧతʹίϐʔͰ͖Δ ࣮ࡍʹྡ઀ͨ͠2෦԰Λ༻ҙ͠, ཱମ෺ͷը૾͕సૹ͞ΕΔ ͔, ࣮ࡍʹ৮ͬͯΈΑ͏ͱͨ͠ࡍʹϑΟʔυόοΫΛಘΒΕ Δ͔ͳͲΛ࣮ݧ ৮֮ϑΟʔυόοΫͷํ͸·ͩ׬શʹ෺࣭ͷ৮֮Λ࠶ݱ͠ ͍ͯΔ༁Ͱ͸ͳ͍ (৮Εͨͱೝࣝͨ͠ࡍʹҰఆͷৼ෯Ͱ ϑΟʔυόοΫ͍ͯ͠Δ͚ͩ) Yoichi Ochiai
  118. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Pinlight Displays: Wide Field

    of View Augmented Reality Eyeglasses using Defocused Point Light Sources ޫֶతγʔεϧʔ֦ுݱ࣮σΟεϓϨΠͷͨΊͷ, pinlightͷ഑ ྻΛ༻͍ͨ޿ࢹ໺ͰίϯύΫτͳ৽͍͠ઃܭ ఺ޫݯ (pinlight)ͷ഑ྻͱLCDύωϧΛ഑ஔ͠, LCDΛհͯ͠఺ޫݯΛίʔυԽ͢Δ ͜ͱͰγʔεϧʔͳϓϩδΣΫλΛܗ੒͢Δ ֤఺ޫݯ͕ը૾ͷ1ϐΫηϧΛද͢ (Ͳ͏΍ͬͯγʔεϧʔʹ͍ͯ͠Δͷ͔͸ಡΈ औΕͣ) ௨ৗͷϝΨωʹ͍ۙܗঢ়Ͱγʔεϧʔ͔ͭ110౓ͷ޿ࢹ໺Λఏڙ͢Δ ͜ͱ͕Ͱ͖Δ ໨ͷ୅ΘΓʹΧϝϥΛ഑ஔ͠, ը૾ܗ੒ͷεςοϓ͝ͱʹࢼ ࡞ػͰͲͷΑ͏ʹදࣔ͞ΕΔ͔ௐ΂ͨ ࣮ݧͷࢼ࡞ػͰ͸ΞΠτϥοΩϯά͸࣮૷͞Ε͍ͯͳ͍ (୺ʹΧϝϥΛ ഑ஔ͢ΔͳͲ) ·ͨ, SLMͷಁա཰͕23%ఔ౓Ͱ, γʔεϧʔͷܠ৭ͷํ͸αϯάϥε Λ௨ͨ͠Α͏ͳݟ͑ํʹͳΔ (ΑΓޫޮ཰ͷߴ͍SLMٕज़Λ༻͍Δ) MAIMONE, A et al. 2013 TRAVIS, A et al. 2013 Andrew Maimone, Douglas Lanman, Kishore Rathinavel, Kurtis Keller, David Luebke, Henry Fuchs ACM Transactions on Graphics, 2014
  119. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? The Light Field Stereoscope

    Immersive Computer Graphics via Factored Near-Eye Light Field Displays with Focus Cues ϑΥʔΧεΩϡʔΛαϙʔτ͢Δ΢ΣΞϥϒϧVRσΟεϓϨΠ ಁ໌ͳLCDΛ2ຕੵ૚͠, ԋࢉΑΓσΟεϓϨΠͦΕͧΕͷදࣔύλʔϯΛׂΓग़ ͯ͠දࣔͤ͞, 4࣍ݩͷޫ৔Λੜ੒͢Δ (Ϣʔβ͕ݟΔͱ, ࣗ༝ʹয఺Λ߹ΘͤΒΕ Δө૾ʹݟ͑Δ) ߴղ૾౓͔ͭretinal blur (ը૾ͷ1෦෼Λूதͯ͠ݟ͍ͯΔͱͦͷप ғ͕΅΍͚ͯݟ͑Δݱ৅)͕ΑΓࣗવʹൃੜ͢Δ →ࢹ֮తͳշద͞ʹܨ͕Δ ࢼ࡞ػΛ༻͍ͯө૾Λੜ੒͠, γϛϡϨʔγϣϯΛߦͬͨ ෳ਺ͷLCDΛॏͶΔͱσΟεϓϨΠͷޫͷεϧʔϓοτ͕௿Լ͢Δ σΟεϓϨΠදࣔʹඞཁͳܭࢉྔ͕ଟ͘, ࠓޙੑೳ޲্ʹ͓͍ͯϨϯμ Ϧϯά͕࣌ؒେ͖͘૿Ճ͢ΔՄೳੑ͕͋Δ Fu-Chung Huang, Kevin Chen, Gordon Wetzstein
  120. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Light Field Blender: Designing

    Optics and Rendering Methods for See-Through and Aerial Near-Eye Display ޿ࢹ໺͔֯ͭߴղ૾౓ͷOptical See-Through Head Mount Display (OST-HMD)Λ࣮ݱ͢ΔͨΊͷ৽͍͠ख๏ͷఏҊ HMDͷ઀؟ϨϯζΛTMDʹΑΓੜ͡ΔԾ૝తͳϨϯζʹஔ͖׵͑ͨ ͜ͷͱ͖, TMDʹΑΓԾ૝Ϩϯζͱ໨ͷؒͷޫֶత௕͞Λ୹͘͢Δ͜ͱ͕ՄೳͰ͋ Γ, γʔεϧʔػೳΛඋ͑ͨ຅ೖײͷ͋Δө૾Λఏڙ͢Δ͜ͱ͕Ͱ͖Δ(?) য఺ڑ཭ͷมԽʹΑΔ໢ບͷ΅΍͚Λ࠶ݱ͢Δ͜ͱ͕Ͱ͖Δ ·ͨ, ෩ܠ΍ۭதը૾ͷ࿪ΈΛൃੜͤ͞ͳ͍ HMDΛLDC΍Ϩϯζͱͯ͠༻͍ͯ౤Өͤͨ͞ը૾ΛΧϝϥͰࡱӨ͠, ؒ ʹҟͳΔϐοναΠζ?ͷTMDΛڬΜͰࡱӨͨ͠ը૾ͱൺֱͨ͠ ·ͨ, TMDͷޫֶܥͱಉ͡ҐஔʹϗϩϨϯζΛ഑ஔͯ͠ࡱӨ͠, ̢̩̙ޫ ֶܥͱͷࢹ໺֯Λൺֱͨ͠ Micro Dihedral Corner Reflector Array Λ౥ࡌͨ͠ TMD ϓϨʔτ͸ɺ पғͷ෩ܠ͕҉͘ݟ͑Δ (TMDϓϨʔτͷߏ଄Λม͑ΔͱղܾͰ͖Δ Մೳੑ) Douglas Lanman and David Luebke. 2013 Satoshi Maekawa et al. 2006 Kazuki Otao, Yuta Itoh, Shouki Imai, Kazuki Takazawa, Hiroyuki Osone, Yoichi Ochiai SA ’17 Technical Briefs
  121. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Computational Augmented Reality Eyeglasses

    ܭࢉσΟεϓϨΠͷ৽ڵ෼໺Ͱͷݚڀʹج͍ͮͨ, ৽ͨͳޫֶ γʔεϧʔϔου΢ΣΞܕσΟεϓϨΠͷઃܭఏҊ ໨ʹ͍ۙҐஔʹ഑ஔ͞Εۭͨؒޫมௐث૚Λੵ૚͠ɺ࠷దԽ͞ΕͨҰ࿈ͷ࣌ؒଟ ॏύλʔϯΛ௨ͯ͠য఺ͷ߹ͬͨը૾Λ࡞੒͢Δ ARγʔεϧʔσΟεϓϨΠʹ͓͚Δओཁͳཁ݅Ͱ͋Δ߆ଋྗͷͳ͍ ϑΥʔϜϑΝΫλ, ޿͍ࢹ໺, ΦΫϧʔδϣϯαϙʔτ, য఺ਂ౓ Ωϡʔͷ4ͭΛຬͨ͢ (Մೳੑ) ૷ஔΛ࣮૷͠, γϛϡϨʔγϣϯը૾Λݩʹͨ͠஌֮ը૾Λੜ੒ͨ͠? ࠷ۙͷHMDͱൺֱͯ͠౤Өը࣭͕ඇৗʹѱ͍ Andrew Maimone, Henry Fuchs SA ’17 Technical Briefs
  122. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Air Mounted Eyepiece: Optical

    See-Through HMD Design with Aerial Optical Functions ޿ࢹ໺͔֯ͭߴղ૾౓ͷOptical See-Through Head Mount Display (OST-HMD)Λ࣮ݱ͢ΔͨΊͷ৽͍͠ख๏ͷఏҊ HMDͷ઀؟ϨϯζΛTMDʹΑΓੜ͡ΔԾ૝తͳϨϯζʹஔ͖׵͑ͨ ͜ͷͱ͖, TMDʹΑΓԾ૝Ϩϯζͱ໨ͷؒͷޫֶత௕͞Λ୹͘͢Δ͜ͱ͕ՄೳͰ͋ Γ, γʔεϧʔػೳΛඋ͑ͨ຅ೖײͷ͋Δө૾Λఏڙ͢Δ͜ͱ͕Ͱ͖Δ(?) पลࢹ໺ΛΧόʔ͢ΔͨΊͷ઀؟ϨϯζʹΑͬͯܠ৭͕࿪ΜͩΓɺ ޫֶ෦඼͕ܠ৭ͷअຐʹͳͬͨΓ͢Δ͜ͱͳ͘, ؀ڥͷ෩ܠͱࢹ֮ ৘ใΛಉ࣌ʹݟΔ͜ͱ͕Ͱ͖Δ HMDΛLDC΍Ϩϯζͱͯ͠༻͍ͯ౤Өͤͨ͞ը૾ΛΧϝϥͰࡱӨ͠, ؒ ʹҟͳΔϐοναΠζ?ͷTMDΛڬΜͰࡱӨͨ͠ը૾ͱൺֱͨ͠ ·ͨ, TMDͷޫֶܥͱಉ͡ҐஔʹϗϩϨϯζΛ഑ஔͯ͠ࡱӨ͠, ̢̩̙ޫ ֶܥͱͷࢹ໺֯Λൺֱͨ͠ Micro Dihedral Corner Reflector Array Λ౥ࡌͨ͠ TMD ϓϨʔτ͸ɺ पғͷ෩ܠ͕҉͘ݟ͑Δ (TMDϓϨʔτͷߏ଄Λม͑ΔͱղܾͰ͖Δ Մೳੑ) Douglas Lanman and David Luebke. 2013 Satoshi Maekawa et al. 2006 Kazuki Otao, Yuta Itoh, Shouki Imai, Kazuki Takazawa, Hiroyuki Osone, Yoichi Ochiai
  123. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? ReverseCAVE: providing reverse perspectives

    for sharing VR experience VRʹ͓͚ΔϓϨΠϠʔͷମݧΛଞऀͱڞ༗Ͱ͖ΔγεςϜ ཱํମଆ໘ͷ4໘ʹ൒ಁ໌ͳεΫϦʔϯͱͦΕͧΕϓϩδΣΫλʔΛஔ͘ ཱํମ಺෦ͰϓϨΠ͍ͯ͠ΔϢʔβΛηϯαʔ౳Ͱೝࣝ͠, ϢʔβΞόλʔ౳Λؚ ΊͨVRίϯςϯπΛө͢ VRͷମݧΛ֎෦͔Βݟ͍ͯΔ؍࡯ऀ͸, ϓϨΠϠʔͱϓϨΠϠʔ͕ମݧ͍ͯ͠ΔVR؀ڥΛಉ ࣌ʹݟΔ͜ͱ͕Ͱ͖, ϓϨΠϠʔ͚͔ͩ͠ମݧͰ͖ͳ͍໰୊(Perspective gap) Λղফ͢Δ ·ͨ, ಉ༷ʹVRମݧΛڞ༗Ͱ͖ΔHololensͱൺ΂ͯࢹ໺͕֯େ͖͘, ΑΓ޿͍ൣғͷίϯςϯ πΛࢹ֮తʹೝࣝͰ͖Δ ࣮૷͠, ඃݧऀΛूΊ࣮ͯূ࣮ݧΛߦͬͨ Hololens΋ಉ༷ʹ࣮ݧ͠, ࢹ໺֯ʹΑΔӨڹΛௐࠪͨ͠ ֎෦ͷ؍ଌऀ͕ෳ਺ਓʹͳΔͱ, ؍ଌऀʹΑͬͯ͸VR؀ڥ͕ͣΕͯݟ ͑Δ͜ͱ͕͋Δ (ࢹ֮తͳҰ؏ੑͱ؍ଌऀͷ਺͸τϨʔυΦϑͷؔ܎) Frank Biocca and Mark R. Levy. 1995 Yu Zhu et al. 2016 Akira Ishii, Masaya Tsuruta, Ippei Suzuki, Shuta Nakamae, Tatsuya Minagawa, Junichi Suzuki, Yoichi OchiaiACM SIGGRAPH 2017
  124. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? A Wide Field-of-view Head

    Mounted Projective Display using Hyperbolic Half-silvered Mirrors hyperbolic half-silvered mirrors (૒ۃ൒ۜڸ?)Λ༻͍ͨϔου Ϛ΢ϯτܕ౤ӨσΟεϓϨΠ ޿͍ࢹ໺ΛಘΔͨΊʹ, ૒ۂ໘Ͱ͋ΔcombinerΛ࠾༻͠, ޫઢΛൃࢄͤ͞ΔΑ͏ʹ ͠, ࠷ऴతʹϢʔβͷಏҰ఺ʹ໭ΔΑ͏ʹͨ͠ ޿ࢹ໺΍HMDΛ࡞੒͢ΔʹลΓ, ࿷ۂϛϥʔͳͲΛ༻͍ͨͱ͖ʹൃ ੜ͢Δը૾ͷ࿪Έ΍ग़ࣹಏͷখ͞͞Λղܾ͢Δ͜ͱ͕Ͱ͖Δ ࢼ࡞ػΛඃݧऀʹ࢖༻ͤ͞, ౤Ө͞Εͨ૾Λਖ਼͘͠؍࡯͢Δ ͜ͱ͕Ͱ͖͔ͨ, ಄Λճసͤͯ͞΋౤Өը૾શମΛ઱໌ʹ؍ ࡯͢Δ͜ͱ͕Ͱ͖͔ͨΛௐࠪͨ͠ Kiyoshi Kiyokawa
  125. ͲΜͳ΋ͷ? ٕज़΍ख๏ͷΩϞ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝? Ͳ͏΍ͬͯ༗ޮͩͱূ໌ͨ͠? ٞ࿦͸͋Δ? ࣍ʹಡΉ΂͖࿦จ͸? Robust real-time pupil tracking

    in highly off-axis images ϔουϚ΢ϯτܕΞΠτϥοΧʔʹ͓͚Δਖ਼֬ʹϦΞϧλΠϜ ҉ಏ޸௥੻͕ՄೳͳΞϧΰϦζϜͷఏҊ Harr-likeಛ௃ྔΛ༻͍ͯಏ޸ͷҐஔΛେ·͔ʹਪఆ͠, ಏ޸ͷத৺Λਫ਼ີԽ͢ΔͨΊ ʹk-meansʹΑͬͯपลྖҬؚΊͲ͜·Ͱ͕ಏ޸Ͱ͋Δ͔Λݕग़͢ΔΑ͏ʹͨ͠ ͜ΕʹΑΓը૾ͷಏ޸͕ۃ୺ͳପԁܗͰ͋ͬͯ΋௥੻͕ՄೳʹͳΔ ·ͭ͛ʹΑͬͯ෦෼తʹಏ޸͕ݟ͑ͳ͘ͳ͍ͬͯͨΓ, ը૾ʹ͓͚Δ ಏ޸͕ۃ୺ͳପԁܗʹͳ͍ͬͯͯ΋ҐஔΛਪఆͰ͖Δ ΞΠτϥοΧʔ͔ΒࡱӨͨ͠ਓͷ໨ͷࣸਅ͔Βಏ޸Λਖ਼֬ʹ ࢦࣔ͢͜͠ͱ͕Ͱ͖Δ͔࣮ݧͨ͠ ը૾ೝࣝαϙʔτؔ਺ͳͲΛଞͷؔ਺ʹஔ͖׵͑ΔͳͲ͢Δͱ ΑΓਫ਼౓Α͘ߴ଎ʹݕग़Ͱ͖ΔΑ͏ʹͳΔՄೳੑ͕͋Δ Lech Świrski, Andreas Bulling, Neil Dodgson
  126. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? ミ 指 動 ラッキングす た 設計 さ た アラ 磁気 ラッキングシス ム.名前 AuraRing コンパク フ ームフ クタ 焦点 絞 こ す こ 低消費電力 実現.5自由度(3 位置成分 2 回転成分 ーズ推定. 異 手 サ ズ,経常,柔軟性 も ーザー ー タ 採集しア ズム ラッキング精度 検証. ス ン ング いう一般的 ス フ ー ムフ クタ 利用.今 電磁式 ラッキング あっ た 電力消費 環境干渉 問題 った.近距離 (10cm~15cm 焦点 当 こ 克服. ーザー全体 適切 フィッ す う サ ズ 調整 す こ , たそ 機能 実装 考察.温度等 あ ア ナログ信号上 ノ ズ 低減. Kent Lyons. 2016. 2D input for virtual reality enclosures with magnetic field sensing. AuraRing: Precise Electromagnetic Finger Tracking FARSHID SALEMI PARIZI ∗ , ERIC WHITMIRE ∗ , and SHWETAK PATEL, University of Washington 次 読 べ 論文 ? も ? 先行研究 比べ こ す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? ミ 指 動 ラッキングす た 設計 さ た アラ 磁気 ラッキングシス ム.名前 AuraRing コンパク フ ームフ クタ 焦点 絞 こ す こ 低消費電力 実現.5自由度(3 位置成分 2 回転成分 ーズ推定. 異 手 サ ズ,経常,柔軟性 も ーザー ー タ 採集しア ズム ラッキング精度 検証. ス ン ング いう一般的 ス フ ー ムフ クタ 利用.今 電磁式 ラッキング あっ た 電力消費 環境干渉 問題 った.近距離 (10cm~15cm 焦点 当 こ 克服. ーザー全体 適切 フィッ す う サ ズ 調整 す こ , たそ 機能 実装 考察.温度等 あ ア ナログ信号上 ノ ズ 低減. Kent Lyons. 2016. 2D input for virtual reality enclosures with magnetic field sensing. AuraRing: Precise Electromagnetic Finger Tracking FARSHID SALEMI PARIZI ∗ , ERIC WHITMIRE ∗ , and SHWETAK PATEL, University of Washington
  127. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? Haptiple 呼 多重 プ ィックフィー ック シス ム 提案し い .こ シス ム 複数 身体 部位 装着可能 3種類 ューラー型 プ ィッ ク ス 構成さ い . こ シス ム Unity ソフ アアプ ケーショ ン 実行し ュー や ス 制御 . プロ タ プ 作成しマ ックエフ ク ンタラク ションや映画体験 際す 利用者 プ ィックフィー ック 検証した. 先行研究 多く 指 手 タ プ ス 焦点 当 た.全身向け スもあった ,単一 プ ィックフィー ックし 扱っ った.こ 研究 振動・熱・風・圧力 複数 感覚 提供 . 各部位 視覚効果 カスタマ ズ い いう柔軟性 欠如 問題点 あ た ,オーサ ング ー 開発 必要. Alexandra Delazio et al. 2018 Force jacket: Pneumatically-actuated jacket for embodied haptic experiences. Haptiple: A Wearable, Modular and Multiple Haptic Feedback System for Embodied Interaction Tomosuke Maeda,Tetsuo Kurahashi
  128. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? ロックチ ーンアプ ケーション 7 類型論 構築し適用領域 検討し い .特 人間 生活・価 値観 結び けHCIコミュニ ィ も 役割 主張 し い . 約100 アプ ケーション WP 調査し ーマ たシー 作成.先行研究 も比較し ン スチ ックもし 慎重 類推論 作成・検証した. HCI 分野 し 習熟し たこ 踏 え ーザー ンターフ ース 範囲 超え 新技術 人間 う作 用す 考察し い . ロックチ ーン 潜在的 倫理問題 責任問題や, 複雑さ 伴う ーザー参加 チ ーション管理,未発 達分野 起因す キュ ン 不足 う向 合う . Victoria M.E. Bellotti et al. 2014 Towards Community- centered Support for Peer-to-peer Service Exchange: Rethinking the Timebanking Metaphor. Making Sense of Blockchain Applications: A Typology for HCI Chris Elsden1 , Arthi Manohar1 , Jo Briggs1 , Mike Harding2 , Chris Speed3 , John Vines1 技術的 ンフラ う 社会的・文化的 現象 形成す 考察しHCI研究者 ロックチ ー ン 文脈 果たすべ 役割 論 い .
  129. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? 移民 母国間 マネー・ ンターフ ース 調査し, 政府 移民 間 信頼関係 容易 構築す た ロックチ ーン ース シス ム 作成. 移民 政府 腐敗し 寄付した 金 悪用さ 考え い こ 踏 え, ーサ あ スマー コン ラク 使用す こ 取引 改 防 資金 意図した 使わ い 確認 う した. 移民 方 対し マネー・ ンターフ ース 使っ 送金や政府 連携 行った経験 調査し,さ そ ンターフ ース 信頼構築 役立った 調査 し検証した. 先行研究 個人 信頼 ーザー ンターフ ース 影響 受け いう結果 ,政府 移民 悪関係 信頼関係 容易 す ンターフ ース し ロック チ ーン ース シス ム あ ChainGov 設計した. 透明性 高いワークフロー 設計 た ,移民 中 クノロ ー自体 懐疑的 人もい ,そ 人たち も巻 込 さ ンターフ ース 開発し い いけ い Chun-Wei Chiang et al. 2017 Understanding Interface Design and Mobile Money Perceptions in Latin America. Exploring Blockchain for Trustful Collaborations between Immigrants and Governments Chun-Wei Chiang, Eber Betanzos, Saiph Savage
  130. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? ィアアー 活動 た 新しい方法論的枠組 提案. アー ィス 活動 ,生成・増強・挑発・媒介 いう 重複す 領域 分割し, ィアアー 重要性 明確 した. アー ィス 研究室 経験 アー ・サ エンス・ コラ 関す 調査 アー ィス 性質 探索・検証 した. 多く ィアアー ィス 作品 クノロ ー 対 す 批判的 考察 特徴 け い 事実 作品 技術 的 関与 緊張関係 明確 す た 方法論的 アプローチ 今 った. 活動領域 分割したこ ーマ 芸術 科学 共同 研究 内在す 多く 顕著 課題 十分対応し い い 可能性 あ . Monica Anderson and Jingjing Jiang. 2018. Teens, social media & technology Articulating Media Arts Activities in Art-Science Contexts Angus Graeme Forbes
  131. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? ソーシ ィア ンタラク ィ シミュ ー ション学習環境 Social Media TestDrive 本物 ソーシ ィア あ 信 う 誘導す た 研究プラッ フ ーム, 12人 教育者,200人以上 学生 対象 試験的 実施 した際 ータ 高い 関与 示唆さ た. 非 ンタラク ィ 学習 比較し 学生 実体験 提 供し自分 学 い こ 振 返 機械 提供 . YouTubeやTwitter 毛色 違うソーシ ィアサ そ 別 シミュ ーションサ 作 い いけ い いう点 汎用性 低い. Chun-Wei Chiang et al. 2017 Understanding Interface Design and Mobile Money Perceptions in Latin America. Social Media TestDrive: Real-World Social Media Education for the Next Generation Dominic DiFranzo, Yoon Hyung Choi, Amanda Purington, Jessie G. Taft, Janis Whitlock, Natalya N. Bazarova
  132. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? タッチ 瞬 同期性 利用した新しいマ チ ー スチ ー ッ BlyncSync タッチ 瞬 いう2 ィ 共同 互い 入 力 意図 ミタ化す た 使用す た ,タッ チ 瞬 パターン 収集す ラ 研究 始 い 点. 12人 約50分間 BlyncSync び そ 以外 技法 5 スチ ー 行っ も った. スマー ッチ 物理 タン 使用す 33% 高速.瞬 いう誤作動 起 やすい ンタラクション 97% 真陽性率 示した. ネやコンタク ンズ 使用し い ーザー , 光学的瞬 検出 一貫性 低い. Xiang Cao and Shumin Zhai. 2007. Modeling human performance of pen stroke gestures. BlyncSync: Enabling Multimodal Smartwatch Gestures with Synchronous Touch and Blink Bryan Wang, Tovi Grossman
  133. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? 紙 絵 描く 力 制約的 与え スケッチ作業 助け シス ム. 制約的 力 作用 圧力 け スケー ンさせ こ 可能. 10 画家 被験者 し 使用し も い,生産性・創造 的 コン ロー 性 評価した. 多く 画家 紙 好 グラフィカ 環境やCAD フ ー ン ロー ング あ サ ー さ った.し しこ シス ム っ 物理的 ロー ング 繊細さ キ プチ ー う った. 圧力 コン ロー シ ア 間 非線形関係 う扱う 研究課題 し あ い . Daniel Dixon et al. 2010 Using Sketch Recognition and Corrective Feedback to Assist a User in Drawing Human Faces. Phasking on Paper: Accessing a Continuum of PHysically Assisted SKetchING Soheil Kianzad, Yuxiang Huang, Robert Xiao, Karon E MacLean
  134. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? 空気圧 ンシング 使用し 最小限 組 立 キ ーション タッチ 繊細 オ ク 製作 う す 技術. 各タッチ位置 小さ 穴 追加す こ ーザー 穴 ふさい 内部 空気圧 変化し ンタラクショ ン 与え . 対応オ ク そ い 圧力値 ンスタン ス 機械学習 け 訓練し 随時タッチ 分類結果 記録し 評価した. ンタラク ィ 反応 良いオ ク プ ン す 技術 あった 環境干渉 受けやす った.そ コンシューマー した. 高解像度 3Dプ ン 技術 使用したオ ク 拡 張し いこ . Rafael Ballagas 2018 The Design Space of 3D Printable Interactivity. AirTouch: 3D-printed Touch-Sensitive Objects Using Pneumatic Sensing Carlos E. Tejada, Raf Ramakers, Sebastian Boring, Daniel Ashbrook
  135. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? AR 利用し 物理的 物体 タ コン ン 重 合わせ こ ップ 埋 シス ム提案 プロ タ プ ー 写真 貼 たマーカー ータ ース 照合し マッピングさ う っ い . 被験者 標準的 ーザ ィ指標 SUSアンケー 一連 タスク 実行し も っ ,最後 ンタ ューも行った. 今 例え 本 上 タ コン ン 鑑賞す こ た ,ここ 体験 物理性 残 う う タ コン ン 鑑賞 う す いう特別 問題 取 組 い . 照明 環境干渉 弱く, たマーカー同士 干渉も見 た. Anand Agarawala and Ravin Balakrishnan. 2006. Keepinし Iが Real: Pきかhing がhe Deかkがop Meがaphoお くiがh Physics, Piles and the Pen. Replicate and Reuse: Tangible Interaction Design for Digitally-Augmented Physical Media Objects Aakar Gupta, Bo Rui Lin, Siyi Ji, Arjav Patel, Daniel Vogel
  136. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? オンラ ン詐欺 対処す た エン ーエン 対話型可視化シス ム 対話的 異 特徴 ッ 選択し,不正検出ア ズム 精緻化し,パラ ータ 調整し,検出結果 ほ ア タ ム 評価す こ E-コマースや動画サ 登録記録 可視化し ーザー 行動 応 ラ 分けした. オンラ ン詐欺 ーザ グ ーピング行動 基 いた、 ンタラク ィ 視覚的 詐欺検知シス ム し 初 も あ FDHelper 利用し フィー ック し く ラン ィア 増やし ータ もっ 取 精度 あ いく 必要 あ . Evmorfia N Argyriou 2013 Occupational fraud detection through visualization. FDHelper: Assist Unsupervised Fraud Detection Experts with Interactive Feature Selection and Evaluation Jiao Sun, Yin Li, Charley Chen, Jihae Lee, Xin Liu, Zhongping Zhang, Ling Huang, Lei Shi, Wei Xu
  137. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? ン 上部 下向 カ ラ 取 付け こ タ ッ ン ンタラクション 強化す いうコン プ プロ タ プ作成 そ 検証 分類・回帰・キー ン 検出 た ィープラーニ ング 開発 ン 検出 も含 ンタラクショ ン空間 拡大. 被験者 自然 姿勢 PenSight 使っ も った感想 定性評価す . 低コス 両手 周囲 環境 相互作用 キ プチ し 解釈す た シンプ 全体的 ンシン グソ ューション 提供. ン ップ カ ラ いう珍しい視点 け活用 余地 あ 明 い. Ilhan Aslan 2018 Exploring the User Experience of Proxemic Hand and Pen Input Above and Aside a Drawing Screen. PenSight: Enhanced Interaction with a Pen-Top Camera Fabrice Matulic, Riku Arakawa, Brian Voge, Daniel Vogel
  138. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? 都市計画 街並 可視化 た 生成的,軽量, ア タ ム HCIプラッ フ ーム DeepScope 複数 参加者 ッション フィー ック た 生成的ニューラ ネッ ワーク(DCGAN 有形 ー ザー ンターフ ース(TUI) 構成さ い . DCGAN 供給さ たあ DeepScope コン ネン ・TUI・ ータ ッ ・ ーニング, び結果 調査した. 今 高品質 街並 ィ ュアラ ーション 作 成す こ 複雑 時間 コス 作業 った. GAN 大規模 適切 ラ 付けさ た ータ ッ 必要 ,多大 労力 要す . Ronan Doorley eが al. 2019 Whaがしか yoきお MoCho? Real- time Mode Choice Prediction Using Discrete Choice Models and a HCI Platform. DeepScope: HCI Platform for Generative Cityscape Visualization Ariel Noyman, Kent Larson
  139. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? 多関節部品 マ チ ーズ製品 合わせた3Dス ケッチシス ム. 従来 2Dパース ク ィ スケッチ 近い ンタラク ション ,多関節オ ク 物理的 操作. 2回 ワークショップ プロ 工業 ザ ナー シス ム 現場 有用性 評価させた. 3Dスケッチ も同様 ア ア 適用した研究 あ , こ 研究 マ チ ーズ製品 ア ア出し 反復 容易 す た 3Dスケッチ キネ ィック す こ 焦点 当 い . 離散的 ーズ 別 ーズ スムーズ 移行 難 しい. Seok-Hyung Bae et al. 2008 ILoveSketch: as-natural- as-possible sketching system for creating 3D curve models. 3D Sketching for Multi-Pose Products Joon Hyub Lee, Hyung-Gi Ham, Seok-Hyung Bae
  140. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? 大気気象 ータ 没入感 あ 3D環境 可視化す ンタラク ィ シス ム MeteoVis 開発 4 離散的 ー 1 ューム 補間す こ , ータ 1 連続した ータ 可視化す こ . 可視化さ い 情報 衛星 ータ 差異 い う 確認した. 今 気象 ータ可視化す た 使っ いたAWIPS 抱え いた複数 衛星 ータ比較 問題 克服し た. 可視化技術 もっ 豊 す こ ,天気予報 的中 率 向上. Ruofei Du et al. 2019 Reconstructing a Live Mirrored World With Geotagged Social Media MeteoVis: Visualizing Meteorological Events in Virtual Reality David Li, Eric Lee, Elijah Schwelling, Mason G. Quick, Patrick Meyers, Ruofei Du, Amitabh Varshney
  141. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? マスク 生活 一部 いう人向け 新た ィラン ー や社会的 交流 仕方 形作 空気圧 ア ラ ス airMorhpologirs オミミク ザ ン 多層法 タ フ ケー ション ,シ コン ュー 膨 せた ,膨 せた す こ マスク 形状 変化させ こ . 何度も試作し ーザー 快適 装置 う マス ク 柔軟性 着用性 提供した. 音声 アラ ス 形状 制御す 研究 他 あ い. さ 形態的 ザ ン 探求 ,環境 ンサー 追加 す 必要性 検討. John W. Cherrie et al. 2018 Effectiveness of face masks used to protect Beijing residents against particulate air pollution. airMorphologies: A Wearable Device for Social Interaction in Air Polluted Environments Yin Yu, Santa Barbara
  142. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? ーザー 装置上 コン ロー 対話す こ 信 キス 生成さ プロ ス 体験す こ アー 作品 The Rumor Mil 入力 ワック度 評価し訓練 ータ 近い スク 単語 選択 行いフ ーズ 表現す . 先行研究 基 い 見出し 生成す う し,そ 種 別 言語 ス ー ー 生成した.. ーザー 目 見え パラ ータ 調整し 自動生成さ 結果 調整 . パラ ータ入力 項目 3 し い 複雑 ス ー ー生成 難しい. Ahmer Arif et al. 2016 How information snowballs: Exploring the role of exposure in online rumor propagation. The Rumour Mill: Making the Spread of Misinformation Explicit and Tangible Nanna Inie, Jeanette Falk Olesen, Leon Derczynski
  143. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? Tasbi いう振動触覚フィー ック ン ング ス ッ ス HMD 標準的 ュア オー ィオ ン ング 緊密 結合し た ンタラクションシス ム 提案 プッシュ/プ タン・回転ノ ・ クスチ ・剛体 重 さ 慣性 カスタム マニュア 操作 可能 す ンタラクション設計 さ い . Tasbi キ ーション 行ったうえ 各 ンタラク ション 動作確認 行った. 触覚フィー ック装置 多く 単一 た 複数 アク チュエータ 内蔵したも った ,複雑 多感覚スク ズ 振動触覚 フィー ックす Tasbi 使用し い . 手 指 ラッキング VRコン ローラ ース グラ スチ ー 仕組 あ 程度慣 い こ 前 提 っ し っ い . Karon E et al. 2017 The Handbook of Multimodal- Multisensor Interfaces. Explorations of Wrist Haptic Feedback for AR/VR Interactions with Tasbi Evan Pezent, Maおcia K. OしMalley
  144. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? ーザー 2 3Dプ ン パラ ータ 介し 食品 内部構造 変更す こ っ ,彼 食物摂取 量 制御す こ シス ム FoodFab ンフィ パターン ンフィ 密度 指定す こ , 異 租借時間 食品構造 作成す こ 可能. 30人 参加者 対す パラ ータ 効果 研究し満腹感 コン ロー こ 検証した. 食品3Dプ ン ーザー ンターフ ース し カロ ー管理・空腹感 細 く設定 . 時間 経過 も 食事サ ズ 小さ 変化 ーザー ういう影響 もた す 考察す 余地 あ . Takuji Narumi et al. 2012 Augmented Perception of Satiety: Controlling Food Consumption by Changing Apparent Size of Food with Augmented Reality. Demonstration of FoodFab: Creating Food Perceptual Illusions using Food 3D Printing Parinya Punpongsanon, Kosuke Sato, Ying-Ju Lin, Marianna Obrist, Xin Wen, Stefanie Mueller, Daisuke Iwai
  145. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? AIシス ム 共同作業時 有効性 知覚 関す 今 後 研究 た フ ームワーク 提案. AIシス ム 使う実験 行い,人々 自分自身 う 効果的 認識し い ,実際 効果 違い あ 調査し い 点. AIシス ム 使う条件 使わ い条件 廃棄物 選別 参加者 行わせ 知覚 有効性・測定さ た有効性・所 要時間 検証した. AI タスク 改善・最適化・自動化 研究 たくさ あ ,AI 連携時 人 う パフ ーマン ス 感 い いう ーザー側 有用性 調査し たも ほ った. 判断 正しい う フィー ック す 得 い状況 ,時間 経過 も 人 能力感 低下し し う可能性 あ 実験 影響した もし い. Michelle C. Ausman. 2019. Aおがificial inがelligenceしか impact on mental health treatments. Perceived and Measured Task Effectiveness in Human-AI Collaboration Rune Mるbeおg Jacobsen, Eleftherios Papachristos, Lukas Bjるおn Leer Bysted, Mikael B. Skov, Patrick Skov Johansen
  146. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? 並列座標 基 く ンタラク ィ 可視化 ザ ン設計シス ム 提案. UI要素 し 並行スラ ー う 振 舞う ィ ッ PCC 開発. ザ ン 専門家 30人 ンタ ュー 実施し効果 検証した. 今 複数 パラ ック設計 代替案 比較・生 成・修正 ンタラク ィ す こ 困難 った. ザ ン探索行動 こ シス ム 新規用途 分析 不 十分. J. Johansson et al. 2016 Evaluation of Parallel Coordinates: Overview, Categorization and Guidelines for Future Research. Interactive Parallel Coordinates for Parametric Design Space Exploration Aおeでn Mohiuddin, Robert Woodbury
  147. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? 視覚障碍者 ーザー 写真 使っ ィープネッ ワーク 学習す こ 物体 認識す こ アプ ReCog 撮影さ た写真 中 対象物 適切 フ ーミングさ い う 確認す た ,対象物 追跡す カ ラ照準 ンス 統合. 10人 視覚障碍者 対し ReCog 使用し も いカ ラ 誘導 認識 助け 検証した. 視覚障碍者 認識 助け も し NFCタグや ー コー 電子マーカ あ ,対象物 正確 適用し 位置 特定す 困難 った. 訓練さ た物体 ラ 付け 依存し ,こ 視力補助や外部シス ム 使用 必要. Cynthia L Bennett et al. 2018 How teens with visual impairments take, edit, and share photos on social media. ReCog: Supporting Blind People in Recognizing Personal Objects Dragan Ahmetovic, Daisuke Sato, Uran Oh, Tatsuya Ishihara, Kris Kitani, Chieko Asakawa
  148. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? 軽度 知的障害 も 成人向け コミュニケーション 障壁 取 除くタ ッ アプ ケーション 設計 拡張代替コミュニケーション(AAC 技術 使っ 利用 者 アク シ ィ 医療ニーズ 両方 満足させ う し い . 10人 軽度 知的障碍者 3回 UCD ザ ンワーク ショップ 行った. 紙 ース 対処法 超え 研究 ほ 無 った , 調査 行いアプ ケーション 開発 問題 取 組 い . 抽出した要件 基 ,技術的 ニーズ さ 掘 下 いくこ 必要. A Hall 2019 Association of GP wellbeing and burnout with patient safety in UK primary care: a cross- sectional survey Designing Clinical AAC Tablet Applications with Adults who have Mild Intellectual Disabilities Ryan Colin Gibson, Mark D. Dunlop, Matt-Mouley Bouamrane, Revathy Nayar
  149. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? 3Dプ ン さ たア ム ース した2段階認証 新しい概念 提案. ア ム 導電性 ッ 埋 込 こ スマ ス ク ーン 認識し認証 ンタラクション 可能. 25名 参加者 対象 した ーザースタ ィ 通 , 3D-Authア ム 使いやすさ 記憶力 検証. 3Dプ ン っ パーソナラ ズさ たア ム も ーザ ィ 保った認証 ンタラクション 可能 . 複数 ンタラクション 組 合わせた 高度 ア ム 設計し, ーザ ィ キュ ィ 観点 検討す 必要 あ . Jeかかica Colnago eが al. 2018 "Iがしか Noが Acがきally Thaが Horrible": Exploring Adoption of Two-Factor Authentication at a University. 3D-Auth: Two-Factor Authentication with Personalized 3D-Printed Items Ryan Colin Gibson, Mark D. Dunlop, Matt-Mouley Bouamrane, Revathy Nayar
  150. 次 読 べ 論文 ? も ? 先行研究 比べ こ

    す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? 複数 機能 統合した新しい アラ スプ アプ ケーション HapBead 開発. マ クロ流体チ ネ 利用し ,液体 流 介し 小さ ーズ 正確 機敏 振動させチ ネ 内 様々 運動パターン 生成. 12名 参加者 HapBead っ 生成さ た触覚感覚 程度区別 研究す た ーザー検証 行った. 触覚フィー ック 扱う研究 電子部品 さ こ ほ ,薄く柔軟性 あ 高度 調整可能 触覚感覚 作成. 振動 ュエーション 流体技術 使っ 増やし い く必要 あ . Shubhi Bansal and Prosenjit Sen. 2016. Mixing enhancement by degenerate modes in electrically actuated sessile droplets. HapBead: On-Skin Microfluidic Haptic Interface using Tunable Bead Teng Han, Shubhi Bansal, Xiaochen Shi, Yanjun Chen, Baogang Quan, Feng Tian, Hongan Wang, Sriram Subramanian
  151. SpaceInk: Making Space for In-Context Annotations (UIST ‘19) Hugo Romat,

    Emmanuel Pietriga, Nathalie Henry-Riche, Ken Hinckley, Caroline Appert 先⾏研究と⽐べてどこがすごい︖ スペース確保のために,コンテンツの再流し込み (reflow)の技術を利⽤している点. overlay marks(蛍光ペンや下線)と,in-context annotation(余⽩の書き込み)の共存について考え ている点. どんなもの︖ デジタル書類を読むときに,⽂章を押し流すこと でコメントを⼊れ込むスペースを作る注釈⽅法. どうやって有効だと検証した︖ 4⼈のユーザーにシステムを使ってもらい,メモ の⻑さや使い⽅,挿⼊場所などの分布を調べた. タッチ,ペンでの操作についての操作感も聞いた. 技術や⼿法のキモはどこ︖ 段落の脇,⾏と⾏の間,段落の中の矩形領域,単 語と単語の間,の4種類の挿⼊場所を⽤意.ピン チの場所や向き,またはペンで描き始めた場所か ら,4種類のうちのどの挿⼊場所にするかを決定. 描き始める前,途中,後のどの段階でも,スペー スを調整できる. 議論はある︖ デザインの鍵は3つ. 1. overlay ink と in-context annotationのスムーズ な切り替えを可能にすること. 2. スペース確保の⽅法を⽤途に合わせて数種類 ⽤意すること. 3. overlay inkも他の⽂章と⼀緒に押し流されるこ と.⽂章だけ流れちゃうと書き込みがズレる. 表⽰デバイスや元の⽂章が変わるとメモとの⼀貫 性が保てなくなる. 次に読むべき論⽂は︖ Appert et al. 2009
  152. LightBee: A Self-Levitating Light Field Display for Hologrammatic Telepresence (CHI

    ‘19) Xujing Zhang, Sean Braley, Calvin Rubens, Timothy Merritt, Roel Vertegaal 先⾏研究と⽐べてどこがすごい︖ ⾃律⾶⾏するライトフィールドディスプレイを, テレカンに使ってる点.複数⼈に対し,運動視差 と⽴体視を同時に実現する点.リモートユーザー の頭の動きを正確にローカルユーザーに提⽰する 点.ドローンの利⽤により,⾼速移動できる点. どんなもの︖ ドローンを円柱型の再帰性反射スクリーンで囲ん で,遠隔ユーザーを映すテレプレゼンスシステム. どうやって有効だと検証した︖ 6⼈のユーザーに使ってもらい感想を聞いた. 技術や⼿法のキモはどこ︖ 半径180cmの円形レールに45個のプロジェクタを 並べて,⾶んでる円柱型スクリーンに投影する. 再帰性反射スクリーンに向けて,それぞれのプロ ジェクタが,それぞれの⾓度から⾒たリモート ユーザーの頭を投影するから,視差・⽴体視でき て,明るさも確保する. 議論はある︖ テレカンやエンタテインメントに応⽤できる.リ モートユーザーは,複数箇所にLightBeeを配置す ることで,同時にたくさんの場所に存在すること ができる. 問題点(とその解決策)は 1. 視線合わせが難しい.(リモートとローカル, どっちもドローンにする) 2. 視野⾓が狭い.(プロジェクタの数を増やす) 3. プロペラの⾳がうるさい.(ノイキャンスピー カやイヤホンを使う,ローター設計⾒直し) 4. バッテリー持ち時間4分.(ダクトプロペラに して⾶⾏の効率を上げる) 次に読むべき論⽂は︖ Higuchi et al. 2013
  153. BubBowl: Display Vessel Using Electrolysis Bubbles in Drinkable Bevarages (UIST

    ‘19) Ayaka Ishii, Itiro Siio 先⾏研究と⽐べてどこがすごい︖ 電気分解で作るから,外部から気体を取り込む必 要がなく,可動部分(電磁バルブとか)も不要であ る点.⾼密度,⾼画素な実装が容易で,⼩型,低 コスト,低ノイズ,低消費電⼒である点. どんなもの︖ 電気分解によって飲み物の表⾯に泡を発⽣させ, 10*10ピクセルの絵を描くカップ型デバイス. どうやって有効だと検証した︖ 液体にどれだけ⾊がついていれば泡が識別できる かを調べた.泡ディスプレイの応答時間と液体の 粘性の関係も調べた. 技術や⼿法のキモはどこ︖ 10*10のマトリクス状にピンヘッダを配置し,陰 極とした.⾦箔を容器内壁に貼って,共通の陽極 とした.電解液は0.4%濃度の炭酸⽔素ナトリウム. Arduino Pro Miniによって任意の複数電極が接地さ れ,接地された電極が陰極として機能し,泡が発 ⽣する.陰極から⽔素,陽極から酸素が発⽣する が,どちらも飲めるから⼤丈夫. 議論はある︖ 英数字4⽂字程度の任意のメッセージを表⽰可能. ⼩型で低ノイズ,低コストなため,⽣活空間内で のアンビエントディスプレイとして利⽤可能. 酸味のあるフルーツジュースは,それ⾃体に導電 性があるから,そのまま表⽰媒体として使える. それ以外の飲料なら,電解液を加える必要ある. BubBowlで飲むときに感電しないように,カップ の縁にタッチセンシングの電極をつけて,飲⽤⾏ 動を検出し,電気分解を停⽌する必要あり. 次に読むべき論⽂は︖ Dahley et al. 1998. WISSのBubBowlは⽇本語.
  154. PicMe: Interactive Visual Guidance for Taking Requested Photo Composition (CHI

    2019) Minju Kim, Jungjin Lee 先⾏研究と⽐べてどこがすごい︖ ガイダンスが2.5次元,そしてリアルタイム. 事前に希望のアングルで撮ってから渡すというの は良いアイデア. どんなもの︖ 「写真撮ってください」と頼まれた⼈が,頼んだ 側の希望に沿った写真を撮りやすいようにARで 誘導するモバイルアプリケーション. どうやって有効だと検証した︖ 12⼈に,5種類の⽬標写真を与え,それぞれ3ス テップのガイドに沿って撮ってもらった.各ス テップについて,誤差とかかった時間を計測. 技術や⼿法のキモはどこ︖ まず,頼む側が,撮ってほしいアングルで写真撮 る.それに沿って撮影者に3ステップのガイド. 1. 画⾯左上に,頼む側が撮った写真を表⽰. 2. 緑のフレーム(⽬標)と灰⾊のフレーム(現在の 位置を表す.画⾯に固定されてる)を表⽰. 3. 緑のエッジ(⽬標)を表⽰. 段階的に細かい位置調整を促すように設計した. 議論はある︖ 上下左右のズレは瞬時に修正できるが,前後のズ レを調整するのが難しい.(⽮印や聴覚を追加︖) ステップ3で表⽰するエッジは,重要なモニュメ ントとか建物のエッジだけで⼗分かも. 3ステップは,撮影者に⾃分のタイミングで切り 替えさせた⽅がやりやすいかも. 頼む側が,希望する写真に,⾃分の体も合成する と良いかも.撮影時のインタラクションも可能な らより良い. 次に読むべき論⽂は︖ Bae et al. 2010.
  155. SottoVoce: An Ultrasound Imaging-Based Silent Speech Interaction Using Deep Neaural

    Networks (CHI 2019) Naoki Kimura, Michinari Kono, Jun Rekimoto 先⾏研究と⽐べてどこがすごい︖ 超⾳波撮像センサーを⼩型にでき,ウェアラブル. 利⽤者は声帯を振動させなくて良い. どんなもの︖ 超⾳波映像から,2段階のニューラルネットモデ ルにより利⽤者の無発声⾳声を検出するシステム. どうやって有効だと検証した︖ 既存のスマートスピーカーに,無発声⾳声でコマ ンドを送り,65%の認識成功率を得た. この検証の学習データは,約500種類の “Alexa, play music”などの有声コマンドと超⾳波映像. 技術や⼿法のキモはどこ︖ 顎の下に取り付けた凸型超⾳波イメージングプ ローブかが画像ファイルを出⼒.それを... 1. 画像の列を⾳響特徴ベクトル(Melスケールス ペクトラム)に変換 2. ⾳響特徴ベクトルの品質を上げ,より⾃然な ⾳響特徴ベクトルの列を出⼒ (これ⼤切) という2つのネットワークに通す. で,特徴ベクトルから⾳声波形に復元. 議論はある︖ ⾳響ベクトルの発⽣時刻およびそれ以前の画像系 列だけ⽤いる⽅法を検証中.これだとN1では遅 延なく⾳声を⽣成できる. ⼝と⾆さえ動かせれば,発声困難者が⾃然なイン トネーションで発声できるかも. EMB,加速度計,NAMマイクなどの情報との組み 合わせ,超⾳波センサの設置位置などは今後の研 究対象. 次に読むべき論⽂は︖ Fukumoto. Silent Voice. 2018.
  156. (UIST 2018) Masaaki Fukumoto 先⾏研究と⽐べてどこがすごい︖ 吸気発話を使うことで, 1. ポップノイズが無いため,S/N⽐が⾼い 2. 気流の⽅向だけで普通の発話と区別可能

    どんなもの︖ 息を吸いながら喋る⾳声⼊⼒インタフェース どうやって有効だと検証した︖ 男性3⼈に,NormalとSilentVoiceの両⽅で発話させ, SilentVoiceだけ取り出せるか実験(精度98.8%). ⾳漏れの⼤きさと,拾った⾳量を測定. コマンドを正しく認識できることも確認. 技術や⼿法のキモはどこ︖ マイクの設計がイケてる. 1. マイクが,唇との間に1mmほどの狭い空間を 作る.空間を絞ることで,⾮常に⼩さい気流 &⾳漏れ(<40dB)で発⾳できる. 2. マイクが超近いから,実際の⾳量が⼩さくて も,拾える⾳量はむしろ普通より⼤きい. 3. マイクがシールドとなり,ノイキャンする. 議論はある︖ 1. /k/&/g/など,無声&有声⼦⾳の区別が困難 2. /h/が検出できない 3. 指輪,ペン,ペンダント,時計,スマホ,TV リモコン,⻭インプラントなどに埋め込める. 4. ⾼周波数成分が良く拾えるから,サンプリン グ周波数は16kHz以上が良い. 5. 15分ほど練習すれば使えるようになる. 次に読むべき論⽂は︖ D. Wigdor et al. 2011 “Brave NUI World” SilentVoice: Unnoticeable Voice Input by Ingressive Speech
  157. (AH 2019) Richard li, Jason Wu, Thad Starner 先⾏研究と⽐べてどこがすごい︖ どんなもの︖

    マウスピース型の静電容量センサで⾆の動きを追 うことで,無発声⾳声を認識するデバイス. どうやって有効だと検証した︖ 1. 4⼈に21種類の⾔葉をそれぞれ20回分サンプ ルし,それを元に正しく分類できるか調べた. 2. スワイプなどの⾆ジェスチャも混ぜて実験. 3. 座りながら・歩きながらスマホで電卓操作. 技術や⼿法のキモはどこ︖ ハードは市販の⾔語障害治療⽤のマウスピース. 124箇所の静電容量式センサで⾆との接触を検知. GAカーネルを⽤いたSVMをデータ判別に⽤いた. DNNとかだと分類に時間かかるからSVMにした. 議論はある︖ 1. 唇や顎の動きを考慮しないため,判別しにく い⾔葉のペアが存在する. 2. 操作中に装置がズレないように,個⼈の⻭の 形に合わせて作るから,⼤量⽣産に向かない. 3. ⾔語モデルを利⽤して⾃由なテキスト⼊⼒を 可能したい.(現状は使える単語決まってる) 4. データ集めれば,認識精度あげたり,万⼈に 適⽤可能な分類モデルを作れるかも. 5. 現状ではDataLinkモジュールのコードでスマホ やPCに接続しなきゃいけない. 次に読むべき論⽂は︖ Ando et al. の CanalSense TongueBoard: An Oral Interface for Subtle Input
  158. (UIST 2017) Toshiyuki Ando, Yuki Kubo, Buntarou Shizuki, Shin Takahashi

    先⾏研究と⽐べてどこがすごい︖ 使う情報が外⽿道の気圧変化だけである点. 顎,頭,顔の動きを,これ1つで認識できる点. どんなもの︖ イヤホン形の気圧センサで外⽿道の形状変化を取 得し,顎・頭・顔の動きを認識するシステム. どうやって有効だと検証した︖ 12⼈に11種類の動きを12回ずつさせ,モデルの 分類精度をcross-validationで検証.(結果: 87.6%) 同様に,4種類の⼤きさで⼝を開けてもらい,分 類精度を検証.(結果: 87.5%) 技術や⼿法のキモはどこ︖ 気圧変化を正しく読むために外⽿道の気密性を保 つ⼯夫.イヤホンの⽳をホットガンで潰すなど. 分類の⼿順は, 1. 気圧の勾配やピーク値から,頭部が動いたか どうか判定.動いたら次のステップへ. 2. 気圧値の波をRFで分類.使うのは次の要素: 1つ前との差,左右の気圧値の差の振幅スペクト ル,左右それぞれの標準偏差,最⼤振幅,最⼩値 と最初の値の差,平均から⼤きく外れた値の数. 議論はある︖ 1. Face Rightが,Tile Head RightやFace Upと混同. 2. 体調(⾵邪,⿐詰まりなど)が影響するかも. 3. 頭部以外の体の動きや姿勢が影響するかも. 4. 天気や標⾼などで外気圧が影響するかも. 5. ⾳が影響するか検証する必要あり. 6. イヤホンの位置ずれ対策が必要. 7. 現状では頭の動きを単体で検出してるが,組 み合わせも対応できるかも.(⼝を⼤きく開け ながら右を向く,など) 次に読むべき論⽂は︖ Hu et al. 2012. Steptimu^2.⾊々計測できるっぽい. CanalSense: Face-Related Movement Recognition System based on Sensing Air Pressure in Ear Canals
  159. (IUI 2018) Arnav Kapur, Shreyas Kapur, Pattie Maes 先⾏研究と⽐べてどこがすごい︖ 1.

    ⾮侵襲的,かつ⼝を動かす必要なし 2. 平均92%という⾼精度の認識. 3. 装着したまま歩ける.しかもワイヤレス. 4. プライベートな情報や思考までは読まない. (⾃発的に喋ろうとした事だけ⼊⼒する) どんなもの︖ 顎と顔の神経筋信号から無発声⾳声を読み取り, 機械や⼈と対話するインタフェース. どうやって有効だと検証した︖ 10⼈集めて, 1. IoTコマンドやチェスなどで使う語彙を⼼の中 で発⾳してもらい,そのデータを記録. 2. 前ステップのデータを元にモデルを作成し, 認識の精度(92%)と遅延(0.427 s)を測った. 技術や⼿法のキモはどこ︖ 顎に貼った電極から取った信号にフィルタかけて ノイズを除去してBluetooth経由でサーバーへ. ニューラルネットワークを⽤いた(無発声)⾳声認 識のモデルを事前に学習させておく. ⾻伝導ヘッドフォンを付けて,⼊⼒・出⼒インタ フェースをこれ⼀つに統合. 議論はある︖ 1. user-independentなモデルを作るために,もっ と多くのデータを集めたい. 2. ⻑期的には精度がどうなるか調べたい. 3. 検証では座った状態だったが,歩きながらな ど,⽇常⽣活の中で使えるか検証したい. 4. Closed-loop(計算やカレンダー),Open-loop(IoT コントロール),Human-human(会話)など,い ろんな種類のインタフェースになりうる 次に読むべき論⽂は︖ Hirahara et al. 2010. Silent-speech enhancement ... AlterEgo: A Personalized Wearable Silent Speech Interface
  160. (UIST 2019) Marc Teyssier, Gilles Bailly, Catherine Palachaud, Eric Lecolinet,

    Andrew Conn, Anne Roudaut 先⾏研究と⽐べてどこがすごい︖ 変形するセンサの研究で,肌に着想を得ている. この着眼点から,曲げたり伸ばしたり,圧⼒で変 形したりを同時に実現した.これがすごい. どんなもの︖ センサの⼊った⼈⼯⽪膚により,「つねる」 などの操作を可能にするインタフェース. どうやって有効だと検証した︖ 8⼈に8種類のジェスチャを5回してもらい,認識 精度を検証した.(結果: 85%) デザインに関しては,様々な⾊,テクスチャ,厚 みを⽤意して,どれが⼈間の肌っぽいかをアン ケート結果から導いた. 技術や⼿法のキモはどこ︖ 肌インタフェースのデザインがキモかな. ⾊(ベージュ),テクスチャ(⽑⽳+シワ),厚み(脂肪 5~10mm),センサ⽅式(マトリックス形,容量式), 電極(導電⽷)が良いみたい. さらに,オープンソースでマルチタッチ可能な⼈ ⼯⽪膚コントローラを開発したため,誰でもDIY できる.ありがとうTeyssierさん. 議論はある︖ 1. 機械学習など認識アルゴリズム強化できそう. 2. 斜め⽅向に伸びやすい特性がある. 3. 場所によって感度が違っても良いかも. 4. 出⼒(⾊を変えるなど)ができると,より⼈間 らしくなるし,応⽤の幅が広がる. 5. 機械に愛着が湧く現象を促進するかも. 6. bio-drivenアプローチは多⽅⾯に応⽤可能. 次に読むべき論⽂は︖ Weigel et al. 2014. More than touch. Skin-On Interfaces: A Bio-Driven Approach for Artificial Skin Design to Cover Interactive Devices
  161. (UIST 2018) Patrick Parzer, Florian Perteneder, Kathrin Probst, Christian Rendl,

    Joanne Leong, Sarah Shutz, Anita Vogl, Reinhard Schwodiauer, Martin Kaltenbrunner, Siegfried Bauer, Michael Haller 先⾏研究と⽐べてどこがすごい︖ Force Sensing Resistor (FSR)の原理を⽷⾃体に⼊れ 込んだこと.FSRでマルチタッチ対応するために は縦向き・横向き配列にした導体を半導体で区切 る3層構造にする.RESiは⼀つの⽷(1層)で対応. どんなもの︖ 導電⽷(resistive yarn)の導電・抵抗特性を利⽤して 圧⼒検出をするインタフェース. どうやって有効だと検証した︖ 様々な太さ,ねじれの導電⽷を使って,圧⼒検知 性能・導電性・伸縮性の違いを調べた. 技術や⼿法のキモはどこ︖ 導電性の⾦属⽷の周りに抵抗として⾼分⼦ポリ マーをコーティングした. ⽷に圧⼒を加えると,コーティングが潰れて,中 にある導電性粒⼦の密度が⼤きくなる.これによ り抵抗値が変わる,という仕掛け. 議論はある︖ 1. 布地とPCBとの接合部が物理的に弱い. 2. 圧⼒検知する場所は⽷と⽷が交差していると ころだけだから,解像度が低い. 3. 検知するのは圧⼒だから,肌で触れる必要が ない.(False Activation起こりやすいのは⽋点) 4. 布内部で働く張⼒により,何もしてないのに 圧⼒を検知してしまうことがある. 5. RESiを編み込んだ布を道具に貼ったり,⽷の 交差点を作りながら上⼿いこと刺繍したり, ズボンに網⽬状に縫ったり応⽤の幅は広い. 次に読むべき論⽂は︖ Shu et al. 2015. RESi: A Highly Flexible, Pressure-Sensitive, Imperceptible Textile Interface Based on Resistive Yarns
  162. (CHI 2018) Suwen Zhu, Tianyao Luo, Xiaojun Bi, Shumin Zhai

    先⾏研究と⽐べてどこがすごい︖ スマホ画⾯の⼩ささを解決するため,キーボード を透明にしたところ.さらに適切な補正をすれば 正確に⼊⼒できることを証明したところ. どんなもの︖ スマホのキーボードが⾒えなくても⽂字を⼊⼒で きるかを調べた. どうやって有効だと検証した︖ 1. “普通の”,”キーの枠だけ”,”完全に⾒えない” の3種類のキーボードでフレーズを⼊⼒しても らい,タッチ位置の分布・ズレ具合を調べた. 2. Spatial adaption methodを適⽤する/しないで⼊ ⼒してもらい,誤⼊⼒の割合(3.83%/2.48%)や 速さ(29.30WPM/26.29WPM)を⽐較. 3. 3⽇間の練習で,普通のキーに⽐べて誤⼊⼒の 割合と速さが改善されるかを調べた. 技術や⼿法のキモはどこ︖ Spatial Model (タッチ位置からキーへのマップ), Language Model (履歴から計算された,⾔葉の事 前確率分布) の2つを合わせて,ベイズの定理か ら⼊⼒を予測する.モデル⾃体はBiらの”Baysian Touch”などで使われている.必要なパラメータは 実験1で調べてる. 議論はある︖ 1. ⼈は,⼤まかなキー位置は記憶してるみたい. 2. adaptionはスマホ操作においても有効. 3. ⾒えないキーボード+adaptionは実⽤的. 次に読むべき論⽂は︖ Xiaojun Bi et al. UIST 2013. “Bayesian Touch” Typing on an Invisible Keyboard
  163. (UIST 2013) Xiaojun Bi, Shumin Zhai 先⾏研究と⽐べてどこがすごい︖ 確率論的な⼿法を⽤いてタッチの標的を決定する ことで⼊⼒精度を上げられることを⽰した点. どんなもの︖

    タッチスクリーン上で,ユーザーが選択しようと したものをベイズの定理を⽤いて推測する. どうやって有効だと検証した︖ 1. 5種類の半径の円(⽬標)を素早くタッチしても らった.⽬標の半径とタッチ位置の分散から, BTCに必要な定数を推定. 2. 複数の灰⾊の円と1つの緑⾊の円を表⽰し,緑 ⾊の円をタッチしてもらった.BTC(誤り5.9%), VBつまり単純に触ったかどうか(19.6%),円と の最短距離(8.0%),円の中⼼との最短距離 (6.3%)の基準でタッチ精度を測定. 技術や⼿法のキモはどこ︖ Bayesian Touch Criterion(BTC)によって⽬標(ユーザ がタッチしようとしたオブジェクト)を決定する. BTD(Distance)は次の2ステップにより計算される: 1. ⼊⼒から各オブジェクトが⽬標である確率を, それぞれベイズの定理から算出. 2. タッチ精度に関する2変数の正規分布から,⽬ 標のタッチ位置の分布を求める. BTDが最⼩となる物が⽬標,とするのがBTC. 議論はある︖ もっと実⽤のUIデザインで使う場合は,他の閾値 やフィルターなどと合わせてBTCを⽤いることも 考えられる. 次に読むべき論⽂は︖ Schwarz et al. 2010. UIST. Bayesian Touch – A Statistical Criterion of Target Selection with Finger Touch
  164. (IMWUT 2019) Farshid Salemi Parizi, Eric Whitmire, Shwetak Patel 先⾏研究と⽐べてどこがすごい︖

    精度が⾼いという磁気センサの⻑所を⽣かしつつ, 周囲の⾦属からの影響や消費電⼒などの短所を解 決した点. どんなもの︖ 指輪型の磁場発⽣器とリストバンド型の磁場セン サを⽤いてミリ単位で指輪の動きを追うシステム. どうやって有効だと検証した︖ 1. 光学式トラッキングをground-truthとして反復 モデル(誤差平均4.41mm,4.65°)とニューラル ネットワークモデル(6.07mm,8.35°)の精度検証. 2. 解像度や消費電⼒,計算速度も計測. 技術や⼿法のキモはどこ︖ 設計の⼯夫.指輪は1軸の薄型コイルにして, 32kHzの磁場を発⽣.リストバンドにはセンサが3 つあり,それぞれに3つの受信コイル(x,y,z⽤)が付 いている.センサから取った9次元のデータから 指輪の位置を5DoF(3位置2⽅向)で推定する⽅法と して,反復モデルとニューラルネットワークモデ ルの2つを提案. 議論はある︖ タップ検出,指先をペンとして⽂字を書く,⾻の ⻑さを制約条件として計算なども考えられる. 指輪とセンサが近いので,周囲の磁場の影響を受 けない. 指の付け根じゃなくて指先に指輪つけると精度が 上がりそう.指輪いっぱい付ければ⼿全体のト ラッキングもできるかも. 次に読むべき論⽂は︖ Ke-Yu Chen et al. 2016. “Finexus” AuraRing: Precise Electromagnetic Finger Tracking
  165. (CHI 2020) Konstantin Klamka, Tom Horak, Raimund Dachselt 先⾏研究と⽐べてどこがすごい︖ ストラップを(ピクセルベースの)ディスプレイに

    することについての研究は前例がなく,市場にも 出ていない. どんなもの︖ スマートウォッチのストラップ部分をタッチディ スプレイとして利⽤する. どうやって有効だと検証した︖ プロトタイプを使ってもらい,意⾒交換した. 技術や⼿法のキモはどこ︖ モジュール式の研究⽤プラットフォームを設計し て,考察しやすくした.近々githubで公開予定. 議論はある︖ ⼿⾸のサイズや時計の付け⽅が多様であることや, 部品の⼩型化,熱の発⽣や消費電⼒などの問題は 残ってる. バックルをボタンとして利⽤したり,位置を変え たりなども考えられる.応⽤例は図が語る. 次に読むべき論⽂は︖ Ahn et al. 2015. “BandSense” Watch+Strap: Extending Smartwatches with Interactive StrapDisplays
  166. (UIST 2019) Artem Dementyev, Tomas Vega Galvez, Alex Olwal 先⾏研究と⽐べてどこがすごい︖

    既製服の元のデザインを壊さないし,⼩さいから 邪魔にならない.数時間駆動.着脱も簡単. どんなもの︖ 服のスナップに取り付けて,タップと回転の検出 やモーキャプに使えるセンサー. どうやって有効だと検証した︖ 10⼈に利⽤してもらったり,布に取り付けても らったり,アンケート取ったりした. 技術や⼿法のキモはどこ︖ スナップの⼤きさに全てを収めたのはすごい. IMU載せたPCBとバッテリーをスナップの内部に ⼊れる.電⼒温存のため3つのモードに分けた: 1. スタンバイモード.銅箔の静電容量タッチセ ンサでタッチのみ検出.検出したら2へ. 2. ジェスチャモード.タッチに加え,ジャイロ で回転を検出.検出したら3へ. 3. 動作感知モード.IMUが3Dトラッキング. 議論はある︖ こする・スワイプ・押す・引っ張る,などのジェ スチャもアリ.応⽤例としては 1. タップで⾳楽再⽣・停⽌,回転で⾳量変更. 2. 指が使えないなど運動障害がある⼈が,体の 動きで操作する. 3. モーショントラッキング. 誘導コイルでワイヤレス充電できれば防⽔にでき そう.ジュエリー,ベルト,靴など別の物でも作 れそう. 次に読むべき論⽂は︖ Cameron S. Miner et al. 2001. “Digital Jewelry” SensorSnaps: Integrating Wireless Sensor Nodes into Fabric Snap Fasteners for Textile Interfaces
  167. (CHI 2020) Bryan Wang, Tovi Grossman 先⾏研究と⽐べてどこがすごい︖ タッチと瞬きを同時に利⽤するのが新しい.それ によってfalse activationが軽減されるのが良い.

    どんなもの︖ 「瞬き」と「タッチ」を同時にするジェスチャで スマートウォッチを操作する. どうやって有効だと検証した︖ 1. 無意識にタッチと瞬きが同時に起こる率を計 測.250msのズレを許容すると偽陽性率1.68%. 2. BlyncSyncジェスチャの成功率を測定(97.1%). ボタンの利⽤(98.4%)やタッチのみ(99.4%)と⽐ べても,まあまあ良い精度. 技術や⼿法のキモはどこ︖ スマートウォッチの操作の種類を増やすため, タッチと瞬きの組み合わせを⽤いる.瞬きを使う と誤作動が起きやすいため,タッチと同時に瞬き するmutual delimiterを導⼊. デザインのポイントは,「同時に」というのをど れくらい厳しくするか.ジェスチャの偽陽性率と の兼ね合いを考えてオフセットを決めている. 議論はある︖ 1. スマートウォッチのショートカットや,視線 を合わせてIoT制御などの応⽤が考えられる. 2. 眼鏡とか付けてると光学的な瞬き検出しにく いから,EOG情報を使うと良いかも. 3. 瞬き+タッチの複雑なジェスチャで認証も. 次に読むべき論⽂は︖ Stephen Oney et al. 2013. “ZoomBoard” BlyncSync: Enabling Multimodal Smartwatch Gestures with Synchronous Touch and Blink
  168. (CHI 2013) Stephen Oney, Chris Harrison, Amy Ogan, Jason Wiese

    先⾏研究と⽐べてどこがすごい︖ ⼩さなタッチスクリーンでもお馴染みのQwerty配 列が使えて,しかも練習がほぼ不要なところ. どんなもの︖ 画⾯が⼩さいデバイスで「タップで拡⼤してから, タップでキーを打つ」の繰り返しによって正確に ⽂字を⼊⼒できるソフトキーボード. どうやって有効だと検証した︖ JavaScriptでプロトタイプ作ってブラウザで6⼈に 使わせた.平均7.6wpm,最終的に9.3wpmを達成. 1430⽂字につき1⽂字の誤⼊⼒率を達成.ズーム なしのキーボードを⼤きく上回った. 技術や⼿法のキモはどこ︖ 1⽂字を⼊⼒するために必要なタップの回数は約2 回になるが,キーの⼤きさは4倍になる. 限られたスペースにqwertyキーボードを押し込む ため,タップ回数を犠牲にしてキーの⾒やすさを 得た,という感じ. 議論はある︖ ⾔語モデルを導⼊するなど改善の余地あり. ユーザーの運動能⼒に合わせることもできる.例 えば,ジョギングしながらスマートウォッチで⽂ 字を打ちたい時だけZoomBoardを使うなど.スマ ホの加速度計使えば,ユーザーが動いてるかどう かわかるから,それを利⽤. 次に読むべき論⽂は︖ Albinsson et al. CHI 2013. ZoomBoard: A Diminutive QWERTY Soft Keyboard Using Iterative Zooming for Ultra-Small Devices
  169. (CHI 2020) Debjyoti Ghosh, PinSym Foong, Shengdong Zhao, Can Liu,

    Nuwan Janaka, Vinitha Erusu 先⾏研究と⽐べてどこがすごい︖ グラス型ディスプレイ+⾳声⼊⼒のシステムでは ハンズフリーで⽂字⼊⼒できるけど,⽂字”編集” はやりにくい.⾳声と⼿⼊⼒のハイブリッドにし て,それを解決しちゃった. どんなもの︖ グラス型のシースルーディスプレイに⽂章を表⽰ させながら,⾳声と⼿⼊⼒でテキスト編集する. どうやって有効だと検証した︖ 表⽰デバイス,歩く道の複雑さ,タスクの難しさ を変えながら,⽂章中の間違いを修正してもらっ た.歩く速さや所要時間,効率や好みを測定. 技術や⼿法のキモはどこ︖ Visual, Audio, Manual の3つのインタフェースを⽤ 意.VisualはグラスでAudioはマイク付きヘッド フォン,Manualは指輪型マウス. ⼤事なのは,グラス型ディスプレイでテキスト編 集するのに適した表⽰⽅法・⽂章修正⽅法を調べ たこと. 議論はある︖ 1. スマートグラスでテキスト編集するなら,AV バイモーダル同時出⼒は適さないっぽい 2. ⾔い直しによる⽂章修正が簡単で効率良い. 3. スマホよりグラスの⽅が,歩⾏スピード保て るし修正も早くできて負荷も⼩さい. 4. 実験は室内でやってたけど,外でやると光や ⾳のノイズが⼊ってきて,事情が変わってき そう. 次に読むべき論⽂は︖ Tovi Grossman et al. 2015. Typing on glasses EYEditor: Towards On-the-Go Heads-up Text Editing Using Voice and Manual Input
  170. (CHI 2020) Korok Sengupta, Sabin Bhattarai, Sayan Sarcar, I Scott

    MacKenzie Steffen Staab 先⾏研究と⽐べてどこがすごい︖ ⾳声によるテキスト編集では,⾳声だけだと空間 情報を指定できないという問題がある.それを, 視線というモダリティと組み合わせることでス ムーズに解決している. どんなもの︖ 視線を向けることで単語を選択し,⾳声によって ⽂章を編集するTalk-and-Gazeという⼿法. どうやって有効だと検証した︖ 1. Voice-onlyとD-TaG,V-TaGそれぞれで,5つの ミスがある段落を修正してもらった.修正箇 所は⾚線が事前に引いてある. 2. 画像を⾒て,⾃由作⽂で説明してもらった. 技術や⼿法のキモはどこ︖ Talk-and-Gaze (TaG)が重要.作ったのは2種類: 1. D-TaG: 訂正したい⾔葉を800ms⾒つめると選 択され,修正候補の⾔葉を選ぶ. 2. V-TaG: 訂正したい⾔葉を⾒ながら”select”と発 話すると選択され,後はD-TaGと同様. 議論はある︖ D-TaGが⼀番⾼速・正確・訂正の成功率最⾼で⼈ 気.V-TaGはVoice-onlyより不⼈気.ユーザーの⽬ が疲れたら,Voice-onlyに切り替えるのもアリ. 問題点は: 1. 似た発⾳の⾔葉が誤認識される.特に”select” が認識されないのは致命的. 2. 視線固定の視覚フィードバックが欲しい. 次に読むべき論⽂は︖ Chandra Sekhar Mantravadi さんの博論(2009) Leveraging Error Correction in Voice-based Text Entry by Talk-and-Gaze
  171. (CHI 2020) Jingun Jung, Sangyoon Lee, Jiwoo Hong, Eunhye Youn,

    Geehyuk lee 先⾏研究と⽐べてどこがすごい︖ 運転中でも使えるところ.⾳声UIのフィードバッ クチャネルとして視覚チャネルを使わず触覚を 使ってるから「ながら運転」みたいにならない. どんなもの︖ 運転中のインタラクションを想定し,⾳声UIに⾼ 解像度の触覚ディスプレイを組み合わせた. どうやって有効だと検証した︖ Voice-onlyとVoice+Tactileそれぞれを⽤いて,ドラ イブシミュレータの中で運転しながら,列⾞の予 約とメッセージ送信 (途中で⼊⼒⽂章のミスを訂 正するタスクを含む) をしてもらい,⽐較した. 技術や⼿法のキモはどこ︖ 触覚ディスプレイはPinPad.ポイントは: 1. ⼊⼒待ちや処理中など状況を触覚で知らせる. 2. ⾳量光量調節やテキスト編集が可能. 3. リスト型情報の読みあげでは,いつでも任意 の要素にアクセス可能.⽂章読みあげでは, 粒度(キーワードのみとか)を動的に変更可能. 4. どの指を使わせるかを振動で伝える. 議論はある︖ 1. 視界を遮らないとはいえ,この⼿法だと⽚⼿ 運転になるし,現実的な運転に適してるか謎. 途中でPinPadから⼿を離しても,再び同じ表 ⽰をする,みたいな移⾏を検証する必要あり. 2. でこぼこ道ではPinPadの誤作動起きるかも. HDDの防振機構みたいに揺れを防げると良い. 3. PinPadの出⼒が強いと認識しやすいかも. 次に読むべき論⽂は︖ Jingun Jung et al. 2017. PinPad. Voice+Tactile: Augmenting In-vehicle Voice User Interface with Tactile Touchpad Interaction
  172. (CHI 2017) Jingun Jung, Eunhye Youn, Geehyuk lee 先⾏研究と⽐べてどこがすごい︖ タッチパッドの出⼒というに⽬をつけて,⾼解像

    度の触覚フィードバックを可能にしたところ. どんなもの︖ ⾼い時空間解像度で触覚パターンを出⼒できる タッチパッドを使ったインタラクション. どうやって有効だと検証した︖ 40x25のピンを個別に10Hzで動かせるプロトタイ プ作って8⼈に使ってもらい,アンケート. 技術や⼿法のキモはどこ︖ シナリオを4つデザインした: 1. チェックボックスやスライダーなどを物理的 にタッチパッド上に表⽰する. 2. 指を動かす範囲や⽅向を凸凹で伝える.凹凸 により直線的な動きをさせたり. 3. どの指にどういう動きの凹凸を出⼒するかで, メッセージやパターンを表現する. 4. 凸でタッチパッド領域を動的に分割する. 議論はある︖ 1. ⽂脈に応じて⾊んな触覚ウィジェットを作れ ると楽しい. 2. 凹凸の形の違いはけっこう識別できる. 3. ボタンやスライダ,メニューに触れるのは良 い.⾏ごとに凹凸があればテキスト選択など でも便利.ピンの動きで特定の指の動きを促 すことができる. 4. 決められた触覚パターンを選択するパスワー ド⽅式としても使える. 次に読むべき論⽂は︖ Olivier Bau et al. 2010. TeslaTouch. PinPad: Touchpad Interaction with Fast and High-Resolution Tactile Output
  173. (UIST 2019) Sunggeun Ahn, Geehyuk Lee 先⾏研究と⽐べてどこがすごい︖ タッチと視線を補完的に組み合わせることで, タッチパッド操作は簡単になり,視線の⽬標も⼤ きくでき,ミダスタッチ問題も解消したこと.

    どんなもの︖ タッチパッドとアイトラッキングの組み合わせ (GAT; Gaze-Assisted Typing)で⽂字⼊⼒. どうやって有効だと検証した︖ 1. タッチパッド操作の種類と視線選択するサ ブ・キーボードの数を変えながら,タッチと 視線の複雑さのバランスを調整した. 2. HMD(FOVE)で,タッチのみ・視線のみ・GATの 3種類を使ってもらい,⼊⼒スピードや誤字率 を⽐較し,アンケートをとった.(GATが⼀番 速くて⼈気もあった.) 技術や⼿法のキモはどこ︖ 視線とタッチという2つのモダリティに,選択肢 をどれだけ分担させるかのバランスが重要. ⼊⼒⽅法は2ステップ. 1. 欲しい⽂字が含まれるサブ・キーボードに視 線を合わせて選ぶ. 2. そのサブ・キーボードの中から,1⽂字を眼鏡 フレームのタッチパッドのジェスチャで選択. 議論はある︖ 1. GATは40分の練習で11.04 wpmを達成していて, SwipeZone(8.53wpm)より⾼速. 2. ⽬の疲れも少ないし,視線のみで使うより GATの⽅がロバスト. 次に読むべき論⽂は︖ Robert J.K. Jacob. 1991 Gaze-Assisted Typing for Smart Glasses
  174. (UIST 2018) Ke Sun, Chun Yu, Weinan Shi, Lan Liu,

    Yuanchun Shi 先⾏研究と⽐べてどこがすごい︖ フロントカメラからの画像のみを使うから,ノイ ズにも影響されないし,プライバシーも守れる. Spatial Transformer Networksで認識モデルを改善. どんなもの︖ スマホのフロントカメラで⼝の動きを取得して, コマンドを識別する. どうやって有効だと検証した︖ 1. 認識率を調べた.(95.46% -> 99.11%) 2. Lip-Interact,両⼿でのタッチ操作,⽚⼿での タッチ操作の3種類で⽐較.(Lip-Interactが⼀番 速く,他2つより使いやすいと答えた) 3. 地下鉄でLi-Interactと⾳声コマンドの両⽅を 使ってもらいアンケート.(満⾜) 技術や⼿法のキモはどこ︖ 設計のポイントは, 1. タッチと⼀緒に使える 2. ⾼い認識率 (⾒分けやすいコマンドを設定, ⼤袈裟に⼝を動かすように要求する) 3. アプリごとに使えるコマンドを設定する 4. 使えるコマンド,認識結果などを表⽰する [spatial transformer + CNN + RNN]のモデル. 議論はある︖ 1. 1ステップでコマンドできる,⼿が塞がってて も使える,効率上げる,という利点がある. 2. ⼈間が⾒て識別(コマンド分類)できるような ら,機械学習でもできる︕ 3. 中国語以外でもできるかわからん. 次に読むべき論⽂は︖ Robert J.K. Jacob. 1991 Lip-Interact: Improving Mobile Device Interaction with Silent Speech Commands
  175. (UIST 2014) Xiang ‘Anthony’ Chen, Julia Schwarz, Chris Harrison, Jennifer

    Mankoff, Scott E. Hudson 先⾏研究と⽐べてどこがすごい︖ タッチを空中ジェスチャの分割に使う構造と, タッチと空中ジェスチャを交互に組み合わせて表 現の幅を広げ(パラメータを豊富にし)たところ. どんなもの︖ スマホ画⾯付近での空中での指のジェスチャと, 画⾯へのタッチを組み合わせた⼊⼒⼿法. どうやって有効だと検証した︖ デプスカメラで指の空中での動きを取るプロトタ イプ実装.Air Before/Between/After Touchの3種類. 1. 空中で円を描いてから・指を⾼く上げてから タッチでメニューやモード切り替え. 2. タッチ後,空中で指を⾼く上げてから・L字を 描きながら別の場所をタッチで⽂章選択・写 真の領域選択. 3. タッチ後,空中で豚の尻尾・円・ホバリング で⾃由選択,地図拡⼤,スクロール調整. 技術や⼿法のキモはどこ︖ キモは⼊⼒のボキャブラリー.全ては下の表に. 議論はある︖ 1ステップの動作で表現⼒が上がるのは良い.空 中ジェスチャがいつ認識されるのかわかりにくい. 次に読むべき論⽂は︖ Niikura, T. et al. 2010. In-air typing interface for ... Air+Touch: Interweaving Touch & In-Air Gestures
  176. ? ータ 駆動 方法 組 合わせ 顔 ン ーク検出 ECT

    推定補正調整 いう新 い 3 ス ッ フ ーム ワーク 提案 先行研究 比べ す い? ータ駆動型 駆動型 方法 組 合わ せ いう 堅牢 顔 ン ーク検 出 可能 うや 有効 検証 ? 分 一般的 ロ コ (NME,MAPE,CED,AUC) 基 い 定量的 評価 ータ ッ 300W AFLW AFW COFW) 議論 あ ? 今後 作業 一般的 ク 位置 合わせ 人間 姿勢 推定 手法 使え 調査す 技術や手法 肝 ? FCN 得 顔 応答 ーク ン ー 輪郭 う 取得す そ そ 均一 正則化 く 不均一 正則化 使用 PDM 空間 投影 い 点 ロバス 初期化 良い顔認識 次 読 べ 論文 ? “Flowing convnets for human pose estimation in videos,” ,“Convolutional aggregation of local evidence for large pose face alignment,” Combining Data-driven and Model-driven Methods for Robust Facial Landmark Detection
  177. ? 動画 言語 ータ ベース 変更 え そ 変更す け

    動画 ビ 編集 手間 大幅 省け 先行研究 比べ す い? ス ベース ビ 編集 合成 可能 うや 有効 検証 ? 映像 ーム 手法 用い 見え ? 5段階評価 行 スコ 平均値 何 手 え いビ 80.6% 答 え 手法 用い 動画 59.6% 答え 議論 あ ? 悪意 あ 使わ 方 可能性 あ そ フ ン ー ン や 偽物 検出 技術 発展す 祈 い 技術や手法 肝 ? 口 再重 付け スク 元 背景 体 明示的 調整 学習タスク 簡素化 ネッ ワーク 容量 解放 す 次 読 べ 論文 ? Text-based Editing of Talking-head Video
  178. 従来 特定 スク ーン 距 い 眼鏡 D 鑑賞 可能

    研究 映画館 いう限 定的 空間構 あ あ スク ーン距 い 眼鏡 D 鑑賞 可能 ? 映画館 列 高 違う く 仰角 違い 利用 全 席 快適 D 眼鏡 見 実現 そ ロ タ 発表 先行研究 比べ す い? うや 有効 検証 ? そ 席 見え 映像 スコ ン 見せ い映像 端 写 い , 見せ い映像 中心 距 あ 減点 議論 あ ? 映画館 列 高 異 特 形状 利 用 学 ン 組 合わせ 快適 D 体 験 ロ タ 発表 映画館 中 動 回 快適 見 難 い 映中 そ す 客 い い 十分 考え 技術や手法 肝 ? 従来 う ス ッ 用い く ンホー 用い そ 観客 席列 高 対 対応す コン ン 流 次 読 べ 論文 ? Cinema 3D: Large Scale Automultiscopic Display
  179. ? 従来 視差バ 比べ ス ッ や ンホー 調 整

    配列す コン ン 忠実度 維持 明 フ ッシュ ー 向 せ 先行研究 比べ す い? 手法 コン ン 適応型視差バ 用い 手法 明 フ ッシュ ー 向 せ うや 有効 検証 ? ーク信号対雑音比 基準 類似 比べ 議論 あ ? 行列 重 付け (W) 複数 視聴者用 あ い 広い視 サ ー す う 調整 . コン ン 適応型 ックスバ LCD フ ッシュ ー 増 傾向 恩恵 け す 技術や手法 肝 ? フュー ー 隣接す 色 サ ク す 空間解像度 維持 縞模様 最小 限 ン ス ッ 関数 用い 解像度 減少 防い い 次 読 べ 論文 ? Content-Adaptive Parallax Barriers: Optimizing Dual-Layer 3D Displays using Low-Rank Light Field Factorization
  180. ? 縫い目 遮 部分 影響 服 柄 完全 連続 い

    熟練 技 必要 難 い いく 生地 対称性 着目す 自動化す ロ ス 開発 先行研究 比べ す い? 暫定解 初 そ ッシュ ッ せ 高 回 最適解 求 わけ く 局所解 あ 数回処理 走 せ 最 適化 うや 有効 検証 ? D,2D シ ュ ーション 用い 検証 議論 あ ? ターン ッ ン 最適化す 無駄 省く う 手くい い 多い 特定 柄 ス あ ン ッシュ ン 複雑 場合 技術や手法 肝 ? 回転対称 あ 正 角形 い 面 正 角形そ 法線ベク 対称具合 測 そ そ rot 測定 回転対称性 効率的 活用す 次 読 べ 論文 ? Wallpaper Pattern Alignment along Garment Seams
  181. ? VR 診療 現実的 使用法 及 せ 販 HMD 用い

    バター く生身 人間 表情 再現す 試 先行研究 比べ す い? 人間 バター 再現 そ ー ー 現在 表情 対応 向 せ うや 有効 検証 ? 定性的 視線や口 中 細 い 従来 比較 定量的 クス 潜在空 間 ー 比較 議論 あ ? VR 比べ AR 場合 ハー 制約 厳 い 視点 問題 悪化す 今後 極端 ケース 適用性 調査す 技術や手法 肝 ? 8 前 取得 顔 ータ GAN 併用す 手動 入力や意味 ベ 自己監視 通 対応 学習 次 読 べ 論文 ? VR Facial Animation via Multiview Image Translation
  182. ? A B 特徴 教師 学習 転移 せ Recycle-GAN 用い

    手法 提案 先行研究 比べ す い? 教師 学習 あ ベ け 手間 省 け うや 有効 検証 ? Viper いうコン ュータ ーム 比較 時間的制約 影響 考え 平均 ク 精度 元 評価 cycle-GAN < Recycle-GAN < 併用 順 精度高 被験者 CycleGAN,recycle-GAN 比較 せ 議論 あ ? 教師 学習 ビ ター ン 制約 少 い 難 い 自然現象 動画 時間的制約 勝手 提供 く 取 入 優 学習 形成 役立 応用す 対多 翻訳 役立 う 技術や手法 肝 ? 教師 学習 あ そ 空間的情報 け く 時間的情報 制約 え 次 読 べ 論文 ? Recycle-GAN: Unsupervised Video Retargeting
  183. ? 異 ン 間 移植 ーニン ータ ッ 可能す 手法

    提案 先行研究 比べ す い? 異 ン 間 スタ 変換 ーニ ン ータ ッ 可能 点 うや 有効 検証 ? ー ー ス 生成画像 偽物 断 せ 定量的 意味的解釈可能 示す FCN スコ 用い 測 定 Cityscapes いう ク ク ス 精度 図 ベン ーク 使用 議論 あ ? 色や クス 変更 OK 幾何学的 変更 必 要 場合 成 い 原因 ータ ッ 偏 あ 例え → シ 変更 馬+ 学習 い 原因 シ シ 柄 . 技術や手法 肝 ? x 写像 G(X) 対 逆写像 F( G(X) ) せ そ 元 x 比較 ロス 最小 う設 計す サ ク 一貫性 保証 次 読 べ 論文 ? Unpaired Image-to-Image Translation using Cycle-Consistent Adversarial Networks
  184. ? ビ 元 画像予想 す 畳 込 ニュー ネッ ワーク

    学習 せ 動画 内部 構 変化 学習す 先行研究 比べ す い? フロー ム 異 完全 微分可能 あ 必要 応 タ スク 合わせ 微調整 す うや 有効 検証 ? ーク信号対雑音比 構 的類似性指標 測 定 画像 鮮明 元 予測 品質 評 価 ( 次 フ ーム 予測 せ 議論 あ ? 将来的 弱く監視 コン ス (UCF101 ー タ ッ いう ) 学習表現 分類 フ ー ン ス 評価 扱い す 現在 シス ム フロー予測 組 合わせ 検討 い GAN ビ 予測 工夫 使 初 手法 あ Generator 時間的 一貫性 あ シーケ ンス 生成す 学習す 点 技術や手法 肝 ? 次 読 べ 論文 ? DEEP MULTI-SCALE VIDEO PREDICTION BEYOND MEAN SQUARE ERROR
  185. ? 画像 構 尊重す 他 ー ネ ン ロー 高品質

    可能 先行研究 比べ す い? 他 手法 高品質 あ うや 有効 検証 ? 差 出 画像 ッ 対数尤度 計算 , 画 サン 画像 , 実際 画像 比較す 人 間 被験者実験 議論 あ ? 他 信号 スケー 構 持 手法 恩恵 け い 技術や手法 肝 ? ローバ 忠実度 捨 代わ 生成 ロ ス 滑 意識 次 読 べ 論文 ? Deep Generative Image Models using a Laplacian Pyramid of Adversarial Networks
  186. ? 長い動画 中 未知 ク 認識 半教師あ 学習 用い 徐々

    学習 ベ け いく ロー 先行研究 比べ す い? 少量 ータ ベ 付け ータ い 関 わ そ 精度 高い物体認識 点 うや 有効 検証 ? 定性的 シン 半教師あ ロー 比較 サ ク 重 他 ロー 意味 揺 い く 定量的 VIRAT 数百万 ータ ッ 対 行い 平均純度 再現 率 いう観点 比較 有効 断 議論 あ ? 特 技術や手法 肝 ? 少 け学習 い 状態 始 新 い ックス ( 物体 繰 返 認識 増や いく そ 時点 学習 結果 最 近 い 定 優先的 学習 認識す そ 学習結 果 再び学習サ ク 回 い 次 読 べ 論文 ? Watch and learn: Semi-supervised learning of object detectors from videos.
  187. ? 動画 全 時空間 い クション 分類 す 可能 先行研究

    比べ す い? 混同 クション 多い ビ 全体 情報 集約 え 回避 点 うや 有効 検証 ? 他 ー ク (HMDB51 UCF101) 大幅 回 相対 13 % Charades いうビ 分類ベン ーク 同等 基本 ー ク 他 優 結果 出 議論 あ ? 汎用性 高い 今後 動画 内部 ク ション検索 い 技術や手法 肝 ? ー ン 処理 出力全体 粗く う ビ 動 中 画面 占有面積 小 い あ 全体 ー ン す そ 捉え い 畳 込 層 出力 分割 そ ー ン 解決 次 読 べ 論文 ? CNN architecture for weakly supervised place recognition ActionVLAD: Learning spatio-temporal aggregation for action classification
  188. ? 画 関す 知覚 ーター空間 利用 新 い ータ駆動型シ ュ

    ーション手法 用い 良い書 心地手法 提案 先行研究 比べ す い? そ そ 先行研究 あ い 画 ー 書 紙 ー い 調査 行い ーター 追 点 うや 有効 検証 ? 平均的 ー ー ス 願い , ベ ン ー ー 違い 敏感 あ 型的 ータ ン ロー 問 題 ク い い摩擦係数 わ い表面 い 再現 い い シ ュ ー け ン 再現 い ー ー あ ン 用意 次 最初 渡 い 々 示 最 近い 選べ 指示 知覚 ーター空間 距 々 予測 精度 高い 示 ( 予測 正 検証 議論 あ ? 技術や手法 肝 ? 心理的 ーター 物理的 ーター 両方 考慮 知覚空間 ーター 作成 摩擦 振動具合 次元空間 既存 ロッ そ 距 近い 似 い 感 表す 次 読 べ 論文 ? We account for this nonlinearity by equalizing the vibrational force by human sensitivity thresholds [Israr et al. 2006a]. Perception-Aware Modeling and Fabrication of Digital Drawing Tools
  189. ? 生成 作 生成 ス 最大化す う ーン 見分け う

    ーニン す 質 高いサン ータ 生成 可能 先行研究 比べ す い? ーニン サン 生成中 コ フ ーンや近似推論ネッ ワーク 必要 い 定性的研究 定量的研究 用い 比較 うや 有効 検証 ? 議論 あ ? あ 分 手法 シン 強化す 役立 う 生成 結果 定量的 断 難 い 学 習 ータ 精通 実際 評価す 望 い 生成 ータ 偏 生 あ 技術や手法 肝 ? 損失関数 共有 い 識 器 損失関数 最小化 目指 識 機能 昇 生成器 損 失関数 最大化 目指す 自 ー生成能力 高 次 読 べ 論文 ? Generative Adversarial Nets
  190. ? 直接 ン ー ン 教育 CNN 畳 込 ?

    NetVLAD いう新 い 作 バック ロ ー 教育 任意 取 外 可能 ン 提案 先行研究 比べ す い? SIFT 似 研究 ン ニ 手作業 依存 学習 い 手法 VLAD 誤差逆伝播 入 学習 可能 ン 任意 CNN( 畳 込 ニュー ネッ ワーク 簡単 ン うや 有効 検証 ? 検索 い場所 画像 入力す そ 検索結果 位数件 正 い場所 ッ す 精度 , そ ム 着目 い 示す heat map 提示 他 手法 違い 風景 無関係 車や人 無視 い 示 議論 あ ? 特 技術や手法 肝 ? Google ス ー ビュー う タ ム シン ータ 用い 特定 場所 特定 時間 け く 複数 時間 ス ッ ショッ 用い 学習 せ 害物 強 い良い学習 次 読 べ 論文 ? NetVLAD: CNN architecture for weakly supervised place recognition.
  191. ? 3D ー や ータ 明示的 再構築す 必 要 く

    人間 フ ー ー間 ビ ーション ター ッ す 新 い方法 紹 す 先行研究 比べ す い? ター ン 行う時 D 再構成 く 済 動画 々 3 要素 動 ン 骨格 分解 そ 合成 変更 生成 他 い うや 有効 検証 ? VNECT,HMR D ー 推定 比較 他 手法 危うい 手法 問題 い ン ー ス 学習 ネッ ワーク ッ 関節 位置 平均二乗和誤差 求 比較 議論 あ ? 学習 ータ ッ ン 固定 い 原因 ン 大幅 動く長い ーション 分解 う す う くい い あ D 再構成手法 改善 手法 応用 い 技術や手法 肝 ? 様々 長 シーケンス ーニン 動的 ーション 静的 ン 骨格 分類 す 学習 せ 点 次 読 べ 論文 ? Learning Character-Agnostic Motion for Motion Retargeting in 2D
  192. ? ー ー 画像 あ ー ス い ー ー

    画像 変換す 先行研究 比べ す い? 顔 ン ーク検出 割 い ー 領域 そ 行 既存 手法 正規化平均誤差 用い 比較 目 間 距 瞳孔間距 正規化 使用 境界 ックス 対角線 正規化距 使用 結果 報告 い 積誤差分布 CED 曲線 使用 比較 うや 有効 検証 ? 議論 あ ? ン や ニ 特徴 強す 対 現状使え い 今後拡張 目指す . 肖像 画 枠 超え 芸術スタ 拡張 寄 す い 技術や手法 肝 ? 異 顔 特徴間 依存性 減 す 空間変換 ネッ ワークコン ーネン STN) いう修正ス ッ 使 用 幾何学的構 自動 学習す 点 次 読 べ 論文 ? A. Bulat and G. Tzimiropoulos. 2016. Convolutional aggregation of local evidence for large pose face alignment. In Proceedings of the British Machine Vision Conference (BMVC) The Face of Art: Landmark Detection and Geometric Style in Portraits
  193. ? 先行研究 比べ す い? NST ス ッ あ ス

    ッ 視覚 クス ン 要約統計量 使用 ック クス ン , コフ ン ムフ ー MRF 使用 ン ック クス ン す や 方 あ ス ッ 抽出 画像表現 入力画像全 体 再構成 す 手法 あ 画像最適化ベース ン ン画像再構成 IOB-IR , 最適化ベース フ ン画像再構成 MOB-IR) あ 後者 高 化 ーニン 段階 負荷 け 手法 あ 再構成 ス ー す く早い うや 検証 ? ( 分 検証方法 定量的 評価手法 再構成 時間 ーニン 時間 . 損失 い スタ ロス , コン ン ロス あ 定性的 評価手法 IOB-NST いうン ーク ータ ッ スタ 変換 そ 測定 議論 あ ? 技術や手法 肝 ? 次 読 べ 論文 ? Neural Style Transfer: A Review NST ック ックス い 絡 い 表現 .NST 敂対的 例 解釈可能 制御可能 NST,NST 関連付け 正規化方法 原因 あ ビュー論文 存在
  194. ? あ 画像 ン ッ そ 学習 スタ 風 変更

    新 スタ 画風 変更 ン ッ 画像 作 方法論 紹 先行研究 比べ す い? 今 問題点 抽象化 結果 意味 いコン ン 画像 学習 い 画像スタ コン ン 分 い そ 解決 うや 有効 検証 ? 2 異 ソース画像 コン ン スタ 表現 混合 画像 生成 そ ーション 行え 学習 スタ 重視 あ い コン ン 重視 議論 あ ? 技術や手法 肝 ? 解像度 新 生成 画像 紛 込 う 問題点 コン ン CNN 高 ー 現 スタ CNN 各 ー 同一 け そ 相関具合 定義 CNN 途中 層 着目 コン ン スタ 何 学習 せ 点 問 題 分割 個々 最適化問題 解く 可能 次 読 べ 論文 ? Image Style Transfer Using Convolutional Neural Networks 1 Deep Neural Networks Rival the Representation of Primate IT Cor tex for Core Visual Object Recognition, 2 Deep Neural Networks ¨ Reveal a Gradient in the Complexity of Neural Representations across the Ventral Stream.
  195. ? 柑橘類 枚 皮 複雑 形 生成す 皮 剥 方

    自動計算 す 先行研究 比べ す い? うや 有効 検証 ? ッシュ ッ 既存手法 入力形状 類似 展開形 状 生成 い 紙 ッ ッ ス やワ ー ッシュ ンす ー あ ッ ス 生成 研究 い 定性的 ー ー調査 定量的 ッ 生成時間 t cut 線 画 時間 ッ ス 画時間 , ッ 時間 測定 議論 あ ? ッ ン 効率 改善す 役立 可能性 あ ンタ ク ンシス ム 使用 3D ク ッ ン バー 生成 可能性 あ 技術や手法 肝 ? ッ 柑橘類 展開 形状 入力 類似す う ッ ス 構築す 非常 困難 入力 2D 形 実現 い形 柑橘類 ッ ン 完全 バー う す 方 簡単 あ 利用 次 読 べ 論文 ? Xiao-Ming Fu and Yang Liu. 2016. Computing Inversion-Free Mappings by Simplex Assembly. ACM Trans. Graph. (SIGGRAPH ASIA) 35, 6 (2016). Computational Peeling Art Design
  196. ? ター ッ す 人 ビ 元 ーション 見 目

    学習 ター ッ 違う動 せ 先行研究 比べ す い? ビ フ ー ンス クローン作成 始 行 うや 有効 検証 ? 定性 定量的 組 合わせ 議論 あ ? 現在 ロー 大人 フ ー ンス 子供 そ 逆 転送す 不可能 す 背景 生成 考慮 い 技術や手法 肝 ? 2 ン 持 DNN 実現す 点 片方 ビ ネッ ワーク 通 そ 再構成 せ , う片方 ン ッ ーション ター ッ せ い動 ター ッ 行う動画 生成す ー す 次 読 べ 論文 ? Deep Video-Based Performance Cloning
  197. Gatys 提案 スタ 変換 , 最適化問題 タ ム 解決 す

    ? 先行研究 比べ す い? 最適化ベース 方法 比較 私 ネッ ワー ク 同様 定性的 結果 提供 す 3 桁高 す うや 有効 検証 ? 定量的 既存 手法 Gatys ) 客観的指標 用い 比較 い 既存手法 学習サ ク 50~100 回行 場合 精度 手法 同等 精度 示 提案手法 サ ク い 精度 変化 い ) 議論 あ ? ネッ ワーク い タ 意味的知識 対す 変換ネッ ワーク 使え 確認す 今後 画像 ー化 , ン ック ン ーション ( 識 う 変換 近く損失関数 使え 検討 い 技術や手法 肝 ? 損失 関 ネッ ワーク い VGG−16 用い 点 VGG-16 す 人や動物 学習 い 精度 向 大 く繋 次 読 べ 論文 ? VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION Perceptual Losses for Real-Time Style Transfer and Super-Resolution
  198. 消去 い そ 残 う あ GAN 潜在的 ベク 方向

    原因 現在 結果 品質 解像度 使用 い ー ネ ーター 制限 い 改善 余地あ 編集 び 最適化必要 時間 ? す 学習 い 用い 写真 ー 追 削除 そ 編集す 画像スタ 合 致す う う く溶け込 せ 手法 提案 先行研究 比べ す い? 追 ク う く溶け い 点 うや 有効 検証 ? 既存 方法 定量的 び定性的 比較 有効性 示 議論 あ ? 技術や手法 肝 ? Generator’ Generator 存在 そ 間 ン ッ 画像 い 特徴 共有 い 次 読 べ 論文 ? Semantic Photo Manipulation with a Generative Image Prior
  199. ? 全 層 小 い畳 込 フ タ 使用す く

    い 層 深 実現 深 増やす 精 度 向 提案 CNN 〜 9層 す 精 度 大幅 先行研究 比べ す い? 深 〜 9層あ 精度 高い うや 有効 検証 ? 他 手法 ク ス分類 タスク ー率 比べ ImageNet ン 2014 位 成 果 出 議論 あ ? 他 ータ ッ 対 汎用的 使え 思わ 技術や手法 肝 ? すべ 層 非常 小 い 3×3 込 フ ター 使用 深い ーター 増 抑え 深 実現 次 読 べ 論文 ? Krizhevsky, A., Sutskever, I., and Hinton, G. E. ImageNet classification with deep convolutional neural networks. In NIPS, pp. 1106–1114, 2012. VERY DEEP CONVOLUTIONAL NETWORKS FOR LARGE-SCALE IMAGE RECOGNITION
  200. 画像 同 物体 写 い 場合 例え シ 色変換 く

    色 混 う VGG ネッ ワ ーク 意味的 同 異 物体 区 す う ーニン い い 学習 い い う く処理 い ? ローバ ロー 対応関係 最適化 同時 学 習 せ 汎用的 色変換 可能 物体 対応関係 推定 あ ーニン 済 ネッ ワーク特徴 用い 先行研究 比べ す い? ン ッ 画像 ( スタ 変更 い画像 変換 際 参照 す 画像 あ け い 場合 スタ 変換 難 い 従来 スタ 変換 い物体 写 ッ 画像 必要 そ 必要 い うや 有効 検証 ? 画像コン ン ス ロー 対応関係 基 く手法 ローバ ー ッ ン 関数 推定す 手法 比較 議論 あ ? 技術や手法 肝 ? 生成 画像 参照画像両方 対 VGG19 用い 抽象化 共通 物体 認識す 画像 X す 画像 X ン ッ 画像 ンスケー 元 色変換 推定 ッ す サ ク 数回行い欲 い画像 生 成す 次 読 べ 論文 ? Phillip Isola, Jun-Yan Zhu, Tinghui Zhou, and Alexei A Efros. 2017. Image-to-image translation with conditional adversarial networks. (2017), 5967–5976. Progressive Color Transfer with Dense Semantic Correspondences
  201. Speech-driven Face Reenactment for a Video Sequence Yuta Nakashima †,

    Takaaki Yasui †, Leon Nguyen [ITE Trans. on MTA Vol. 8, No. 1, pp. 60-68 (2020)] どんなもの? 千 先⾏研究室と⽐べてどこがすごい? 技術や⼿法のキモ どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? Using the facial geometry regression, they have extracted the facial 3D mesh of the speaker’s face and combines it with the features of the different person if that person gives the same speech. Researchers have accomplished it by using DNN-based 3D map regressor and 3D morphable model. The core emphasis of their research was mouth region replacement through rendering and temporal blending. This is my first paper so I have no previous paper to draw my comparison. Researchers surveyed 20 participants to evaluate the quality of their videos. They had six treatment groups ranging from controls over temporal texture blending, original video and synthesized videos. They took a video of speech by Obama and conducted a speech driven face reenactment by using Justin Trudeau and Trump. They found that the source video was ranked as the best video for visual quality. The full system video with temporal texture blending generated better visual quality result. The paper does not contain a Discusssion section but they have a substantial discussion about the contemporary work in the related work section. They highlighted on the emergence of deep neural networks and generative adversarial networks and the possibility of such technology in fraud. Preprocessing of the video was done using OpenPose for depth and landmark detector of the face. Researchers used 3DMM technology for fitting the model to obtain the mesh reconstruction and mouth retrieval components of the study. Real-time expression transfer for facial reenactment. AJustus Thies, Michael Zollh¨ofer, Matthias Nießner, Levi Valgaerts, Marc Stamminger, and Christian Theobalt ACM Trans. Graphic, 2015.
  202. MRTouch: Adding Touch Input to Head-Mounted Mixed Reality Robert Xiao,

    Julia Schwarz, Nick Throm, Andrew D. Wilson and Hrvoje Benko ッ マ ン 型 複合現実感 い 壁 実環境 下 物体 表⾯ 仮想 ンターフ スを貼 付け ⼿ 直接操作 よう す 、MRToきch、 関す 研究 追加 外部ハー 必要 く ッ マ ン 型 ス レ 良い た 頭 動い も⼿を追従 し続け こ ん も ? 先⾏研究 ⽐べて何 す い? 技術や⼿法 肝 ? うやって有効 検証し ? 議論 ある? 次 読むべ 論⽂ ? ⾚外線センシング ⼈ 無意識 壁を触っ し う場合 多く 気 いうち 操作さ し う回数 多い 先⾏研究 ⼿法 形状 材料 た ⽅向 わたっ 有意差 あった こ ⼿法 有意差 った ・J. A. Walsh, S. von Itzstein and B. H. Thomas. “Ephemeral Interaction using Everyday Objects,” Proc. 15th Australasian User Interface Con- ference (AUIC ʼ 14), pp. 29-37, 2014. ・ A.HettiarachchiandD.Wigdor.“AnnexingReality:EnablingOppor- tunistic Use of Everyday Objects as Tangible Proxies in Augmented Reality,” Proc. SIGCHI Conf. Human Factors in Computing Systems (CHI '16), pp. 1957-1967, 2016. ・ H. Benko, E. W. Ishak and S. Feiner. “Cross-Dimensional Gestural Interaction Techniques for Hybrid Immersive Environments,” Proc. IEEE Virtual Reality (VR 2005), pp. 209‒116, 2005. ・ K. Hinckley, S. Heo, M. Pahud, C. Holz, H. Benko, A. Sellen, R. Banks, K. O'Hara, G. Smyth and W. Buxton. “Pre-Touch Sensing for Mobile Interaction,” Proc. 2016 SIGCHI Conf. Human Factors in Computing Systems (CHI ʻ16), pp. 2869-2881, 2016 ・ R. Xiao, C. Harrison and S. E. Hudson. “WorldKit: rapid and easy creation of ad-hoc interactive applications on everyday surfaces,” Proc. SIGCHI Conf. Human Factors in Computing Systems (CHI ʻ13), pp. 879-888, 2013.
  203. “Ephemeおal Inがeおacがion きかing Eveおyday Objecがか,、 J. A. Walかh, S. von

    Iがzかがein and B. H. Thomaか. ⽇常 使う物体に ェ ンマッ ン をし その物体を ッ した 動 すこ を操作 うにす A.HeががiaおachchiandD.Wigdoお.“AnnexingRealiがy: EnablingOppoお- がきniかがic Uかe of Eveおyday Objecがか aか Tangible Pおoxieか in Aきgmenがed Realiがy,、 ー ーの現在の物理環境 物理 ェ を追加し 仮想 ェ に最⾼の触覚 を提供す
  204. Cおoかか-dimenかional geかがきおal inがeおacがion がechniqきeか foお hybおid immeおかive enviおonmenがか 既存の2D び3Dの視覚化

    対話 を統 合す ッ ー ー ン ー ェ のための⼀連の次元間対話技術 Pおe-Toきch Senかing foお Mobile Inがeおacがion Ken Hinckley1, Seongkook Heo1,2, Michel Pahきd1, Chおiかがian Holz1, Hおvoje Benko1, Abigail Sellen3, Richaおd Bankか3, Kenがon OʼHaおa3, Gavin Smyがh3, and Bill Bきxがon1,3 の上の複数の指を感知し 画 ⾯の端を握 こ ⾃⼰静電容量 ッ ーンを介し 新しい ッ を探索した
  205. “WoおldKiが: おapid and eaかy cおeaがion of ad-hoc inがeおacがive applicaがionか on

    eveおyday かきおfaceか,、 WoおldKiが いう深度 ェ ーのペ を利⽤し 通常の表⾯を瞬時に ン にす
  206. ͲΜͳ΋ͷʁ σδλϧήʔϜϕʔεֶश %(#- ؀ڥԼͰֶशʹ ͲͷΑ͏ͳӨڹΛ༩͔͑ͨ ઌߦݚڀͱൺ΂ͯʁ %(#-ͷϏσΦֶशͷޮՌɺֶशҙཉͷ޲্ɺ ޮ཰Խ౳Λ໌Β͔ʹ͠ɺ%(#-ͷ༗༻ੑΛप஌ͤͨ͞ The interactivity

    of video and collaboration for learning achievement, intrinsic motivation, cognitive load, and behavior patterns in a digital game-based learning environment IUUQTXXXTDJFODFEJSFDUDPNTDJFODFBSUJDMFQJJ4 DBTB@UPLFOCZ//D50P8*""""""GS3QUCU$3'CSL3NV'6W#Z%GN4"UU-1E:-T#):3N1..#WR,38D;/S54QN5QB5;O9"LGS* ٕज़ͷ؊͸ʁ ֶशऀͷֶशΛه࿥ͤ͞ɺֶशޮ཰ΛଌΔ ֶश౸ୡ౓ςετʼຊ࣭తಈػ͚ͮʼೝ஌ෛՙௐࠪ ͷॱͰ༗ޮੑͷݕূΛߦͳͬͨ ٞ࿦͸͋Δʁ Ұ࣍ݩతͳීวతޮՌϞσϧΛ௒͑ͯɺϚϧνϝσΟΞֶश͕%(#- ؀ڥʹ͓͚Δೝ஌ෛՙʹͲͷΑ͏ͳӨڹΛ༩͑Δ͔Λݕ౼͢Δ͜ͱ ͕ඞཁͰ͋Δɻ ࣍ʹಡΉ΂͖ݚڀ͸ʁ %(#-ͷଞݚڀʹ͍ͭͯ ݕূ๏͸ʁ
  207. ͲΜͳݚڀ͔ʁ σδλϧήʔϜϕʔεֶश %(#- ؀ڥԼͰχϡʔτϯྗֶ Λֶश͢Δੜెͷֶशୡ੒౓ɺ಺ൃతಈػ෇͚ɺೝ஌ෛ ՙɺֶशߦಈʹɺڭࣔϏσΦͷར༻ͱίϥϘϨʔγϣϯ͕ ͲͷΑ͏ʹӨڹΛ༩͔͑ͨΛௐࠪ

  208. ϋΠϥΠτ ɾڠௐత%(#-͸಺ൃతಈػ͚ͮΛଅਐͨ͠ɻ ɾڠௐతͳ%(#-ͷϏσΦ͸ɺຊ࣭తͳೝ஌ෛՙΛ௿Լͤ͞ɺ֎෦ͷೝ஌ෛՙΛ௿Լͤͨ͞ɻ ɾϏσΦΛ༻͍ͨڠௐతͳ%(#-ʹ͓͚Δֶशߦಈ͸ɺ໨ඪࢦ޲తͳ΋ͷͰ͋ͬͨɻ ɾ%(#-ͷϏσΦ͸ɺֶੜͷ໰୊ղܾϓϩηεͱσδλϧήʔϜ಺Ͱ ɹɹɹɹɹɹɹɹɹɹɹɹɹɹɹɹར༻Մೳͳπʔϧͷ࢖༻ʹӨڹΛ༩͑ΔՄೳੑ͕͋ͬͨɻ ͲΜͳݚڀ͔ʁ

  209.  %(#-ʹ͓͚ΔࢦಋϏσΦͷଘࡏ͸ɺੜెͷֶश౸ୡ౓ɺ಺ൃతಈػ෇͚ɺೝ஌ෛՙɺֶश ߦಈʹͲͷΑ͏ͳӨڹΛ༩͑Δͷ͔ʁ  %(#-ʹ͓͚Δֶश഑ஔͷจ຺ʢڠௐత͔ݽಠ͔ʣ͸ɺֶੜͷֶशୡ੒౓ɺ಺ൃతಈػ෇͚ɺ ೝ஌ෛՙɺֶशߦಈʹͲͷΑ͏ͳӨڹΛ༩͑Δͷ͔ʁ  ΠϯετϥΫγϣϯϏσΦ͸ɺ%(#-ʹ͓͚Δֶश഑ஔͷจ຺ͱͲͷΑ͏ʹ૬ޓ࡞༻͠ɺੜ ెͷֶशୡ੒౓ɺ಺ൃతಈػ෇͚ɺೝ஌ෛՙɺֶशߦಈʹӨڹΛ༩͑Δͷ͔ʁ ͲΜͳݚڀ͔ʁ

  210. ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ %(#-ͷϏσΦֶशͷޮՌɺֶशҙཉͷ޲্ɺ ޮ཰Խ౳Λ໌Β͔ʹ͠ɺ%(#-ͷ༗༻ੑΛप஌ͤͨ͞

  211. ٕज़΍ख๏͸ʁ খֶੜʹɺϏσΦήʔϜίϥϘϨʔγϣϯͱ͍͏࣮ݧΛߦ͏ɻ %(#-؀ڥΛ4VN.BHJDͱݺͿɻ4VN.BHJDͷΞʔΩςΫνϟΛਤʹࣔ͢ɽֶशऀ͕ήʔϜʹϩάΠϯ͢ΔͱɺήʔϜϨϕϧͷબ୒ʹਐΉલʹ ਎ݩ͕֬ೝ͞Ε·͢ɻֶशऀͷήʔϜߦಈʹؔ͢Δ͢΂ͯͷ৘ใʢείΞɺήʔϜϓϨΠ࣌ؒɺਐߦ౓ͳͲʣ͸ࣗಈతʹه࿥͞ΕɺήʔϜσʔλ ϕʔεʹอଘ͞Ε·͢ɻήʔϜͷΠϯλʔϑΣΠεͱखॱΛਤ̎ʹࣔ͢ɻਤ̎͸ɺϢʔβͷϩάΠϯ໊ͱύεϫʔυΛඞཁͱ͢ΔΦʔϓχϯάΠ ϯλʔϑΣʔεΛࣔ͠ɺͦͷޙɺήʔϜϨϕϧ͕̍̍දࣔ͞ΕΔɻήʔϜϨϕϧ͕̍̍ऴྃ͢Δͱɺ࠷ऴతͳείΞϘʔυ͕දࣔ͞ΕɺήʔϜ ࢀՃऀͷॱҐɺ׬ྃ࣌ؒɺࢼߦճ਺ɺ੕ͷ਺ͷଞʹɺݸʑͷείΞ͕දࣔ͞ΕΔɻϓϨΠϠʔ͸ɺήʔϜϨϕϧʹ࠶౓௅ઓ͢Δ͜ͱ΋ɺ ࣍ͷήʔϜϨϕϧ  ʹਐΉ͜ͱ΋Ͱ͖ΔɻຊݚڀͰ͸ɺֶशऀ͸ɺχϡʔτϯͷӡಈͷୈҰ๏ଇΛಛ௃ͱ͢ΔήʔϜϨϕϧͱʹΞΫη

    ε͢Δ͜ͱ͕Ͱ͖ͨɻ֤ήʔϜϨϕϧʹ͸ɺجຊϞʔυͱ্ڃϞʔυ͕͋Δɻਤ̏ɺਤ̐ɺਤ̑͸ɺͦΕͧΕɺϩάΠϯʗબ୒ͷͨΊͷήʔϜ ϑϩʔνϟʔτͱɺجຊήʔϜϨϕϧͱ্ڃήʔϜϨϕϧΛ͍ࣔͯ͠Δɻ
  212. ٕज़΍ख๏͸ʁ খֶੜʹɺϏσΦήʔϜίϥϘϨʔγϣϯͱ͍͏࣮ݧΛߦ͏ɻ

  213. ٕज़΍ख๏͸ʁ άϥϑΟοΫɺΞχϝʔγϣϯɺα΢ϯυɺφϥςΟϒΛ੝ΓࠐΜͩϏσΦ͸ɺ଎౓ɺڑ཭ɺ଎౓ͷؔ܎ੑΛ໌֬ʹཧղ͢ΔͨΊͷ଍৔ͱͳ ΔΑ͏ʹσβΠϯ͞Ε͍ͯ·͢ɻ͜ͷΑ͏ʹɺΠϯετϥΫγϣϯɾϏσΦ͸ɺֶशऀͷ௚ײతͳཧղΛֶ໰తͳ஌ࣝͱڮ౉͢͠Δ͜ͱͰɺ ֶशऀͷײ֮ܗ੒Λࢧԉ͢Δ͜ͱΛ໨తͱͨ͠଍৔ͱͳ͍ͬͯΔɻ

  214. ༗ޮੑͷূ໌͸ʁ ήʔϜϓϨΠऴྃޙɺֶशୡ੒౓ϙετςετΛड͚ɺ಺ൃతಈػ෇͚ௐࠪͱೝ஌ෛՙௐࠪΛߦͬͨɻ ֶश౸ୡ౓ςετʼຊ࣭తಈػ͚ͮʼೝ஌ෛՙௐࠪ ͷॱͰ༗ޮੑͷݕূΛߦͳͬͨ

  215. ༗ޮੑͷূ໌͸ʁ ਪҠάϥϑ Categories Codes Descriptions Speed change SC Students can

    click on or change the speed to observe it as time passes. Game process GP When the game goal is achieved, students proceed to the advanced level. Game start GS This shows that the basic level of game play is starting. Board reading BR Students can read the game instructions and knowledge book to acquire more information. Role click RC Students can click on the NPC to see whether they have successfully achieved the goal. Hint use HU Students can seek help by clicking on the hint button. Timer control TC Students can observe the timer to see how time has passed. Note use NU Students can use the notebook to record the answers for game problems. Calculator use CU Students can use the provided calculator to carry out calculations.
  216. ༗ޮੑͷূ໌͸ʁ ਪҠάϥϑ Instructional Video Present Instructional Video Absent F η2

    Observed Power Video, game & collaboration (VGC) (N = 25) Video & game (VG) (N = 28) Game & collaboration (GC) (N = 30) Game only (G) (N = 26) Mean SD Mean SD Mean SD Mean SD Posttest 66.60 13.67 45.18 18.23 44.83 12.83 48.65 15.07 10.71** 0.09 0.90 Intrinsic motivation 4.86 1.12 4.16 1.77 3.83 1.29 3.33 1.70 5.46* 0.05 0.64 Intrinsic cognitive load 5.47 2.25 6.67 2.21 6.87 2.22 6.89 2.22 1.89 0.02 0.28 Extraneous cognitive load 2.36 1.56 4.64 2.64 4.25 2.04 3.75 2.25 10.86** 0.10 0.91 Germane cognitive load 6.59 1.83 4.75 2.12 5.67 2.15 5.54 2.34 4.17* 0.04 0.53 Table 2. Descriptive statistics and results of ANOVA on learning achievement, intrinsic motivation, and cognitive load. *p < .05; **p < .01
  217. ༗ޮੑͷূ໌͸ʁ ਪҠάϥϑ

  218. ٞ࿦͸ʁ ϚϧνϝσΟΞֶशͱڠௐత%(#-ͷؔ܎Λݕ౼͢Δࡍʹ͸ɺҰ࣍ݩతͳීวతޮՌ ϞσϧΛ௒͑ͯɺϚϧνϝσΟΞֶश͕%(#-؀ڥʹ͓͚Δೝ஌ෛՙʹͲͷΑ͏ͳӨ ڹΛ༩͑Δ͔Λݕ౼͢Δ͜ͱ͕ඞཁͰ͋Δɻ

  219. ࣍ʹಡΉ΂͖࿦จ͸ʁ ɾState of the art research into cognitive load theory

    Computers in Human Behavior, 25 (2009), pp. 253-257, 10.1016/j.chb.2008.12.007 ɾMotivation is a game: Massively multiplayer online games as agents of motivation in higher education Computers & Education, 123 (2018), pp. 174-194, 10.1016/j.compedu.2018.05.004 ɾScaffolding individual and collaborative game-based learning in learning performance and intrinsic motivation Computers in Human Behavior, 55 (2016), pp. 1201-1212, 10.1016/j.chb.2015.03.01 ɾEffects of different video lecture types on sustained attention, emotion, cognitive load, and learning performance Computers & Education, 80 (2015), pp. 108-121, 10.1016/j.compedu.2014.08.015 ɾApproach and avoidance achievement goals and intrinsic motivation: A mediational analysis Journal of Personality and Social Psychology, 70 (1996), pp. 461-475, 10.1037/0022-3514.70.3.461 View Record in ScopusGoogle Scholar
  220. “Hey Model!” – Natural User Interactions and Agency in Accessible

    Interactive 3D Models Samuel Reinders, Matthew Butler, Kim Marriott 視覚 害者 方 触覚 索 タッ ー ッシ ー ベ 自然言語 質問 組 合わせ 使用 音声 触覚出力 混在す 情報 取得 す 好 明 研究 ? 被験者 使 要素 ー タッ す 自然言語 対話す 等 表 作成 一連 タスク 収 動画 文字起 タスク後 質問 検証 うや 有効 検証 ? 視覚 害者 ン ー ニー 欲求 好 い ンタ クション設計 焦点 当 い ンタ クション 技術的 話 あ 先行研究 比べ す い? 完全 機能す 種類 ロ タ 使用 広範 ー ー評 価 実施 好 年齢や環境 異 う 調査す 必要 あ 議論 あ ? 魔法使い手法 用 ー ン 優先 ベ く理解す 実験 ンタ ク 太陽系 用い 対話型 3D ン 調査す 実験 両方 行 技術や手法 ? Designing Interactions for 3D Printed Models with Blind People 2017, Lei Shi 他 , 19th International ACM SIGACESS 次 読 べ 論文 ? CHI’20
  221. Designing Interactions for 3D Printed Models with Blind People Lei

    Shi, Yuhang Zhao, Shiri Azenkot 3D ン 視覚 害者 学習 強力 ク シビ ー 役立 可能性 あ 最近 研究者達 3D ン ンタ ク す 3D ン 強化す 方法 開発 そ コン ーネン 索 特定 時 行動観察 ンタ ク 機能 ーす ー ー定義 入 力手法 引 出す いう 調査 4 手 姿勢 8 ス ー 特定 今後 強力 ク シビ ー I3M 研究 設計 重要 基礎 あ ASSETS '17 MapSense: Multi-Sensory Interactive Maps for Children Living with Visual Impairments Emeline Brule, Gilles Bailly, Anke Brock, Frederic Valentin, Grégoire Denis, Christophe Jouffrais 視覚 害児 多感覚 ンタ ク 地図 MapSense 制作 至 ン ロ ス い 報告 専門機関 形成的研究 結果 以下 行 子 空間的 ス 身 け ー や方法 ニー 概 教育支援技術 4 ン ン 提示 幅広い 害 持 子供 コ ーション 可能 遊び シ 提 案 世話 す 人 好 う スタ う CHI '16
  222. Facilitating route learning using interactive audio-tactile maps for blind and

    visually impaired people Nazatul Naquiah Abd Hamid and Alistair D.N. Edwards 目 不自由 人 見知 場所 ビ ー す 際 使用す 非視覚的 地 図 向 せ 効果的 ンタ ク 音声触覚 ッ 開発 目的 い ッ 言語 非言語 サ ン 使用 ー ッ 回転 う す 自己中心的 認知 ッ 構築 容易 す 結論 動 い物体 最 有用 ン ーク あ 特定 ンビ ン 音 最 価値 あ 方位情報 提供す いう あ CHI EA ’13 Toward 3D-Printed Movable Tactile Pictures for Children with Visual Impairments Jeeeun Kim and Tom Yeh 視覚 害 あ 子供 触 動 理解 移動可能 触 覚画像 作成す ビ ン ロック 設計 一連 3D 印 可能 制作 コネクター ン ス ー ス ー フ 抜 使用 移動 可能 触覚画像 作成 ン / ッ / ン ハ / ロー 空間コン 範 伝え CHI '15
  223. Exploring the Role of Conversational Cues in Guided Task Support

    with Virtual Assistants Alexandra Vtyurina and Adam Fourney 音声 シスタン タスク指向 会話シス ム 設計す 設計 意味 提供す 料理 行う一連 タスク 実験 行 ーワー ク ス ョン ンサー いう要因 使用 魔法使い手法 調査 シ 調理す タスク い すべ ー ー シスタン 4 分 1 単純 質問 く暗黙 会話 手 開始 わ CHI ’18
  224. どんなもの? どうやって有効だと確証した? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? 議論はある? 次に読むべき論⽂は? 剛体の仮想オブジェクトのリアルなサウンドを合成するために事前に 録⾳されたオーディオクリップを⽤いてサウンドの固有の特徴をとら えるパラメータを推定する⾳響⼼理学の観点から、パラメータ推定ア ルゴリズムを設計し、線形モーダル合成(LMS)から⽣成されたオー

    ディオと録⾳されたサウンドの素材の近くを⽰すもの 線形変形とレイリー減衰のモデルを想定しているが、これらは計算効 率が求められる⼀⽅で全てのオーディオ素材が⽰す⾳響現象をキャプ チャできない。また、記録された⾳は同質であると仮定しなければ、 ⾳質に影響する。 1つのオーディオサンプルから剛体の物質パラメータを推定すること は難しい。そのため、サンプルオーディオの録⾳に使⽤される実際の オブジェクトと同じサイズと形状の仮想オブジェクトを作成する。こ れらは⾳響⼼理の原理に基づいて設計されている。2つのオブジェク トのマテリアルの類似性を⽐較、測定する オーディオ効果のみをとり、固有のモーダル合成を⽤いて推定す る。記録された衝撃⾳から様々な形状に適応できる材料パターン を推定し、⾃動的に反映する 実際のオブジェクトと推定されたパラメータから構成された仮想オブ ジェクトを⽐較測定する Example-Guided Physically Based Modal Sound Synthesis ZHIMIN REN,HENGCHIN YEH, and MING C.LIN University of North Carolina at Chapel Hill touch-enabled virtual percussion instruments. In Proceedings of theACM SIGGRAPH Symposium on Interactive 3D Graphics and Game
  225. インタラクティブな仮想打楽器システム(テーブルタップ) 光学マルチタッチテーブルトップを⼊⼒デバイスとして、⾳制御 システムを使⽤してユーザーの⾳楽に適した打楽器の制御信号へ 適⽤する。⾳声合成技術としてモーダル合成が採⽤されている。 指と⼿のひらの⼩さな変化で垂直に⼿を下ろすときの速度を正確 に推定することが難しい。また、固定された既知の⼿の変形モデ ルの作成が不可⽋であり、ユーザー側にコストがかかるところが 難である。 Tabletop Ensemple:Touch-Enabled

    Virtual Percussion Instruments Zhimin Ren, Ravish Mehra .Jason Coposky, and Ming C. Lin University of North Carolina at Chapel Hill Renaissance Computing Institute ビデオゲームのインパクトな⾳のためのサウンド合成 ビデオゲームのディスプレイ上の物理ベースのオーディオから記 録された衝撃⾳をモーダル合成によって計算する。これらを抽出 されたモードの振幅エンベロープに直接使⽤することによって⾳ 質が向上する。 指数関数減衰モデルには適度なコストがかかる。モード振幅は正 弦波とは別に計測する必要がある。現在の技術は周波数を変更す るのみであるため、実際の衝撃や⾻折からなる衝撃に適応すると 不⼗分であると感じる Sound Synthesis for Impact Sounds in Video Games D.Brandon Lioyd ,Nikunj Raghuvanshi,Naga K.Govindaraju eXtreme Computing Group Microsoft Research
  226. 流体⼒学のビジュアルシミュレーションから直接液体⾳を合成す るための⽅法の提案 液体によって⽣成された⾳は、主に媒体中の共鳴気泡の振動によ るものであり、カップリングによって⾃動⾳声合成が実⾏される リアルタイムでいくつかのベンチマークを利⽤してシステムを実 証する 泡から⾳を⽣成しているため、合成⾳の品質は泡の正確さに依存 する。星形でないものや球形だと難しい。 Sounding Liquids:Automatic

    Sound Sythesis from Fluid Simulation WILLIAM MOSS and HENGCHIN YEH University of North Carolina at Chapel Hill JEONG-MO HONG Dongguk University, Seoul Campus and MING C.LIN and DINESH MANOCHA University of North Carolina at Chapel Hill ⽣成された固体オブジェクトの動きが計算され、その運動がどの ように⾳響圧⼒波を誘発し、そのソリッドオブジェクトの動作を シュミレートする。 可聴スペクトルより⾼い周波数は計算に時間がかかるため、除去 する。反射や回折、波が瞬間的に伝播するとは限らない事等を考 慮することが課題である。 Synthesizing Sounds from Physically Based Motion James F.OʼBrien University of California, Berkeley Rerry R.Cook Princeton University Georg Essl Princeton University
  227. ⾃動的に⾳楽ライブラリの探索をするシステム ⼊⼒で与えられたオーディオ楽曲を⼼理⾳響モデルを⽤いて⾳の 類似性を検出して楽曲を推定するフォーマットを⼆次元マップで 表し(地図)、島のジャンルやスタイル等で分割するインター フェース 難しい点は、⼆つの⾳楽の知覚される類似性を計算すること。こ の研究は、⼼理⾳響モデルに続くリズミカルな特性に焦点を当て たアプローチで評価している。 Content-based Organization

    and Visualization of Music Archives Elias Pampalk Austrian Research institute for Artificial Intelligence Andreas Rauber,DieterMerki Department of Software Technology Vienna University of Technology
  228. Respiratory virus shedding in exhaled breath and efficacy of face

    masks も ス感染防止 対す マスク 有効性 調べ、マスク着用 っ 、呼吸器飛沫中 ンフ エンザ ス・コロナ ス 検出 減少す こ 示した マスク 有効性 示す研究 ほ 、非生物学的粒子 用い た実験 来 、 ス 一般化 い可能性 あ た、ほ 研究 ンフ エンザ ス 焦点 当 いた 、今回 研究 ンフ エンザ ス 加え、ラ ノ ス・コロナ ス 特 焦点 当 い 参加希望者 うち、ラン ム 何人 マスク 着用させ、 同人数 何人 着用させ い う し、呼気中 ス 量 定量化し マスク フィ タ ング効果 調べた Nancy H. L. Leung, Daniel K. W. Chu, Eunice Y. C. Shiu, Kwok-Hung Chan, James J. McDevitt, Benien J. P. Hau, Hui-Ling Yen, Yuguo Li, Dennis K. M. Ip, J. S. Malik Peiris, Wing-Hong Seto, Gabriel M. Leung, Donald K. Milton & Benjamin J. Cowling 先行研究 比べ 検証方法 議論 次 読 ス 感染した個人 伝染性 不均一性 あ 可 能性 あ た、フ スマスク ス 拡散 抑え こ 分 った 、感染率 関係 研究 余地 あ A rapid screening method for testing the efficiency of masks in breaking down aerosols
  229. も ? 通常 HMD 顔 隠 し う 、赤外線(IR)フィ タ

    単一 赤外線カ ラ 用い こ 、 ーザー HMD 付け い 状態 も ーザー 顔 撮影す こ 可能 す 既存 手法 筐体 側面や外側 取 付け た複数 隠しカ ラ や ンサ 使っ いた 、本研究 HMD 筐体材料 IRパスフィ タ 用い い た 、IRパスフィ タ 魚眼 ンズ付 IRカ ラ一台 容易 実現 HMD 筐体材料 IRパスフィ タ 用い い た 、 ーザー 目 不透明、IRカ ラ 透過的 HMD 実現し い 実際 ーザー VR映像 表示中 IRカ ラ ーザー 顔 撮影し、 顔ほ 全体 写った歪 少 い画像 撮影した IRカ ラ RGB画像 く ノクロ画像 出力す た 、顔 特徴 抽出す 十分 あ 、人 コミュニケーション 用い RGB 望 しい そ た 出色画像 変換し着色す 必要 あ 改善 余地 あ C. Frueh, A. Sud, and V. Kwatra. 2017. Headset Removal for Virtual and Mixed Reality. In ACM SIGGRAPH 2017 Talks. ACM, New York, NY, USA, Article 80, 2 pages. 先行研究 比べ こ す い? 技術や手法 キ こ? うやっ 有効 検証した? 議論 あ ? 次 読 べ 論文 ?
  230. - B DLr Wg z a h Y ” o

    J km - B Da ce U r z - B D kmz Za e U“ oJn Xo J kma)3 h H ou oua)3 U ( ? r o J km X F- G F y G a h i T Face X-ray for More General Face Forgery Detection 1= = 1= = = * A 2= A ,A - * = = .CA
  231. Swapped Face Detection using Deep Learning and Subjective Assessment 9A

    MA )A G NA A A ( . KG DA 7 DA A C LD L /A D , KD P P W Ve O a o mlnp P a cO SU / P SU a o m Detecting Both Machine and Human Created Fake Face Images In the Wild 4 GN A 4 MLH . ,GMGL AE GL A 4 A 4AEG 4 GG P c Ve a a X q rnpy h ka Pgzjzs W T W a WO WO T W a a P aumo m ZY / P Ve T W a a (kig R R
  232. Distinguishing Between Natural and Computer-Generated Images Using Convolutional Neural Networks

    DG D R G E .M E 5G E C G MND E F E g ch i i n b - n 2 d WuW -1 h ros k3 /1 eh g am / z v Xh n Fake Face Detection Methods: Can They Be Generalized? JG FMC A IFPF EF SD CO K BF CO GO I P GI C -FOGPQMNF ,RPBF ) h l)( h n j h Y00 Z Wut n h h h n / h // h l p W 2 7 2/-( ( -/ , -/
  233. Multi-task Learning For Detecting and Segmenting Manipulated Facial Images and

    Videos / / + / , + +/ + - + , Ng o mF y cg i J F d e h CF n EHI Y F g sz / +, , a +, , a u r
  234. $POTJTUFOU7JEFP%FQUI&TUJNBUJPO ͲΜͳ΋ͷʁ ઌߦݚڀͱൺֱͯ͠Կ͕͍͢͝ʁ ٕज़΍ख๏ͷ؊͸ʁ ༗ޮੑͷ࣮ূํ๏͸ʁ ٞ࿦͸͋Δ͔ʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ ୯؟ϏσΦͷ͢΂ͯͷϐΫηϧʹ͍ͭͯɺߴີ౓ͰزԿతʹҰ؏͠ ͨਂ౓Λਪఆ͢ΔͨΊͷΞϧΰϦζϜɻ Ҏલͷख๏ΑΓ΋ߴ͍ਫ਼౓ͱߴ౓ͳزԿֶత੔߹ੑΛ࣮ݱ͍ͯ͠

    Δɻ·ͨखΛৼΔͳͲͷɺ؇΍͔ͳಈ࡞Λͯ͠΋ਂ౓ͷਪఆΛߦ͏ ͜ͱ͕Ͱ͖Δɻ ैདྷͷϚϧνϏϡʔ࠶ߏங๏Λ࢖༻ͯ͠நग़͞ΕͨزԿֶత੍໿Λ ׆༻͠ɺͦΕΒΛ࢖༻ͯ͠ࣄલτϨʔχϯάࡁΈͷ୯Ұը૾ͷਂ౓ ਪఆͷχϡʔϥϧωοτϫʔΫΛඍௐ੔ͨ͠ɻ Ժ΍͔ͳಈ͖ͷ͋Δө૾ͱಈ͖ͷແ͍੩తͳө૾Λ࢖༻͠ɺطଘͷ ਂ౓ਪఆΞϧΰϦζϜͱൺֱͨ͠ɻͦͷࡍɺಈతͳө૾Ͱ͸ଌޫޡ ࠩɺෆ҆ఆੑɺυϦϑτʢ࣌ؒ஝ੵʹΑΔޡࠩʣͷ؍఺Ͱൺֱ͞ Εɺ੩తͳө૾Ͱ͸ଌޫޡࠩͱෆ҆ఆੑͰൺֱ͞Εͨɻ Χϝϥ͕ඃࣸମͱฒਐͨ͠ΓɺඃࣸମϒϨ͕͋Δͱ৴པੑͷ͋Δ࢟ ੎ਪఆ͕Ͱ͖ͳ͍ɻ࢟੎ਪఆͷֶशͱ͜ͷݚڀΛ౷߹͍ͯ͘͠ͷ ͕ɺࠓޙͷํ਑ͱͯ͋͠Δɻ ਂ૚ֶशʹؔ͢Δ࿦จɻ
  235. &OIBODJOHTFMGTVQFSWJTFE NPOPDVMBSEFQUIFTUJNBUJPOXJUI USBEJUJPOBMWJTVBMPEPNFUSZ طଘͷࣗݾ؂ࢹωοτϫʔΫʹɺ؀ڥͷঢ়ଶΛ౷߹͢Δ͜ͱʹΑͬͯɺ ୯؟ਂ౓ਪఆΛ͞Βʹվળͨ͠ɻ ͜ͷΞϧΰϦζϜ͸ࣗݾ؂ࢹਂ౓ਪఆͷطଘͷϞσϧΑΓ༏Ε͓ͯΓɺϋ ΠΤϯυ(16΍૊ࠐγεςϜʹ͓͍ͯਖ਼֬ͰϦΞϧλΠϜͷ୯؟ਂ౓ଌ ఆ͕ՄೳͰ͋Δɻ 3FBM5JNF.POPDVMBS%FQUI &TUJNBUJPOVTJOH4ZOUIFUJD%BUBXJUI

    %PNBJO"EBQUBUJPOWJB*NBHF4UZMF 5SBOTGFS ελΠϧసૹʢσΟʔϓϥʔχϯάΛ༻͍ͯϕʔεͱͳΔը૾ʹଞͷը૾ ͷελΠϧ ݟͨ໨ͷಛ௃ Λ෇༩͢Δ͜ͱͰɺ৽͍͠ը૾Λੜ੒͢Δ͜ ͱɻʣͱυϝΠϯదԠʢ֬཰෼෍ͷҟͳΔσʔλू߹ʹΑͬͯ܇࿅͞Ε ͨϞσϧΛͦΕͱؔ࿈͢ΔλεΫʹస༻͢Δ͜ͱɻʣͷؒͷ઀ଓʹؔ͢ Δ৽ͨͳ஌ݟΛར༻͠ɺ߹੒σʔλͰਂ౓ଌఆϞσϧΛτϨʔχϯά͢ Δख๏Λ։ൃͨ͠ɻ
  236. 6OTVQFSWJTFE4DBMFDPOTJTUFOU%FQUI BOE&HPNPUJPO-FBSOJOHGSPN .POPDVMBS7JEFP εέʔϧͷҰ؏ͨ͠ਂ౓ͱࣗ਎ͷҠಈྔͷਪఆͷͨΊͷɺڭࢣແֶ͠श ϑϨʔϜϫʔΫΛఏࣔͨ͠ɻ͜ΕʹΑͬͯ௕͍γʔέϯεͰάϩʔόϧ࠲ ඪʹ͓͚ΔҰ؏ͨ͠ΧϝϥيಓΛ༧ଌͰ͖ɺϩϘοτ੍ޚͳͲʹԠ༻Ͱ ͖Δɻ $PEF4-".Š-FBSOJOHB$PNQBDU  0QUJNJTBCMF3FQSFTFOUBUJPOGPS

    %FOTF7JTVBM4-".  ը૾σʔλʹΑΔਂ૚ֶशʹΑΓɺΧϝϥ࢟੎ͱߴີ౓ͳਂ౓Ϛοϓͷ ྆ํͷಉ࣌ਪఆ͕Մೳʹͳͬͨɻ͜Ε͸4-".ٕज़ʢࣗݾҐஔਪఆͱ؀ ڥ஍ਤ࡞੒Λಉ࣌ʹߦ͏͜ͱʣͷൃలʹد༩͢Δɻ
  237. #MJOE7JEFP5FNQPSBM$POTJTUFODZ ϏσΦͷ࣌ؒతنଇੑΛਪଌ͢Δ͜ͱͰɺ੩తը૾ʹର͢ΔϑΟϧλʔ Λɺνϥ͖ͭͳͲΛى͜͢͜ͱͳ͘ϏσΦʹର֦ͯ͠ுͰ͖ΔΑ͏ͳΞ ϧΰϦζϜΛఏҊͨ͠ɻ·ͨɺ͜Ε͸ϑΟϧλʔͷ಺෦ઃܭʹؔ܎ͳ ͘ɺ݁ՌΛಘΔ͜ͱ͕Ͱ͖Δɻ

  238. (2020) Yuichi Hiroi/ AtsushiMori/ Takumi Kaminokado/ Yuta Itoh https://twitter.com/silencieuse/status/1239565116137279488?s=20 どんなもの?

    先行研究と比べて何がすごい? 技術の手法や肝は? 議論はある? どうやって有効だと検証した? 次に読むべき論文は? - A compact optical see-through head-worn display with occlusion support. - AdaptiVisor: Assisting Eye Adaptation via Occlusive Optical See-through Head-mounted Displays. - Light Attenuation Display: Subtractive See-Through Near-Eye Display via Spatial Color Filtering. - Optical image processing using light modulation displays. - Computational Glasses: Vision augmentations using computational near-eye optics and displays. - ユーザーの視線に基づいたリアルタイムなキャリブレーション。 それについての議論がOcclusion-capable OST-HMDではまだ掘り下げられていない。 -色ごとにocclusionすることができない。 - 被写界深度。DMDに入る像が2Dとして扱えない場合にぼやけてしまう。 かすみのない画像をシステムに通した際に得られた画像と、かすみのある画像をシ ステムに通して得られた画像とを、LPIPS metricとL2 matrix normをもちいて比較し た micro-electro-mechanical mirrorsを用いて、各ピクセルごとに取り込む光の量を変 えることでocclusionを可能にした。画像処理で得たかすみ除去された画像Dと同じ 像を提示するようにした。その際に光学シースルーの利点を活かすべく、 DMDで 取り込む光の量を最大に、HMDで加える光の量を最小にするように計算した。 ユーザの一人称を強化する、occlusion可能なシースルーなかすみ除去システムをを 初実現した。 それによって、光を足すことはできても引くことができないOST-HMDの性質によ る、散乱光を取り除くのではないため輝度が増した見た目になってしまっていたと いう問題を解決した。 人間の知覚や行動に影響を与えるもや(haze)を光学的にユーザーの視界から取り除 く光学シースルーなグラス。digital micromirror displayを用いてユーザの一人称を強 化する、occlusion可能なシースルーなかすみ除去システムをを初実現した。 日付 DehazeGlasses: Optical Dehazing with an Occlusion Capable See-Through Display
  239. ͲΜͳ΋ͷ ઌߦݚڀͱൺ΂ͯԿ͕͍͢͝ ٕज़΍ख๏ͷΩϞ͸Ͳ͜ Ͳ͏΍ͬͯ༗ޮͩͱݕূͨ͠ ٞ࿦͸͋Δ ࣍ʹಡΉ΂͖࿦จ͸  ਓؒίʔε 73ϔουηοτ಺ͰಘΒΕΔஅยతͳ*3ͷը૾σʔλ΍إ޲͖͔Β ϔουηοτΛ͚͍ͭͯΔਓͷ%إϞσϧΛϦΞϧλΠϜʹϨϯμϦ

    ϯά͢Δ σβΠϯ͕࠷খԽ͞Εͨ"3σόΠεͳͲ ҟͳΔ ΋͘͠͸ݫ੍͍͠໿ ԼͰಘΒΕΔσʔλ͔Βಉ༷ͷࣄ͸Ͱ͖Δ͔ ੜ੒ͨ͠%ϞσϧΛ).%಺ͷΧϝϥը૾ͱൺֱ ·ͨ ͭͷஅยతͳը૾σʔλ͔Β༧ଌͨ͠Γ৚݅Λܽམͤͨ͞ঢ়ଶ ͔Βը૾σʔλΛੜ੒͢Δ͜ͱ΋ͨ͠ Χϝϥͷ֯౓͕ࣼΊͩͬͨΓ͍ۙ෦෼ΛΑΓਖ਼֬ʹදݱͰ͖Δ ·ͨ Ή͘Μͩ๹ ט·Εͨ৶ ͠ΘͳͲࡉ͔͍ҧ͍΋ଊ͑Δ͜ͱ͕Ͱ ͖Δ ͋Β͔͡ΊϚϧνΧϝϥγεςϜΛ༻͍ͯ%إϞσϧΛߏங͓͖ͯ͠  Χϝϥը૾͔ΒରԠؔ܎ΛٻΊΔ ੜ੒ͨ͠%Ϟσϧ͔Β࠶ͼΧϝϥࢹ఺ͷը૾Λੜ੒͠ ݩͷΧϝϥը ૾͔ΒͷଛࣦΛ࠷খԽͤ͞Δ͜ͱͰֶश 0MT[FXTLJFUBMͳͲ
  240. ).%಺ͰࡱΒΕͨը૾σʔλ͔Β$//Λֶशͤ͞ ը૾σʔ λΛσδλϧΞόλʔͷσʔλΛ੍ޚ͢Δύϥϝʔλʹճؼɹ ͦͯ͠ ޱͷը૾ͱ໨ͷը૾ͱ಄ͷҐஔ͔ΒϦΞϧλΠϜʹ %إσʔλΛੜ੒ ໨΍ޱͷྠֲͳͲͷϥϯυϚʔΫΛإͷը૾͔Βݕ஌ͦͯ͠ %%& %JTQMBDFE%ZOBNJD&YQSFTTJPO ϞσϧΛ༻͍ͯ͋Β

    ͔͡Ί༻ҙ͞Εͨ%ͷإΞόλʔʹରԠͤ͞Δ  ਓؒίʔε
  241. ΞόλʔͷϨϯμϦϯά݁Ռͱ࣮ࡍͷإը૾͔ΒΦʔτΤϯ ίʔμʔΛߏங͢Δͱಉ࣌ʹϨϯμϦϯά͞ΕͨυϝΠϯ͔ ΒͷରԠΛར༻ͯ͠إϞσϧύϥϝʔλ΁ͷNBQQJOHΛֶशɹ ͋Δఔ౓ͷਫ਼౓͸͋Δ͕ࡉ͔ͳද৘ͷඳࣸʹ͸೉͋Γ ίϯςϯπΛ͋ΔυϝΠϯ͔ΒଞͷυϝΠϯ΁సૹ͢Δࡍʹ ࣌ؒత੍໿Λઃ͚Δ͜ͱʹΑΓυϝΠϯؒͰҙຯͷଛࣦΛܰ ݮͤ͞Δख๏ΛఏҊ  ਓؒίʔε

  242. υϝΠϯؒͷը૾͔Βը૾΁ͷม׵ͷࡍ lVODPPQFSBUJWF PQUJNJ[BUJPOzΛ༻͍Δ͜ͱʹΑΓॱํ޲ม׵ͱٯํ޲ม׵ ͰҾ͖ى͜͞ΕΔTFNBOUJDESJGUΛճආ͢Δख๏ΛఏҊ  ਓؒίʔε

  243. Crumpling Sound Synthesis Gabriel Cirio, Dingzeyu Li, Eitan Grinspun, Miguel

    A. Otaduy, Changxi Zheng ? 与え ッ ュ ー ン 対し 自動的 しわく 音 合成す 物理ベー 提案 先行研究 比べ こ す い? 計算 高速化 豊 しわく 音 技術や手法 Component Mode Synthesis (CMS) 適合させ こ 剛体 近い 領域 計算 再利用し Linear Modal Analysis (LMA) 計算コ 削 全体的 ネ ー分布 普遍的 べ 法則 満 す う 小規 模 (目 感知 い) 確率的 ン タン 化 うや 有効 検証し ? ュ ー ン音 録音し 音 比較 知覚的 ー ー調査 議論 あ ? こ 手法 LMA 利用し 非線形性 考慮す こ 摩擦音 考慮す こ 次 読 べ 論文 ? Folding and Crumpling Adaptive Sheets. ACM Trans. Graph. 32, 4.
  244. Real-time sound synthesis for paper material based on geometric analysis

    Camille Schreck, Damien Rohmer, Doug James, Stefanie Hahmann, Marie-Paule Cani しわく 仮想紙 タ ー ン化し しい音 生成す 方法 提案 ー ン 分析 得 音 ータ 事前収録さ 摩擦音・しわく 音 使用し 音 合成 さ 壁や ー 平面 考慮し 音 空間化 新しい効率的 近似法 提案 Motion-driven Concatenative Synthesis of Cloth Sounds Steven S. An Doug L. James Steve Marschner Cornell University ッ ー 実行さ 物理ベー ー ン 妥当 サ ン ッ 自動的 合成す 実用的 ータ ン型 方法 提案 布 測定 推定さ しわく 音や摩擦音 使用し 低品質 ター ッ 信号 生成 concatenative sound synthesis (CSS) 用い 事前録音さ 布音 ータベー 音 合成す
  245. Physically-based Sound Effects for Interactive Simulation and Animation Kees van

    den Doel, Paul G. Kry, and Dinesh K. Pai University of British Columbia ュ ー ン 統合さ 物理的 動機付けさ 音声合成 使用し 接触 あ 動力学 ュ ー ン 取 得さ 物理 ータ 駆動さ 高品質 現実的 接触 音 自動的 生成す 方法 ータ 定義さ サ ン 自動的 作成さ ー ー オ 触 し 回転し す 実世界 期待さ う 現実的 応答性 あ 聴 覚 ー ッ 体験 Synthesizing Sounds from Physically Based Motion James F. O’Brien, Perry R. Cook, Georg Essl 合成環境 物理的 サ ン 自動的 生成 物理ベー ー ン す 使用さ い 既存 ュ ー ン方法 利用し 物理的 サ ン 計算す そし 表面 動 周囲 媒体 音圧波 生成す 方法 決定し そ 波 ー 伝播 化す
  246. Stable but Responsive Cloth Kwang-Jin Choi Hyeong-Seok Ko 非常 安定し

    い 応答性 高い半陰的布 ュ ー ン手法 紹介 予測さ 静的 ゆ 後 応答 使用す こ 不 安定性 減 す 布 動 さ 低下させ 架空 減衰 必 要性 回避し 布 動 生成す ま 大 固有時間 ップ 運動方程式 安定し 統合
  247. What Characterizes Personalities of Graphic Designs? Nanxuan Zhao Ying Cao

    Rynson W.H. Lau Siggraph 2018 Exploratory Font Selection Using Crowdsourced Attributes Peter O’ Donovan Janes Libeks Aseem Agarwala Aaron Hertzmann
  248. Visual Appeal vs Usability Christine Phillips Barbara S. Chaparro Learning

    Layout for Single- Page Graphic Design Peter O’Donovan Aseem Agarwala Araon Hertzmann
  249. Visualizing and Understanding Convolutional Networks Matthew D. Zeiler Rob Fergus

    Exploratory Font Selection Using Crowdsourced Attributes Peter O’ Donovan Janes Libeks Aseem Agarwala Aaron Hertzmann
  250. Learning Visual Importance for Graphic Designs and Data Visualizations Ziya

    Bylinskii Nam Wook Kim Peter O’Donovan Sami Alsheikh Spandan Madan Hanspeter Pfister Fredo Durand Bryan Russell Aaron Hertzman
  251. ༗໊ͳ ԻָͷೖྗΛݩʹ"*͕ੜ੒ͨ͠ۂʹΑͬͯ ςϯϙɺϜʔυ౳ͷҙਤͨ͠ԻָΛ ࡞Δ͜ͱ͕Ͱ͖ΔϢʔβத৺ͷ6*ͷઃܭ ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͜ੌ͍ʁ ٕज़΍ख๏ͷΩϞ͸ʁ Ͳ͏΍ͬͯ༗ޮͰ͋Δͱݕূͨ͠ʁ ٞ࿦͸͋Δʁ ࣍ʹಡΉ΂͖࿦จ͸ʁ

    Իָͷ஌͕ࣝͳਓͰ΋ۂΛ࡞Δ͜ͱ͕Մೳɻ ٻΊΔςΠετͷԻݯͷೖྗͱ ֤छύϥϝʔλΛௐ੔͢Δ͜ͱͰɺ ಉ͡Α͏ͳԻָ͕ੜ੒͞ΕΔ͜ͱΛ๷͙ɻ Իָݕࡧ΍Իָੜ੒ͷग़ൃ఺ͱͳΔΩʔϫʔυΛ ݴޠԽ͢Δ͜ͱ͸Ϣʔβʹͱͬͯ೉͍ͨ͠Ί ָۂͷྫΛఏڙ͢Δ͜ͱͰײ৘ͳͲͷϓϩύςΟΛ ҉໧ͷ͏ͪʹ"*Իָੜ੒ʹຒΊࠐΉ͜ͱ͕Ͱ͖Δ Իָੜ੒γεςϜΛ։ൃͨ͠ ຕͷυϧ"NB[POΧʔυΛ໯ͬͨ  ਓʹΑΔඃݧऀͰ ૢ࡞ੑɾੜ੒Իָͷຬ଍౓ɾ૑࡞తίϯτϩʔϧͷࣗ༝ੑ ͳͲΛධՁ࣮ݧͨ͠ "*ʹΑΔಛ௃ݕग़Ͱ͸ͳͯ͘ɺ Ϣʔβࣗ਎͕ೖྗͨ͠ํ͕ྑ͍߲໨͕͋Δɻ ͔΋  "*Իָ͚ͩͰ͸ɺԻָͷ৹ඒੑʹ೉͋Γɻ +FO$IVO-JO FUBM .VTJD$SFBUJPOCZ&YBNQMF &NNB'SJE$FMTP(PNFT;FZV+JO $)*
  252. Using Concurrent Relational Logic with Helpers for Verifying the AtomFS

    File System どんなものか 先行研究と比べてどこがすごいか 手法のキモ 有効性の検証について 次に読む 議論の有無 Mo Zou, Haoran Ding, Dong Du, Ming Fu, Ronghui Gu, Haibo Chen CRL-H(Concurrent Relational Logic with Helpers) いう並行 フ システム構築 た FWを用い AtomFS いう フ システムを論理的 証明した 1.Tej Chajed, et al. Verifying concurrent software using movers in {CSPEC} 2.Tej Chajed, et al. Verifying concurrent, crash-safe systems with Perennial 3.Lanyue Lu, et al. A study of Linux file system evolution 4.Changwoo Min, et al. Cross-checking semantic correctness: The case of finding file system bugs. 5.Linux. Pathname lookup; The Linux Kernel documentation LRG推論 非常 強力 あ AtomFS 共有状態 クセス す ク テ カ セクション 行わ た G conditionを満たさ い 保証条件を弱くす こ す 具体的 ベ 操作を 3種類 遷移 効果的 統合す こ よう た CRL-H linearize-before relationや ー ック機構 よう domain-specific notionsを持 こ 並行フ システムを検証 CRL-Hを用い こ 線形化可能性 中 一番証明 難しい ス間依存性(rename よう た た一 操作 他 操作 ス一貫性を損 う 扱い 非常 難しい ) 証明した 他 フ システム たマ チコ 並行処理を 利用す AtomFS unmodified applicationsを高速化 こ を示した
  253. Drawing Sound in MR Space: A Multi-User Audiovisual Experience in

    Mixed Reality Space Ryu Nakagawa, Taku Ota, Ryo Komatsubara, Takahisa Mitsumori どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモ どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? 複数のユーザーが共有されたMR空間内で、 サウンドエフェクトを作り相互作⽤させる システム 線の描画とユーザーの動きを連動させた表 現 展⽰会にて、それぞれのユーザーが作成し たエフェクトが相互に影響しあい予想外の 表現を⽣み出すことが出来た ⾳を作るだけでなく、複数のユーザーと共 有・編集し別の表現にできる。 Exploring the Synergy between Live Music Performance and Tabletop Tangible Interfaces. 描画モード、編集モードを⾳声⼊⼒で切り 替えることが出来て、⼿の動きだけでサウ ンドエフェクトを作ることができる。 HoloLensを4台使いMR空間を共有する。
  254. “Mergereality”: LeveragingPhysical Affordances for Multi-device Gestural Interaction in Augmented Reality

    Shengzhi Wu, Daragh Byrne, Molly Wright Steenson CHI 2020, April 25‒30, 2020, Honolulu, HI, USA どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 次に読むべき論⽂は? 議論はある? 物理的なアフォーダンスを活⽤して、複数のデ バイスを直感的に制御する新しいARジェス チャーの相互作⽤戦略。 複数のデバイスや周囲の物理環境との相互作⽤ を実現している点。 実際の物理環境と同じレイアウトの仮想環境を 作る。その物理環境と仮想環境をARマーカーで 調節している。 仮想付箋をタブレットから引きだす。ディスプ レイから3Dモデルを引き出す。物理的な環境か らスマートライトへの⾊のスラップイン/アウ トといったプロトタイプを作成。 カメラでデバイスを認識することによる視覚認 識アプローチなど。 Extending the body for interaction with reality.
  255. Opportunistic Controls: Leveraging Natural Affordances as Tangible User Interfaces for

    Augmented Reality Steven J. Henderson Steven Feiner Opportunistic Controlsという相互作⽤⼿法の 開発。 ジェスチャーをサポートし、ドメイン環境に 既に存在する未使⽤のアフォーダンスから フィードバックを受け取ることをサポートす るARアプリケーションのユーザーインタラク ション技術。 Reality Editor: Programming Smarter Objects Valentin Heun James Hobin Pattie Maes 拡張現実技術を⽤いてスマートにオブジェクトを プログラミングおよび操作できるようにするイン ターフェース。 直接マッピングされたインターフェースを使⽤し て様々な範囲の物理オブジェクトとのインター フェースを有効にし、物理オブジェクトの動作と 相互作⽤をプログラミングする。
  256. Ubii: Towards Seamless Interaction between Digital and Physical Worlds Zhanpeng

    Huang Weikai Li Pan Hui 物理世界とデジタル世界の間の操作のための 分散型インターフェースシステム。上の画像 ではユーザーがピンチジェスチャーによって コンピュータからアイテムを移動させている。 実験での失敗のほとんどは⼿のジェスチャー 検出が原因だった。 Slurp: Tangibility, Spatiality, and an Eyedropper Jamie Zigelbaum Alejandro Vazquez Adam Kumpf Hiroshi Ishii 位置メディアとの対話のための具体的なインター フェースであるslurpを紹介。 Slurpは既存のシステムより効率的な⽅法ではな い。(ディジタルメディアが⾮常に普及した将来 では⾮常に効率的なる可能性はある)有形イン ターフェースの問題をより良く理解するためにこ れらを使⽤した。
  257. Affordances for Manipulation of Physical versus Digital Media on Interactive

    Surfaces Lucia Terrenghi, David Kirk, Abigail Sellen, Shahram Izadi オブジェクトとの相互作⽤を実際に把握でき る効果を評価できるように、卓上での物理操 作とデジタル操作を⽐較した研究。 物理的アフォーダンスを設計リソースとして 使⽤すると同時に、デジタルメディアの新し くエキサイティングな可能性を活⽤する⽅法 について深く考える必要がある。
  258. Stylizing Video by Example Ondřej Jamおiška, ャテおka Sochoおovテ, Ondřej Texler,

    Michal Lきkテč, Jakub Fišeお, Jingwan Lu, Eli Shechtman, Daniel Sムkoおa も 先行研究 比べ こ す い 技術や手法 キ こ うやっ 有効 検証した 議論 あ 次 読 べ 研究 動画 スタ 転送す 新しい手法 提示 映像中 (1 以上 ) キーフ ーム 対しアー ィス スタ ラ ズした結果 他 フ ーム 自動的 伝搬す 従来 パッチ ース手法 対し、5 チ ネ (Color guide, Mask guide, Positional guide, Edge guide, Temporal guide) 導入 し い 特定 ン(3Dコンピューター生成アニ ーション等) 依存し い チ ネ ッ 、複数 一貫性 いキーフ ーム もアニ ーションシークエンス 作成 油絵、水彩、鉛筆画 様々 スタ 使用し 、様々 複雑さ 実際 制作 複数 シーケンス 対す アプローチ 検証 た、他 様式化フ ームワーク( ナー 等) 手法 比較した ター ッ オ内 け 大 証明 変化 対す 感度 悪い (スタ ラ ズさ たオ ク 元々光 中 あ 、そ 影 移動した場合 ) Example-BasedSynthesis of StylizedFacial Animations. ACM Transactions on Graphics 36,4
  259. 伝統的 ィアや最新 コンピューター ン ー 使用し 作 た表現スタ 効果的 アニ

    ーショ ン化す 際 、 Image Analogies [Hertzmann et al. 2001] クスチ 合成方法 拡張した手法 利用す こ 、 時間的 一貫したアニ ーションシーケンス 作成す こ 成功した Stylizing Animation By Example Pierre Benard, Forrester Cole, Michael Kass, Igor Mordatch, James Hegarty, Martin Sebastian Senn, Kurt Fleischer, Davide Pesare, Katherine Breeden Image Analogies Aaron Hertzmann, Charles E. Jacobs, Nuria Oliver, Brian Curless David H. Salesin っimage analogieか、 呼 、サンプ 画像 利用し 全 く別 画像 処理す いう新しいフ ームワーク 提示 ソース ア画像間 特徴 対応関係 保持 す う 、対象画像 対し 出力画像 生成す (imageA、imageAす、imageB 入力しA Aし 同 う B imageBし 作 )
  260. 手描 アー ワーク 流体シミュ ーション 組 合わせ 、そ アー ワーク

    ( ュア )スタ アニ ーション化さ た流体 生成す 手法 提案 Stylized Keyframe Animation of Fluid Simulations Mark Browning, Connelly Barnes, Samantha Ritter, Adam Finkelstein Artistic style transfer for videos and spherical images Manuel Ruder, Alexey Dosovitskiy ,Thomas Brox スタ 1 画像(絵画 ) オ全体 シーケン ス 変換す 2 計算手法 提示 1 Gatys オ ナ 画像スタ 転送手法(画 風変換) オ 応用したも 2 ア タ ム 任意 長さ オ スタ 設定 ィープネッ ワークアーキ クチ ーニング手順 示した
  261. Visual Attribute Transfer through Deep Image Analogy Jing Liao, Yuan

    Yao, Lu Yuan, Gang Hua, Sing Bing Kang Image Analogies [Hertzmann et al. 2001] 概念 採用し、Deep Image Analogy、 名付けた技術 、見 た目 非常 異 入力画像間 意味 あ 密 対 応 確立し、効果的 視覚的属性(色、 クスチ 、 スタ ) 転送 可能 した スタ / クスチ 転送、色/スタ 入 替 え、タ ムプラス 様々 ケース 提案した手法 有効性 検証し い
  262. SNS 用い 大学生 ンタ ス 調査 研究 先行研究 比べ す

    い? 技術や手法 ? ? 8692 学習 ータ 500 ス ータ 評価 約 97 % 高い精度 ンタ ス 関す 表現 抽出 議論 あ ? 次 読 い論文 ? うや 有効 検証 ? 約 97% 精度 高 ンタ ス 関す 表現 抽出す ,MWI いう ンタ 状態 表す指標 作 大学 特徴 関連性 分析 帰納移転学習 用い 分類問題 解い . 特 ンタ 状態 表す 表現 使う 実際 ンタ 状 態 比較 必要 難 い
  263. ACM 139 HCI mental Health 関す 論文 構 的 分

    析 ータ 生成 目的 い 事 指摘 現 場 有益 貢献 入 すべ い 論文 患者 関わ 際 倫理的 問題 考慮す 必要性 指 摘 先行研究 比べ す い? 技術や手法 ? ? 139 論文 目的 対象 倫理問題 対応 分類 構 的 分析 議論 あ ? 次 読 い論文 ? うや 有効 検証 ? HCI mental health 増え いく研究 対 そ 分析 問題点 抽出 今後 ン 示 点 16 論文 臨床研究 い 記述 48 論文 倫理的問題 触 い 明 倫理問題 重要性 い 点 Designing Mobile Health Technology for Bipolar Disorder: A Field Trial of the MONARCA System 特
  264. web 取得 血液脈拍量 Hololens 用い タ ム 手法 提案 先行研究

    比べ す い? 技術や手法 ? ? ケーション 作成 利用シーン 再現 議論 あ ? 次 読 い論文 ? うや 有効 検証 ? タ ム う 点 顔認識シス ム 組 合わせ 点 web 血液脈拍量 取得す 手法 用い 点 Advancements in Noncontact, Multiparameter Physiological Measurements Using a Webcam 相手 意図せ ータ 得 バシー 問題や倫理的 問題 対策 考慮す 必要 あ
  265. HCI 研究 病気 直面 代 う サ ー 調査 患者

    そ 家族 医療従事者 コ ュニケー ション サ ー す 方法 調査 先行研究 比べ す い? 技術や手法 ? ? 38 人 (15 人 10 代患者 , 5人 そ 家族 ,8 人 医療従事者 ) 対象 実験 行 議論 あ ? 次 読 い論文 ? うや 有効 検証 ? 小児科 成人 間 サ ー 仕方 難 い期間 あ 10 代 患者 対象 い HCI 研究 貢献 仕方 調査 ンタビュー ータ 観察 ータ 両方 用い 10 代 患者 そ 親 医療従事者 行動 分析 Mind the Theoretical Gap: Interpreting, Using, and Developing Behavioral Theory in HCI Research 少 い数 量的調査 一般化 限 い 患者 病気 ン 血液疾患 限 い 点
  266. IOT AR 組 合わせ ス ー ホーム スケ ンタ 応用

    基盤 作 先行研究 比べ す い? 技術や手法 ? ? 具体的 実験結果 記載 い 提案 興味深い 議論 あ ? 次 読 い論文 ? うや 有効 検証 ? AR 技術 用い 新 視覚 ンタフ ス 作成 IOT AR 組 合わせ け 入力 Arduino python サーバー HoloLens 出力 いう 一連 流 く 特 生体信号 取得 AR 表示す シス ム 有益 考え
  267. 対人 不和 際 声 高 や 変え 音声 聞 せ

    感情 コン ロー 示 研究 先行研究 比べ す い? 技術や手法 ? ? 自動的 声 遅く 音声 聞 せ 感情 変化 調 査 結果 自信 持 う 状態 議論 あ ? 次 読 い論文 ? うや 有効 検証 ? 感情自体 意識 制御す 方法 く 聞い い 自分 声 感情 変化 せ 示 点 自分 声 う 認識す 重点 置い 知覚 感情 影響 え う 検証 AffectAura: An Intelligent System for Emotional Memory 被験者 違う年代 違う関係性 持 方々 結 果 変わ い 聞く声 変え 自分 声 認識す 感情 変わ
  268. Deep Reality: An Underwater VR experience to promote relaxation by

    unconscious HR, EDA and brain activity biofeedback 水中 生 物 動い い VR 動画 体験す 心拍数や 呼吸数 下 う 研究 先行研究 比べ す い? 技術や手法 ? ? 頭 手首 バ ス け ータ 取得 分析 詳 い 数値 ータ 議論 あ ? 次 読 い論文 ? うや 有効 検証 ? 音 視覚 両者 用い ックス効果 生 出そう 利用者 心拍数 応 VR 動画 連動 ックス効果 高 い 点 Regulating Feelings During Interpersonal Conflicts by Changing Voice Self-perception 皮膚信号 分析 フ ー バック 時差 大 す
  269. Deep Bilateral Learning for Real-Time Image Enhancement 先行研究 比較 重要

    技術 実験方法 疑問点・感想 次 読 べ 論文 端末 動作す カ 画像 動的 強調( タッチ)す NN 開発 NN 予測 高速化す こ 端末 動的 画像 変換 NN 低解像度画像 学習させ 処理内容( ン行列) 予測す 予測し 処理内容 元画像(高画質) 適用す 実行結果 目視 確認 最新 NN 実験結果 (PSNR,色彩,実行速度) 比較 動作速度 確認 カ 画質 上 提案手法 施す あ 利点 薄く う 思え MICHAËL GHARBI, MIT CSAIL JIAWEN CHEN, Google Reかearch JONATHAN T. BARRON, Google Reかearch SAMUEL W. HASINOFF, Google Reかearch FRグDO DURAND, MIT CSAIL / Inria, Univerかiがé Côがe d’Azきr Jiawen Chen, Sylvain Paris, and Frédo Durand. 2007. Real-time edge-aware image processing with the bilateral grid. ACM TOG (2007).
  270. Real-time Edge-Aware Image Processing with the Bilateral Grid 先行研究 比較

    重要 技術 実験方法 疑問点・感想 次 読 べ 論文 画像処理手法 Bilateral Filter 高速化す 新しい ータ構造(Bilateral Grid) 提案 そ 用い 画像中 ッ 強調 す プ 作製 GPU 使い 並列処理す こ 必要量 増え 高速化し 2次元 画像 ータ 3次元 ータ 変換し タ処理 高速化す 同様 処理 他 研究 処理速度( ー ー ) 比較Automatic photo adjustment using deep neural networks 恩師性 い 平滑化処理 い bilateral grid 使うこ 高速化 そう Jiawen Chen Sylvain ,Paris Fredo Durand ´ Computer Science and Artificial Intelligence Laboratory Massachusetts Institute of Technology
  271. Bilateral Guided Upsampling 先行研究 比較 重要 技術 実験方法 疑問点・感想・議論 次

    読 べ 論文 高画質 画像 画像処理 高速化す 手 法 提案 画像処理 高速化し 処理後 画像 画質 悪く い 低画質画像 変換し 処理(行列計算)す 低 画質画像 処理 用い 行列 高画質 画像 処理 用い こ 高画質画像 近似的 処 理す 高速化手法 用い 場合 用い 場合 画質 評価す 指標(PSNR,SSIM) 処理 時間 比較 画像処理 コン ュー ン 応用す サー ー ン 間 通信量 減 せそう Jiawen Chen* Andrew Adamか* Neal Wadhwa† Samきel W. Hasinoff* Google Reかearch* MIT CSAIL†
  272. Fast Bilateral-Space Stereo for Synthetic Defocus 先行研究 比較 重要 技術

    実験方法 疑問点・感想・議論 次 読 べ 論文 202013502 中満 悠人 https://static.googleusercontent.com/media/research.google.com/ja//pubs/archive/44003.pdf 背景 ぼ し 画像 高速 作成す 手 法 提案 処理 高速 使用量 少 い ー 必要要件 少 い Bilateral-space いう概念 採用し 各画素 対し 画素値(深度) 予測 す く bilateral-space 深度 予測し ぼ す 提案手法 最新 手法 処理結果 ground truth data 比較 処理速度 最新 手法 比較 Bilateral-grid bilateral-space 関係 分 他 論文 当 ま 正解 ベ 割 当 う し い う ? Jonathan T. Barron barron, Andrew Adams abadams, YiChang Shih yichang ,Carlos Hernandez A. Adams, J. Baek, and M. A. Davis. Fast high-dimensional filtering using the permutohedral lattice. Eurographics, 2010.
  273. Automatic Photo Adjustment Using Deep Neural Networks 先行研究 比較 重要

    技術 実験方法 疑問点・感想 次 読 べ 論文 撮影後 写真 調整( タッチ) 自動 行 う DNN 開発 画素値 け く 画像全体 特徴 写真 内 容 学習 用い プ 写真家 タッチし 結果,最新 研究結果 本研究 NN 出力結果 比較 DNN す こ 複雑 関数 実現 う 学習 必要 ータ数 増え Zhicheng Yan Univerかiがy of Illinoiか aが Urbana Champaign Hao Zhang† Carnegie Mellon Univerかiがy Baoyuan Wang Microsoft Research Sylvain Paris Adobe Research Yizhou Yu The University of Hong Kong and University of Illinois at Urbana Champaign Michaハl Gharbi, YiChang Shih, Gaurav Chaurasia, Jonathan Ragan-Kelley,Sylvain Paris, and Frédo Durand. 2015. Transform Recipes for Efficient Cloud Photo Enhancement. ACM TOG (2015). DNN 用い 特徴量 増やし 学習 使う画像 雰囲気( 風 )
  274. Transform Recipes for Efficient Cloud Photo Enhancement 先行研究 比較 重要

    技術 実験方法 疑問点・感想 次 読 べ 論文 コン ュー ン 用い 画像強調 ( タッチ) 行う 処理時 端末 使用電力 減 し プ 全体 処理 高速化す ータ容量 小さく サー ー ン コー 画像形式 開発し 使 提案手法 用い 複数 画像処理 実行し確認 処理時 使用電力 動作時間(遅延) 計測 低画質 画像 用い 元画像 変換式( ター) 近似 画像強調処理 け ? Jiawen Chen Sylvain ,Paris Fredo Durand ´ Computer Science and Artificial Intelligence Laboratory Massachusetts Institute of Technology Jiawen Chen, Sylvain Paris, and Frédo Durand. 2007. Real-time edge-aware image processing with the bilateral grid. ACM TOG (2007).
  275. Video Extrapolation Using Neighboring Frames どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモは? どうやって有効だと検証した? 議論はある?

    次に読むべき論⽂は? ⼊⼒したビデオの外挿を可能にし、 既存コンテンツのFOVを拡張する。 拡張部分が⾼品質。 視差効果に対応できるようになった。 すべてのフレームのカメラパラメータを、 SFM法などを⽤いて取得し、適当な形 に変形してブレンドすることにより、ビ デオを外挿する。 body 動的オブジェクトが、拡張部分では静⽌ オブジェクトとして表⽰されてしまう。 ・Tamar Avraham,Yoav Y. Schechner: Ultrawide foveated video extrapolation. SANGWOO LEE, JUNGJIN LEE, BUMKI KIM, KYEHYUN KIM, JUNYONG NOH カメラの動きを静的なもの(パンやティ ルト)と動的なもの(トラックなど)に分 けて検証した。
  276. どんなもの? 先行研究と比べてどこがすごい? 技術や手法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論文は? 視線、口角の動き、眉の動きなどをキャプチャし、リアルタ イムでRGBビデオ間の通信を行う。 HMDを装着した状態でも、リアルタイムで表情をキャプチャ できる技術。

    FaceVR: Real-Time Gaze-Aware Facial Reenactment in Virtual Reality JUSTUS THIES, Technical University Munich MICHAEL ZOLLHOFER, Stanford University MARC STAMMINGER, University of Erlangen- Nuremberg CHRISTIAN THEOBALT, Max-Planck-Institute for Informatics MATTHIAS NIEsNER, Technical University Munich テレビ会議などをHMDを装着してVR空間で実現する際に、顔 をリアルタイムでマッピングすることによって、アバターが より話者本人に近くなり、VR空間でも現実で相手と話してい るかのような空間を実現するための技術の提案 HMDの下はキャプチャをすることが不可能なので、目元の データを事前に用意しておく。(視線はリアルタイムでキャ プチャする) 二つのマーカーを利用することで顔の位置や向きを把握し、 安定化を図っている。 実際にマーカーを二つ付けたHMDを装着した状態でテレビ通話 を実現する。 カメラを二台使用し、二つの入力(事前に用意したデータと、リ アルタイムのデータ)を正確に重ね合わせることができるか検証 する。 カメラを二台使うことによって、わずかに応答が異なってしまう ことでずれが生じてしまう。構築されたモデルの色が正しい画像 と一致しないため測光誤差が大きくなる。 Oleg Alexander, Mike Rogers, William Lambeth, Matt Chiang, and Paul Debevec. 2009. The digital emily project: Photoreal facial modeling and animation. In Proceedings of ACM SIGGRAPH 2009 Courses.
  277. Instant 3D Photography Peter Hedman, Johannes Kopf どんなもの? 議論はある? 先⾏研究と⽐べてどこがすごい?

    技術や⼿法のキモはどこ? どうやって有効だと証明した? 次に読むべき論⽂は? デュアルカメラで撮影した1連の写真から3Dパノラマ写真 を作成するアルゴリズム。 iphone7plusで25箇所で複数枚撮影し、デスクトップと ラップトップそれぞれでパノラマ写真を作成し、実⾏時間 や従来の⼿法で作成したものと⽐較している。 ユーザの持つ機器で撮影した質の悪い画像でも、素早く簡 単に3Dパノラマ写真を作成できる。 ⼩さなカメラで撮影した画像は撮影地点が⼀定になりにく、 深度マップが正確に作成できなかった、それを撮影したカ メラの体勢を推測することで解決している。 デュアルレンズの広範囲の画像があれば写真撮影での問題 が⼩さくなり、パノラマ写真の作成が容易になる。 先⾏研究として紹介されているStereo Panoramaについ て。 SIGGRAPH2018,August 15,2018, Peter Hedman ,Johannes Kopf
  278. も ? うやっ 有効 検証した? 先行研究 比べ こ す い?

    議論 あ ? 技術や手法 キ こ? 皮膚表面 動 目 見え い顎 動 追跡す ア 顔 アニ ーション 生成 手動 キ プ チ さ いた 、完全 自動化 人的エラー 取 除け 可能性 あ 十分 ーニング ータ 必要 、 そ 品質 完全性 結果 依存し し う 皮膚表面 変形 顎 姿勢 予測す 非線形 マッピング ーニングす こ ータ 利用し、推定さ た顎 特徴 顎 ーズ 予測す 1 主題 対す 顔 予測さ た顔画像 顔マーカー キ プチ さ た顔画像 比較した SIGGRAPH 2019
  279. ? 先⾏研究 ⽐べ す い? 技術や⼿法 キ ? うや 有効

    証明し ? 議論 あ ? 次 読 べ 論⽂ ? ンス ⾳楽 け 感情 考慮し ンスキ ラク ー 顔アニ ーション⾃動⽣成シス 2 感情感 微妙 感情 表現 ⾃然 顔 アニ ーション ⽣成 ま 汎⽤性 ⾼い 主観評価実験 基 く気分決定 ル構築 重回帰分析 使⽤し パラ ー ー し ⾳楽 ーション 特徴 選択 そし 隣接す 2 感情⾯ 線形結合し顔 アニ ーション ⽣成 す 印象推定精度 ⽐較 ま V-A座標 軌跡 ー ション 軌跡 間 相関関係 確認し ⾳楽 感情 ンス 動 関係 い 2006年 提案 ⾳楽主導 感情的 表情豊 顔シス い 主観評価実験 ンス映画 観 ⼈ 主観 表現者 ンサー 感情表現 異 い
  280. どんなものか 先⾏研究と⽐べてどこがすごいか 技術や⼿法のキモ どうやって有効だと検証したか 議論 次に読むべき論⽂ MarioNETte: Few-shot Face Reenactment

    Preserving Identity of Unseen Targets Sungjoo Ha∗, Martin Kersner∗, Beomsu Kim∗, Seokjun Seo∗, Dongyoung Kim† ・顔の静⽌画像に動きを合成する技術。 ・⾸、⼝、⽬、眉の動きなど表情の⼤⼩の動きを制御。 ・今までより出⼒後の不⾃然を軽減した。 ・より解像度の⾼い再現を可能にした。 ・より現実的な表情を⽣成できるようにした。 ・MarioNETteと呼ばれる新しいアーキテクチャを提案 ・ランドマークのもつれを解いて表現ジオメトリを分離 ・追加の微調整フェーズを必要としないため、実際に展 開したときにモデルの有⽤性が⼤幅に向上 ・他のモデルとの⽐較、条件を変えての⽐較 の両⽅で有効な結果、数値が出た ・⼈間の⽬で実際に⾒て判断しても、違和感がない ・再現の前後で、結果の品質が従来よりは軽減 されたものの、違和感が完全にないわけではない TransGaGa: Geometry-Aware Unsupervised Image-to-Image Translation など
  281. UnsupervisedImage-to-ImageTranslationNetworks Ming-YuLiu, ThomasBreuel, JanKautz NVIDIA インプットした画像を異なるドメイン(グループ)に対応する 画像に変換する どんなものか 先⾏研究と⽐べてどこがすごいか 技術や⼿法のキモ

    次に読むべき論⽂ 議論 どうやって有効だと検証したか UNITでの画像変換を可能にして、過去の変換技術よりも正確性が増 した。 2つのドメイン(グループ)のあるデータセットを⽤意して学習さ せること。 この際、2つのドメイン(グループ)から画像のペアを作らなくて も学習させられる。 考案したフレームワークを繰り返し学習させ正確さが許容範囲に収まる回 数をカウントしてパフォーマンスを分析した。 また、変数の値を変えるなど、条件を変えることでどの条件だと⼀番正確 になるかを調べた。 変換モデルが単峰性 学習が不安定になる可能性がある 例えば夜から昼に変化させるなど、変換する際に細かいものを追加するこ とは少し難しい。 A.vandenOord,N.Kalchbrenner,L.Espeholt,O.Vinyals,A.Graves,etal. Conditionalimagegeneration withpixelcnndecoders. AdvancesinNeuralInformationProcessingSystems,2016. など
  282. 付箋に書くと同時にデータ化(アナログとデジタルの架け橋) キーワード、分類、⽇時、場所で付箋(実物もデータも)を検索可能 データを他サービスに利⽤可能(カレンダー、リマインダ、連絡先など) アナログとデジタルの領域をシームレスにした(今まではデジタル領域のみ) 軽いハードで可能にした ビジネスなどの個⼈的な⽤途に使えるようにした ペンに搭載された超⾳波を感知するメカニズムによって同時性を確保 付箋に付いている RFID タグで場所のデータを利⽤可能に

    プロトタイプを作成して、取引先のアドレスや会議の時間をメモしたり、本のペ ージに貼り付けた付箋を探したりと、 ビジネスシーンや⽇常⽣活で⾒られる場⾯ を想定して実際に⽤いた。 デジタル領域での⽤例が古い(リマインダが SMS で送られてくるなど)が、2020 年現在の⽅が各種サービスをつなげやすいため利⽤価値は⾼いのでは すべての付箋に RFID タグをつけるのはもったいない Mistry, P., Maes, P.: Intelligent Sticky Notes that can be Searched, Located and can Send Reminders and Messages. どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? Augmenting Sticky Notes as an I/O Interface Pranav Mistry and Pattie Maes MIT Media Laboratory, 20 Ames Street, Cambridge MA 02139, USA #1(仏コース)
  283. V R 空間でモノを扱う感覚を再現するための装置、Hapballoon。膨張したバルー ンがお互いに接触し、指先や⼿のひらに⼒、暖かさ、振動を伝える。 Hapballoon の重さは約 6 グラムと軽く、脱着が容易。そのため従来の VR コン

    トローラーに⽐べ、機械の装着による⼿の動きの制限が軽減された。また、温度 などの肌感覚を伝えることも可能になった。 指に取り付けるモジュールには、温度変化を確認するペルチェ素⼦、リニア共振 アクチュエータ、フォトリフレクター、そして空気圧センサーが接続され、これ らとバルーン間の⼒の加減によりリアルな質感の再現が可能。 V R 空間でモノを掴むデモを⾏った。 球状や棒状の物体に触れる際に圧⼒と振動 感覚を組み合わせ、質感や柔らかさ/硬さを追求。 VR 空間で触れる物体の質感(ざらざら、ツルツル、もこもこなど)をも再現す ることは可能か。ファー素材の再現が可能なら、VR 空間での動物との触れ合い がより現実のものに近くなるのではないか。 Haptiple: A Wearable, Modular and Multiple Haptic Feedback System for Embodied Interaction どんなもの? 先⾏研究と⽐べてどこがすごい? 技術や⼿法のキモはどこ? どうやって有効だと検証した? 議論はある? 次に読むべき論⽂は? #1(仏コース) SIGGRASH2019 Hapballoon: Wearable Haptic Balloon-Based Feedback Device Masahiro Miyakami Karen.A.Murata Hiroyuki Kajimoto
  284. ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕೳ΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮੑͩͱݕূͨ͠ʁ ٞ࿦͸͋Δʁ *OWFTUJHBUJOH5JMUCBTFE(FTUVSF,FZCPBSE&OUSZGPS 4JOHMF)BOEFE5FYU&OUSZPO-BSHF%FWJDFT )VJTIZPOH:FP 9JBP4IFO1IBOH 4UFWFO+$BTUFMMVDDJ

    1FS0MB,SJTUFOTTPOBOE "BSPO2VJHMFZ ܏͖Λ࢖ͬͯยखʹΑͬͯจࣈΛ ೖྗՄೳʹ͢Δख๏ Ұ౓ͷಈ࡞Ͱจࣈ͚ͩͰͳ͘ɺ୯ ޠ·ͰೖྗͰ͖ΔͷͰɺೖྗ଎౓ ͕଎͍ ܏͖ʹΑΓ4IBQF8SJUJOHΛ༻͍Δ ར༻ऀʹ࣮ࡍʹɺଞͷೖྗํ๏ͱ ར༻ੑΛൺֱͯ͠΋Βͬͨ ยखೖྗͷࡍʹɺ͔ͬ͠Γͱσό ΠεΛ࣋ͭ͜ͱ͕Ͱ͖ͳ͍
  285. ͲΜͳ΋ͷʁ ઌߦݚڀͱൺ΂ͯͲ͕͍͜͢͝ʁ ٕೳ΍ख๏ͷΩϞ͸Ͳ͜ʁ Ͳ͏΍ͬͯ༗ޮੑͩͱݕূͨ͠ʁ ٞ࿦͸͋Δʁ %FFQ7JEFP1PSUSBJUT )ZFPOHXPP,JN 1BCMP(BSSJEP "ZVTI5FXBSJ 8FMQFOH9V

    +VTUVT5IJFT  .BUUJBT/JFЌOFS 1BUSJDL1FSF[ $ISJTUJBO3JDIBSEU .JDIBFM;PMMIPGFS $ISJTUJBO5IFPCPMU ͋Δਓؒͷද৘ΛಡΈऔͬͯɺผͷਓͷإΛͰ ࠶ݱ͢Δ ॳΊͯ%Ͱͷ಄ͷҐஔɺճసɺද ৘ɺࢹઢɺॠ͖ͷ࠶ݱΛՄೳʹͨ͠ ର৅ऀͷإΛύϥϝʔλͱͯ͠ಡ ΈऔΓ͜ͱʹΑΓɺର৅ऀͷ൅΍ ମɺഎܠΛແࢹͯ͠࠶ݱͰ͖Δ ࠶ݱͨ͠΋ͷ͕ݱ࣮త͔Ͳ͏͔Λ ϢʔβʔʹΑͬͯධՁͯ͠΋Β͏ େ͖ͳද৘ͷಈ͖ͳͲʹΑͬͯө ૾ʹϜϥ͕ग़Δɻ࠶ݱ౓͕ߴ͘ͳ Ε͹ͳΔ΄Ͳѱ༻͞ΕΔةݥੑ͕ ߴ͘ͳΔɻ