Slide 1

Slide 1 text

Akihiko SHIRAI - 白井暁彦 Digital Hollywood University - Graduate School AICU, Inc. CEO [email protected] X@o_ob クリエイティブAIが拓くAIDX 「おもしろいAI体験」を産業にするには

Slide 2

Slide 2 text

クリエイティブAIが拓く AIDX 「おもしろいAI体験」を 産業にするには 超高速自己紹介:エンターテインメントシステムの研究 令和のメタバース研究開発 生成AI時代の「つくる人をつくる」 AICU Inc. 活動紹介 「おもしろいAI体験の産業化」 2024/2/5 19:10-20:30 先端IT活用推進コミュニティ Advanced IT Community to Evaluate, Apply and Drive 第12回オープンラボ Graphics by Akihiko Shirai

Slide 3

Slide 3 text

クリエイティブAIが拓くAIDX 「おもしろいAI体験」を産業にするには 生成AIの熱狂は HypeCycleのどの段階にいるのでしょうか。 テクノロジーの進化はどこまでいくのか、 そして先進IT活用推進の立場でどんなチャレンジができるのでしょうか。 今回のセミナーでは、 生成AI時代に「つくる人をつくる」メディアを運営している 白井暁彦(しらいはかせ/@o_ob)をお招きして、 「おもしろいAI体験の産業化」を切り口に、 2024年の予測をみんなで行っていきたいと思います。 参考:AICU media https://note.com/aicu 参考:どうなる? 2024年のAI ~ChatGPTと新春対談して見える現在位置と未来 - 生成AIスト リーム - 窓の杜 https://forest.watch.impress.co.jp/docs/serial/aistream/1560860.html

Slide 4

Slide 4 text

【白井暁彦・しらいあきひこ】博士(工学)。エンタメ・メタバース技術の研究開発に関わる研 究者、作家、米国スタートアップ「AICU Inc.」「Hidden Pixel Technology Inc.」のCEO。東 京工芸大学写真工学科卒、同画像工学専攻修了。キヤノン株式会社とグループの研究所より生 まれた英国・Criterion Softwareにて世界初の産業用ゲームエンジン「RenderWare」の普及開 発に参加、その後、東京工業大学知能システム科学専攻に復学。2003年博士学位を「床面提示 型触覚エンタテイメントシステムの提案と開発」で取得。その後、NHKエンジニアリングサービ ス・次世代コンテント研究室、フランスに渡りENSAM客員研究員、国際公募展Laval Virtual ReVolutionの立ち上げ、日本科学未来館科学コミュニケーター。多重化隠蔽技術「ExPixel」、 「2x3D」、「MangaGenerator」などの先進的なUXを学生とともに開発。神奈川工科大学准教授 を経て、2018年よりデジタルハリウッド大学 大学院 客員教授 およびグリー株式会社GREE VR Studio Laboratory Director。スマートフォン向けメタバース「REALITY」を開発・運用する REALITY株式会社の立ち上げを通して、Virtual YouTuberなどXRライブエンタメ技術のR&D、国 際発信など、メタバースエンタテイメントの未来開発や知財創出を中心に、自らエンタテイメ ントのライブプレイヤーとして世界に向けた開発・発信活動方法論化。日本バーチャルリアリ ティ学会IVRC実行委員会委員。芸術科学会副会長。

Slide 5

Slide 5 text

19:10-20:30 ・超高速自己紹介:エンターテインメントシステムの研究者 ・2024年の予測をみんなで行っていきたい ・生成AIの熱狂の現在地: 講演では、生成AIに関する現在の熱狂がガートナーのハイプサイクルのどの段階にあるのかを探求しま す。 ・テクノロジーの進化の可能性: 生成AIの技術が将来どのように進化していくかについての予測や考察を行います。 ・先進IT活用のチャレンジ: 先進的なIT技術を活用する上で直面する可能性のあるチャレンジや機会について議論します。 ・「つくる人をつくる」メディアの重要性: 生成AI時代における人材育成や創造性の促進について、メディア運営の観点からアプ ローチします。 ・AI体験の産業化: 生成AIを活用した「おもしろいAI体験」の産業化についての可能性や方法を探ります。 ・2024年の予測: 生成AIの分野における2024年のトレンドや予測について参加者と共に考察します。 参考資料: 講演では、AICU mediaと「どうなる? 2024年のAI ~ChatGPTと新春対談して見える現在位置と未来」を参考資料とし て提示し、深い理解と議論を促します。生成AIの現状と未来を深く理解し、この技術の産業化と社会への応用について広範な議論 を行うための基盤を提供します。

Slide 6

Slide 6 text

No content

Slide 7

Slide 7 text

クリエイティブAIが拓く AIDX 「おもしろいAI体験」を 産業にするには 超高速自己紹介:エンターテインメントシステムの研究 令和のメタバース研究開発 生成AI時代の「つくる人をつくる」 AICU Inc. 活動紹介 「おもしろいAI体験の産業化」 2024/2/5 19:10-20:30 先端IT活用推進コミュニティ 第12回オープンラボ Graphics by Akihiko Shirai

Slide 8

Slide 8 text

超高速自己紹介

Slide 9

Slide 9 text

白井暁彦: VRエンタテインメントシステムの研究者 書籍「白井博士の未来のゲームデザイン~エンタテイメントシステムの科学~」(2013)より ▶ 2018年6月より現職 GREE VR Studio Lab, Director

Slide 10

Slide 10 text

Akihiko SHIRAI, Ph.D in a Manga Manga from my book ”The future of game design - Science in Entertainment systems” (2013) 2010-2018 [Teacher] Associate Professor In Information Media in KAIT, Japan. “Creating people who creates!” 2018- Visiting Professor in Digital Hollywood University Graduate School

Slide 11

Slide 11 text

GREE VR Studio Laboratory, Director 2018年からグリーグループにJoin。世界1000万ダウンロードを達成したスマホ向けメタバース「REALITY」を 開発運営するREALITY株式会社の研究開発部門「GREE VR Studio Laboratory」のDirectorを担当。世界に向 けてメタバース知財を多数開発・発信。並列してデジタルハリウッド大学大学院「クリエイティブAIラボ」 を主宰。AI画像生成「Stable Diffusion」のリリースから2ヵ月で「AIとコラボして神絵師になる」を執筆。

Slide 12

Slide 12 text

[AICU] 日米同時進行AIDX 学発ベンチャー Creating people who creates [email protected] corp.aicu.ai note.com/aicu

Slide 13

Slide 13 text

X@AICUai 実は 95%がAI 5%だけ人間が運用する Twitterアカウント

Slide 14

Slide 14 text

クリエイティブAIと AIDXによる新市場の開拓

Slide 15

Slide 15 text

AIDX: AI Driven user eXperience

Slide 16

Slide 16 text

エンターテインメントシステムの研究 ・ 「ひとはなぜ おもしろい と思うのか」

Slide 17

Slide 17 text

Founders: Akihiko SHIRAI, Ph.D 30 years experience in Entertainment Technologies Manga from my book ”The future of game design - Science in Entertainment systems” (2013) 1973[born] in Yokohama, Japan 1983[10y.o.] Studied programming by magazine. Made 3D flight-sim by character graphics in PC-6001mkII. 1988[15y.o.] Played NES until forget high school admission. Met camera, publishing (news paper editing) and sciences. 1990[18y.o.] Worked arcade games operator and paperboy. (Financially, difficult to go university directly) In 1992 to 1998. I studied in Tokyo Polytechnic University. "Photo engineering" contains a lot. Optics, functional chemicals, electronics, laser holographics, printings...and CG As a club activity, I immersed into art photography. Fortunately, I met to photoshop and Ray tracing program in 1994. And my first laboratory, Prof Yuichiro Kume give an opportunity to study virtual reality, I was fevered about real time graphics. Because it is a latest technology since the video game. In 1998, I was offered a job at Namco as a planner (rare). However, joined Canon, it was offered a job on the recommendation of his professor. Then, I assigned to the office administration section at the Fukushima Plant.

Slide 18

Slide 18 text

Founders: Akihiko SHIRAI, Ph.D 30 years experience in Entertainment Technologies Manga from my book ”The future of game design - Science in Entertainment systems” (2013) In 2000, I moved to Criterion, Inc. in UK. It was game engine developer named "RenderWare", which was applied as an official game engine for PlayStation2. So, I got a chance to become a game development consultant in a family of canon. It was very good opportunity to study about game development and its industry. After launch fever of PlayStation2, I have some hit titles thanks to the middle ware, multi-platform technologies and shaders in early GPU environment. In this era, there were common sense "Once graphics become greater, the games becomes more fun." but in my mind, I also had a different hypothesis, "Exploring VR experience makes it more interesting and meaningful". In 2001, I moved to Tokyo Institute of Technology, as a full time PhD student. (Prof. Sato’s lab, well-known about SPIDAR interface) After years of practice about the Japanese mass product industry and its work in IT division,

Slide 19

Slide 19 text

Fantastic Phantom Slipper (1997) The another key technology is the “Phantom Sensation”, a special psycho-physical phenomenon on human skin. When two mechanical stimuli of the same intensity are applied to different locations of skin surface with appropriate spacing, the two stimuli are fused and one sensation is perceived. When the intensity of one stimulus increases, the location of fused sensation shifts to the location of stronger stimulus. This psycho-physical phenomenon has been known as phantom sensation, which was found by Bekesy, a Novel Prize Winner in 1961. This project was realized before the rumble pad of game controllers as known as vibrotactile in 1997. The system has been realized with a real-time optical motion capture system using PSD and Infrared-LEDs. In the system, two LEDs are fixed on each slipper. The locations and directions of slippers on the floor are measured in real-time. Since feet are usually on the floor, two dimensional measurement is sufficient for this application. The similar technology of this is used into Nintendo's WiiRemote as its image sensor with sensor bar in later.

Slide 20

Slide 20 text

Fantastic Phantom Slipper (1997) Video for SIGGRAPH’98

Slide 21

Slide 21 text

Fantastic Phantom Slipper (1997) 400fps mocap (by own) Dynamic Phantom Sensation (by own) DirectX5 graphics (by own) Hemisphere dome screen (by own) Vibrator implemented slipper (by own) by 300MHz CPU + VGA projector Prototype, handmade, in Lab

Slide 22

Slide 22 text

Labyrinth Walker (2002) Demo at SIGGRAPH 2002 Emerging Technologies https://doi.org/10.1145/1242073.1242098 https://www.youtube.com/watch?v=jclB9u_R4gA Demo of “A new step-in-place locomotion interface for virtual environment with large display system” The project presents a new locomotion interface for virtual environment with large display system. Users will be able to direct and control the traveling in the VE by in-place stepping and turning actions. Using a turntable technology, Visual feedback is continuously provided through the use of screen of limited size.

Slide 23

Slide 23 text

Tangible Playroom: Penguin Hockey (2001-2003) Demo at SIGGRAPH KIDS 2003, Best Multilingual and/or Omnilingual award. "Tangible Playroom" was designed as a future computer entertainment system for children. It can provide some Virtual Reality contents with a safe force feedback and a large floor image. Players can interact with content's world using their full body. To feel force feedback, player grasps a tangible (graspable, perceptible by touch) grip like a cork ball. It is linked to encoder motors by strings. Then it can input 3D location to system. When player touch to some objects, system calculate a correct force feedback to player via string and tangible grip. Our system can provide high quality force representation with safe rather than metal linked arm system. "Penguin Hockey" is a typical demonstration content. It is a simple 3D hockey game playing with automotive penguins. The pucks are snowmen. To get points, players should throw snowmen to the enemy's goal hole. Our software has a real-time dynamics simulator then children can interact with computer-generated characters with real reactions.

Slide 24

Slide 24 text

Founders: Akihiko SHIRAI, Ph.D 30 years experience in Entertainment Technologies Manga from my book ”The future of game design - Science in Entertainment systems” (2013) 2003-2005 [Post-doc in NHK-ES] Axi-Vision & Projection Lighting for next-generation digital TV broadcasting and production environments. 2005-2007 [Post-doc in Laval France] ENSAM Presence & Innovation Lab, in Laval France. Studying theme park attraction development and social deployment through “Laval Virtual ReVolution” exposition. 2008-2010 [Science Communicator in Museum “Miraikan”] At a national science museum in the Tokyo Bay area, she learned the specialized skills of communicators, interpreters and service engineering through her work in the science communicator training program, and developed exhibits that incorporate entertainment ideas into the world of science.

Slide 25

Slide 25 text

[Post-doc] Axi-Vision & Projection Lighting ● A new archiving system for TV studio sets using depth camera and global illumination (Nico2004) ● Entertainment Applications of Human-Scale Virtual Reality Systems (PCM2004) https://doi.org/10.1007/978-3-540-30543-9_5 PoC demo development in cooperate with NHK Science & Technology Research Laboratories(STRL), for next-generation digital TV broadcasting and production environments.

Slide 26

Slide 26 text

“Entertainment Systems” ●Definition (in post-doc era) ○ Computer systems that was designed to affect to human amusements. ○ Video Games, media arts, real time interactive and entertainment virtual reality are possible to be included. ○ Cinemas and DVDs are also possible to be included but should focus to “computer system” like interactivity.

Slide 27

Slide 27 text

WiiMedia (2007) “WiiMedia: motion analysis methods and applications using a consumer video game controller” https://doi.org/10.1145/1274940.1274966 "WiiMedia" is a study using the WiiRemote, a new consumer video game controller from Nintendo's, for media art, pedagogical applications, scientific research and innovative unprecedented entertainment systems. Normally, consumer hardwares, like standard controllers of new video game platforms, are closed to public developers. The Nintendo's WiiRemote however can be connected easily to an ordinary PC thanks to a BlueTooth adapter. Thus, public developers can access to the WiiRemote's acceleration and IR sensors via this wireless connection. We think it might enlarge the non-professional game development environment with a new innovative game controller. However, when we tried to develop our projects with the WiiRemote, we encountered many difficulties because the only data that can be captured are basic data and not the full player's motion. Through the WiiMedia project, with the development of a few applications, we developed some motion analysis methods using the WiiRemote. This paper describes case studies that include states of the arts and several motion analysis methods.

Slide 28

Slide 28 text

[Book] WiiRemote Programming https://www.ohmsha.co.jp/book/9784274067501/ A Programming Study Book on Interactive Technology Using WiiRemote  Programming using the "WiiRemote," the distinctive controller of the popular home video game console "Wii," on a PC has been attracting attention. With the introduction of the WiiRemote, it has become inexpensive and readily available, and many people are interested in it. With the advent of WiiRemote, it has become cheap and readily available, and many people are interested.  This book explains how to program the WiiRemote from a PC for beginning programmers who are interested in applying the WiiRemote. As a hardware-oriented introduction to game programming, it explains the source code step by step. You can learn interaction techniques by yourself while developing specific samples. Languages supported include C/C++, C#, ActionScript 3, and Processing.

Slide 29

Slide 29 text

[Museum] Songs of ANAGURA (2008-2010) In Miraikan (The National Museum of Emerging Science and Innovation in Japan) permanent exhibition since 2010 to 2023 August 31st. https://www.miraikan.jst.go.jp/sp/anagura/ Concept design and technical basement research. - 10x16m projection clusters - Laser tracker clusters - Players don’t wear any tracking devices - “Wall of Wisdom” - observation console - Unity based contents creation

Slide 30

Slide 30 text

Laval Virtual “ReVolution” in France Akihiko SHIRAI as Session chair of ReVolution. ● The role of ReVolution ○ Bring experiences on new technology, or futures to Laval Virtual since 2006. ○ For the ReVo exhibitor: chance to get feedback from VR industries and general public. ○ Art festival “RectoVRso” had launched since 2017, now ReVolution can make focus to technology revolutions from all of the world. ● The theme [2019] VR5.0 [2018] 1+1=∞ (one plus one equals unlimited) [2017] TransHumanism++ [2016] REAL VIRTUALITY [2015] Kiddy Dream in Virtual Reality [2014] Frontier village in Virtual Reality [2013] The NEXT BIG STEP [2012] Virtual Reality That Moves You [2011] Converging [2010] Diverseness [2009] ReVolution Causes Revolutions [2008]World Performance of VR Applications

Slide 31

Slide 31 text

Akihiko SHIRAI, Ph.D in a Manga - 30 years in Entertainment R&D Manga from my book ”The future of game design - Science in Entertainment systems” (2013) 2010-2018 [Teacher] Associate Professor In Information Media in KAIT, Japan. “Creating people who creates!” 2018- Visiting Professor in Digital Hollywood University Graduate School

Slide 32

Slide 32 text

[Labo Project] Manga Generator (2013-2019) https://manga.style/

Slide 33

Slide 33 text

[Labo Project] Real Baby - Real Family “Real Baby - Real Family: Holdable tangible baby VR” (SIGGRAPH 2017) This project "Real Baby - Real Family" is a project aimed at expressing love and family ties utilizing Virtual Reality system (VR). In this paper, we described the version presented at the International collegiate Virtual Reality Contest (IVRC 2016). It reports system design and implementation, user evaluation during exhibition, and future possibilities. The single player version of "Real Baby" exhibited at the IVRC 2016 preview was made up of three main elements. The first element is a holdable baby mock-up without using HMD. The second is a generator of baby face based on a user's 2D facial image. The third elements consists of a visual, vocal, and haptic feedback as well as event generation. In the future, we are hoping to examine alternative expressions of "love in family ties" with this project.

Slide 34

Slide 34 text

[Display] 2x3D & ExPixel(2011-2016) “2x3D: Real time shader for simultaneous 2D/3D hybrid theater” (SIGGRAPH ASIA 2012) “ExPixel: PixelShader for multiplex-image hiding in consumer 3D flat panels” (SIGGRAPH 2014) [Award] DCEXPO2013にて経済産業省からInnovative Technologies 2013賞を受賞

Slide 35

Slide 35 text

白井暁彦: VRエンタテインメントシステムの研究者 書籍「白井博士の未来のゲームデザイン~エンタテイメントシステムの科学~」(2013)より ▶ 2018年6月より現職 GREE VR Studio Lab, Director

Slide 36

Slide 36 text

GREE VR Studio Laboratory, Director Joined the GREE Group in 2018, working in R&D management of GREE VR Studio Laboratory, the R&D division of REALITY Corporation, which develops and operates REALITY, a metaverse for smartphones that has achieved 10 million downloads worldwide, and as a professor at Digital Hollywood University. He has written two technical books "Collaborate with AI to become a god painter" within two months after the release of "Stable Diffusion," an AI image generator that has become a hot topic outside of his work while working as a professor at Digital Hollywood University.

Slide 37

Slide 37 text

クリエイティブAIが拓く AIDX 「おもしろいAI体験」を 産業にするには 超高速自己紹介:エンターテインメントシステムの研究 令和のメタバース研究開発 生成AI時代の「つくる人をつくる」 AICU Inc. 活動紹介 「おもしろいAI体験の産業化」 2024/2/5 19:10-20:30 先端IT活用推進コミュニティ 第12回オープンラボ Graphics by Akihiko Shirai

Slide 38

Slide 38 text

令和のメタバース研究開発

Slide 39

Slide 39 text

“REALITY”, metaverse via your smartphone 3D Avatar Driven Ecosystem for 5 years (Director, GREE VR Studio Laboratory) 39 Avatar Creation Live Viewing Gifting & Collaborating Live Streaming Games

Slide 40

Slide 40 text

REALITY 世界63カ国 12言語でのリリース REALITY、リリース4周年で海外ユーザーが8割を超える グローバルなメタバースへ成長~多人数でのバーチャル イベントが開催可能に~ グリー株式会社 2022年8月3日 https://prtimes.jp/main/html/rd/p/000000228.000021973.html

Slide 41

Slide 41 text

REALITY XR cloud、メタバースイベントの累計来場者数が1億人突破〜法人向けソリューションで企業の成長を後押し~ グリー株式会社 2023年9月29日 https://prtimes.jp/main/html/rd/p/000000312.000021973.html

Slide 42

Slide 42 text

「文化・技術・研究史で読み解く令和のメタバースの研究開発」 電子情報通信学会 通信ソサイエティマガジン 2023 年 16 巻 4 号 p. 285-294 近年再注目されている「メタバース分野」への期 待と不安,不明瞭さを専門家として整理する.前 半はメタバースの歴史,定義,特にコンテンツと その受容,研究分野への影響,更に VR やエン ターテインメント分野におけるUGC(User Generated Contents)と技術革新の歴史をまと め,後半はスマートフォン向けメタバース 「REALITY」を中心とした「令和のメタバース」研 究開発の現場における,最先端の活動や考え方 を 整理する.エンターテイン メント分野では常識となって いる部分も多いが,進化の速 い分野でもあり,工学の視点 で隣接する他の研究開発分野 に向けて,歴史を記録する 目的も考慮しながらまとめた.

Slide 43

Slide 43 text

GREE VR Studio Lab / REALITY, Inc. https://j.mp/VRSYT Private demo to test my dancing AI double

Slide 44

Slide 44 text

尊い業務外活動

Slide 45

Slide 45 text

Stable Diffusion by Stability AI (2022 August)

Slide 46

Slide 46 text

グリー技術書典部・過去のラインナップ 過去の白井の執筆(基本的に業務外!) ● VTuberライブエンタメ技術に求められる研究開発 ● Virtual Cast と Hapbeat を使った国際双方向アバター触覚ライブの開発 ● Mozilla Hubs を用いたオンラインイベント WebVR 化テクニック https://techbookfest.org/organization/276320001 StableDiffusionの公開(8/26) ↓ 技術書典13(9/25)に向けて、 1か月で「グリー技術書典部誌 2022 年秋号」に寄稿(50p) ↓ 翌日に編集者から商業書籍化の オファーを頂く ↓(100ページ近く加筆…) 10/28に発売開始!

Slide 47

Slide 47 text

GREE技術書典部 社内部活動で技術同人誌を 執筆・頒布する活動ではじまる (業務外!) 新刊 「グリー技術書典部誌 2022 年秋号」 オンライン版もあります 技術書典13にて GREE TECH CONF 2022にて グリー技術書典部誌 各1,000円

Slide 48

Slide 48 text

「AIとコラボして神絵師になる  論文から読み解くStable Diffusion」 Kindle版 https://ivtv.page.link/ak 印刷版 https://ivtv.page.link/ap 2022/10/28発売開始 (StableDiffusion公開から2ヵ月) 少なくとも”歴史の記述”にはなったはず…

Slide 49

Slide 49 text

もともと技術書 だったので Re:Viewと GitHubで 執筆しています

Slide 50

Slide 50 text

目次[AIとコラボして神絵師になる] (2022/10/28発行) はじめに 第1章 冒険の始まり:AIとコラボして神絵師になる 第2章 Midjourneyを使ってみる 第3章 DreamStudioでAI神絵師になる 第4章 Stable DiffusionをGoogle Colabで動かす 第5章 論文で読み解くStable Diffusion 第6章 人気AI絵師になってわかったこと 第7章 日本の法律とAI神絵師の適法性 第8章 人工知能とともに絵を描くという行為が 人類にどんな影響を与えているか? 第9章 プロの仕事でAIを活用してみる 第10章 作例紹介とクリエーター対談(852話さん) 付録A 参考文献・URLs あとがき:冒険のおわりに

Slide 51

Slide 51 text

扱っている論文たち(可能な限り数学を使わずに解説)

Slide 52

Slide 52 text

第6章「人気AI絵師になってわかったこと」→歴史の記述

Slide 53

Slide 53 text

7章「日本の法律とAI神絵師の適法性」 8章「人工知能とともに絵を描くという行為が        人類にどんな影響を与えているか」

Slide 54

Slide 54 text

No content

Slide 55

Slide 55 text

9-10章・実際に852話さんとコラボして得られた知見

Slide 56

Slide 56 text

No content

Slide 57

Slide 57 text

目次[AIとコラボして神絵師になる] (2022/10/28発行) はじめに 第1章 冒険の始まり:AIとコラボして神絵師になる 第2章 Midjourneyを使ってみる 第3章 DreamStudioでAI神絵師になる 第4章 Stable DiffusionをGoogle Colabで動かす 第5章 論文で読み解くStable Diffusion 第6章 人気AI絵師になってわかったこと 第7章 日本の法律とAI神絵師の適法性 第8章 人工知能とともに絵を描くという行為が 人類にどんな影響を与えているか? 第9章 プロの仕事でAIを活用してみる 第10章 作例紹介とクリエーター対談(852話さん) 付録A 参考文献・URLs あとがき:冒険のおわりに

Slide 58

Slide 58 text

もちろんR&D業務でも 生成AIの波に乗ってきた

Slide 59

Slide 59 text

[AI Fusion] アバターカラオケを実現する技術 GREE VR Studio Laboratory、メタバース時代のアバターを活用したクリエイ ターエコノミーを刺激~バーチャル演奏技術映像 「AI Fusion」を公開~ グリー株式会社 2022年10月19日 https://prtimes.jp/main/html/rd/p/000000239.000021973.html メタバース開発者の卵が「自分は何者か」を発見する場所【GREE VR Studio Laboratoryリサーチ系インターンシップ】CGWORLD 2023/2/16 https://cgworld.jp/article/202302-greevr.html ここでも「つくる人をつくる」が大事! ・[AI自動化]ではなく 人間の表現との融合 ・UGC/クリエイター  エコノミーの刺激 ・既存のKaraoke産業を  MetaverseR&Dで刺激

Slide 60

Slide 60 text

[Metaverse Mode Maker] SDによる 画像生成と HMD装着での モーション合成 米国CG国際会議 「SIGGRAPH」で 論文採択 フランスのVR 「Laval Virtual」 日本のゲーム開発 者会議「CEDEC」 で展示採択 オープンソースも https://github. com/gree/Mus cleCompressor

Slide 61

Slide 61 text

Multi Agents AITuber which can work for 24 hours

Slide 62

Slide 62 text

マルチエージェント24時間営業AITuber

Slide 63

Slide 63 text

マルチエージェント24時間営業AITuber

Slide 64

Slide 64 text

No content

Slide 65

Slide 65 text

Amazonレビューより (Good😇)

Slide 66

Slide 66 text

Amazonレビューより (Bad😢) 人間の感情に訴えるネガティブ 作文。しかしよく見ると… 買う本を間違えているのでは…? Artificial Images Midjourney / Stable DiffusionによるAIアートコレクション(852話さん) すみません…解説していますが足りな かったようですね… いま(2023/2/10)NovelAIを使ってる人 どれぐらいいらっしゃいますか? AI画像生成に対するヘイトがすごい!😢😢😢

Slide 67

Slide 67 text

(人間はいちいち傷つくので)ChatGPTに訊いてみる

Slide 68

Slide 68 text

これからのAI画像生成を 必要な人々に わかりやすく届けて 「つくる人をつくる」 ほうが大事…😇

Slide 69

Slide 69 text

クリエイティブAIが拓く AIDX 「おもしろいAI体験」を 産業にするには 超高速自己紹介:エンターテインメントシステムの研究 令和のメタバース研究開発 生成AI時代の「つくる人をつくる」 AICU Inc. 活動紹介 「おもしろいAI体験の産業化」 2024/2/5 19:10-20:30 先端IT活用推進コミュニティ 第12回オープンラボ Graphics by Akihiko Shirai

Slide 70

Slide 70 text

令和のメタバース研究開発

Slide 71

Slide 71 text

「いまからでも遅くない!ツールとして使うAI画像生成」 ・「Stable Diffusion」で通勤中に   年賀状用のイラストを描く! 「窓の杜」さんで連載しておりますので感想などもお寄せいただければ幸いです。 (ちなみに描いているそばからアップデートされていくので、Blogですら追いつくのが難しいです) ・プロンプトすら不要! スマホとAI画像生成だけで美 麗なイラストを描けるアプリ

Slide 72

Slide 72 text

国内AI画像生成の星取表(2023年2月ごろの記録) スマホサポート 日本語でOK シード固定 (乱数制御) img2img サブスク料金 (月払い) Meitu ◎ プロンプト不要 ◎ 〇 〇 広告なし 800円/月 ばりぐっどくん ◎ LINEチャット 〇 × × プレミアム 550円/月 AIピカソ ◎ アプリ 〇 × 〇 広告を見て生成 600円/週 midJourney にじジャーニー 〇 Discord 〇 にじジャーニー × △ remix mode $10/月 〜200生成/月 Lexica △ △ × × $10/月~ 1,000生成 MemePlex ◎ ◎ ◎ 〇 無料 (有料は1200円~) NovelAI △ △ 〇 〇 $10/月~ 約200生成 Dream Studio △ △ 〇 〇 $10/月 約5,000生成 AIのべりすと 〇 〇 ◎ ◎ 970円+税/月~ 約300生成

Slide 73

Slide 73 text

窓の杜「生成AIストリーム」

Slide 74

Slide 74 text

生成AIストリーム: 画像生成AIが焦がす「善悪の彼岸」

Slide 75

Slide 75 text

特別番組 https://www.youtube.com/watch?v=GpvI_NC3ggU

Slide 76

Slide 76 text

[動画アーカイブあり] https://gs.dhw.ac.jp/news/2022-12-20/

Slide 77

Slide 77 text

Other presence related GenAI - Web Media: Series “Generative AI stream” (by Impress) - Television: https://www.fnn.jp/articles/-/578546 (FujiTV) - LINE Chatbot - AIDX Consultings - “CreativeAI Lab” in DigitalHollywood GradSc.

Slide 78

Slide 78 text

デジタルハリウッド大学大学院「クリエイティブAIラボ」 技術書典15 #DHGS_CAIL https://dhgs.shirai.as/techbook

Slide 79

Slide 79 text

デジタルハリウッド大学大学院「クリエイティブAIラボ」 技術書典15 #DHGS_CAIL https://dhgs.shirai.as/techbook ・社会人学生を中心としたメンバー  (しかも完全に業務外) ・「技術書」というメディアを通した  技術の社会実装 ・「500円でも売れるサービス」を作る ・産地直送技術を数ヶ月以内で届ける ・作り手と受け手の顔が見える ・どこよりも早く、品質の高い情報を

Slide 80

Slide 80 text

尊い業務外活動

Slide 81

Slide 81 text

そろそろ業務外の方が重くなってきた…

Slide 82

Slide 82 text

クリエイティブAIが拓く AIDX 「おもしろいAI体験」を 産業にするには 超高速自己紹介:エンターテインメントシステムの研究 令和のメタバース研究開発 生成AI時代の「つくる人をつくる」 AICU Inc. 活動紹介 「おもしろいAI体験の産業化」 2024/2/5 19:10-20:30 先端IT活用推進コミュニティ 第12回オープンラボ Graphics by Akihiko Shirai

Slide 83

Slide 83 text

[動的ペルソナ] Dynamic Persona “The future of game design - science of entertainment systems” by A.Shirai in 2013 Born at 2000. Her dream is becoming a princess. At 2014, in Junior High. She loves to play “Pokemon X/Y”. At 2016, in High school. She loves to sing Hatsune Miku in Karaoke. Her dream is becoming an idol. “Pokemon Go“ told her what is AR. At 2018, in university. She is studying fashion. Still loves to sing in Karaoke. But bit bored to RPGs. Experienced contents will be affected to your life. At 2020, She want to see Olympic games with her cosplay costume. “COVID19” Pandemic!

Slide 84

Slide 84 text

メタバース・放送・メディアアートのその先に... 1990-1995 VideoGame2D 1995-2000 Media Art 2000-2005 VideoGame3D 2005-2010 Museum 2010-2015 SNS 2015-2020 VR4.0 2020-2025 CreativeAI 研究開発をきちんとやってきた

Slide 85

Slide 85 text

References: VibeShare and Directional Haptics 1. Yuichiro Kume. 1998. Foot interface: fantastic phantom slipper. In ACM SIGGRAPH 98 Conference abstracts and applications (SIGGRAPH '98). Association for Computing Machinery, New York, NY, USA, 114. DOI:https://doi.org/10.1145/280953.284801 2. Yusuke Yamazaki, Shoichi Hasegawa, Hironori Mitake, and Akihiko Shirai. 2019. NeckStrap Haptics: An Algorithm for Non-Visible VR Information Using Haptic Perception on the Neck. InACM SIGGRAPH 2019 Posters(Los Angeles, California)(SIGGRAPH ’19). Association for Computing Machinery, New York, NY, USA, Article 60, 2 pages. https://doi.org/10.1145/3306214.333 3. Yusuke Yamazaki and Akihiko Shirai. 2021. Pseudo Real-Time Live Event: Virtualization for Nonverbal Live Entertainment and Sharing. In2021: Laval Virtual VRIC, ConVRgence Proceedings 2021(Laval, France)(VRIC ’21). https://doi.org/10.20870/IJVR.2021.1.1.479

Slide 86

Slide 86 text

References: Map and Walking interactions 1. Makiko Suzuki Harada, Hidenori Watanave and Shuuichi Endou, : "Tuvalu Visualization Project - Net Art on Digital Globe: Telling the Realities of Remote Places", page 559- 572, 2011. 2. Akihiko Shirai, Kiichi Kobayashi, Masahiro Kawakita, Shoichi Hasegawa, Masayuki Nakajima, and Makoto Sato. 2004. Entertainment applications of human-scale virtual reality systems. In Proceedings of the 5th Pacific Rim conference on Advances in Multimedia Information Processing - Volume Part III (PCM'04). Springer-Verlag, Berlin, Heidelberg, 31–38. DOI:https://doi.org/10.1007/978-3-540-30543-9_5 3. Akihiko Shirai, Yuki Kose, Kumiko Minobe, and Tomoyuki Kimura. 2015. Gamification and construction of virtual field museum by using augmented reality game "Ingress". In Proceedings of the 2015 Virtual Reality International Conference (VRIC '15). Association for Computing Machinery, New York, NY, USA, Article 4, 1–4. DOI:https://doi.org/10.1145/2806173.2806182

Slide 87

Slide 87 text

References: Avatar and metaverse in Education 1. Rex Hsieh, Akihiko Shirai, and Hisashi Sato. 2019. Evaluation of Avatar and Voice Transform in Programming E-Learning Lectures. In Proceedings of the 19th ACM International Conference on Intelligent Virtual Agents (IVA '19). Association for Computing Machinery, New York, NY, USA, 197–199. DOI:https://doi.org/10.1145/3308532.3329430 2. Rex Hsieh, Akihiko Shirai, and Hisashi Sato. 2019. Effectiveness of facial animated avatar and voice transformer in elearning programming course. In ACM SIGGRAPH 2019 Posters (SIGGRAPH '19). Association for Computing Machinery, New York, NY, USA, Article 82, 1–2. DOI:https://doi.org/10.1145/3306214.3338540 3. Liudmila Bredikhina, Toya Sakaguchi, and Akihiko Shirai. 2020. Web3D Distance LiveWorkshop for Children in Mozilla Hubs. In The 25th International Conference on3D Web Technology(Virtual Event, Republic of Korea)(Web3D ’20). Association for Computing Machinery, New York, NY, USA, Article 27, 2 pages. https://doi.org/10.1145/3424616.342472 4. Stewart Culin. 1920. THE JAPANESE GAME OF SUGOROKU.The Brooklyn Museum Quarterly 7, 4 (1920), 213–233. http://www.jstor.org/stable/2645

Slide 88

Slide 88 text

References: XR Live Entertainment 1. Akihiko Shirai. 2019. REALITY: broadcast your virtual beings from everywhere. In ACM SIGGRAPH 2019 Appy Hour (SIGGRAPH '19). Association for Computing Machinery, New York, NY, USA, Article 5, 1–2. DOI:https://doi.org/10.1145/3305365.3329727 2. Bredikhina, Liudmila et al. “Avatar Driven VR Society Trends in Japan.” 2020 IEEE Conference on Virtual Reality and 3D User Interfaces Abstracts and Workshops (VRW) (2020): 497-503. 3. Akihiko Shirai, et.al. 2019. Global Bidirectional Remote Haptic Live Entertainment by Virtual Beings. ACM SIGGRAPH ASIA 2019 Real-Time Live! SIGGRAPH ASIA 2018

Slide 89

Slide 89 text

Collaboration with “Hapbeat” through internship Product Technical Info Hapbeat Introduction movie https://www.youtube.com/ watch?v=DAXH5MMpBDY Paper link to origin of Hapbeat Tension-Based Wearable Vibroacoustic Device for Music Appreciation https://bit.ly/3kicJif Hapbeat-Duo is an easy-to-wear necklace typed device which can present powerful and impactive vibration. Hapbeat-Duo has two core-less DC motors linked by a neck strap. The dynamic range of frequency and amplitude is high enough to be perceived the modulation. Vibrations on either side of the neck do not resonate with each other because the connector is not a rigid body but a flexible neck strap, made of satin ribbon. Therefore, the device can render various distinguishable vibration waves on both sides of the neck independently. Hapbeat-Duo

Slide 90

Slide 90 text

Description of HapticMineSweeper Neck Strap Haptics: Algorithm for Non-visible VR inoformation Using Perceptual Characteristic on Neck (Siggraph 2019) Please watch a video here: https://youtu.be/AgmFWBu 5ZnM Haptic rendering algorithm that dynamically modulates wave parameters to convey distance, direction, and object type by utilizing neck perception and the Hapbeat-Duo, a haptic device composed of two actuators linked by a neck strap.

Slide 91

Slide 91 text

Amount of applause from audiences Amount of cheering from audiences Performer's (real) LEDs glow in sync with the left and right bars The performers all wear Hapbeat in real, and the vibrations show how excited the audience is. The audience can visually see that their cheers are reaching the performers, which contributes to enhance the excitement. Vibeshare::Performer at SIGGRAPH ASIA 2019 Real-Time Live! Please watch a video here: https://www.yout ube.com/watch? v=yTrDRKazksM &t=1s

Slide 92

Slide 92 text

Augmented Reality + AI Driven Avatar (in 2022) [YouTube] https://j.mp/VRSYT [Web] http://vr.gree.net/lab/

Slide 93

Slide 93 text

Today’s following talk “Continuous tap” emoji, button-tap type “continuous tap” Continuous tap detection: The emoji button is tapped twice (or more) within 1 second. ● Solving practical problem such as large number of server requests. ● Expressing the magnitude of the viewers’ emotion.

Slide 94

Slide 94 text

Bottom axis: Video Playback time [s] Result Requests Left axis: The cumulative count of taps or requests within 5 s. Right axis: The single moving average (5 s window with the resolution of 1 s/red line) Taps

Slide 95

Slide 95 text

[UXDev]New user experience in Metaverse R&D results by a Music Video “AI Fusion” technology Everyone can play a band, in a same time, like Karaoke!

Slide 96

Slide 96 text

[VTech Challenge] VR students go to Metaverse Industry GREE group supports IVRC, “Interverse VR challenge”. (Prof Inami will have a talk) Some graduated students work with us. Experienced VR engineers are highly valuable in Metaverse era. Some works infrastructure in cloud.

Slide 97

Slide 97 text

人間を育てる方法論って めちゃ価値では…?

Slide 98

Slide 98 text

デジ庁46p資料でも言ってる話

Slide 99

Slide 99 text

生成AI市場の今後 米大手VCアンドリーセン・ホロウィッツ(a16z)の最近のブログ「生 成AIプラットフォームは誰のものなのか?」より。 [End-to-End]MidJourney,RunwayML [アプリ]Github Copilot,Jasper [ソース非公開/API経由]GPT-3 [モデルHub]HuggingFace, Replicate [オープンソースモデル]StableDiffusion [クラウド]AWS,GCP,Azure,CoreWeave [計算ハードウェア]NVIDIA,Google(TPU) 生成AI市場の多くの資金は最終的にインフラ企業に。大雑把な数字 で、アプリ企業は収益の約2〜4割を推論とチューニングに費やして いる。これはクラウドのインスタンスに直接支払われるか、モデル提 供者に支払われます。モデル提供者は収益の約半分をクラウドに費 やしている。つまり現在の生成AI総収益の10〜20%はクラウドに 流れていると推測するのは合理的な数字といえる。 ★その他のレイヤーでの収益構造構築はまだまだ未知数。 Who Owns the Generative AI Platform? (Andreessen Horowitz) https://a16z.com/2023/01/19/who-owns-the-generative-ai-platform/

Slide 100

Slide 100 text

Transformersについて学ぼう 「Natural Language Processing with Transformers   Building Language Applications with Hugging Face」 [日本語版]「機械学習エンジニアのためのTransformers       最先端自然言語処理ライブラリによるモデル開発」      Lewis Tunstall, Leandro von Werra,Thomas Wolf著,中山光樹 訳      発行年月日 2022年08月 ★Stable Diffusion登場前だからかもだけど 副題は「Hugging Faceで!」と書かれた HuggingFaceの人が書いた本。 ・GPTのTはTransformer、です。

Slide 101

Slide 101 text

オープンなAIモデルについて学ぼう StabilityAIはオープンなモデルを公開している 今すぐ遊べるのに手を動かさないのは勿体無い! 価値を考えるのは、誰? 価値を生み出すのは、誰? …というスライドを書いていたら まさに先ほどリリースされた! [Japanese Stable CLIP]

Slide 102

Slide 102 text

No content

Slide 103

Slide 103 text

OpenAIのCEO - Sam Altman CEO頭の中を覗きたい StrictlyVCによるOpenAIのCEO、Sam Altmanに対するConnie Loizos (@Cookie, StrictlyVC/TechCrunch) による長めのインタビュー(2023/01/18)が面白かったので個人ブロ グで紹介しています。 https://note.com/o_ob/n/n9493438e24fb

Slide 104

Slide 104 text

OpenAIのCEO - Sam Altman CEO頭の中を覗いた ● マネタイズを最初から考えていたわけではない ● AGI(汎用人工知能)が出てくるまでは市場の原理 が有効に働くし、OpenAIは歓迎 ● 社会から様々な意見が出てくることは想定済みで、 そこの理解が得られることに意味がある ● AGIができないことについては法律が定めるべき ● エージェント同士が遊んだり(つまりAI vs AI)は既 に想定されている ● 「人々がAIに何を許可させたいのか?」を知ること が重要。 ● しかしこれを調べるためにはエッジの効いたシステ ムが必要で、創造的で探索的である必要があるが、 それらに対して「気に入らない」「不快に思う」とい う人々もいる。 ● AIそのものをパーソナライズしていく必要がある (個々のTech企業が1つのルールで1つのシステム を作ることよりもはるかに優れている) ● (Microsoftとの提携などに関係なく) OpenAIは人々がトークンを支払う価値があ ることを開発すべき ● 「書籍を読むよりChatGPTを通して読んだほ うがいい→論文をこれで書いたら楽になる」は 子供でも分かる ● 教育の現場でGPTが使われることは想定済み であり、学校側がそれを検出する技術を必要と している、そのほうが健康な社会である ● →ウォーターマーキング技術が必要に ● 国の政策や個々の学校や何かへの依存は政府 のポリシーで決まるがこれを完璧にすることは 不可能 ● 個人やグループの自由な言語モデルとポリ シー設定と、企業や政府の設定は異なる ● 動画生成についても確実に来る (いつとは言わない)

Slide 105

Slide 105 text

OpenAIのCEO - Sam Altman 質疑応答から(抜粋) Q:人類の進化(7万年規模ではなく1年規模で)での良い ケースと悪いケースとは。 ● (良いケースは信じられないぐらいいいものである のでおいておくが)悪いケースについて、AGIがど のようなものになるか、普通の人よりも深く細かく 知りたい。システムを安全にするためにはその逆を 知ることが非常に重要。 Q:AGIのタイムラインは? ● AGIの離陸の「速い/遅い」と向かっている「完全に 安全な世界」のタイムラインを「長い/短い」の2x2マ トリックスで表現すると「短いタイムラインでゆっくり と離陸する(short timeline-slow takeoff)」。 一方でAGIに対して人々が「AIの勝利宣言」には 様々な意見を抱くだろう。 Q:ChatGPTの誇大広告、規模について。 ● 印象的ですが100回使えばわかるので。人々 がフェイクニュースの存在を理解するのと同じ。 Q:Googleと社会貢献について。 ● 大きな企業が終わるというのはまあ間違い。検 索には変化が起きる。人々が思うような衝撃的 な変わり方はしないが。 ● AGIが経済に寄与するのは時間の問題。 ● 人々が創造的なことをやめることはない。 ● 科学の進歩は我々(人類)全体が進歩する方法 なので我々はそういう社会貢献をしている。

Slide 106

Slide 106 text

OpenAIのCEO - Sam Altman 質疑応答から(抜粋) Q:テックワーカーの働く場所について。 ● 個人的にはハイブリッド。しかし40年後も人々がそ れを望んでいるか?「その場にいない人」は取り残 されるようなものではないだろうか。 Q:安全性について。 ● たくさんの問題が新技術、特に狭い分野のAIには ある。過去数十年、70-80年、安全システムと安全 プロセスを構築する方法を研究する。間違いない。 ● AGI安全工学については独自のカテゴリーとして研 究する価値がある。投資が十分に必要であり (stakes is high)不可逆的な状況が続くことは簡 単に想像できるので、そうする必要がある。それを 別の方法で扱う安全プロセスとスタンダードについ ても研究する必要がある。 ● 2012-2021の終わりにかけたメガバブ ルで人を雇うのが大変で、競合他社との差 異を出すのが大変だった。資本金が安く、永 続的な価値を創造するのが難しかった。現 在は資本はタフで、はるかに簡単になった。 ● 才能がある人や、顧客であるかどうかにか かわらず、ユーザーを知っている人。 ● 資金を調達するのは大変だが、他のことは 楽になった。垂直のAIを実行したい。 ● たぶんAIスタートアップは、他の企業と差異 をつけるために、顧客に寄り添った深い ネットワークを構築して効果を上げている と思います。OpenAIは年々より良くなっ ていくと思いますが、プラットフォームとし て基盤部分に高い価値を持つ存在でいた い。 喋り方がChatGPTそっくりなのが印象的…

Slide 107

Slide 107 text

OpenAIのCEO - Sam Altman 質疑応答の最後に Q:今後「何が来るか」? ● これまでのように 「価値を作り出していく方法こそが価値」であり (way way more new value created) これが黄金の時代になることを感じています。 ● 「価値を作り出していく方法こそが価値」 「これが黄金の時代になる」

Slide 108

Slide 108 text

価値を作り出していく 方法こそが価値💪

Slide 109

Slide 109 text

「シンギュラリティは 起きているのか?」

Slide 110

Slide 110 text

シンギュラリティ singularity 「シンギュラリティ」という壮大な仮説 真の脅威はその「検証力」にあり 2015/11/02・日塔 史・株式会社電通 https://dentsu-ho.com/articles/3260 「シンギュラリティ」とは「特異点」、もともとは 物理学や数学の用語。 「通常の範囲を逸脱した地点」を意味していて、例 えばブラックホールの中心には見かけの体積がゼロ なのに質量が無限大となる特異点があるとされる。 カーツワイルが提唱した「収穫加速の法則」 (The Law of Accelerating Returns)、 「技術は直線的(Linear)ではなく、 指数関数的(Exponential)に進化する」。 指数関数的な進化は、初めは緩やかで変化が感じら れないが、ある点(つまり特異点)を迎えると、一 気に人知の及ばないところに行ってしまう。「2045 年」と予測している。 技術は指数関数的に進化する

Slide 111

Slide 111 text

生成AIによって シンギュラリティは起きている

Slide 112

Slide 112 text

「生成AI列車」に乗っている

Slide 113

Slide 113 text

生成AIシンギュラリティで 起きていること

Slide 114

Slide 114 text

Generative AI は仕事を奪う? → 本当だった Here’s what we know about generative AI’s impact on white-collar work (FT) https://www.ft.com/content/b29280 76-5c52-43e9-8872-08fda2aa2fcf

Slide 115

Slide 115 text

限界効用逓減の法則 Gossen's laws

Slide 116

Slide 116 text

※効用関数 U(x)は√xで表現できる 労働力・資本・経過年数 資本を投じても 効果は低減していく (驚き屋) 効用の大きさ 限界効用逓減の法則 Gossen's laws

Slide 117

Slide 117 text

※効用関数 U(x)は√xで表現できる 労働力・資本・経過年数 ▶実はlinearにすら追いつけない!! 年々その差は開いていく! 効用の大きさ 限界効用逓減の法則 Gossen's laws

Slide 118

Slide 118 text

※効用関数 U(x)は√xで表現できる 労働力・資本・経過年数 効用の大きさ 限界効用逓減の法則 Gossen's laws 小さい組織で ちゃんと成長するモデル 構成員が1.3倍 ちゃんと学ぶ

Slide 119

Slide 119 text

GenetariveAI 実は「人類がついていけない」が本質だった

Slide 120

Slide 120 text

GenetariveAI ≠ CreateveAI to create people who creates クリエイティブAIで「人を育てる」という視点に立とう

Slide 121

Slide 121 text

シンプルに、好きなことを仕事にしたいなら…!

Slide 122

Slide 122 text

クリエイティブAIが拓く AIDX 「おもしろいAI体験」を 産業にするには 超高速自己紹介:エンターテインメントシステムの研究 令和のメタバース研究開発 生成AI時代の「つくる人をつくる」 AICU Inc. 活動紹介 「おもしろいAI体験の産業化」 2024/2/5 19:10-20:30 先端IT活用推進コミュニティ 第12回オープンラボ Graphics by Akihiko Shirai

Slide 123

Slide 123 text

AICU Inc. 活動紹介

Slide 124

Slide 124 text

About AICU Inc.

Slide 125

Slide 125 text

AICU Inc.

Slide 126

Slide 126 text

AICU: Vision Create people who creates 創る人を作る AIとコラボレーションする人類の可能性を 全ての人にクリエイティブで共有する Sharing human potential of collaboration with AI for all people by creativity. だれもが魔法のような メディアを作れる時代…

Slide 127

Slide 127 text

AICU Inc. - Business Units Augmented Media Technology Business Unit [拡張メディア技術事業] AI Driven User Experience Laboratory [AIDX Lab] Media Communication Business Unit [メディアコミュニケーション事業]

Slide 128

Slide 128 text

Founders: Koji Tokuda - CFO in Silicon Valley International Business Creator / Serial entrepreneur Specialist of i-CEO, COO, CFO, Venture Capitalist, Technology & Financial Consultant, Focused on Data Science, Artificial Intelligence, AI business. Builder, Hard learner of AI/Machine Learning

Slide 129

Slide 129 text

AICU

Slide 130

Slide 130 text

830 STEWART DR STE 277 SUNNYVALE, CA 94085, USA デジタルハリウッド大学大学院発 米国籍のスタートアップ!!

Slide 131

Slide 131 text

No content

Slide 132

Slide 132 text

AICU: Art Inspired Creative Unit AICUは 生成AIとクリエイティブコミュニケーションを開発する技術開発企業 AICU is an AI-AdTech-Communication development company that develops generative AI and creative. クリエイティブAIによるAIDXを、放送、アニメ、メディア、Webなどの プロフェッショナルに向けて実施する技術開発企業です。 A technology development company that implements AIDX with Creative AI for broadcast, animation, media, web and other professionals. これに関する独自のB2B2C向け基盤技術を主力に日米同時に事業開発進行します We develop business in Japan and the U.S. at the same time with our unique B2B2C platform technology as the core. AIクリエイションにコンテンツ工学としてのアプローチを与え、 クリエイターのスキルを認定し、コミュニティに陽の目の当たるビジネスを提供します Giving AI Creation a content engineering approach, and we certificates the skills of creators and provides a sunlit business for the community.

Slide 133

Slide 133 text

AICU Inc. the name [Art Intelligence Creative Universe] [AI Creative Unit] [AI Creator Union] [AI Character Cookie Utility] … And “I see you”!

Slide 134

Slide 134 text

AICU Inc. - Business Units Augmented Media Technology Business Unit [拡張メディア技術事業] AI Driven User Experience Laboratory [AIDX Lab] Media Communication Business Unit [メディアコミュニケーション事業] [Hidden Pixel Technology Inc.] ・Deep Tech R&D for Large/Public Display ・AI Driven Interaction and Communication ・PoC, Patent, Licensing ・US market to global ・Consulting PoC ・AICuty ・AITuber/VTuber ・Chatbot for Pro ・Blog media    ・Visual/Publication media ・Creative Workshop ・Creative Events / Hackathon ・Advocating/DevRel ・Technical Writing and Research

Slide 135

Slide 135 text

[Kanagawa Prefecture] Metaverse Manga Creative workshop for challenged person Person with disabilities can create their own character trading card and their original manga story using REALITY and IbisPaint on iPad. Organized by Kanagawa Prefecture, Executed by REALITY xr cloud Inc. [AIDX] Inclusion Workshop “Communication” 10 years old girl on stretcher Face expression collaboration 8 person max in 2 hours workshop

Slide 136

Slide 136 text

Partners & Creators Akihiko
 SHIRAI
 @o_ob
 
 Founder
 Director
 AIDX
 Gamification
 VTuber R&D
 30years in
 UX Dev
 Multi-Language
 Ja/En/Fr/Zh
 Masahiro Nishimi
 @mah_lab
 
 LLM UX
 
 Word2Vec
 
 Backend
 
 Sho
 Wagatsuma
 @flymywife
 
 QA
 
 AWS
 
 ChatBot Dev
 Kokushin
 
 @kokushing
 
 Front-End
 
 React
 TypeScript
 Web3D
 Node
 
 Kotone
 
 @9shokugakari
 
 Art Dev
 
 Web Dev
 
 Live2D
 
 Illustration
 Koji
 TOKUDA
 
 
 Founder
 CFO


Slide 137

Slide 137 text

プロフェッショナル向け製品開発: AIDX for Pro クリエイティブAIによるAIDX(AI-driven Experience)を強みに、放送、アニ メ、メディア、Webメディア向けのコンテンツを効率よく探究・管理・生成し、 エンドユーザーとコミュニケーションできる製品を開発します。 On the strength of AI-driven Experience (AIDX) with Creative AI, we will develop products that can efficiently explore, manage, and generate content for broadcast, animation, media, and web media, and communicate with end users.

Slide 138

Slide 138 text

生成AI時代に つくる人をつくる

Slide 139

Slide 139 text

満 席 御 礼 満 席 御 礼 @yume_asaki_

Slide 140

Slide 140 text

本日の参加の クリエイターのみなさん

Slide 141

Slide 141 text

Stable Diffusionを使ったことがある?

Slide 142

Slide 142 text

AUTOMATIC1111/SDWebUI知ってる?

Slide 143

Slide 143 text

No content

Slide 144

Slide 144 text

Stability Matrixについて

Slide 145

Slide 145 text

No content

Slide 146

Slide 146 text

No content

Slide 147

Slide 147 text

検索 “AICU Stability Matrix” [初⼼者向け] #StabilityMatrix でお⼿軽画像⽣成環境をサクッとインストール #Fooocus で16:9画像を出すには⁉

Slide 148

Slide 148 text

No content

Slide 149

Slide 149 text

(今日のワークショップでは必須としませんが) Stability Matrixは インストールしておこう!!

Slide 150

Slide 150 text

AICU mediaを知ってますか?

Slide 151

Slide 151 text

GPUを持ってこれますか?

Slide 152

Slide 152 text

Discord #StableDiffusionワークショップ祭

Slide 153

Slide 153 text

属性情報

Slide 154

Slide 154 text

Agenda ‧本⽇の参加のクリエイターの皆さん ‧「Stability Matrix」を使った簡単インストール ‧ブラウザだけでできる⾼速画像⽣成でお試ししよう ‧GPU搭載じゃなくてもできる「Stable Diffusion WebUI」 ‧SD1.xからSDXLまで!イラストレーションの基本テクニック超⾼速おさらい ‧萌え絵だけじゃない!「例の広告」を作ってみよう ‧アーティストにこそ知ってほしい「⾃分のLoRAを愛でる」テクニック ‧世界中のみんなに知ってほしい「ソーシャルグッドな画像⽣成AI」の可能性

Slide 155

Slide 155 text

生成AI時代に つくる人をつくる 自動化でもなく Meta クリエイティブAIを開拓

Slide 156

Slide 156 text

https://corp.aicu.ai/ja AICU media https://note.ai/aicu

Slide 157

Slide 157 text

https://corp.aicu.ai/ja

Slide 158

Slide 158 text

https://corp.aicu.ai/ja

Slide 159

Slide 159 text

techplay.jp/community/AICU

Slide 160

Slide 160 text

WS開発事例: Witchpotさんへご協力

Slide 161

Slide 161 text

https://techplay.jp/community/AICU techplay.jp/community/AICU

Slide 162

Slide 162 text

https://www.aisai.tokyo/

Slide 163

Slide 163 text

X@AICUai 実は 95%がAI 5%だけ人間が運用する Twitterアカウント

Slide 164

Slide 164 text

満 席 御 礼 満 席 御 礼 @yume_asaki_

Slide 165

Slide 165 text

Akihiko SHIRAI, Ph.D a.k.a. しらいはかせ X@o_ob AICU Inc. CEO #東京AI祭 アドバイザ 自己紹介しながら進行します!

Slide 166

Slide 166 text

Agenda ‧きょうのみなさんについて ‧「Stability Matrix」を使った簡単インストール ‧ブラウザだけでできる⾼速画像⽣成でお試ししよう ‧GPU搭載じゃなくてもできる「Stable Diffusion WebUI」 ‧SD1.xからSDXLまで!イラストレーションの基本テクニック超⾼速おさらい ‧萌え絵だけじゃない!「例の広告」を作ってみよう ‧アーティストにこそ知ってほしい「⾃分のLoRAを愛でる」テクニック ‧世界中のみんなに知ってほしい「ソーシャルグッドな画像⽣成AI」の可能性

Slide 167

Slide 167 text

ブラウザだけでできる 高速画像生成でお試ししよう

Slide 168

Slide 168 text

SDXL Turbo https://clipdrop.co/stable-diffusion-turbo Google でログインするとすぐに使えます!

Slide 169

Slide 169 text

1girlから始まる恋もある “1girl”

Slide 170

Slide 170 text

無料版だと6単語で終了 一度上限に達するとやり直せない

Slide 171

Slide 171 text

1girl, photorealistic, Japanese

Slide 172

Slide 172 text

芸術新潮 2月号(発売中) 「美術を愛する⼈は美しいものを作る術を愛する⼈ / 液晶ディスプレイで描かれる芸術」 - 芸術新潮への草稿から

Slide 173

Slide 173 text

GoogleによるSDXLがメタクソ速い!! https://huggingface.co/spaces/google/sdxl 実は技術デモこれで動いているっぽい↓

Slide 174

Slide 174 text

Hugging face で動くデモ https://huggingface.co/spaces/ google/sdxl

Slide 175

Slide 175 text

プロンプトの基本 1girl, anime, skiing ‧対象(オブジェクト) ‧画⾵ ‧何やってるか 順番は左から優先 カンマ、スペースを使う (), {}, は NovelAIなどで有効 ★Negative Promptについては後述

Slide 176

Slide 176 text

クオリティプロンプトを前置すると…良き! ‧best quality ‧masterpiece ‧ultra detailed ‧hires ‧8k など…

Slide 177

Slide 177 text

プロンプトの工夫-ポーズを指定しよう ‧sittning (座る) ‧raise hands (⼿を上げる) ‧looking back (振り返る) ‧jumping (ジャンプ)

Slide 178

Slide 178 text

プロンプトの工夫-構図を指定しよう ‧from above (上から) ‧from below (下から) ‧face focus (顔のアップ) ‧from side (横顔)

Slide 179

Slide 179 text

アニメっぽくないの工夫 photo, EOS-1, [80mm]とか[28mm] で画⾓が調整できる

Slide 180

Slide 180 text

余談: ラーメンを食べさせる 何が間違っているのか、を ⾔語で指定するのが難しい! →「ControlNet:OpenPose」を使います (本⽇は時間の都合で) 続きは note.com/aicu で2⽉に連載します

Slide 181

Slide 181 text

スタイル、CFG、ネガティブプロンプト 下の⽅に「Advanced settings」 スタイルを⾊々選べます [Cinematic][Photographic][Anime] [Manga][Digital Art][Pixel art] [Fantasy art][Neonpunk][3D Model] Negative Prompt: ⾒たくないものを書く [Guidance Scale]7.5を基本として どれぐらいプロンプトに沿うか?を設定 1〜5ぐらいだと多様になる。10以上は…

Slide 182

Slide 182 text

Guidance Scale (CFG)が高くても… CFG= 1 CFG= 12

Slide 183

Slide 183 text

Agenda ‧「つくる⼈をつくる」AICU ‧きょうのみなさんについて ‧「Stability Matrix」を使った簡単インストール ‧ブラウザだけでできる⾼速画像⽣成でお試ししよう ‧GPU搭載じゃなくてもできる「Stable Diffusion WebUI」 ‧SD1.xからSDXLまで!イラストレーションの基本テクニック超⾼速おさらい ‧萌え絵だけじゃない!「例の広告」を作ってみよう ‧アーティストにこそ知ってほしい「⾃分のLoRAを愛でる」テクニック ‧世界中のみんなに知ってほしい「ソーシャルグッドな画像⽣成AI」の可能性

Slide 184

Slide 184 text

GPU搭載じゃなくてもできる 「Stable Diffusion WebUI」

Slide 185

Slide 185 text

j.aicu.ai/Nfooocus 「Midjourney」「にじジャーニー」のような⾼品質なSDXL画像⽣成を無料で使 える (2023-12-07) #Fooocus で学ぶ!

Slide 186

Slide 186 text

Google Colab(無料)で使えるFooocus https://j.aicu.ai/FoooC このボタンをクリック

Slide 187

Slide 187 text

「ファイル」→「ドライブにコピーを保存」→実行

Slide 188

Slide 188 text

Google Driveを接続! /content/gdrive/MyDrive/Fooocus-outputs に⽣成結果が保存されます ★職場のGoogle Driveを使わないように注意!

Slide 189

Slide 189 text

(数分後)GradioのURLが発行されます https://(??????????).gradio.live/

Slide 190

Slide 190 text

AICU版 Fooocus日本語版 関連情報  「Midjourney」「にじジャーニー」のような  ⾼品質なSDXL画像⽣成を無料で使える #Fooocus で学ぶ!    https://j.aicu.ai/Nfooocus  Fooocus⽇本語版+無料版Google Colabで動くようにしたよ   https://j.aicu.ai/HNMF0108  AICU版 Fooocus ⽇本語アニメ特化版(Google Colab無料で動作可能)   https://j.aicu.ai/FoooC  #Fooocus でスタイルで探求!! https://j.aicu.ai/NMF1211

Slide 191

Slide 191 text

AUTOMATIC1111

Slide 192

Slide 192 text

AUTOMATIC1111/ Stable Diffusion WebUI note記事  [GPU不要] Google Colab環境での AUTOMATIC1111/Stable Diffusion WebUIのセット アップ https://j.aicu.ai/FA1111  AICU版 AUTOMATIC1111/fast-Stable-Diffusion-WebUI on Google Colab公開  https://j.aicu.ai/NMA0121  AICU版 AUTOMATIC1111/Stable-Diffusion-WebUI (Google Colab Pro推奨)  https://j.aicu.ai/FSDXL-Colab

Slide 193

Slide 193 text

No content

Slide 194

Slide 194 text

No content

Slide 195

Slide 195 text

ConoHa VPS GPU https://www.conoha.jp/vps/gpu/ GPUカード NVIDIA H100 Tensor コア GPU 80GB NVIDIA L4 Tensor コア GPU 24GB vCPUとメモリ 22vCPU 228GB 20vCPU 128GB OS Ubuntu 22.04LTS

Slide 196

Slide 196 text

No content

Slide 197

Slide 197 text

Google Colab / GMO ConoHa 夜や週末しか使わない! GPUを買うまでではない! という人にも良いのでは!?

Slide 198

Slide 198 text

SD1.xからSDXLまで! イラストレーションの基本テクニック 超高速おさらい

Slide 199

Slide 199 text

Agenda ‧「つくる⼈をつくる」AICU ‧きょうのみなさんについて ‧「Stability Matrix」を使った簡単インストール ‧ブラウザだけでできる⾼速画像⽣成でお試ししよう ‧GPU搭載じゃなくてもできる「Stable Diffusion WebUI」 ‧SD1.xからSDXLまで!イラストレーションの基本テクニック超⾼速おさらい ‧萌え絵だけじゃない!「例の広告」を作ってみよう ‧アーティストにこそ知ってほしい「⾃分のLoRAを愛でる」テクニック ‧世界中のみんなに知ってほしい「ソーシャルグッドな画像⽣成AI」の可能性

Slide 200

Slide 200 text

お題はこちら…! X(Twitter) #東京AI祭 Discord ‧複数の属性を持った男⼥を同じ画⾯に⼊れる ‧⾛るババア! ‧砂浜で輝くスポーツカー ‧バーで飲むビールはうまい

Slide 201

Slide 201 text

xyz plotで確率を上げる! ⽇本⼈が開発した「Regional Prompter」がなかなかすごい! https://github.com/hako-mikan/sd-webui-regional-prompter

Slide 202

Slide 202 text

No content

Slide 203

Slide 203 text

No content

Slide 204

Slide 204 text

No content

Slide 205

Slide 205 text

No content

Slide 206

Slide 206 text

Media Communication Business Unit Over 300 blog articles per year! https://note.com/o_ob/

Slide 207

Slide 207 text

Media Communication Business Unit Over 300 blog articles per year! https://note.com/o_ob/

Slide 208

Slide 208 text

Media Communication Business Unit Over 300 blog articles per year! https://note.com/o_ob/

Slide 209

Slide 209 text

Media Communication Business Unit Over 300 blog articles per year! https://note.com/o_ob/

Slide 210

Slide 210 text

Pixiv AIアート100日チャレンジ #100DayChallengebyAIDirector https://www.pixiv.net/users/1355931

Slide 211

Slide 211 text

イラストレーターのためのStable Diffusion 某大手出版社よりリリース予定…! 2月末を待て!

Slide 212

Slide 212 text

X@AICUai 実は 95%がAI 5%だけ人間が運用する Twitterアカウント

Slide 213

Slide 213 text

伝説の癒し系ボット 「全力肯定彼氏くん」移籍 伝説の癒し系ボット 「全力肯定彼氏くん」移籍

Slide 214

Slide 214 text

No content

Slide 215

Slide 215 text

No content

Slide 216

Slide 216 text

No content

Slide 217

Slide 217 text

生成AI時代に つくる人をつくる [email protected] note.ai/aicu 生成AI時代に つくる人をつくる [email protected] note.ai/aicu

Slide 218

Slide 218 text

WS開発事例: Witchpotさんへご協力

Slide 219

Slide 219 text

https://techplay.jp/event/933114

Slide 220

Slide 220 text

https://www.aisai.tokyo/

Slide 221

Slide 221 text

クリエイティブAIが拓く AIDX 「おもしろいAI体験」を 産業にするには 超高速自己紹介:エンターテインメントシステムの研究 令和のメタバース研究開発 生成AI時代の「つくる人をつくる」 AICU Inc. 活動紹介 「おもしろいAI体験の産業化」 2024/2/5 19:10-20:30 先端IT活用推進コミュニティ 第12回オープンラボ Graphics by Akihiko Shirai

Slide 222

Slide 222 text

「おもしろいAI体験の産業化」

Slide 223

Slide 223 text

2024年の予測をみんなで 行っていきたい どうなる? 2024年のAI ~ChatGPTと新春対談して見える現在位 置と未来 - 生成AIストリーム - 窓の杜 より

Slide 224

Slide 224 text

窓の杜 連載「生成AIストリーム」新春企画 ・ChatGPTと対話しながら執筆。

Slide 225

Slide 225 text

生成AIの2024年とは…?

Slide 226

Slide 226 text

No content

Slide 227

Slide 227 text

No content

Slide 228

Slide 228 text

関連▶ChatGPT と教育における信頼性 https://www.nii.ac.jp/event/upload/20230421-05_Matsubayashi.pdf

Slide 229

Slide 229 text

参考:デジタルハリウッド大学大学院 講義「人工現実」では… 作文そのものを課題にするのではなく「学んだこと」を評価する DHGSVR23-最終課題「私にとっての"人工現実"、学ぶ前と学んだ後」 =地アタマや元々持っていたスキルに偏重した評価を行わない。 =どんな気づきを得て、講義内の限られた時間でどれぐらい共有できたかを評価 ・令和のメタバース ・MozillaHubs ・DOOR.NTT ・メタバース年賀状 ・VTuber設計 ・XやYouTubeでの発 信 #DHGSVR23で発信

Slide 230

Slide 230 text

最終課題: 「私にとっての人工現実、学ぶ前と学んだ後」 ・講義を受ける前は、メタバースやバーチャルリアリティなどの、デジタルな視覚技術を使った拡張的な現実体験が「人工現実」だと 思っていた。しかし講義を受けた今は、アニメーションや映画、小説などのイマジネーションから生まれた作品、その作品によって生 じる私たちの体験や経験、そこから生じた価値観や習慣なども人工現実の一部に含まれると理解している。本講義によって、自分 の中にある人工現実の解釈や定義は、より広義で自由なものになった。おかげで、「糖尿病は自助努力によって良くするべきだ」 「健康維持のためにライフデータを取り続けることが大事だ」という私自身が作りあげた人工現実を少し溶かすことができた。「美味 しい食事を誰かと味わえる人生を楽しもう」「数値を気にしないで生活ができることは幸せのひとつ」と思えるようになれたのは大き な財産である。今後は食科学での学びを通じて、本学卒業後も誰かの現実をより幸せにできるようなあたたかい体験となる作品を 作り続けてゆきたい。 ・短期留学先のイタリアに来て思うことは、キリスト教も人工現実のひとつであるということ。そして、その長い歴史と人々へ与えた影 響の大きさである、ミラノの大聖堂と博物館を数時間かけて見学したが、100mを超える教会建築には何百という聖人の彫刻とステ ンドグラスが施されていた。近くで見ると、その芸の細かさには畏敬の念を抱くほどで、教会を建設していた当時の市民全体がクリ エーターのように感じられた。何かを強く信じることは、その人たちの創作活動にどのような影響を与えるのだろうか?これから3週 間で解き明かすべき、新しい研究テーマがまた1つ見つかった。

Slide 231

Slide 231 text

課題#7: 最終課題pre「私にとっての人工現実、学ぶ前と学んだ後」 ・学ぶ前は、メタバースやバーチャルリアリティなどの、デジタルな視覚技術 を使った拡張的な現実体験が「人工現実」だと思っていた。 ・学んだ後は、アニメーションや映画、小説などのイマジネーションから生ま れた作品や、私たちが体験したことから得た経験や、そこから生じた価値観 や習慣なども人工現実の一部に含まれると理解している。しらい先生の授 業によって、私にとって人工現実の解釈や定義をより広義で自由なものに することができた。 ・「糖尿病は自助努力によって良くするべきだ」「健康維持のためにライフ データを取り続けることが大事だ」という私自身が作りあげた人工現実を少 し溶かすことができた。 ・「美味しい食事を誰かと味わえる人生を楽しもう」「数値を気にしないで生 活ができることは幸せのひとつ」と思えるようになれたのは、大きな財産で ある。 ayurinaアユリーナは現在、イタリ アに向けて成田空港から出発準 備中です。ミラノから配信をお届け するまで、今しばらく待っていてく ださい! 最終回の授業は空の上。飛行機 の中でwifiが繋がったら、入りま す! しらい先生&みなさん、楽しく素敵 な時間をありがとうございました! 大学院、すごく卒業したくないです 笑

Slide 232

Slide 232 text

課題#6: VTuberを設計する_まるやま step 3 - キャラクターデザインコンセプトの決定 - VRoidStudioでのキャラクター制作 ・VTuberの名前 ayurina / アユリーナ ・プロフィール 食科学で人々を幸せにする、ガストロフィジクスのアンバサダー。日本と きどきイタリア在住。お互いの国の美しい食文化を2ヶ国語で発信しま す。趣味はイタリアが発祥のクラシックバレエ。 https://hub.vroid.com/characters/7841707608094117329 /models/6615898164242100451

Slide 233

Slide 233 text

課題#6: VTuberを設計する_まるやま step 2 - キャラクターデザインのアイデアを得る : 20年続いているロングライフアニメ「プリキュア」 ・70人のプリキュアがいるが、名前もコスチュームも被らない ・シリーズごとの世界観が確立 ⇨ 例:デリシャスパーティー編 料理の国・クッキングダムが舞台 「ヤムヤム」や「スパイシー」が主人公

Slide 234

Slide 234 text

課題#6: VTuberを設計する_まるやま step1 - キャラクターデザインコンセプトシートの作成 - chatGPT-4 & DALL-E 使用 ・世界観(どこに生きている): 日本ときどきイタリア ・あいさつ : ciao ・何と呼んでほしいか : ayurina ・何をしているか : 食科学のアンバサダー、趣味はバレエ ・どんなコミュニケーションを取りたいか :みんなの幸せコンポーザー、あたたかいコミュニケーション : より美味しく、満足度の高い食体験を届ける 絵作りの演技 ・姿勢、ポージング、向き:バレエリーナの美しい姿勢、正面向き ・衣装:レオタード、魔法使いのような黒や紫色、パフスリーブ ・髪型、顔のパーツ:ショートカット、黒髪、目はアジア人の二重 ・表情、手や足の動作:にこやか、バレリーナの繊細な指先、トゥー シューズを履いている ・背面、アクセサリーとか:レースのリボン 生成されたアイデアスケッチ ⇨

Slide 235

Slide 235 text

課題#5: メタバース年賀状制作の感想_まるやま ・保存、画像のアップロード、シーンの公開でCORSエラーの件の続報 ⇨ シーンをエクスポート→ログアウト&ログイン→新しいシーン作成&保存したシーンのインポート→シーン公開できました! いつも新しい気づきがある、しらい先生とのディスカッション! https://twitter.com/AM_protomake/status/1746725442395246856 マイベスト作品はこまちゃん! https://twitter.com/AM_protomake/status/1746734443669463095

Slide 236

Slide 236 text

課題#4 メタバース年賀状制作の感想_まるやま ・高根さんがカフェテリアで丁寧に教えてくれたり、皆さんがslack で解決策やアドバイスをくれたことが、大きな励ましになりまし た!ありがとうございました!! ・保存、画像のアップロード、シーンの公開でCORSエラーになっ てしまいました。 https://developer.mozilla.org/ja/docs/Web/HTTP/CORS/Error s DOORにお問合せ中で、返信が来たらslackで共有します ・普段は2次元におけるUIUXデザインをしているのですが、3次 元の制作はすごく難しく感じました。 昔から奥行きがあるものがとても苦手で(階段や山登など)、デッ サンを書くときに「パースが狂っている」って毎回指導されていた のを思い出しました。 でも、めげずにちょっとずつルームのブラッシュアップを続けてい きたいです! https://twitter.com/AM_protomake/status/1744899055145320885

Slide 237

Slide 237 text

前回からの進捗 ・大学院で制作した作品の展示ギャラリーを制作中 ・窓枠 + 動画 + 背面壁 の3層で立体的なパネルになった ・次は展示空間内の間仕切りや導線を作りたい


Slide 238

Slide 238 text

味のタイムマシン体験会 (231225) レポート 明治大学 総合数理学部 先端メディアサイエンス学科 宮下研究室 https://www.miyashita.com/ Taste-Time Traveller:食品の時間を操る味覚AR装置 https://www.miyashita.com/researches/2w7AHrCKF5EInaglSV7aBN ・食品の時系列変化を味センサで測定し,液体を噴霧することによって時間の変化を再現 ・バナナやトマト,カレーの味を熟成させたり,逆に熟成したものの味をもとに戻したりする試み ・味覚において「時間を自在に操るような体験」が提供可能 ・Taste-Time Travellerに食品を入れ,ダイヤルを回すと,指定した時間が経過した後の味や,指定した時間だけ前の味に変えられる ・半透明なスクリーン上で視覚的な変化も行う(たとえばバナナが青くなったり黒くなったりする)ことで,時間旅行者が味を操っているかのような 感覚を生み出す
 1. Taste-Time Traveller 実機 ・実装はUnity + Arduino ・カバーを開閉し、食品サンプルを配置 ・赤外線タッチパネルで時間経過を指定 ・調味料は背面からチューブで送液 


Slide 239

Slide 239 text

体験内容 1. 市販のカレールウを10倍に希釈したサンプル溶液(S1)を用意し、参加者がテイスティングをする 2. Taste-Time Traveller (TTT)を1日後に指定し、S1へ調味料が滴下されたもの(S2)を同様にテイスティングする 3. TTT を1日前に指定し、S2へ調味料が滴下されたもの(S3)を同様にテイスティングする 4. S1・2・3における味の違いを比較し、参加者同士がコメントする 2. Taste-Time Traveller によるテイストの変化 ・1日後に指定したカレーS2は、元サンプルS1と比 較して甘味が抑えられ、より塩味や旨味を感じられ た ・人工的に1日前に戻されたサンプルS3は、元サン プルS1と比較して、味の大きな差異は感じられな かったが、若干溶液の濃度が薄まった感じがした。 ⇨ タイムトラベル成功!!

Slide 240

Slide 240 text

タイムトラベルの原理 ・あらかじめ市販のカレールウおよびX日後のカレーについて、味センサーにより分析を行う ・X日後における各調味料成分の濃度Yを求める関数を用意し、時間変化の指定に応じて必要な量の調味料が添加されるプログラムを実装す る ・下記の調味料溶液 (0.5~7%ほど) の添加よって、サンプルの味を自在に変化させる。 クエン酸 (酸味) 、ショ糖 (甘味)、タンニン (苦味)、塩化ナトリウム (塩味)、グルタミン酸 (旨味) 3. 感想と考察 ・一般的な調理法では、味を熟成させる方向にしか進める ことができないが、逆の方向に戻すことが可能であることが この装置のユニークな点である。賞味期限によって廃棄さ れる食品が減り、消費期限をより重視できるエコな未来の 実現が近いことを予感した ・多くの人の試行錯誤よって味が変化する (ウイスキーやワ インなど) ことに感動することも美食体験の要素のひとつだ と思う。その時間的な経過の重みをどうやって添えられる か?を今後、個人的に考察を続けたい イグノーベル賞の賞状はPDF で送られてくるそうです笑 しらい先生、ご紹介ありがとうご ざいました!

Slide 241

Slide 241 text

課題3-1:「令和のメタバース」について感想スライド 参考論文「文化・技術・研究史で読み解く令和のメタバースの研究開発」https://www.jstage.jst.go.jp/article/bplus/16/4/16_285/_pdf 
 感想 1 : 論文を書く上で、下記が大変参考になった ・定義:記述する対象となる物事の定義が必要であり、参考文献からの引用が有効である
 ・価値:その論文や研究内容の価値はどこにあるのかを明確にすることが重要
 ・サイクル:対象としている業界は、どのようなライフサイクルにあるかに注目する( 例: NFTアートは幻滅期
 ・語源:言葉の語源や意味を調べて、そこから論述を始めると理解が深まる
 感想 2 : VR業界の変遷に深い興味を持った。昔のコンピューターのように一部の限られた人が使うものではなく、広く一般に普及して技術の 民主化が進んでいる。電気・ガス・水道・インターネットのように、VRも生活インフラの1つになるのかもしれない。 ・1.0:「人体に直接装着・身体動作によって直感的な操作をさせるデバイスや映像装置としての概念試作」
 ・2.0:「人間科学の探求に使用できる実験環境や,産業用シミュレータの構築が可能」
 ・3.0:「コンシューマ向けコンテンツ開発,大規模開発が可能」
 ・4.0:「人間の人間らしい活動を表現するにふさわしいメディア:プロ用途だけでなく,研究開発や個人的趣味で使用するようなツー ルや開発環境の品質は飛躍的に向上」


Slide 242

Slide 242 text

「文化・技術・研究史で読み解く令和のメタバースの研究開発」 電子情報通信学会 通信ソサイエティマガジン 2023 年 16 巻 4 号 p. 285-294 近年再注目されている「メタバース分野」への期 待と不安,不明瞭さを専門家として整理する.前 半はメタバースの歴史,定義,特にコンテンツと その受容,研究分野への影響,更に VR やエン ターテインメント分野におけるUGC(User Generated Contents)と技術革新の歴史をまと め,後半はスマートフォン向けメタバース 「REALITY」を中心とした「令和のメタバース」研 究開発の現場における,最先端の活動や考え方 を 整理する.エンターテイン メント分野では常識となって いる部分も多いが,進化の速 い分野でもあり,工学の視点 で隣接する他の研究開発分野 に向けて,歴史を記録する 目的も考慮しながらまとめた.

Slide 243

Slide 243 text

ビジネスと生成AI 代表取締役兼社⻑秘書 吉⾒鉄也 社⻑ 継之助(AIスーパーコンピュータ) Co-Founder 海⽼根智仁 Co-Founder 清⽔亮 https://www.free-ai.ltd/

Slide 244

Slide 244 text

No content

Slide 245

Slide 245 text

No content

Slide 246

Slide 246 text

No content

Slide 247

Slide 247 text

フェイクニュースとメディアリテラシーについて

Slide 248

Slide 248 text

https://note.com/o_ob/n/n70f16eff83b8

Slide 249

Slide 249 text

AI技術はいまどこにいるのか

Slide 250

Slide 250 text

作図ベース思考

Slide 251

Slide 251 text

タイミングチャートを解説させる

Slide 252

Slide 252 text

画像生成AI関係のカオスは

Slide 253

Slide 253 text

No content

Slide 254

Slide 254 text

「窓の杜」新春対談 まとめ  以上の通り、ChatGPTsによって生成したChatGPT4を使って、2024年の展望などを 抜粋してまとめてみました。 こちらに共有しておきます。新春対談や検証にお使いください。 ChatGPT - 生成AIストリームエンジンさん https://chat.openai.com/g/g-NqIW49GZM-sheng-cheng-aisutorimuenzinsan ・むしろ人間と対談するよりよくまとまっている ※編集部は順番を入れ替えたりカットしたりしています =AIは仕事を奪わない。AI=AIDE(助力)。  そして人間には責任ある仕事が残る。

Slide 255

Slide 255 text

生成AI時代に つくる人をつくる [email protected] note.ai/aicu 生成AI時代に つくる人をつくる [email protected] note.ai/aicu

Slide 256

Slide 256 text

みなさんも今日を境に 「つくる人をつくる」に 参加しませんか?