Slide 1

Slide 1 text

AIを活用した事例の現状と今後の予想 Do&Do. 株式会社 代表取締役 ab3株式会社 取締役 菊池佑太

Slide 2

Slide 2 text

乗るしか無い、このAIビッグウェーブに

Slide 3

Slide 3 text

AIの活用は 「やるか」、「やらないか」ではなく、 やるか 、 超やるか の2択しかありえません。

Slide 4

Slide 4 text

この資料では皆さんがAI活用を、「超やる」ために 知識量とモチベーションを生み出す これが目的となります。

Slide 5

Slide 5 text

自己紹介 ● 菊池佑太と申します。 ● 過去にAI事業歴10年以上、AIスタートアップを2社経営。 AIを活用した新規事業とプロダクトマネジメントを推進。 ● 今は「健康DX」、「Web3」の会社2社を事業を0から仕込み中。 ● ご意見・ご質問があれば、 TwitterのDMをどんどんください。 @yutakikuchi_

Slide 6

Slide 6 text

お悩み) AIの仕組みを理解するのは難しい... モデルが作られるフェーズとプロセスを 理解すれば基礎の90%は把握できる ※僕の自論です ※AIが作られるフェーズとプロセスは、英語学習で言う 5文型ぐらいの基礎

Slide 7

Slide 7 text

今日のスライドの中にはいろんな言葉が出てきます AI マシンラーニング(機械学習) Generative AI アルゴリズム モデル 学習データ 推論(実行)データ ディープラーニング(深層学習) Fine-tuning それぞれの、言葉の定義を知りましょう。 AIに関係するシステム全体や アルゴリズムの総称 モデルに対して新しいタスクへの適用 の微調整機構 学習データとアルゴリズムによって構 築生成され、実行フェーズで推論デー タに対して出力結果を出すもの アルゴリズムの一つの手法区分。 学習データから特徴を学び 新たなデータを予測 マシンラーニング(機械学習)の 一つの手法区分であり、多層のニューラルネット ワーク構造を利用して、複雑な予測のタスクの 実行を可能とする手法 アルゴリズムの一つの手法区分。 ディープラーニングの一つの手法区分 で生成タスクを担う 学習データを活用してモデルを 構築・生成するための手順や ロジック モデルに対して入力するデータ。これ をもとにモデルが内部で処理した結果 を出力する アルゴリズムを適用するとモデルが生 成されるための元データ

Slide 8

Slide 8 text

※本資料を用いた勉強会は 60分の予定です。 ※資料はWebにも公開してあります。 ※内容は分かりやすさを求めているため、 学術的な正しさは保証していません。 目次 ● アルゴリズムの歴史と基本的なAIの仕組み : 20分 ● 今までのAIの事例紹介 : 7分 ● 話題になっているGenerative AIとはどんなものか : 10分 ● Generative AIの事例紹介 ~動画編~ : 7分 ● 今後AIの発展によって我々の仕事はどのように変わるか : 10分

Slide 9

Slide 9 text

アルゴリズムの歴史と基本的なAIの仕組み

Slide 10

Slide 10 text

引用 : https://blogs.nvidia.co.jp/2016/08/09/whats-difference-artificial-intelligence-machine-learning-deep-learning-ai/ 歴史とアルゴリズム区分の包含関係

Slide 11

Slide 11 text

ディープラーニング内に位置するGenerative AI ディープラーニング Generative AI ディープラーニングのアルゴリズム詳細例 ● 畳み込みニューラルネットワーク (Convolutional Neural Network, CNN) ● リカレントニューラルネットワーク (Recurrent Neural Network, RNN) ● 長短期記憶ネットワーク (Long Short-Term Memory, LSTM) Generative AIのアルゴリズム詳細例 ● 敵対的生成ネットワーク (Generative Adversarial Network, GAN) ● 自己符号化器 (Autoencoder, AE) ● Transfomer 最近話題になっているGenerative AI・生成系AIはディープラーニングのカ テゴリ内に位置する一つの区分になります。

Slide 12

Slide 12 text

ここまでの説明を聞くと AI = アルゴリズム なの? 厳密には違います。 「アルゴリズム」の一般的な説明は実行手順であり、AIにおいては学習データを用いて「モデル」を学習・生成させるための手順や手 法となります。 ただし、ややこしい話として、「AI」、「アルゴリズム」、「モデル」の3つについては、それぞれ厳密な定義は別物になりますが、同じ名 前が付けられたり、同じ定義で話されることも多いです。理由は「アルゴリズム」と「モデル」がAI技術の中心的な存在であること、モ デル自体もアルゴリズムの一種であるという解釈がされるためと考えています。

Slide 13

Slide 13 text

アルゴリズムで生成された「モデル」とは 学習データ アルゴリズム モデル 「モデル」とは学習データにアルゴリズムを適用し、人工的に作られた数学的・統計モデルのこと。 よってモデルが出力できる結果というのは、学習データから分かる数学的・統計的な結果に過ぎません。 統計的な結果であるため、複雑な課題を与えたときに、正解率や判断性能が100%となることはありません。 出力結果を得る試行回数を繰り返すと、過ちが必ずと言って良いほど発生します。 よって2023年現時点では、AIに何かのタスクを依頼するときは完璧な出力を求めることは難しいという判断になります。 モデルを生成・構築

Slide 14

Slide 14 text

アルゴリズムで生成された「モデル」の代表的な使用目的 ● 分類タスク ○ 特定の実行データをいくつかのクラスに分類する ■ 実行例) 与えた画像に写っているのは犬か猫かを分類してください。 ● 回帰タスク ○ 特定の実行データに関する連続値を予測する ■ 実行例) 過去データの傾向から、自分の住んでいる土地が10年後に何円価格変動するかを教えて下さい。 ● 生成タスク ○ 特定の実行データから、テキストや画像など新しいデータを生成する ■ 実行例) 10年後の新宿駅の様子を予想して、油絵風にスケッチしてください。 ※モデルの使用目的として上以外に、クラスタリング (最初に分類クラスが定義されないので、分類とは異なる )や次元圧縮 などでも利用されます。 ※2021年頃から生成タスクを実行するモデルの精度が飛躍的に向上し、注目されています。 ChatGPTやMidjorneyに代表されるようにテキ スト生成や画像生成されたものが人が作ったのか、 AIが作ったのかが判別も難しいほどになっています。

Slide 15

Slide 15 text

モデルには学習・実行するフェーズとプロセスがある 学習データ アルゴリズム モデル モデル インタフェース 推論(実行) データ ① 学習フェーズ ② 実行フェーズ AIモデル開発者 AIモデル利用者 ※ここでは運用フェーズの話はしません。 ※本資料を読んでいる方の多くは AIモデル利用者にあたると思います。 ※ご自身がAIを話す上で、学習するフェーズの話なのか、実行するフェーズの話なのかを意識するようにしましょう。 運用フェーズへ モデルの更新など モデルを構築 入力 入力データのインプットと結 果の取得 構築されたモデルを 実行できる環境に置く

Slide 16

Slide 16 text

モデルが構築される 学習フェーズを 強引に料理を作る過程と 物に例えます

Slide 17

Slide 17 text

モデルの学習フェーズを強引に料理の物と過程に例えると 学習データ (具材) アルゴリズム (レシピ) モデル (料理) ① 学習フェーズ AIモデル開発者 (シェフ) モデルの Fine-tuning (後味付け) ※現在、AI利用者もAIモデル開発者が実施していたプロセスの全部もしくは一部 が実行可能なようにツールや環境の整備が進む。 (後でも触れる)

Slide 18

Slide 18 text

ChatGPTで学習・実行フェーズとプロセスを考える 学習データ (ネット上のデー タ) アルゴリズム (Transformer) モデル (GPT) モデル (GPT) インタフェース (ChatGPT) 推論(実行) データ (依頼文) ① 学習フェーズ ② 実行フェーズ OpenAIモデル開発者 AIモデル利用者 運用フェーズへ モデルの更新など モデルを構築 入力 入力データのインプットと結 果の取得 構築されたモデルを 実行できる環境に置く

Slide 19

Slide 19 text

モデルの出力結果に過ちが生じるポイント 学習データ アルゴリズム モデル ① 学習フェーズ AIモデル開発者 運用フェーズへ モデルの更新など モデルを構築 学習データ ・学習データに間違ったものが含まれている ・学習データのカバー範囲が狭い(偏り、広さ) ・同じ正解を示す学習データ量の深度が低い(深さ) アルゴリズム・モデル ・アルゴリズムの単純なバグ ・ハズレの値を過剰に学習してしまう ・最適な内部パラメータを間違ってしまう これらの誤りを運用フェーズの中で、データの部分と アルゴリズムの部分を繰り返し修正し、新しいモデルを作っていく

Slide 20

Slide 20 text

複雑になっていく著作権問題 学習データ (ネット上のデー タ) アルゴリズム (Transformer) モデル (GPT) モデル (GPT) インタフェース (ChatGPT) 推論(実行) データ (依頼文) ① 学習フェーズ ② 実行フェーズ 運用フェーズへ モデルの更新など モデルを構築 入力 入力データのインプットと結 果の取得 構築されたモデルを 実行できる環境に置く ※ 国によって著作権の法律が全く異なるので、注意が必要です。また現状は不明確な点が多いです。 ※ 日本の著作権法の第 30条の記載内容など、既に課題となっているケースがあります。 参考 : https://www.bunka.go.jp/seisaku/chosakuken/hokaisei/h30_hokaisei/pdf/r1406693_01.pdf ※ 各論点とケースに応じて、法律の専門家の意見を聞く必要があります。 論点① ネット上の学習データに著作権が 含まれていた場合はどうなるのか? 論点④ モデルの出力結果が既に著作権がある 内容と類似していた場合はどうなるのか? 論点② 特定企業が持つデータだけで学習したモデルの著 作権はどうなるのか? 論点③ 推論(実行)データに著作権が含まれて いる場合、そのデータも学習に使われ るのか?

Slide 21

Slide 21 text

出来上がったモデルについて、 少しだけみなさんが昔習った数学の関数にしてみると

Slide 22

Slide 22 text

y = f(x) x: 実行データを与える y: 出力データを出す f: 関数 これがモデル モデルを簡略的に説明すると ※f(x)の式は中学校で習った axのような一次関数より、 かなり複雑なものになります。

Slide 23

Slide 23 text

平面での色分けを例に分類モデルを考える(学習フェーズ) 色の点群が学習データ 学習データは正解を知っている この分離線がモデル。学習データとアルゴリズムによって事前に引かれる。

Slide 24

Slide 24 text

平面での色分けを例に分類モデルを考える(実行フェーズ) 事前に作成した分離線のモデルを活用して、新しいデータを分類する。 ここに入ってきた色が不明な点は 赤か青か? A. 青 不明な点が推論データ。 推論データは正解を知らない。

Slide 25

Slide 25 text

y = f(x) x: 実行データを与える y: 出力データを出す f: 関数 これが分類モデル 分類モデルを他の例で説明すると 例) 下記の画像を入力 出力例) 与えたられた画像は猫です

Slide 26

Slide 26 text

y = f(x) x: 実行データを与える y: 出力データを出す f: 関数 これが生成モデル 生成モデルを簡略的に説明すると 例) ロボットのスケッチ画像を生成し てください。

Slide 27

Slide 27 text

言葉の定義 のおさらい

Slide 28

Slide 28 text

今日のスライドの中にはいろんな言葉が出てきました AI マシンラーニング(機械学習) Generative AI アルゴリズム モデル 学習データ 推論(実行)データ ディープラーニング(深層学習) Fine-tuning それぞれの、言葉の定義を知りましょう。 AIに関係するシステム全体や アルゴリズムの総称 モデルに対して新しいタスクへの適用 の微調整機構 学習データとアルゴリズムによって構 築生成され、実行フェーズで推論デー タに対して出力結果を出すもの アルゴリズムの一つの手法区分。 学習データから特徴を学び 新たなデータを予測 マシンラーニング(機械学習)の 一つの手法区分であり、多層のニューラルネット ワーク構造を利用して、複雑な予測のタスクの 実行を可能とする手法 アルゴリズムの一つの手法区分。 ディープラーニングの一つの手法区分 で生成タスクを担う 学習データを活用してモデルを構築・ 生成するための手順や ロジック モデルに対して入力するデータ。これ をもとにモデルが内部で処理した結果 を出力する アルゴリズムを適用するとモデルが生 成されるための元データ

Slide 29

Slide 29 text

今までのAIの事例紹介

Slide 30

Slide 30 text

出力結果の適用内容により、過ちのリスクと複雑性が異なる 過ちによるリスクが低い 過ちによるリスクが高い ● 一ヶ月後の天気を推定し、旅先での旅行プランを考える ● ECサイト訪問者の趣味嗜好を推定し、最適な商品を推薦する ● 迷惑メールを推定し、迷惑メールフォルダに対象メールを入れる ● カーナビ上で渋滞を予測し、渋滞にならない新ルートを提案する ● 1家庭に対する過去の使用電力から、 1年間の使用電力量を予測する ● 製造物の異常品をAIだけで自動的に分類する ● レントゲン写真から病気と箇所を AIだけで自動的に検知する ● 信号や対象物を検知し、車を全て自動運転で制御する ● 膨大な金額を対象とした自動取引による投資を行う ● 人の顔などを利用した、セキュリティ認証システムを構築する モデルの同じ出力結果でも「何に適用するか」で過ちによるリスクが異なります。ここで言うリスクが高いという状態は、 リスクを受ける対象範囲・金額・人の命や心理的ダメージの大きさなどの組み合わせによって決まるものを示します。 リスクが低いタスクは既に多くの成功事例があり、サービスへの自動的な組み込みも進んでいます。一方、過ちのリス クが高い複雑なタスクについては、日々技術のアップデートが成されているものの、まだ研究段階のものも多く、人に よる最終確認などのプロセスが必須になります。

Slide 31

Slide 31 text

製造工場でのAI導入の挑戦 ~ Nvidia様による事例紹介動画 ~ 引用 : https://www.youtube.com/watch?v=PDDUhJ1vKKk

Slide 32

Slide 32 text

AIをビジネスに活用する上で重要なこと 実オペレーションに組み込めるか

Slide 33

Slide 33 text

話題になっているGenerative AIとはどんなものか

Slide 34

Slide 34 text

引用 : https://arxiv.org/pdf/1802.07228.pdf 特定要素の画像を生成する技術の誕生は2014年頃〜 ディープラーニングのアルゴリズムであるGANを用いた人の顔画像の生成精度も毎年向上し、2017年にはリアルな顔としての 画像が生成されている。2023年現在は顔画像のような特定箇所だけではなく、風景写真のような様々な要素を持つ画像も人が 見ても自然な形で生み出されている。

Slide 35

Slide 35 text

2023年現在の画像生成 prompt > an astronaut riding a horse on mars artstation, hd, dramatic lighting, detailed ・高解像度での出力 ・複数要素の組み合わせを正しく表現 ・影の付き方など、自然な表現 引用 : https://replicate.com/stability-ai/stable-diffusion/examples

Slide 36

Slide 36 text

Generative AIの「モデル」とは 学習データ アルゴリズム モデル (再掲) 「モデル」とは学習データにアルゴリズムを適用し、人工的に作られた数学的・統計モデルのこと。 よってモデルが出力できる結果というのは、学習データから分かる数学的・統計的な結果に過ぎません。 Generative AIのモデルも基本的には学習データから様々なテキストや画像のパターンや特徴を事前に読み取り、 与えられた命令に類似する要素を事前に読み取ったパターンや特徴から抽出し、それらを組合わあせて新しいもの を作っているように表現しているものになります。 モデルを生成・構築

Slide 37

Slide 37 text

複数要素の組み合わせを自然に生成出来るようになった理由 「量」が「質」を作る ※ここで言う量は「データ量」と「計算量」を示します。 ※当たり前として思えることが、2022年にAI研究界隈で新発見となった

Slide 38

Slide 38 text

データ量と計算量を増加した先に待っていたもの (モデルの精度) (計算量) 以前までの定説 ・計算量を増やすということはマシンコストが掛る ・ある一定の計算量を超えると、ほぼ精度に貢献しないことが分かっていた ・よってAIのモデル開発者や研究者は精度が飽和した段階で計算を止めるのが一般的だった 新しく分かったこと ・特定のAIモデルにおいて、精度飽和状態を超えた計算を更に積み重ねる と、一気に精度が上がる ・これは今までの定説を覆す新発見 ・Generative AIの特定アルゴリズムはデータ量と計算量で精度飽和状態を 突破 ・これらの背景にはアルゴリズムの進化だけではなく、計算を実行するハード ウェアの進化もある 参考 : https://ai.googleblog.com/2022/11/characterizing-emergent-phenomena-in.html

Slide 39

Slide 39 text

Generative AIが注目された理由 一般ユーザーがAIの精度を 体感できる環境とツールの登場 ・今までは大規模なモデルを一般ユーザーのリクエストに耐える環境が準備しづらかった ・流行りや注目を作るのは常に一般消費者を対象とするユーザーの行動であり、Generative AIを体感できる土壌を作った

Slide 40

Slide 40 text

Generative AIの事例紹介

Slide 41

Slide 41 text

Wonder Studio ~VFXの自動テクスチャ~

Slide 42

Slide 42 text

Runway ~ text to video ~

Slide 43

Slide 43 text

AIをビジネスに活用する上で重要なこと 実オペレーションに組み込めるか ※大事なことなので2度言います。

Slide 44

Slide 44 text

今後AIの発展によって我々の仕事はどのように変わるか

Slide 45

Slide 45 text

AI活用と正しさの評価 プロセスが生まれる

Slide 46

Slide 46 text

AIを活用するか、しないかの差 世間の議論 個人間の差 法人や組織間の差 国の差 vs 人 AI 活用する人 活用しない人 AIを活用することで大幅な生産性向上が 期待できることを前提とした話 活用できる人数に従って 個人・組織・国などの 単位で生産能力の差が拡大 活用する法人・組織 活用しない 法人・組織 積極活用 できる国 積極活用 できない国

Slide 47

Slide 47 text

それぞれの立場での出力結果の正しさを評価 AIを活用した個人 AI AI + 手作業での成果 指示 出力 反映 報告説明 評価 AIを活用した個人 を評価する上司 AIの出力、またそれを利用した個人の成果出力が 正しいかどうかの判断ができること。 仕事の評価が成果至上主義に基づくのだとすると、 重要なのはAIが作ったかどうかではなく、 AIが出力した結果を個人が正誤を判断し、利活用出来るかどうか。 AIの活用で時間コストを縮小し、個人の成果とする。 引用 : https://openai.com/blog/new-ai-classifier-for-indicating-ai-written-text OpenAIが提供しているAIが書いたテキストの判定器。 AIで作られたかどうかの判定が本当に必要なのか?

Slide 48

Slide 48 text

自社にしかないデータの保有が 競合優位性になる

Slide 49

Slide 49 text

個人および企業で重要度が増すこと データに関してはインターネット上に公開されていない、個人および個人が所属する企業内でしか知らない知識ノウハ ウなどをデジタルデータとして保有しているか否か。逆にそれらの貴重な情報をネットに公開してしまうとGenerative AI の学習対象となってしまい、誰もが得られる出力結果の対象となってしまう。 ・モデルの学習、実行ができる資本力 ・新しいビジネスアイディアとプロセスにモデルの出力を組み込むこと ・個人や自社内にしか無い学習データを保有する価値 ・上の学習データを利用した領域特化型モデルを生成できる価値 ・領域特化型モデルを非公開とし、限定的に利用許諾化

Slide 50

Slide 50 text

モデル構築と利用環境を用意する手間が ツール化・自動化で減少し、 誰もがモデルを構築できる時代へ

Slide 51

Slide 51 text

プロセス自動化、インタフェースの自動生成 学習データ アルゴリズム モデル モデル インタフェース 推論(実行) データ ① 学習フェーズ ② 実行フェーズ 運用フェーズへ モデルの更新など モデルを構築 入力 入力データのインプットと結 果の取得 構築されたモデルを 実行できる環境に置く 様々なモデル構築、管理ツールの登場により、アルゴリズムの仕様に合わせた学習データ が準備できれば、モデル生成からモデルの利用環境構築まで、テンプレートに沿って、多く のタスクを自動的に実行が可能。 (AutoML) インタフェースは Generative AIでアプリごと生成し、モデルとの接続のロジックも準備 個人・自社しか保有しない 知識の学習データを準備できる かがポイント AutoML化

Slide 52

Slide 52 text

巨人の肩に乗った 独自の価値を展開する 個人・企業が増える

Slide 53

Slide 53 text

モデルの学習フェーズを強引に料理の物と過程に例えると 学習データ (具材) アルゴリズム (レシピ) モデル (料理) ① 学習フェーズ AIモデル開発者 (シェフ) モデルのFine チューニング (後味付け) OpenAIやGoogleが用意したpre-trainedモデルに対して Fineチューニングの味付けだけを自社でやる

Slide 54

Slide 54 text

巨人が作ったpre-trainedモデルをFine-tuning 学習データ アルゴリズム モデル (pre-trained) 自社用モデル インタフェース 推論(実行) データ ① 学習フェーズ ② 実行フェーズ AIモデル開発者 AIモデル利用者 運用フェーズへ モデルの更新など モデルを構築 入力 入力データのインプットと結 果の取得 Fine- tuning Fineチューニングの機能を利用して巨人が作ったモデルに対して自分たちの味を付けたカスタマイズを行 い、個人および自社用モデルとして利用 入力する学習データ フォーマットは基本共通

Slide 55

Slide 55 text

GPTモデルの学習データFine-tuningのデータ例 GPTモデル (pre-trained) Fine- tuning 自社用モデル GPTモデルはChatGPTの後ろにある言語モデル。質問や命令を投げかけると、答えを返して くれる。質問や命令、それに対する答えのセットが学習、 Fine-tuningのデータとなるため、そ のセットを用意してあげるだけ。 引用 : https://platform.openai.com/docs/guides/fine-tuning 上のデータフォーマットは JSONLの指定となるが、 おおよそのイメージとしては xlsxのQA対応表のようなもの。 ※Fine-tuningができるpre-trainedモデルは限定されます。

Slide 56

Slide 56 text

OpenAIのAPI経由でのデータポリシー 引用 : https://openai.com/policies/api-data-usage-policies By default, OpenAI will not use data submitted by customers via our API to train OpenAI models or improve OpenAI’s service offering. Data submitted by the user for fine-tuning will only be used to fine-tune the customer's model. However, OpenAI will allow users to opt-in to share their data to improve model performance. Sharing your data will ensure that future iterations of the model improve for your use cases. Data submitted to the API prior to March 1, 2023 (the effective date of this change) may have been used for improvements if the customer had not previously opted out of sharing data. 2023年3月1日以降のAPIを経由して入力したデータは学 習に使われることは無い。またFine-tuningのデータも同 様。ただし、opt-inすることでOpenAIに利用を許可するこ とができる。 2023年3月1より前のデータについてはopt-outをしていな い場合、改善のためのデータとして利用された可能性が ある。 ※ただし、WebのChatGPTインタフェースを利用したデータについては学習に利用される可能性があ る。データポリシーについては各社提供の内容を理解してから利用する必要がある。

Slide 57

Slide 57 text

乗るしか無い、このAIビッグウェーブに

Slide 58

Slide 58 text

何から始めたら良いのか(今日からできるもの) 事前にAIに解かせる目的や課題を定めてからAIモデルの実行することが望ましいが、とにかくAIを触りながら何ができるかを 検証するのが第一段階でもOK。その中で如何にAIモデルの能力を引き出せる命令を出せるかの個人と組織で感覚を掴み、 ドキュメントに起こし組織全体で共有していく。 社内で共有 参考・引用URL : https://www.promptingguide.ai/jp https://qiita.com/sakasegawa/items/82069c97a1ee011c2d1e https://note.com/iritec/n/n496881202f60 プロンプトガイドを参照 Chat GPTへの入力と出力 入力と出力のノウハウをメモ 事例、入力と出力を社内のナ レッジとして蓄積し、ユースケー スを増やす

Slide 59

Slide 59 text

次に何をやったら良いのか GPTモデル (pre-trained) Fine- tuning 自社専用モデル モデルに解かせたい目的を定めつつ、自社にしか無いデータを活用して Fine-tuningを行い、 自社専用のモデルを作る。必要とするデータセットは質問に対する期待回答の QA表を用意 し、ChatGPTを活用してJSONL形式に変換。もしくは ChatGPTに変換用のプログラムを生成 してもらう。 引用 : https://platform.openai.com/docs/guides/fine-tuning 社内メンバー 専用モデルを 利用

Slide 60

Slide 60 text

最後に弊社 健康DXサービスのご紹介

Slide 61

Slide 61 text

Doの「トレ活」とは トレーニング参加 参加後 ・健康データの記録 ・アンケートへ回答 ・次回イベント予約 健康DXの推進として、弊社は「 Do」という法人向け・個人向けのサービスを展開しております。「 Do」を通して、フィットネス参加者の方々には「 トレ活」を 体験いただきます。「トレ活」とは、トレーニングをしながら自身が健康になり、社会貢献につながる活動をすることです。個人の健康管理への意識が低 いという課題に対して、 「可能な限り安価に参加」 、更には「募金活動などの社会貢献」 を動機づけとして実施中です。 法人企業の場合には社内サーク ルと連動させるなどの利用方法も考えられます。 交通費程度の謝礼および 参加特典をお渡し ※金額上限あり ※謝礼は雑所得扱い 謝礼の一部を寄付して、 社会貢献 ※第一弾として赤い羽根共同 募金への寄附を実施中

Slide 62

Slide 62 text

Do 法人様向けの健康改善プラン ① 社員の食事改善 ② 社員の日常の運動改善 ③ 社内サークルイベントで の運動実施 記録された健康データから日々の食事・運動、定期的な運動の見直しを行い、それぞれの改善を実施していきます。法人会員様のオフィスに Doのヘル シー弁当を設置し、食事の改善を行います。また出勤中に運動を伴った移動をすると交通費の代わりに謝礼が貰えるプログラムや、定期的な社内運動 サークルなどで汗を流し、体調管理だけでなくメンタルコントロールもデータを基に行っていきます。

Slide 63

Slide 63 text

Doの「トレ活」の様子 参考: https://www.instagram.com/p/CnO4n82PN78/

Slide 64

Slide 64 text

Do「トレ活」のお知らせ Discord LINE公式アカウント

Slide 65

Slide 65 text

ご意見・ご質問があれば、 TwitterのDMをどんどんください。 @yutakikuchi_