Upgrade to Pro — share decks privately, control downloads, hide ads and more …

教員向け生成AI講座 ~基礎から応用まで~

教員向け生成AI講座 ~基礎から応用まで~

2025年3月2日10:00~17:00に、メタバース工学部オンライン講座「教員向け生成AI講座 ~基礎から応用まで~」(開催の広報記事)を開催しました。
この資料は、そのときに用いた資料を一部修正したものです。

講座動画: https://www.youtube.com/live/WAsDGa2luFU
メタバース工学部ページ: https://www.meta-school.t.u-tokyo.ac.jp/junior/24aai/
イベント報告ページ: https://edulab.t.u-tokyo.ac.jp/2025-03-02-event-report/

公開するこの記事では、その開催報告と振り返りを記述します。

Lui Yoshida

March 02, 2025
Tweet

More Decks by Lui Yoshida

Other Decks in Education

Transcript

  1. 1 • すべての人々が最新の情報や工学の実践的スキルを獲得して 夢を実現できる社会の実現を目指す、 デジタル技術を駆使した工学分野における教育の場 • 教育プログラム • ジュニア工学教育プログラム •

    中高生・保護者・教師を主な対象 • 講座情報: https://www.meta-school.t.u-tokyo.ac.jp/junior/ • リスキリング工学教育プログラム • 社会人・学生を主な対象 • 講座情報: https://www.meta-school.t.u-tokyo.ac.jp/reskilling/
  2. 2 • 東京大学 大学院工学系研究科 准教授 • 専門は教育工学(アクティブラーニング、生成AI、 オンライン学習、ファカルティ・ディベロップメント) • コロナ禍における教育のオンライン化支援の貢献が認められ、

    オンライン授業等におけるグッドプラクティス総長表彰 • 研究室で開発した意見交換ツール「LearnWiz One」が世界最大 の EdTech コンペ GESAwards 2021 R&D 部門で世界大会優勝 • 東京財団政策研究所 主席研究員 • 2024年度研究プログラム 「学び続ける教員を支える生成AIに関する学びの場づくり」 • 生成 AI との関わり • コロナ禍のように教員が困るだろうと感じ、できるだけサポートしたいと思い活動 • 2023年5月13日実施の4時間の教員向け講座は参加者が650名以上、最高評価が8割以上、 公開している動画は再生数が8.5万回以上 • 文部科学省学校DX戦略アドバイザー。文部科学省による「初等中等教育段階における生 成 AI の利用に関する暫定的なガイドライン ver 2.0」の作成に委員として関与 @luiyoshida
  3. 5 • 目指すところ • 教育における生成AIへの対応や活用を検討できるようになることを目指して、生 成AIに関する理解を深める • 参加するにあたって • 質問やコメントは

    LearnWiz One に投稿してもらえるとありがたいです • 声が聞こえないなど緊急性の高いコメントは YouTube チャットにお願いします • セッション内や間で適宜みなさんからの質問やコメントに対応する予定です • 注意点 • できる限り間違いのない情報を載せることに努めていますが、進展が早く、情報 が多すぎることもあり、間違っている点などがあればご指摘下さい • 講座の様子は配信されており、後に録画も公開されることご了承下さい • 本講座の様子がスクリーンショットや参加者のコメント等も含めて、 記事や教材等としてウェブサイト等に公開される可能性があることご了承下さい
  4. 7

  5. 8 • 生成 AI とは • 生成 AI のデモ(テキスト生成、画像生成、音声生成、動画生成) •

    生成 AI との対話にあたって(用語説明、姿勢) • 生成 AI の性能 • 生成 AI でできること • 読書感想文作成、レポート作成、選択問題への回答、英訳、Excelの数式作成など • 生成 AI が苦手なこと・使う上で注意すること • 質疑応答 • 生成 AI の仕組み(テキスト生成、プロンプトの重要性、推論モデル) • 生成 AI の可能性 • 生成 AI のリスク(安全性評価、ハルシネーション、著作権など) • 質疑応答
  6. 9 • 学習データをもとにテキストや画像などのコンテンツを生成できる人工知能 • 関連技術やサービスの進展が早い(最近はマルチモーダル化が進んでいる) 対話型生成 AI (テキストがメインの生成AI) • ChatGPT

    • Copilot • Gemini • Claude • Llama • … 画像生成AI • Midjourney • Stable Diffusion • DALL・E3 • Image Creator • Adobe Firefly • … 動画生成AI • Sora • Veo2 • Wan 2.1 • …
  7. 11 • 用語説明 • プロンプト: 生成AIに入力する指示出しのこと • マルチモーダルAI : 文字、画像、音声、動画など異なる種類の情報を処理で

    きるAI • 対話をする上で重要なこと • プロンプトに行ってほしいことを目的なども含めて具体的に入れる (必要に応じて出力形式やデータも指定・アップロードする) • 思い通りの出力にならなくても、対話を繰り返し、自分がほしい出力の イメージを具体的に伝えてみる • プロンプトは改善するもの、生成AIは対話するものと認識する • 出力を鵜呑みにしない(自分で判断する。AIは責任を持たない)
  8. 12 • 2023年2月 米医師試験 合格ライン(ChatGPT GPT-3.5) • 2023年3月 米司法試験 上位10%スコア*1(GPT-4,

    GPT-3.5は下位10%) • 2023年4月 日本医師試験 合格ライン*2 (ChatGPT GPT-4) • 2024年3月 多様な分野の多肢選択問題、数学問題、プログラミング課題などで GPT-4よりも高スコア*3(Claude 3 Opus) • 2024年5月 扱えるトークン数が200万(約100~200万文字)に達する*4 (Gemini 1.5 Pro、GPT-4 は12.8万) • 2024年12月 人間のトッププログラマーレベル(世界約6万人中175位相当)、 博士レベルの科学問題 正答率 87.7%*5 (o3) *1: https://arxiv.org/abs/2303.08774 *2: https://www.medrxiv.org/content/10.1101/2023.04.17.23288603v1 *3: https://www.anthropic.com/news/claude-3-family *4: https://developers.googleblog.com/ja/gemini-15-pro-and-15-flash-now-available/ *5: https://www.youtube.com/watch?v=SKBG1sqdyIU ただし、人間が正答できる簡単な 問題で間違うこともあることから、 全知全能ではない
  9. 13 • 説明可能な課題に対して何かしら回答を出力をしてくれる (出力の質はモデルや分野などによって異なる) • 例 • 読書感想文作成 • レポート作成

    • 選択問題への回答 • AI 家庭教師 • 授業案作成 • 選択問題作成 • 文章の英訳 • Excel の数式作成 • Excel のマクロ作成
  10. 14 • プロンプト • 夏目漱石の「坊っちゃん」に関する読書感想文を、具体的な例も交えながら作成し て下さい。 • ChatGPT 4o 出力

    • 夏目漱石の『坊っちゃん』を読んで、改めて人間の正直さや正義感の大切さを考え させられました。主人公の坊っちゃんは、江戸っ子気質で短気だが真っ直ぐな性格 を持つ青年です。彼が松山の中学校に教師として赴任し、さまざまな人間模様に巻 き込まれながらも、自分の信念を貫く姿に共感を覚えました。 • 特に印象に残ったのは、坊っちゃんが教頭の「赤シャツ」と対立する場面です。赤 シャツは表向きは知的で上品な人物に見えますが、実際には陰で姑息な手を使って 周囲を操る狡猾な人物でした。坊っちゃんはそうした偽善的な態度を許せず、最終 的に赤シャツとその取り巻きを懲らしめます。この場面は、正義感の強い坊っちゃ んの性格が最もよく表れており、読んでいて痛快でした。 • …(略) 絶妙なデタラメが入っている。表面的な文章である印象 (プロンプトを工夫すれば異なる出力になる)
  11. 15 • 課題例「新たな意義ある EdTech の提案」 • これまでの教育を振り返って、教育に関する大きなペイン・課題を特定し、 下記の点をふまえてそのペイン・課題にアプローチできる EdTech を提案し

    てください。 • ペインや課題について、どのような場面で誰が苦しんでいるのかなど具 体的に説明してください。 • 提案する EdTech に関して、学習者や教員がどのような場面でどう使う のかを含めて具体的に説明してください。 • どのように利用者を巻き込んでプロダクトを改善していくのか、具体的 な開発や普及プロセスを説明してください。 • ChatGPT 4o 回答 • 初稿は使い物にならず、第2稿は表面的、第3稿は平均的 • ただし、気づきを与えてくれるフィードバックやコメントはしてくれる
  12. 16 • 問題例: Hendrycks et al. (2020) の問題を日本語訳 • 静止状態からボールを落とすと、9.8m/s²の加速度で下向きに加速される。

    代わりに、空気抵抗がないと仮定して投げる場合、手から離れた直後の加速 度は (A) 9.8m/s²である。 (B) 9.8m/s²より大きい。 (C) 9.8m/s²より小さい。 (D) 投げるときの速度が与えられていなければ言えない。 • ChatGPT 4o 回答 正解 • (前略)空気抵抗がない場合、手から離れた後は重力のみが作用するため、 加速度は常に 9.8 m/s²(下向き) となります。よって、正解は(A) 9.8m/s²で ある。 • ChatGPT 4o mini 回答 正解 • (前略)手から離れた直後の加速度は、重力加速度によるものであり、加速 は 9.8 m/s² です。これは、投げる速度が与えられていなくても変わりません。 したがって、正解は (A) 9.8m/s²である です。 スクリーンショットも活用可能…
  13. 18 • プロンプト • 中学2年生向けの数学の授業(確率)について、効果的なアクティブラーニング を交えた授業案(50分)を作成してください • ChatGPT 4o mini

    回答(一部) • 【授業案:確率の基本と体験学習】(50分) • 目標: • 確率の基本的な概念(事象、確率)を理解する。 • 確率の計算方法を学び、実際の事例でその計算を体験する。 • 日常生活の中で確率をどのように使うかを考える。 • 準備物: • サイコロ(人数分) • コイン(人数分) • ホワイトボード、マーカー • プリント(問題シート)
  14. 22 カテゴリ 活用方法・用途 文書作成・翻訳・要約 議事録、提案書、メール・文書の自動生成、翻訳、要約 マーケティング・コンテンツ 生成 ブログ記事、広告コピー、SNS投稿、キャンペーン用の画像・動画生成 顧客対応・チャットボット 顧客問い合わせへの自動応答、FAQ対応、カスタマーサポートチャット

    ボットの運用 プログラミング・コード生成 ソフトウェア開発支援、コード自動生成、デバッグ補助 設計・デザイン 画像・動画生成、プロダクトデザインの試作、広告・プロモーション素材 の作成 業務効率化・社内情報管理 社内ナレッジの検索、社内業務アシスタント、文書整理・要約、業務プロ セスの自動化 研究開発支援・新規事業創出 研究開発におけるアイデア出し、試作支援、シミュレーション、プロトタ イピング、イノベーションの促進 採用・教育・人材育成 採用書類の自動作成、面接支援、個別指導、社内教育コンテンツの生成、 AIリテラシー向上のための研修・サポートシステムの導入
  15. 23 • 必ずしも正確な情報を述べるわけではない • デタラメを言うことがある(幻覚: ハルシネーション) • GPT-4.5 で改善されているようだが完全ではない (OpenAI

    2025) • 専門知識を持つ、1次情報にあたる、情報の信頼性を検討することが重要 • 出力の利用にあたっては人間が責任を持つ(AIは責任を持たない) • 分野やモデルによってできることが異なる • それぞれの分野でどの程度活用できそうかを検討する必要あり • 自動生成された文章を検出することは難しい • ChatGPT によって生成された文章かを ChatGPT に聞いてしまい、その結 果を信じて学生の半分以上を不合格にする事案も発生(参考記事) • 実用上、自動生成された文章の検出は難しい(Sadasivan et al. 2023)
  16. 24

  17. 25 • 過去のテキストを参考に次に来る文字や単語を予測して出力する* • 単純な機構と思いきや、モデルのサイズ(パラメータ数など)を大きくするこ とで、能力が高くなり、多様なタスクをこなすことが可能 (Brown et al. 2020,

    Wei et al. 2022a, OpenAI 2023) むかしむかし 生成 AI あるところに 暑い日のこと おじいさんが ︙ ︙ ︙ ︙ あとに続く言葉の候補 入力された文章 出力される (あとに続く確率が高い) *推論モデルでは異なる(後述)
  18. 26 • スケーリング則: パラメータ数、学習計算量、データサイズを上げるほど性能 が上がる (Kaplan et al. 2020) •

    創発的能力: あるパラメータ数(学習計算量)を超えると急に性能が上がる (Wei et al. 2022a) 最近では小さなモデルでも性能を高める方法(蒸留など)が開発されている
  19. 27 ( ) • 例を載せると性能が向上(Few-shot prompting)(Brown et al. 2020) •

    思考過程を出力させると性能が向上(思考の連鎖: Chain of Thought)(Wei et al. 2022b) • 例を載せなくても「Let’s think step by step」とプロンプトに入れるだけで 性能が向上(Zero-shot prompting)(Kojima et al. 2022) ⋮
  20. 28 • モデル自身が思考の連鎖を行い、出力の質を高められるように学習させたもの (雑に言えば自身でプロンプトエンジニアリングできるようになったもの) AIモデル プロンプト 思考/推論 出力 AIモデル プロンプト

    出力 従来のテキスト生成(例: OpenAI GPT-4o, DeepSeek-V3) 推論モデルのテキスト生成(例: OpenAI o1, o3, DeepSeek-R1) この部分を更に 追加でトレーニング
  21. 29 • 学習者による活用例 • 個別学習支援: 個別指導、個別教材・問題作成、 メンター・相談相手としてのコメント・フィー ドバック作成、ドラフト作成 • グループ学習支援:

    チームメンバー、ファシリ テーター、メンターとしてのコメント・フィー ドバック作成 • 課外活動支援: 部活動、学園祭運営支援 • 教職員による活用例 • 授業支援: 授業案作成、教材作成、問題・課題 作成、評価補助 • 校務・事務支援: 資料・報告書作成補助、 データ処理補助 • 研究支援: 英訳、フィードバック生成 https://www.khanmigo.ai/
  22. 30 • 出力が不正確な場合がある(幻覚: ハルシネーション) • 評価の妥当性が低くなり得る • バイアス・毒性が存在する (Zhuo et

    al. 2024, Deshpande et al. 2023) • バイアス: 性別、人種、宗教などに関する偏見や先入観 • 毒性: 有害・攻撃的なコンテンツを生成する能力 • 言語格差が存在する • 意図せずデータが学習される可能性がある • 個人情報の捏造、流出の可能性がある • 機密情報の流出の可能性がある • 著作権を侵害する可能性がある • 公平性が保てない可能性がある(有料版と無料版の性能差)
  23. 31 • 主要な生成 AI モデルが公開される際には安全性に関する情報も公開 • 評価の観点 • 禁止コンテンツ: 有害なコンテンツ(ヘイトコンテンツや違法なアドバイス

    など)を生成しないか • 脱獄: 生成すべきでないコンテンツをプロンプトを工夫することで生成しな いか • 幻覚: 生成される回答は正確か • 公平性とバイアス: 先入観や偏見を含む回答をしないか • サイバーセキュリティ: サイバー攻撃などに利用される回答を生成しないか • 化学・生物兵器: 当該兵器の製造に利用される回答を生成しないか • 放射性・核兵器: 当該兵器の製造に利用される回答を生成しないか • 説得: 人の信念や行動を変えるように説得しないか • 自律性: 自律的に環境を操作、不正利用などしないか 参考: https://cdn.openai.com/gpt-4-5-system-card.pdf
  24. 32 • デタラメを言うことがある • OpenAI の最新モデル GPT-4.5 で改善されているようだが完全ではない • 生成

    AI の仕組み的になくすことは難しい • 専門知識を持つ、1次情報にあたる、 情報の信頼性を検討することが重要 • 出力の利用にあたっては 人間が責任を持つ(AIは責任を持たない) • 要因としては、データ、学習、推論が 挙げられる(Ji et al. 2023) 参考: https://openai.com/index/introducing-gpt-4-5/
  25. 33 • サービスによってはやりとりがモデルの学習に使われる可能性がある • 学習されたデータが他ユーザーとの対話の中で出てくる可能性が0ではない • データ利用ポリシーや利用規約などを確認の上、対処することが肝要 • サービスによっては学習しない設定をすることが可能 •

    学習されない設定であったとしても、 個人・機密情報については、大抵の場合は入力しない方が良い (組織が環境を整備していたら必ずしもそうではない) • プライバシーポリシーやセキュリティポリシーでそもそも外部のサービスに 情報をアップロードする時点で NG の場合がある
  26. 34 • 吉田は著作権の専門家ではございません • 今後は発信内容に関して専門家からコメントをもらうことも検討しています • 本内容は吉田が独自に調査、勉強したものですので、みなさまにとって参考程 度の位置づけの内容になることご了承ください • 参考資料は提示いたします

    • 本内容は日本における著作権についての説明になります • 国によって著作権の扱いが異なりますが、ベルヌ条約等外国との条約により、 基本的には著作権が利用される国の法律が適用されます • 参考: https://www.cric.or.jp/qa/hajime/hajime5.html • 文化庁のサイトが参考になります • https://www.bunka.go.jp/seisaku/chosakuken/aiandcopyright.html • 法的な対応が必要な場合は弁護士等にご相談ください
  27. 35 • 著作権の権利制限規定(例外規定) • 学校その他の教育機関における複製等(著作権法 第35条) • 学校その他の教育機関(営利を目的として設置されているものを除く) • 教育を担任する者及び授業を受ける者

    • 授業の過程における利用目的とする場合 • 必要と認められる限度において、複製、公衆送信が可能 • 翻訳、編曲、変形又は翻案も可能(著作権法 第47条の6) • ただし、著作権者の利益を不当に害することとなる場合は、この限りで ない 授業目的であれば大きく制限が緩和されており、他の著作物を使いやすい 授業目的以外(学校説明会など)だと通常の著作権侵害に関する検討が必要
  28. 38 • 故意: 結果の発生を認識した上で、結果が発生することを認容して行う行為 • 過失: 損害の発生が予見可能で回避可能性があるのに、回避の義務を怠うこと • 侵害者に故意・過失があるかどうか問わず •

    差止請求: 侵害行為の停止・予防措置の請求等 • 不当利益返還請求: 不当に得た利益の返還 • 侵害者に故意又は過失がある場合 • 損害賠償請求: 不法行為により生じた損害の補填の請求 • 侵害者に故意がある場合 • 告訴等による刑事処罰の求め(刑事罰)
  29. 43

  30. 44 • 生成 AI の可能性(再掲) • 生成 AI のリスク(再掲) •

    サービスの使い方(ChatGPT、Gemini、Copilot、Claude) • プロンプトの作り方 • プロンプトを作るコツ • プロンプト関連サイト • 質疑応答 • 生成 AI の使い方例 • ワーク 実際に使ってみる(実際に利用 → 意見共有) • Manabi AI の紹介(全体像説明、学生からの説明、今後の展望) • 質疑応答
  31. 45 • 学習者による活用例 • 個別学習支援: 個別指導、個別教材・問題作成、 メンター・相談相手としてのコメント・フィー ドバック作成、ドラフト作成 • グループ学習支援:

    チームメンバー、ファシリ テーター、メンターとしてのコメント・フィー ドバック作成 • 課外活動支援: 部活動、学園祭運営支援 • 教職員による活用例 • 授業支援: 授業案作成、教材作成、問題・課題 作成、評価補助 • 校務・事務支援: 資料・報告書作成補助、 データ処理補助 • 研究支援: 英訳、フィードバック生成 https://www.khanmigo.ai/
  32. 46 • 出力が不正確な場合がある(幻覚: ハルシネーション) • 評価の妥当性が低くなり得る • バイアス・毒性が存在する (Zhuo et

    al. 2024, Deshpande et al. 2023) • バイアス: 性別、人種、宗教などに関する偏見や先入観 • 毒性: 有害・攻撃的なコンテンツを生成する能力 • 言語格差が存在する • 意図せずデータが学習される可能性がある • 個人情報の捏造、流出の可能性がある • 機密情報の流出の可能性がある • 著作権を侵害する可能性がある • 公平性が保てない可能性がある(有料版と無料版の性能差)
  33. 47 • OpenAI ChatGPT • https://openai.com/ja-JP/chatgpt/overview/ • Google Gemini(ログイン必須) •

    https://gemini.google.com/?hl=ja • Microsoft Copilot • https://copilot.microsoft.com • Anthropic Claude(クロード)(ログイン必須) • https://claude.ai/
  34. 48 • プロンプト: 生成 AI に入力する指示出し内容のこと • プロンプトを用いる上で重要なこと • 行ってほしいことを目的なども含めて具体的に入れる

    (必要に応じて出力形式やデータも指定・アップロードする) • 思い通りの出力にならなくても、対話を繰り返し、自分がほしい出力の イメージを具体的に伝えてみる • プロンプトは改善するもの、生成AIは対話するものと認識する • 出力を鵜呑みにしない(自分で判断する。AIは責任を持たない) • 推論モデルでは、タスクによっては通用しない従来のテクニック(Few- shot prompting)もある模様(DeepSeek-AI 2025)
  35. 54 • 明確に指示出しする • 例を使う • 区切り文字を使う • 注意 •

    必ず性能が上がるわけではないため、過信しすぎない方が無難です • 推論モデルでは従来のテクニックが通用しないことがあります • ただし「明確に指示を出す」ということに関しては、今後も変わらず重要で あると個人的には考えています
  36. 58 • Promptia • 日本語のプロンプト集 • Awesome ChatGPT Prompts •

    英語のプロンプト集 • Prompt Engineering Guide(Web、GitHub) • 全般的に情報がまとまっている。日本語版は完全版でないこと注意が必要 • Learn Prompting • 全般的に情報がまとまっている。日本語対応も少し始まっている模様 • ChatGPT Prompt Engineering for Developers • DeepLearning.AI が OpenAI と組んで開発された開発者向けのオンライン講座 • Microsoft によるプロンプトエンジニアリング資料 • 開発者向けのプロンプトエンジニアリングに関する資料
  37. 59

  38. 61 • 学習者による活用例 • 個別学習支援: 個別指導、個別教材・問題作成、 メンター・相談相手としてのコメント・フィー ドバック作成、ドラフト作成 • グループ学習支援:

    チームメンバー、ファシリ テーター、メンターとしてのコメント・フィー ドバック作成 • 課外活動支援: 部活動、学園祭運営支援 • 教職員による活用例 • 授業支援: 授業案作成、教材作成、問題・課題 作成、評価補助 • 校務・事務支援: 資料・報告書作成補助、 データ処理補助 • 研究支援: 英訳、フィードバック生成 https://www.khanmigo.ai/
  39. 62 • (1人)生成 AI にアクセスして実際に使ってみる(8分) • 例えば、自分の担当科目に関する質問や教材作成、課題作成を依頼する • 明確な指示を出す •

    詳細(学年、科目、単元、タスクの種類など)を含める、区切り文字(# など)を使用する、例を示す • プロンプト自体を作ってもらう • 個人情報、機密情報、他者の著作物(文章など)は入れないこと • (1人)やりとりした内容と感想を LearnWiz One に投稿する(5分) • (1人)他者の投稿を「いいね」を押しながら確認する(4分) • (全体)出てきた意見を共有する
  40. 64 • まずはここから • 学習者、教員、保護者向けに生成AIに関する基礎知識を提供 • プロンプトに関する基礎知識も提供 • 生成 AI

    サービス • 主要な生成 AI サービスの使い方、注意点などを説明 • 活用場面 • 学習者、教員、保護者向けにそれぞれ具体的な活用場面での使い方を紹介 • 特集記事 • 特定のトピックに関する記事を提供
  41. 65 • 生成AIサービスの充実(画像生成AI、動画生成AIなど) • 活用事例の充実 • 特集記事の作成(著作権、海外の動向、ガイドラインの解説など) • 外部リンク集の作成(活用事例、関連資料、研修情報など) •

    まずはここから「職員向けページ」の作成検討 • よくある質問集の作成 • … 他にご要望があれば是非ご意見ください! (全てのご要望に対応できない可能性があることご了承ください)
  42. 66

  43. 67

  44. 71 • 学年・科目: 小学6年生・国語 俳句 • 内容:生成AIが「秋」をテーマに出力した俳句を批判的に検討した後、小学生 がそれぞれ俳句を作成し、最後に画像生成AIを用いて俳句の挿絵を出力する • 実際:生成AIの詩人としての能力の限界への気づき(2つの季語、直接的な表

    現、リズムの悪さ)、自分なりの俳句の工夫 • 生成AIが出力した俳句 「紅葉舞う 秋風さらさら 心落ちつ」 • 感想: 「AI で画像生成するのはとても便利 であるが、間違った使い方をすると自分の 学びにとってよくないかもしれないから 気を付けて使いたい。」 「今後も授業で生成 AI を使ってさらに理解 を深めていけるのではないかと思った。」 出典: https://leadingdxschool.mext.go.jp/report/?pid=633&rid=1614#block-1614
  45. 74 • 2023年6月14日 教育省が生成AI活用に関するエビデンスの提供を呼びかける。 2023年8月23日に募集終了。2023年11月28日に回答の概要が公開(567の回答) • 教員の利用例 • 教材の作成: 資料、ワークシート作成など

    • 授業・コースの計画 • 授業中のライブ利用: 授業中に優れた文章の例示、複雑な概念の説明など • 事務作業: メール作成、広報資料作成、議事録の要約など • 評価・採点・フィードバック • AIスキルの指導とAIリテラシー教育: 同僚や生徒への使い方指導、ツールのリスクと限界に ついて注意喚起など • 研究: 教える予定のトピックに関する調査、記事・動画の要約、データ分析など • 利点: 時間の節約、教育の質向上 • 懸念: ほぼ全ての回答者が、何らかの懸念。主な懸念は、生徒の生成AIへの過度の依存、不正 行為、データ保護とプライバシーのリスクなど • ニーズ: 多くの回答者が、安全で効果的な生成 AI の導入を支援するための取り組み(研修、ガ イダンス、規制など)を求めている
  46. 75 • ハーバード大学の CS 導入コース CS50 で専用ツールを導入 • Explain Highlighted

    Code (コードスニペットの説明など)、 style50 (コードスタイルの評価など)、CS50 Duck (GPT-4 を利用したCS関連ト ピックに関するチャット応答、ディスカッションフォーラムの質問への回答など) • 参加者: 2023年夏 キャンパスで約70人、2023年夏~秋 オンラインで数千人、 2023年秋 キャンパスで学生約500人、2023年6月~12月 全世界で5万人以上 • 評価: 2023年夏 非匿名アンケートで、回答はほぼ完全にポジティブで、学生はツール の有用性、効果、信頼性を高く評価 • 評価: 2023年秋 非匿名アンケートで、 学期中と学期末に2回実施。下記は学期末の結果概要 • 50%が「頻繁に」使用、28%が「常に」使用 • 55%が「頻繁に役立つ」 、33%が「常に役立つ」 • 33%が「好き」 、53%が「愛してる」 • 正確性: 質問に対して AI が正しく答えていたのは、 内容関連: 22/25 (88%)、運営関連 30/39 (77%)
  47. 77 • GPT-3.5, 4 の各3バージョン(2023年6月~2024年1月)、計6種類の GPT とエッセイ評価データセットを用いて、GPT のエッセイ評価能力を比較 • 研究によりわかったことと実践への示唆

    • マイナーバージョンを含むモデルによって評価能力が異なる (悪い例を出すと性能が良くなるものもあれば悪くなるものもある) → マイナーバージョンも含めてモデル間で影響が異なるため、 それぞれのモデルで自動エッセイ採点性能を評価する必要がある • 最新モデルではない GPT-4 (2023年6月) が最も安定性・性能が高い → 最新のGPT-4が必ずしも最も性能が良いわけではないため、 それぞれ評価する必要ある(LMSYS Chatbot Arena Leaderboard の性能 がそのまま各分野での性能になるわけではない) • GPT による評価と専門家による評価の一致率は高いとは言えない → エッセイ評価能力はそこまで高くないため、GPT による文章評価の結 果を過信してはいけない
  48. 80 • 「初等中等教育段階における生成AIの利活用に関するガイドライン(Ver.2.0) 」が公開 • 本体、概要1枚、概要資料の3点セットが2024年12月26日に公開されている • 内容 • ガイドラインの策定に当たって

    • ガイドライン策定の背景、目的、構成、位置付けが記載 • 1. 生成AIについて • 生成AIの定義、技術的な仕組み、急速な進化と普及の現状、教育分野における活用の可 能性とリスク • 2. 基本的な考え方 • 学校現場での生成AI利活用に関する基本的な考え方(「人間中心の原則」など) • 3. 学校現場において押さえておくべきポイント • 5つのポイント(安全性、情報セキュリティ、個人情報等の保護、公平性、透明性)が 記載 • 3-1. 教職員が校務で利活用する場面 • 3-2. 児童生徒が学習活動で利活用する場面 • 3-3. 教育委員会等が押さえておくべきポイント • 参考資料編 • 教職員・児童生徒向けのチェックリスト、生成AIパイロット校の先行事例、学校現場で 活用可能な研修教材、国内外の関連資料など 出典: https://www.mext.go.jp/a_menu/other/mext_02412.html
  49. 82 • 2023年1月 NYC が公立学校において ChatGPT 禁止し、他の学区もそれに続 いたが、2023年5月18日に NYC は撤回し、新技術の探究を奨励

    • 2023年5月 教育省が「Artificial Intelligence and the Future of Teaching and Learning」を発行。 • AIの機会とリスクにまとめられている。AI ではなく、人間を中心に据える ことの重要性(Human-in-the-Loop)などについて言及 • 2023年10月 バイデン大統領がAIの開発・利用全般に関する包括的な大統領令 を発出(現在は撤回) • 2024年10月 大統領令を受けて、教育におけるAI利活用のガイドラインを連邦 政府が公開(現在は非公開) • 2025年2月 トランプ大統領が上記の大統領令を撤回 ※ 州や学区によって対応が異なる(半分以上の州はガイドラインを公開) ※ 大学は、大学としてのポリシーを出す、教員に委ねるなどの対応 (例: ハーバード大学、スタンフォード大学)
  50. 83 • 2023年2月 利用禁止を検討する大学が4割ほど • 2023年3月 教育省がポリシーペーパー「Generative artificial intelligence (AI)

    in education」を公開。生成AIの理解を促す内容。 • 2023年5月 高等教育質保証機関であるQAA(The Quality Assurance Agency for Higher Education) は生成AIに関するアドバイスを公開し、全面的な禁止ではなく、 どのように活用できるか検討する方が望ましいと主張 • 2023年6月 教育省が生成AI活用に関するエビデンスの提供を呼びかける。2023年8月 に募集終了。2023年11月に回答の概要が公開 • 2023年7月 名門大学で構成されるラッセルグループの24大学が、生成AIの倫理的活用 に関する5つの指針を共同で策定 • 2023年10月教育省がポリシーペーパー「Generative artificial intelligence (AI) in education」を更新 • 2025年1月 教育省がポリシーペーパー「Generative artificial intelligence (AI) in education」を更新 • 2025年2月 HEPI が学生アンケート結果公開(64%の学生がテキスト生成を利用) HEPI: Higher Education Policy Institute(高等教育政策研究所)
  51. 84 • 2021年2月 AI4T(AI for Teachers)プロジェクトが開始(フランス、スロベ ニア、イタリア、アイルランド、ルクセンブルグが企画) • 2023年3月 イタリアが

    ChatGPT を一時的に禁止。4月に解除 • 2023年6月 AI4T が生成AIの情報を含むテキストブックを公開 • 2024年5月 生成AIを含む包括的なAIの規制である「欧州(EU)AI規制法」が 成立(リスクベースアプローチで教育における活用にも制限) • 2024年10月 EU資金によるプロジェクト「GenAI4ED」が開始 • 中等教育における生成AI活用プラットフォームの開発を目的とし、実証実験 としてイタリア・イギリス・ギリシャの学校でパイロットプログラムを実施 • 2025年2月 フランスが新AI戦略を発表(AIインフラ整備、AI教育・研究への投 資、企業支援など)
  52. 85 • 2018年5月 教育省とGovTechによって国が提供する学習環境「Student Learning Space」公開 • 2019年11月 政府のAI戦略が公開(含: 適応学習を活用した個別化された教育の実現)

    • 2022年7月 中高生のAIリテラシー普及を目指した「AI Student Outreach Programme」が開始 • 2022年5月 シンガポール国立研究所(NIE)、南洋理工大学(NTU)、シンガポール が「AI@NIE」(AIを活用した教育と学習の変革を目指した研究)を開始 • 2023年2月 教育省が公式見解を発表(生成AIは補助的に使うツール、AIが用意に生成 できない評価方法の採用など) • 2023年6月 教育省が AI を活用した適応学習システムを小学校5年生の数学に導入 • 2023年9月 教育省が「Transforming Education through Technology (EdTech) Masterplan 2030」を公開 • 2023年12月 AIの新たな国家戦略「国家AI戦略(NAIS2.0)」を発表(AI専門人材を1 万5,000人に増員など)
  53. 86 • 2023年7月 教育政策委員会の資料「Generative AI in the Classroom: From Hype

    to Reality?」公開 • 生成AIが教室内外でどのように活用され得るか、教師や生徒に与える影響、 直面する課題などについて言及 • メリット:きめ細かなフィードバック、個別化・対話的な学習体験、リスク のない失敗体験 • 課題: 不正、学習意欲の低下、教師側の準備不足 • 2023年9月 広島AIプロセスにおける議論に向けた報告書「G7 Hiroshima Process on Generative Artificial Intelligence (AI)」公開 • 各国へのアンケート結果や施策に関する概要などが記載 • 2023年12月 レポート「OECD Digital Education Outlook 2023」公開 • 生成AIの教育活用についても言及(各国の規制やガイドラインの状況、利活 用環境など)
  54. 87 • 分野によって性能が異なる(Lo 2023) • ChatGPT (GPT-3.5) のパフォーマンスについて • 批判的思考・高次思考、経済学、プログラミング、英文解釈で高評価

    • 法学、医学教育、数学、スポーツ科学と心理学などでは低評価 • モデルによって性能が異なる(OpenAI 2023) • GPT-3.5は米司法試験において下位10%のスコア • GPT-4 は米司法試験において上位10%のスコア • 利用時期によって性能が異なる(Chen et al. 2023) • 数学的推論について • GPT-3.5(2023年3月)< GPT-3.5(2023年6月) • GPT-4 (2023年3月)> GPT-4 (2023年6月) ※ 現時点の技術レベルでの見解
  55. 88 • マイナーバージョンによっても性能が異なる・最新のモデルが必ずしも性能 が高いわけではない(Yoshida 2024) • マイナーバージョンによってエッセイ評価能力が異なる(補足: GPT-3.5 や GPT-4

    の中でもさらに細かくバージョンが分かれている) • 最新モデルではないモデルが最高性能を示す • 使い方によって学習への影響が異なる(Brender. J, et al. 2024) • スイスの大学院におけるロボット工学コースにおける実験結果 ※ 現時点の技術レベルでの見解
  56. 90 • 評価の妥当性を下げ得る • 筆記に関連する学習成果物を自動生成させられると評価が揺らぐ (誤りが含まれることもあり、必ずしもそのまま使えるわけではない) • 評価方法、波及的に授業目的や内容、カリキュラムを再検討する可能性も • 学習プロセスを支援し得る

    • 例)家庭教師、相談相手、チームメイトなどの役割を与えて活用する • 教員の授業作りや校務・事務を支援し得る • 例)授業案、問題、教材、資料などのドラフトを作成してもらう 本質的には、生成 AI で楽したいと思われるような授業・課題ではなく、 もっと自分で学びたい、自分で取り組みたいと思ってもらえるような 授業・課題作りが重要だと吉田は思っています ※ 現時点の技術レベルでの見解
  57. 91 • まず利用に関するポリシーを明確に伝える(利用範囲を明確化する) • 物理的に禁じる • 対面でレポートを書かせる、テストする • 画面ロックした状態でオンラインテストする •

    プレゼンテーションや口頭試問にする • 成果物を自動生成しにくい課題にする • 概念マップなど図の作成を取り入れる • 協同学習を取り入れる • 実験やフィールドワークなどを取り入れる • 授業内容に特有の課題にする • 自身の体験を具体的に交えて説明させる • 対話型生成 AI を積極的に使ってもらう • AI が生成したレポートを批評・修正させる(Mollick & Mollick 2022, Yale 大学における実践例) ※ 現時点の技術レベルでの見解 重要なのは、 授業や学習目的に 合った評価方法で あるかどうか
  58. 92 • 共通 • 教員が適切に利用することで業務の効率化、教育の質向上につながる • 利用規約やセキュリティポリシーなど確認して利用する • 学習されない設定、個人・機密情報は入力しないなど情報管理する •

    生成AIの特徴を理解した/してもらった上で利用する/してもらう • 13歳未満の学習者(主に小学校) • 主要なサービスは13歳未満の利用を禁止にしている • 日本では児童向け生成AIサービスがあるため、それは利用可能な状況 • 教員が利用して授業で扱うことは主要なサービスでも可能 • 13歳以上~18歳未満の学習者(主に中学校・高校) • 主要なサービスは保護者の同意があれば利用可能
  59. 94

  60. 95 • まずはご自身で使ってみることをおすすめします • あくまでも AI は copilot(副操縦士)であり、 pilot であるあなたの知識、思考、意思決定が重要です

    • アンケートにもご協力ください! • https://77bd2461.form.kintoneapp.com/public/24aai-f1e3 • コミュニティにもご参加ください! • 教育現場の生成AIなんでも相談所 • https://forms.gle/WuBvxBoDfU8VXEao9 • 今後のイベント • 3月17日 13:30~ OpenAI Education Forum • https://events.openai.com/openaieducationforumtokyo • ハイブリッド配信(対面: 渋谷スクランブルスクエア 15階 渋谷キューズ) • 3月21日 17:00~19:00 Manabi AI シンポジウム(仮) • 詳細は https://edulab.t.u-tokyo.ac.jp/events/ にて公開予定 ご参加いただきありがとうございました!
  61. 96 • Brender, J., El-Hamamsy, L., Mondada, F., & Bumbacher,

    E. (2024, July). Who’s Helping Who? When Students Use ChatGPT to Engage in Practice Lab Sessions. In International Conference on Artificial Intelligence in Education (pp. 235-249). Cham: Springer Nature Switzerland. • Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., ... & Amodei, D. (2020). Language models are few-shot learners. Advances in neural information processing systems, 33, 1877-1901. • Chen, L., Zaharia, M., & Zou, J. (2024). How is ChatGPT’s behavior changing over time?. Harvard Data Science Review, 6(2). • DeepSeek-AI. (2025). Deepseek-r1: Incentivizing reasoning capability in llms via reinforcement learning. arXiv preprint arXiv:2501.12948. • Deshpande, A., Murahari, V., Rajpurohit, T., Kalyan, A., & Narasimhan, K. (2023). Toxicity in chatgpt: Analyzing persona-assigned language models. arXiv preprint arXiv:2304.05335. • Hendrycks, D., Burns, C., Basart, S., Zou, A., Mazeika, M., Song, D., & Steinhardt, J. (2020). Measuring massive multitask language understanding. arXiv preprint arXiv:2009.03300. • Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., ... & Fung, P. (2023). Survey of hallucination in natural language generation. ACM computing surveys, 55(12), 1-38. • Kaplan, J., McCandlish, S., Henighan, T., Brown, T. B., Chess, B., Child, R., ... & Amodei, D. (2020). Scaling laws for neural language models. arXiv preprint arXiv:2001.08361. • Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large language models are zero-shot reasoners. Advances in neural information processing systems, 35, 22199-22213. • Liu, R., Zenke, C., Liu, C., Holmes, A., Thornton, P., & Malan, D. J. (2024, March). Teaching CS50 with AI: leveraging generative artificial intelligence in computer science education. In Proceedings of the 55th ACM technical symposium on computer science education V. 1 (pp. 750-756). • Lo, C. K. (2023). What is the impact of ChatGPT on education? A rapid review of the literature. Education sciences, 13(4), 410. • OpenAI (2023). Gpt-4 technical report. arXiv preprint arXiv:2303.08774. • OpenAI (2025). OpenAI GPT-4.5 System Card, https://openai.com/index/gpt-4-5-system-card/ • Sadasivan, V. S., Kumar, A., Balasubramanian, S., Wang, W., & Feizi, S. (2023). Can AI-generated text be reliably detected?. arXiv preprint arXiv:2303.11156. • Yoshida, L. (2024, July). The Impact of Example Selection in Few-Shot Prompting on Automated Essay Scoring Using GPT Models. In International Conference on Artificial Intelligence in Education (pp. 61-73). Cham: Springer Nature Switzerland. • Wei, J., Tay, Y., Bommasani, R., Raffel, C., Zoph, B., Borgeaud, S., ... & Fedus, W. (2022a). Emergent abilities of large language models. arXiv preprint arXiv:2206.07682. • Wei, J., Wang, X., Schuurmans, D., Bosma, M., Xia, F., Chi, E., ... & Zhou, D. (2022b). Chain-of-thought prompting elicits reasoning in large language models. Advances in neural information processing systems, 35, 24824-24837. • Zhou, M., Abhishek, V., Derdenger, T., Kim, J., & Srinivasan, K. (2024). Bias in generative AI. arXiv preprint arXiv:2403.02726.