Upgrade to Pro — share decks privately, control downloads, hide ads and more …

教員向け生成AI基礎講座(2025年3月28日 東京大学メタバース工学部 ジュニア講座)

教員向け生成AI基礎講座(2025年3月28日 東京大学メタバース工学部 ジュニア講座)

東京大学メタバース工学部 ジュニア講座「教員向け生成AI基礎講座」で用いたスライド資料です。
実施日時: 2025年3月28日(金) 20:00-21:00
講師: 東京大学 大学院工学系研究科 准教授 吉田塁

Lui Yoshida

March 28, 2025
Tweet

More Decks by Lui Yoshida

Other Decks in Education

Transcript

  1. 1 • すべての人々が最新の情報や工学の実践的スキルを獲得して 夢を実現できる社会の実現を目指す、 デジタル技術を駆使した工学分野における教育の場 • 教育プログラム • ジュニア工学教育プログラム •

    中高生・保護者・教師を主な対象 • 講座情報: https://www.meta-school.t.u-tokyo.ac.jp/junior/ • リスキリング工学教育プログラム • 社会人・学生を主な対象 • 講座情報: https://www.meta-school.t.u-tokyo.ac.jp/reskilling/
  2. 2 • 東京大学 大学院工学系研究科 准教授 • 専門は教育工学(アクティブラーニング、生成AI、 オンライン学習、ファカルティ・ディベロップメント) • コロナ禍における教育のオンライン化支援の貢献が認められ、

    オンライン授業等におけるグッドプラクティス総長表彰 • 研究室で開発した意見交換ツール「LearnWiz One」が世界最大 の EdTech コンペ GESAwards 2021 R&D 部門で世界大会優勝 • 東京財団政策研究所 主席研究員 • 2024年度研究プログラム 「学び続ける教員を支える生成AIに関する学びの場づくり」 • 生成 AI との関わり • コロナ禍のように教員が困るだろうと感じ、できるだけサポートしたいと思い活動 • 2023年5月13日実施の4時間の教員向け講座は参加者が650名以上、最高評価が8割以上、 公開している動画は再生数が8.5万回以上 • 文部科学省学校DX戦略アドバイザー。文部科学省による「初等中等教育段階における生 成 AI の利用に関する暫定的なガイドライン ver 2.0」の作成に委員として関与 @luiyoshida
  3. 6 • 目指すところ • 教育における生成AIへの対応や活用を検討できるようになることを目指し て、生成AIに関する理解を深める • 参加するにあたって • 質問やコメントは

    LearnWiz One に投稿してもらえるとありがたいです • 声が聞こえないなど緊急性の高いコメントは YouTube チャットにお願い します • 注意点 • できる限り間違いのない情報を載せることに努めていますが、進展が早く、 情報が多すぎることもあり、間違っている点などがあればご指摘下さい • 講座の様子は配信されており、後に録画も公開されることご了承下さい • 本講座の様子がスクリーンショットや参加者のコメント等も含めて、 記事や教材等としてウェブサイト等に公開される可能性があることご了承 下さい
  4. 8

  5. 9 • 生成 AI とは • 生成 AI のデモ(テキスト生成、画像生成、音声生成、動画生成) •

    生成 AI との対話にあたって(用語説明、姿勢) • 生成 AI の性能 • 生成 AI でできること • 生成 AI が苦手なこと・使う上で注意すること • 生成 AI の仕組み(テキスト生成、プロンプトの重要性、推論モデル) • 生成 AI の可能性 • 生成 AI のリスク • 質疑応答
  6. 10 • 学習データをもとにテキストや画像などのコンテンツを生成できる人工知能 • 関連技術やサービスの進展が早い(最近はマルチモーダル化が進んでいる) 対話型生成 AI (テキストがメインの生成AI) • ChatGPT

    • Copilot • Gemini • Claude • Llama • … 画像生成AI • Midjourney • Stable Diffusion • DALL・E3 • Image Creator • Adobe Firefly • … 動画生成AI • Sora • Veo2 • Wan 2.1 • …
  7. 12 • 用語説明 • プロンプト: 生成AIに入力する指示出しのこと • 対話をする上で重要なこと • プロンプトに行ってほしいことを目的なども含めて具体的に入れる

    (必要に応じて出力形式やデータも指定・アップロードする) • 思い通りの出力にならなくても、対話を繰り返し、自分がほしい出力の イメージを具体的に伝えてみる • プロンプトは改善するもの、生成AIは対話するものと認識する • 出力を鵜呑みにしない(自分で判断する。AIは責任を持たない)
  8. 13 • 2023年2月 米医師試験 合格ライン(ChatGPT GPT-3.5) • 2023年3月 米司法試験 上位10%スコア*1(GPT-4,

    GPT-3.5は下位10%) • 2023年4月 日本医師試験 合格ライン*2 (ChatGPT GPT-4) • 2024年3月 多様な分野の多肢選択問題、数学問題、プログラミング課題などで GPT-4よりも高スコア*3(Claude 3 Opus) • 2024年5月 扱えるトークン数が200万(約100~200万文字)に達する*4 (Gemini 1.5 Pro、GPT-4 は12.8万) • 2024年12月 人間のトッププログラマーレベル(世界約6万人中175位相当)、 博士レベルの科学問題 正答率 87.7%*5 (o3) *1: https://arxiv.org/abs/2303.08774 *2: https://www.medrxiv.org/content/10.1101/2023.04.17.23288603v1 *3: https://www.anthropic.com/news/claude-3-family *4: https://developers.googleblog.com/ja/gemini-15-pro-and-15-flash-now-available/ *5: https://www.youtube.com/watch?v=SKBG1sqdyIU ただし、人間が正答できる簡単な 問題で間違うこともあることから、 全知全能ではない
  9. 14 • 説明可能な課題に対して何かしら回答を出力をしてくれる (出力の質はモデルや分野などによって異なる) • 例 • 読書感想文作成 • レポート作成

    • 選択問題への回答 • AI 家庭教師 • 授業案作成 • 選択問題作成 • 文章の英訳 • Excel の数式作成 • Excel のマクロ作成
  10. 15 • プロンプト • 夏目漱石の「坊っちゃん」に関する読書感想文を、具体的な例も交えながら作成し て下さい。 • ChatGPT 4o 出力

    • 夏目漱石の『坊っちゃん』を読んで、改めて人間の正直さや正義感の大切さを考え させられました。主人公の坊っちゃんは、江戸っ子気質で短気だが真っ直ぐな性格 を持つ青年です。彼が松山の中学校に教師として赴任し、さまざまな人間模様に巻 き込まれながらも、自分の信念を貫く姿に共感を覚えました。 • 特に印象に残ったのは、坊っちゃんが教頭の「赤シャツ」と対立する場面です。赤 シャツは表向きは知的で上品な人物に見えますが、実際には陰で姑息な手を使って 周囲を操る狡猾な人物でした。坊っちゃんはそうした偽善的な態度を許せず、最終 的に赤シャツとその取り巻きを懲らしめます。この場面は、正義感の強い坊っちゃ んの性格が最もよく表れており、読んでいて痛快でした。 • …(略) 絶妙なデタラメが入っている。表面的な文章である印象 (プロンプトを工夫すれば異なる出力になる)
  11. 16 • 問題例: Hendrycks et al. (2020) の問題を日本語訳 • 静止状態からボールを落とすと、9.8m/s²の加速度で下向きに加速される。

    代わりに、空気抵抗がないと仮定して投げる場合、手から離れた直後の加速 度は (A) 9.8m/s²である。 (B) 9.8m/s²より大きい。 (C) 9.8m/s²より小さい。 (D) 投げるときの速度が与えられていなければ言えない。 • ChatGPT 4o 回答 正解 • (前略)空気抵抗がない場合、手から離れた後は重力のみが作用するため、 加速度は常に 9.8 m/s²(下向き) となります。よって、正解は(A) 9.8m/s²で ある。 • ChatGPT 4o mini 回答 正解 • (前略)手から離れた直後の加速度は、重力加速度によるものであり、加速 は 9.8 m/s² です。これは、投げる速度が与えられていなくても変わりません。 したがって、正解は (A) 9.8m/s²である です。 スクリーンショットも活用可能…
  12. 18 • プロンプト • 中学2年生向けの数学の授業(確率)について、効果的なアクティブラーニング を交えた授業案(50分)を作成してください • ChatGPT 4o mini

    回答(一部) • 【授業案:確率の基本と体験学習】(50分) • 目標: • 確率の基本的な概念(事象、確率)を理解する。 • 確率の計算方法を学び、実際の事例でその計算を体験する。 • 日常生活の中で確率をどのように使うかを考える。 • 準備物: • サイコロ(人数分) • コイン(人数分) • ホワイトボード、マーカー • プリント(問題シート)
  13. 20 • 必ずしも正確な情報を述べるわけではない • デタラメを言うことがある(幻覚: ハルシネーション) • GPT-4.5 で改善されているようだが完全ではない (OpenAI

    2025) • 専門知識を持つ、1次情報にあたる、情報の信頼性を検討することが重要 • 出力の利用にあたっては人間が責任を持つ(AIは責任を持たない) • 分野やモデルによってできることが異なる • それぞれの分野でどの程度活用できそうかを検討する必要あり • 自動生成された文章を検出することは難しい • ChatGPT によって生成された文章かを ChatGPT に聞いてしまい、その結 果を信じて学生の半分以上を不合格にする事案も発生(参考記事) • 実用上、自動生成された文章の検出は難しい(Sadasivan et al. 2023)
  14. 21 • 過去のテキストを参考に次に来る文字や単語を予測して出力する* • 単純な機構と思いきや、モデルのサイズ(パラメータ数など)を大きくするこ とで、能力が高くなり、多様なタスクをこなすことが可能 (Brown et al. 2020,

    Wei et al. 2022a, OpenAI 2023) むかしむかし 生成 AI あるところに 暑い日のこと おじいさんが ︙ ︙ ︙ ︙ あとに続く言葉の候補 入力された文章 出力される (あとに続く確率が高い) *推論モデルでは異なる(後述)
  15. 22 • スケーリング則: パラメータ数、学習計算量、データサイズを上げるほど性能 が上がる (Kaplan et al. 2020) •

    創発的能力: あるパラメータ数(学習計算量)を超えると急に性能が上がる (Wei et al. 2022a) 最近では小さなモデルでも性能を高める方法(蒸留など)が開発されている
  16. 23 ( ) • 例を載せると性能が向上(Few-shot prompting)(Brown et al. 2020) •

    思考過程を出力させると性能が向上(思考の連鎖: Chain of Thought)(Wei et al. 2022b) • 例を載せなくても「Let’s think step by step」とプロンプトに入れるだけで 性能が向上(Zero-shot prompting)(Kojima et al. 2022) ⋮
  17. 24 • モデル自身が思考の連鎖を行い、出力の質を高められるように学習させたもの (雑に言えば自身でプロンプトエンジニアリングできるようになったもの) AIモデル プロンプト 思考/推論 出力 AIモデル プロンプト

    出力 従来のテキスト生成(例: OpenAI GPT-4o, GPT-4.5, DeepSeek-V3) 推論モデルのテキスト生成(例: OpenAI o1, o3, DeepSeek-R1) この部分を 追加でトレーニング
  18. 25 • 学習者による活用例 • 個別学習支援: 個別指導、個別教材・問題作成、 メンター・相談相手としてのコメント・フィー ドバック作成、ドラフト作成 • グループ学習支援:

    チームメンバー、ファシリ テーター、メンターとしてのコメント・フィー ドバック作成 • 課外活動支援: 部活動、学園祭運営支援 • 教職員による活用例 • 授業支援: 授業案作成、教材作成、問題・課題 作成、評価補助 • 校務・事務支援: 資料・報告書作成補助、 データ処理補助 • 研究支援: 英訳、フィードバック生成 https://www.khanmigo.ai/
  19. 26 • 出力が不正確な場合がある(幻覚: ハルシネーション) • 評価の妥当性が低くなり得る • バイアス・毒性が存在する (Zhuo et

    al. 2024, Deshpande et al. 2023) • バイアス: 性別、人種、宗教などに関する偏見や先入観 • 毒性: 有害・攻撃的なコンテンツを生成する能力 • 言語格差が存在する • 意図せずデータが学習される可能性がある • 個人情報の捏造、流出の可能性がある • 機密情報の流出の可能性がある • 著作権を侵害する可能性がある • 公平性が保てない可能性がある(有料版と無料版の性能差)
  20. 27 • デタラメを言うことがある • OpenAI の最新モデル GPT-4.5 で改善されているようだが完全ではない • 生成

    AI の仕組み的になくすことは難しい • 専門知識を持つ、1次情報にあたる、 情報の信頼性を検討することが重要 • 出力の利用にあたっては 人間が責任を持つ(AIは責任を持たない) • 要因としては、データ、学習、推論が 挙げられる(Ji et al. 2023) 参考: https://openai.com/index/introducing-gpt-4-5/
  21. 28 • サービスによってはやりとりがモデルの学習に使われる可能性がある • 学習されたデータが他ユーザーとの対話の中で出てくる可能性が0ではない • データ利用ポリシーや利用規約などを確認の上、対処することが肝要 • サービスによっては学習しない設定をすることが可能 •

    学習されない設定であったとしても、 個人・機密情報については、大抵の場合は入力しない方が良い (組織が環境を整備していたら必ずしもそうではない) • プライバシーポリシーやセキュリティポリシーでそもそも外部のサービスに 情報をアップロードする時点で NG の場合がある
  22. 30

  23. 34 • 学年・科目: 小学6年生・国語 俳句 • 内容:生成AIが「秋」をテーマに出力した俳句を批判的に検討した後、小学生 がそれぞれ俳句を作成し、最後に画像生成AIを用いて俳句の挿絵を出力する • 実際:生成AIの詩人としての能力の限界への気づき(2つの季語、直接的な表

    現、リズムの悪さ)、自分なりの俳句の工夫 • 生成AIが出力した俳句 「紅葉舞う 秋風さらさら 心落ちつ」 • 感想: 「AI で画像生成するのはとても便利 であるが、間違った使い方をすると自分の 学びにとってよくないかもしれないから 気を付けて使いたい。」 「今後も授業で生成 AI を使ってさらに理解 を深めていけるのではないかと思った。」 出典: https://leadingdxschool.mext.go.jp/report/?pid=633&rid=1614#block-1614
  24. 35 • ChatGPT Edu を教育、研究、大学運営に導入 • 導入プロセス • 教職員や学生からChatGPTの革新的な活用法に関する提案を募集 •

    80%以上の学部から400件以上の提案、200以上のプロジェクトが進行中 • 活用事例 • 教育: 学生の論文作成支援するボット、医療系学生が患者との対話スキル を練習できるボット「Sam」など • 研究・運営: 博士課程の学生が、研究参加者を倫理的かつ分かりやすく募 集するための文章作成補助 出典: https://openai.com/index/asu/
  25. 38 • 「初等中等教育段階における生成AIの利活用に関するガイドライン(Ver.2.0) 」が公開 • 本体、概要1枚、概要資料の3点セットが2024年12月26日に公開されている • 内容 • ガイドラインの策定に当たって

    • ガイドライン策定の背景、目的、構成、位置付けが記載 • 1. 生成AIについて • 生成AIの定義、技術的な仕組み、急速な進化と普及の現状、教育分野における活用の可 能性とリスク • 2. 基本的な考え方 • 学校現場での生成AI利活用に関する基本的な考え方(「人間中心の原則」など) • 3. 学校現場において押さえておくべきポイント • 5つのポイント(安全性、情報セキュリティ、個人情報等の保護、公平性、透明性)が 記載 • 3-1. 教職員が校務で利活用する場面 • 3-2. 児童生徒が学習活動で利活用する場面 • 3-3. 教育委員会等が押さえておくべきポイント • 参考資料編 • 教職員・児童生徒向けのチェックリスト、生成AIパイロット校の先行事例、学校現場で 活用可能な研修教材、国内外の関連資料など 出典: https://www.mext.go.jp/a_menu/other/mext_02412.html
  26. 40 • 分野によって性能が異なる(Lo 2023) • ChatGPT (GPT-3.5) のパフォーマンスについて • 批判的思考・高次思考、経済学、プログラミング、英文解釈で高評価

    • 法学、医学教育、数学、スポーツ科学と心理学などでは低評価 • モデルによって性能が異なる(OpenAI 2023) • GPT-3.5は米司法試験において下位10%のスコア • GPT-4 は米司法試験において上位10%のスコア • 利用時期によって性能が異なる(Chen et al. 2023) • 数学的推論について • GPT-3.5(2023年3月)< GPT-3.5(2023年6月) • GPT-4 (2023年3月)> GPT-4 (2023年6月) ※ 現時点の技術レベルでの見解
  27. 41 • マイナーバージョンによっても性能が異なる・最新のモデルが必ずしも性能 が高いわけではない(Yoshida 2024) • マイナーバージョンによってエッセイ評価能力が異なる(補足: GPT-3.5 や GPT-4

    の中でもさらに細かくバージョンが分かれている) • 最新モデルではないモデルが最高性能を示す • 使い方によって学習への影響が異なる(Brender. J, et al. 2024) • スイスの大学院におけるロボット工学コースにおける実験結果 ※ 現時点の技術レベルでの見解
  28. 43 • 評価の妥当性を下げ得る • 筆記に関連する学習成果物を自動生成させられると評価が揺らぐ (誤りが含まれることもあり、必ずしもそのまま使えるわけではない) • 評価方法、波及的に授業目的や内容、カリキュラムを再検討する可能性も • 対策として、対面評価、生成AIが成果物を自動生成しにくい課題設定など

    • 学習プロセスを支援し得る • 例)家庭教師、相談相手、チームメイトなどの役割を与えて活用する • 教員の授業作りや校務・事務を支援し得る • 例)授業案、問題、教材、資料などのドラフトを作成してもらう 本質的には、生成 AI で楽したいと思われるような授業・課題ではなく、 もっと自分で学びたい、自分で取り組みたいと思ってもらえるような 授業・課題作りが重要だと吉田は思っています
  29. 44

  30. 45 • ご参加いただきありがとうございました! • まずはご自身で使ってみることをおすすめします • あくまでも AI は copilot(副操縦士)であり、

    pilot であるあなたの知識、思考、意思決定が重要です • アンケートにもご協力ください! • https://77bd2461.form.kintoneapp.com/public/24aac-cd0e • コミュニティ「教育現場の生成AIなんでも相談所」にもご参加ください! • https://forms.gle/WuBvxBoDfU8VXEao9
  31. 46 • Brender, J., El-Hamamsy, L., Mondada, F., & Bumbacher,

    E. (2024, July). Who’s Helping Who? When Students Use ChatGPT to Engage in Practice Lab Sessions. In International Conference on Artificial Intelligence in Education (pp. 235-249). Cham: Springer Nature Switzerland. • Brown, T., Mann, B., Ryder, N., Subbiah, M., Kaplan, J. D., Dhariwal, P., ... & Amodei, D. (2020). Language models are few-shot learners. Advances in neural information processing systems, 33, 1877-1901. • Chen, L., Zaharia, M., & Zou, J. (2024). How is ChatGPT’s behavior changing over time?. Harvard Data Science Review, 6(2). • DeepSeek-AI. (2025). Deepseek-r1: Incentivizing reasoning capability in llms via reinforcement learning. arXiv preprint arXiv:2501.12948. • Deshpande, A., Murahari, V., Rajpurohit, T., Kalyan, A., & Narasimhan, K. (2023). Toxicity in chatgpt: Analyzing persona-assigned language models. arXiv preprint arXiv:2304.05335. • Hendrycks, D., Burns, C., Basart, S., Zou, A., Mazeika, M., Song, D., & Steinhardt, J. (2020). Measuring massive multitask language understanding. arXiv preprint arXiv:2009.03300. • Ji, Z., Lee, N., Frieske, R., Yu, T., Su, D., Xu, Y., ... & Fung, P. (2023). Survey of hallucination in natural language generation. ACM computing surveys, 55(12), 1-38. • Kaplan, J., McCandlish, S., Henighan, T., Brown, T. B., Chess, B., Child, R., ... & Amodei, D. (2020). Scaling laws for neural language models. arXiv preprint arXiv:2001.08361. • Kojima, T., Gu, S. S., Reid, M., Matsuo, Y., & Iwasawa, Y. (2022). Large language models are zero-shot reasoners. Advances in neural information processing systems, 35, 22199-22213. • Liu, R., Zenke, C., Liu, C., Holmes, A., Thornton, P., & Malan, D. J. (2024, March). Teaching CS50 with AI: leveraging generative artificial intelligence in computer science education. In Proceedings of the 55th ACM technical symposium on computer science education V. 1 (pp. 750-756). • Lo, C. K. (2023). What is the impact of ChatGPT on education? A rapid review of the literature. Education sciences, 13(4), 410. • OpenAI (2023). Gpt-4 technical report. arXiv preprint arXiv:2303.08774. • OpenAI (2025). OpenAI GPT-4.5 System Card, https://openai.com/index/gpt-4-5-system-card/ • Sadasivan, V. S., Kumar, A., Balasubramanian, S., Wang, W., & Feizi, S. (2023). Can AI-generated text be reliably detected?. arXiv preprint arXiv:2303.11156. • Yoshida, L. (2024, July). The Impact of Example Selection in Few-Shot Prompting on Automated Essay Scoring Using GPT Models. In International Conference on Artificial Intelligence in Education (pp. 61-73). Cham: Springer Nature Switzerland. • Wei, J., Tay, Y., Bommasani, R., Raffel, C., Zoph, B., Borgeaud, S., ... & Fedus, W. (2022a). Emergent abilities of large language models. arXiv preprint arXiv:2206.07682. • Wei, J., Wang, X., Schuurmans, D., Bosma, M., Xia, F., Chi, E., ... & Zhou, D. (2022b). Chain-of-thought prompting elicits reasoning in large language models. Advances in neural information processing systems, 35, 24824-24837. • Zhou, M., Abhishek, V., Derdenger, T., Kim, J., & Srinivasan, K. (2024). Bias in generative AI. arXiv preprint arXiv:2403.02726.