K - 12 教育中的生成 AI :挑战与机遇 2024 年 8 月更新 目录 引言 如何阅读此论文 背景 负责任的人工智能教育特定考虑 原则与负责任人工智能指导原则的实例 警示性注解 美国人对人工智能的看法 一般态度认知与知识 使用 AI 教师素养 学校政策现状 美国、欧洲、大西洋彼岸及全球政策方法 美国 欧洲联盟 英国与澳大利亚 政府模式 机遇 学生支持 自适应学习 创造力 基于项目的学习与合作 教师支持 课程规划与内容差异化 辅导与反馈 成绩评定与评估 系统支持 数据互操作性 行政管理与物流 家长参与 Seckinger 高中:全盘人工智能 风险、危害与挑战 不准确与幻觉 偏见与不平等 代表性不足 信息审查 作弊与抄袭 对技术过度依赖与批判性思维丧失 数据安全 同意与隐私 人类替代 学生观点 推荐 结论 致谢 附录 资源、链接与信息 教育者概览:如何一位社会研究教师导航 AI 教育者概览:如何一位四年级教师使用 Kyron Learning 教育者概览:如何一位四年级数学教师使用 TeachFX 关于 Introduction 不到两年前,生成式人工智能从一种主要仍局限于研究目的和学术辩论的新兴技术,发展到了广泛的应用。OpenAI 在2022年9月公开发布了他们的文本转图像模型DALL-E 2,1随后是他们的 AI 文本聊天机器人 ChatGPT 。2到 2023 年 1 月 , ChatGPT 已经获得了 1 亿用户 , 这是有史以来增长最快的消费者应用程序。3一年后,用户可以选择来自多个聊天机器人竞争对手的服务,包括Google Gemini和Anthropic的Claude,而且基于这些工具构建的数千款应用已经充斥了市场。 根据无数头条新闻 , 生成 AI 的出现标志着 “革命 ” 的开始4在各行各业乃至社会各个层面,包括银行、制造、医疗保健、法律、娱乐、零售、设计,当然还有教育。但新闻标题总是如此,我们之前经历过技术革命(比如汽车、电视、核能、计算和互联网在上个世纪,更不用说工业、铁路和电力在更早的历史中)。AI有何不同?这次革命是否代表了所有技术革命之母?我们如何跟上并理解最新的发展动态? 在研究并撰写此报告的过程中,我们采访了超过40位人士,涵盖了从博士专家到八年级学生等不同层面的人群。我们也借鉴了通用常识(Common Sense)集体的智慧,该组织在过去几年里在其教育、政策、研究、倡导和增长团队中构建了一座专业知识与知识的源泉,专注于生成式人工智能。我们试图集合那些通常不相互接触的人们,以将不同的观点缝合成更像拼布一样的整体。在这广泛的视角下,我们听到了各种各样的反应——包括恐惧、不安、兴奋、焦虑和乐观——有时这些情绪同时存在。这些反应都是正确的。ChatGPT发布近两年后,尽管我们对未来抱有极大的希望,但仍然缺乏清晰的指导方针、约束或政策。 我们的目标是提供K-12教育中生成式人工智能的概览,包括技术背景;AI素养和学校指导方针的状态;机会;风险;以及对该领域的建议。 如何阅读这篇论文 读者会注意到,本文标题侧重于“生成式人工智能”,但我们广泛讨论了人工智能;由于它们在大多数人的认知中已经变得同义,几乎不可能将二者分离。当我们使用“人工智能”这一术语时,指的是更广泛的人工智能概念。我们会在关注特定领域时使用“生成式”和其他限定词。最后,鉴于变化的快速步伐,我们承认本文代表了某一时间点的快照,但我们尽可能地聚焦于那些短期内不太可能得到解决的考虑因素。 我们论文从一般的人工智能背景信息开始,考虑到人工智能素养的重要性。我们概述了负责任人工智能的基本原则,并提供了遵循这些原则的实例,以帮助建立我们如何在教育中处理人工智能的基础。我们也想要纠正一些普遍存在的误解,因此加入了几个警告性的注释来补充这部分介绍性内容。 接下来,我们通过多个调查的结果提供了一个高层次的观点,以展示美国公众、特别是年轻人、家长和教师对生成式人工智能的感受、使用情况及理解程度。调查结果虽有启发性,但我们也直接与受访者交流,以获取他们对这项技术的情感质化认识。论文中穿插了教师和家长的引语,并专门设立了一节来总结与年轻人对话的要点。我们还在附录中包含了与三位教师的完整问答记录。 就政策而言,我们提供了对现行政府政策和学校/区级政策的概览。请注意,两方面的任务还远未完成。 所有这些——背景和定义、示例原则、调查结果以及政策概述——构成了理解我们关于机会与风险部分的基础。在整个过程中,某些主题反复出现: ● 炒作与现实 ● 数据安全和隐私 ● 透明度、信任和问责制 ● 偏见和公平 ● 人类监督 这些相同的主题也贯穿我们的建议。 生成式AI的发展仍处于初期阶段,我们并不声称拥有所有答案。但我们希望这份报告能作为这一不断演变领域的指南,帮助教育相关决策者就何时、如何以及是否在教育环境中使用AI工具做出明智的决定。 背景 询问十个人人工智能的定义,你会得到二十个答案。《韦氏词典》将AI定义为“计算机系统或算法模仿人类智能行为的能力。”5这简洁地概括了它,但其他更精确的技术定义避免了对人类的拟人化,因为这可能会给技术带来风险。例如,欧洲委员会高级专家人工智能小组将人工智能定义为“能够分析其环境并采取行动(具有一定自主性)以实现特定目标的系统”。6谷歌开发者词典使用了这一定义:"一种非人工的程序或模型,能够解决复杂任务。"7人工智能(AI)已经存在数十年,从Netflix上的推荐引擎、Siri等语音助手,到客户服务聊天机器人、搜索引擎以及预测工厂机器何时需要维护的监控系统,这些都是早期形式的AI所涉及的任务。这些早期形式的AI执行离散任务并响应特定的输入集。8这些系统可以从数据中学习 , 并根据这些数据做出预测, 但它们不会产生原创内容。 另一方面,生成式AI能够响应提交的提示或查询,通过学习现有的大量参考数据集,生成复杂、连贯且原创的内容,这些内容可以是文本、图像、音频和视频等。9亚历克斯在双手沾满生鸡肉糊的情况下设置 Alexa 的定时器进行烤火鸡,这既便捷又实用,而 ChatGPT 创作一首关于你的远房表亲、模仿彼特拉克风格的原创十四行诗,则令人叹为观止。 我们在研究此报告时遇到的对生成式AI的各种反应类似于AI行业本身的范围,尽管没有那么极端。在这一端,“悲观派”倡导对AI开发采取更为谨慎的方法,因为一些人担心它可能对人类未来的生存构成投机风险。10另一方面,“千禧一代”相信积极的影响远远超过了风险,并认为发展不应被限制。但无论极端观点获得多少关注,它们都无法解决当前使用中复杂现实和众多疑虑。在中间地带,正在兴起一股努力,旨在发展负责任 , 值得信赖的 AI , 适用于此时此地的所有人。在他们的个人生活中,对于AI的思考普遍既持怀疑态度又充满好奇,大多数人也大都处于中间立场。他们正在寻求指引。 强调准备迎接一个AI主宰至上的可能未来世界存在一个重大问题:这种愿景掩盖了当前需要解决的挑战。长期主义——关注确保人类将在数百万年后生存——这一焦点显得尤为重要。11- 对 AI 来说是可怕的 , 前谷歌 AI 的 Tracy Pizzo Frey 说 领导了Common Sense Media人工智能原则发展的高管。"有些人谈论殖民其他星球,却不考虑气候变化和系统性种族歧视。谈论生存风险是一种转移注意力的手法——它掩盖了当前正在发生的事情。" 在教育领域,Pizzo Frey 观察到了过去20年edtech兴起以及疫情以来加速发展的相似之处。“从宏观角度看,体验相当分化:一方面,人们对于人工智能和新技术充满热情,希望尽快实施;另一方面,持怀疑态度的人群,尤其是对教育技术原本就持怀疑态度的一线教育工作者,在AI方面也持怀疑态度。”AI不太可能一夜之间带来革命性的变化,而更像是一种渐进的过程,一系列小步骤和改变随着时间积累,最终引发重大转变。“这可能会默认发生,或者我们有意识地推动这一进程。我们需要质疑决策权。目前,这一进程更多是默认发生的。”Pizzo Frey如是说。 负责任的 AI 负责任的人工智能运动响应了这一关于意图性的呼吁。负责任的人工智能指的是以符合人类价值观、减少风险和伤害的方式设计、开发、部署和使用的人工智能。12将其视为对如何使这些工具和技术在现今工作得更有效、更准确、更公平和更具道德性的关注——而不是在未来十年。尽管关于实际负责任人工智能的确切定义尚无定论,但围绕某些主题的共识正在形成。 皮佐弗雷指出:“全球范围内存在数百个原则和宪章,它们在一些可预测的方式上惊人地相似。”“它们往往都会涉及不公平偏见、透明度和可解释性,以及隐私和安全等方面。”以下,可解释性指的是提高人类对人工智能如何工作的理解 , 这也建立了对系统结果的信任。13 大多数人都难以理解ChatGPT工作背后的深层技术细节,但每个人都应该能够用通俗语言理解该技术的基本运作方式。 大多数人在理解ChatGPT工作原理的深层次技术细节上可能无法做到,但每个人都应该能够用通俗易懂的语言理解该技术的基本运作方式。这也意味着科技公司不能以“黑箱”术语作为缺乏解释的借口来掩饰。 "人在回路中"这一表述也常出现在众多AI原则之中:系统中某些环节需要人类参与,而非完全以AI替代人类决策。在教育领域,这种人类参与的概念尤为重要。美国教育部 《教育》杂志2023年5月报告("人工智能与教学和学习的未来")提出指令:"始终以教育者为中心于教学循环中",进一步详细阐述这些循环为: 1. 教师在教学即刻工作中做出决策的循环。2. 包括专业发展在内的教师为教学做准备、规划和反思的循环。3. 教师参与关于人工智能增强技术设计的决策、参与技术选择并塑造技术评估的过程,从而为他们自己的课堂以及同僚教师的课堂设定情境。14 2024年国家教育技术计划特别强调了人在环中的作用:“无论技术人员声称如何,没有一种新兴技术本身就能解决教育体系面临的长期挑战。随着新技术的出现,教育工作者必须参与设计和开发用于课堂使用的数字工具。在州、学区或学校层面评估这些技术用于课堂使用时,应采取迭代方式,并包含教育者和学生的反馈。”15同样地,新兴的州级指导方针也以人类为中心。例如,根据华盛顿州的指导方针:“在K-12教育中,人工智能的应用始终应始于人类的探究,并最终导向人类的反思、洞见和赋权。”16 皮佐·弗莱超越了“人在回路中”这一原则。她表示,在人工智能可以直接且有意义地影响人们生活和机会(如教育)等情况下,需要有意义的人类控制。从原则的角度来看,不应该将人类与人工智能分离,“你不能,也不应该从本质上分离人类与人工智能。”实际上,人工智能是社会和技术的结合体;技术无法脱离那些对其使用进行指导和塑造的人类。17 具体教育方面的考虑因素 随着利益相关者就生成式AI在教育中的合适位置进行辩论和澄清,记住偏见、透明度和安全等主题至关重要。此外,在教育背景下讨论人工智能时,还有一些额外的考虑因素值得强调。 首先,我们谈论的是儿童。这可能显而易见,但关于教育领域人工智能伦理问题的讨论中,对儿童应获得与成人不同且更高级别保护的事实强调得不够充分。在2021年的一篇综述文章中,总结了AI研究者对教育领域人工智能伦理问题的回应,对年轻人的关注主要涉及同意权、学习自主性、数据隐私和算法偏见等问题,以及在形成期与儿童互动的长期影响。一位受访者表示:“我们在探讨的正是这一层面。” 鼓励易受影响的年轻人 , 这伴随着道义上的义务 , 即尽可能正确和适当。 “18 在学府评估、审视并可能采纳新的AI驱动工具时,有两点考量非常重要。首先需认识到,在教育场景中,无论是传统的算法还是近期的生成式AI技术,AI的影响并非总是显而易见。自动驾驶汽车出现故障可能导致即时且显著的身体伤害或死亡,而AI对儿童的影响则可能更为隐蔽且识别过程更为漫长。尽管如此,教育工作者和学校领导仍需在此刻考虑这些潜在的下游效应,并将需要研究来探讨结果。 第二个问题是,人工智能教育工具可能蕴