您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[世界经济论坛]:儿童人工智能(英) - 发现报告
当前位置:首页/行业研究/报告详情/

儿童人工智能(英)

儿童人工智能(英)

儿童人工智能工具包M A R C H 2 0 2 2 儿童人工智能2图片:盖蒂图片社内容1最高管理层和企业决策者清单 62产品团队指南 10博览会 15包容 17负责人 19保险箱 21透明 243人工智能标签系统 294父母和监护人指南 31免责声明本文件由世界经济论坛作为对项目、洞察领域或互动的贡献。本文所表达的调查结果、解释和结论是世界经济论坛推动和认可的合作过程的结果,但其结果不一定代表世界经济论坛或其全体成员、合作伙伴或其他利益相关者的观点。© 2022 世界经济论坛。版权所有。不得以任何形式或通过任何方式(包括影印和录制)或通过任何信息存储和检索系统复制或传播本出版物的任何部分。 儿童人工智能32022 年 3 月 儿童人工智能介绍该工具包旨在帮助公司为儿童和青少年开发值得信赖的人工智能。历史上第一次,一代儿童在人工智能 (AI) 塑造的世界中成长。 AI 是一组强大的算法,旨在收集和解释数据,以根据数据中发现的模式进行预测。儿童和青少年在日常生活中使用的许多产品中都被人工智能所包围,从社交媒体到教育技术、视频游戏、智能玩具和扬声器。人工智能决定了孩子们在网上观看的视频、他们学习的课程以及他们玩耍和与他人互动的方式。该工具包由青年、技术专家、学者和商业领袖组成的多元化团队制作,旨在帮助公司为儿童和青少年开发值得信赖的人工智能 (AI),并帮助父母、监护人、儿童和青少年负责任地购买和安全使用人工智能产品。人工智能可用于教育和赋权儿童和青年,并对社会产生积极影响。但儿童和青少年尤其容易受到人工智能带来的潜在风险的影响,包括偏见、网络安全和缺乏可访问性。人工智能的设计必须具有包容性,以尊重儿童用户的权利。以儿童为中心的设计可以保护儿童和青少年免受技术带来的潜在风险。必须创建人工智能技术,使其具有创新性和责任感。负责任的人工智能是安全、道德、透明、公平、可访问和包容的。设计负责任和值得信赖的人工智能对消费者、企业和社会都有好处。父母、监护人和成年人都有责任仔细选择符合道德规范的 AI 产品并帮助儿童安全使用它们。什么是危险的?人工智能将决定游戏、童年、教育和社会的未来。儿童和青年代表着未来,因此必须尽一切努力支持他们负责任地使用人工智能并应对未来的挑战。该工具包旨在帮助负责任地设计、使用和使用 AI。它旨在帮助公司、设计师、父母、监护人、儿童和青少年确保人工智能尊重儿童的权利并对他们的生活产生积极影响。 儿童人工智能4你是谁?企业决策者、产品团队成员或父母或监护人?将儿童和青少年放在首位公平的包括的负责任的安全的透明的企业用户C-suite 主管的清单和产品团队的指南包含可操作的框架和现实世界的指导,以帮助您的公司为儿童和青少年设计创新和负责任的 AI。通过使用这些准则,您可以成为一家值得信赖的公司,让您的孩子用户感到高兴。最高管理层负责围绕负责任的人工智能以及人工智能产品的战略和投资建立文化。该清单旨在帮助高管更多地了解人工智能对儿童和青少年的益处和风险,以便您更好地领导、创新和成长。公司应牢记,儿童经常使用并非专门设计的 AI 产品为他们。公司应该记住,孩子们经常使用不是专门为他们设计的人工智能产品。有时很难预测儿童或青少年以后会使用哪些产品。因此,您应该仔细考虑儿童或青少年是否可能是您正在开发的技术的用户。如果是,您应该仔细考虑如何帮助增加收益并减轻该技术对儿童和青少年造成的潜在风险。阅读有关最高管理层清单的更多信息。产品团队设计、开发和部署儿童和青少年将使用的人工智能技术。负责任的设计始于产品团队,并继续成为他们的持续责任。该指南旨在供工程师、开发人员、产品经理和产品团队的其他成员在整个产品生命周期中使用。 儿童人工智能5人工智能标签系统AI 标签系统旨在包含在所有 AI 产品的物理包装中,并可通过 QR 码在线访问。与食品包装上的营养信息一样,标签系统旨在简明扼要地告诉消费者——包括父母和监护人,以及儿童和青少年——它是如何工作的以及用户可以使用的选项。鼓励所有公司采用此工具,以帮助其产品的购买者和儿童用户建立更大的信任和透明度。了解人工智能标签系统消费者:父母和监护人父母和监护人决定为他们的孩子购买哪些人工智能技术。通过自我教育并更好地了解技术带来的好处和风险,您可以做出深思熟虑和明智的决定,以保护您的孩子,并确保人工智能对他们的生活产生积极影响。了解有关家长和监护人指南的更多信息父母和监护人的工具是基于 AI 标签系统(图 1)设计的,以了解这六个重要的 AI 类别。数字 1人工智能标签系统年龄数据使用传感器可访问性人工智能利用网络资料来源:世界经济论坛 儿童人工智能6高管和企业决策者清单可操作的框架和现实世界的指导帮助公司为儿童和青少年设计创新和负责任的人工智能。此清单适用于提供包含供儿童和青少年使用的人工智能 (AI) 的产品和服务的公司的高级管理人员。许多公司使用人工智能来区分他们的品牌和产品,通过整合它进入玩具、互动游戏、扩展现实应用、社交媒体、流媒体平台和教育产品。只需要拼凑的法规来指导他们,组织必须解决与数据捕获相关的隐私和道德问题的海洋以及人工智能模型的训练和使用。执行领导者必须在实现人工智能的潜力和帮助降低风险之间取得平衡对儿童和青少年的伤害,并最终对他们的品牌造成伤害。该清单以世界经济论坛“赋予 AI 领导力:AI C-Suite Toolkit”为基础,旨在帮助 C-suite 高管和其他企业决策者反思并采取行动,为此创建和支持负责任的 AI弱势群体。面向儿童和青少年的值得信赖和负责任的人工智能:高管清单被人工智能创新的绝佳机会所吸引,公司正以创纪录的速度将人工智能融入玩具、广播和社交媒体、智能扬声器、教育技术、虚拟世界等。人工智能的复杂性和影响来自简单的推荐和定制引擎深度沉浸式体验,模仿和模拟人类行为、情感和互动。经过深思熟虑,这些系统可以让年轻用户愉悦、教授和激发互动,使他们能够按照自己的节奏和学习方式成长和发展。但实施时没有经过深思熟虑和对儿童发展的指导专家和伦理学家认为,人工智能会阻碍发展并侵犯弱势用户的权利。通过这份清单,领导者可以了解即使是善意的公司也如何忽视潜在问题,以及如何降低与采用人工智能相关的风险。管理人员应在儿童发展、目标适用性、无偏见、可访问性和隐私方面追求尽可能高的道德和社会标准。这样做除了有机会做好事之外,还提供了巨大的潜力。它可以提升您的品牌,并使您能够将您的公司定位为您的主要买家(父母、祖父母、教师、教育工作者和其他护理提供者)的抢手产品和服务的值得信赖的管理者。1 儿童人工智能7公司可能达不到要求的地方行政领导者应该创造一种以资源为后盾的责任文化,实现从设计到最终产品使用等各个环节的负责任的人工智能。鉴于人工智能采用的加速以及广泛接受的标准和指南的滞后,领导者可能会措手不及。您的团队应该避免哪些最危险的行为?–不披露人工智能的使用方式:认为买家可能反对人工智能的公司可能会隐瞒或淡化其使用。对 AI 的使用以及使用它的原因保持透明。–放大和延续偏见:人工智能建模可能包含不准确和过度简化,导致无法访问和对边缘化群体产生偏见,例如残疾社区和来自不同文化和社会经济背景的用户。–跳过以用户为中心的验证:绕过用户和专家对适用性的验证在设计和原型制作阶段的目的可能会降低人工智能的潜在价值并造成伤害。–留下隐私和安全漏洞:由于网络安全威胁和因地域而异的各种法规,数据安全、隐私和收集和使用数据的同意变得复杂。这些担忧超出了产品的使用寿命:对于未成年人,父母提供同意,但他们的孩子可能会要求他们的数据随着年龄的增长而被遗忘。考虑到这些潜在的绊脚石,企业领导者可以采取哪些措施来保护和提升他们的品牌,同时利用人工智能的巨大潜力? 行动执行领导者应该创造一种以资源为后盾的责任文化,使负责任的人工智能从设计到最终产品使用等各个环节都成为可能。建议执行以下步骤:1.了解法律责任和监管限制:利用现有的指导方针,例如电气和电子工程师协会 (IEEE) 的道德准则,1 联合国儿童基金会儿童人工智能政策指南2 和世界经济论坛的指导,3以及包含的指导在这个工具包和产品团队的指导方针、人工智能标签系统以及父母和监护人以及儿童和青少年的资源中。致力于内部,如果可能的话,外部人工智能监督。以简单的语言公开报告合规性和领导力措施,以便买家理解。2. 建立一个多元化且有能力的团队:包括伦理学家、研究人员、隐私专家、教育工作者、儿童发展专家、心理学家、用户体验 (UX)设计师和数据科学家。与非营利组织以及教育和研究机构合作以获得更多专业知识。3.使用此清单培训您的团队并为成功提供资源:让团队成员了解负责任和值得信赖的人工智能的重要性,并提供他们可以获得执行您的愿景所需的技能、工具和时间。就意外后果进行公开对话,可能的最坏情况,以及确保您的团队考虑将儿童和青少年放在首位的五个 AI 特征的原因(图 2)。有关详细信息,请参阅产品团队指南,其中提供了五个方面的详细指导。4. 提供专业知识,为法规、标准和指南的制定提供信息:参与有关如何在您的产品或服务中使用 AI 的公共论坛。分享您在提出指导和要求方面的经验。5.欢迎为产品和服务贴标的原则性努力:这些应该根据人工智能对用户的潜在影响来完成。支持并参与制定标签和评级标准的活动。标记您的产品,以帮助消费者根据有关例如用户年龄、可访问性因素以及是否使用摄像头和麦克风的建议做出明智的选择。有关标记建议的更多信息,请参阅 AI 标记系统。数字 2将儿童和青少年放在首位公司文化和流程解决了有关人们如何开发 AI 模型以及使用 AI 模型的影响的道德和偏见问题。人工智能模型与来自不同文化和不同能力的用户公平互动;产品测试包括不同的用户。产品反映了最新的学习科学,以实现健康的认知、社交、情感和/或身体发展。该技术保护和保护用户和购买者数据,公司披露其如何收集和使用数据并保护数据隐私;用户可以随时选择退出并删除或删除他们的数据。该公司以非技术术语向买家和用户解释为什么使用人工智能、它是如何工作的以及如何解释它的决定。该公司还承认人工智能的局限性和潜在风险,并欢迎监督和审计。资料来源:世界经济论坛人工智能孩子们8 领导的奖励当您提供负责任的基于 AI 的产品并参与标准开发时,您可以做的不仅仅是影响您的底线。你帮助年轻用户成长为最好的自己——人工智能赋能的一代。参考–Benjamin, Ruha,技术竞赛:新吉姆代码的废奴主义工具,政体书籍,2019 年,https://academic.oup.com/sf/article-abstract/98/4/1/5681679?redirectedFrom=fulltext–Coeckelbergh,Mark,AI Ethics,麻省理工学院出版社,2020 年,https://mitpress.mit.edu/books/ai-ethics–Dubber、Markus D.、Frank Pasquale 和 Sunit Das(编),《牛津人工智能伦理手册》,牛津大学出版社,2020 年,https://www.oxfor dhandbooks.com/view/10.1093/oxfordhb/9780190067397.001.0001/oxfordhb-9780190067397–O'Neil, Cathy,数学破坏的武器:大数据如何增加不平等并威胁民主,皇冠出版集团,2016 年,http://www.governance40.com/wp-content/uploads/2019/03/Weapons-of-数学-破坏-凯茜-奥尼尔.pdf–Russell, Stuart,人类兼容:人工智能和控制问题,企鹅出版集团,2019 年,https://books.google.ch/books/about/Human_Compatible.html?id=8vm0DwAAQBAJ&redir_esc=y–联合国,“年轻人帮助制定联合国数字保护建议”,联合国新闻,2021 年 3 月 24 日,https://new