您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[Common Sense]:研究简报:人工智能时代下的青少年、信任与技术 - 发现报告

研究简报:人工智能时代下的青少年、信任与技术

信息技术2025-01-29Common Sense周***
AI智能总结
查看更多
研究简报:人工智能时代下的青少年、信任与技术

青少年、信任与人工智能时代的技术 2025 常识对资助这项研究亮点所提供的慷慨支持和承保表示感激。 青少年、信任与人工智能时代的技术 詹妮弗·卡德威尔和约翰·H·N·费舍尔,帕特里克·J·麦戈文基金会,西格尔家族基金会纽约卡内基公司 克雷格·纽马克慈善基金会 在在线内容中导航信任 概述 鉴于当前数字格局——生成式人工智能日益嵌入我们每天使用的工具中——原始视觉内容可以以令人担忧的速度和便利性生产出来。这引发了一个关键问题:在多大程度上,生成式人工智能影响青少年对我们互动和认识世界及自身的信息所持有的信任? 虽然生成式人工智能的易用性为创造力和效率开辟了新的大门,但它也引发了关于信任的担忧。青少年在辨别真伪和操纵方面面临着新的挑战。在本份新的 spotlight 报告中,我们探讨了13至18岁的美国青少年如何在生成式人工智能时代体验信任。本报告基于我们之前的研究,“人工智能时代的曙光:青少年、父母及家庭和学校中生成式人工智能的采纳\"这项研究探讨了青少年如何与人工智能互动。在这里,我们更深入地研究了生成式人工智能如何影响他们对内容和平台的信任。这些发现为青少年、父母和监护人、教育工作者和技术领导者提供了洞察力,以帮助他们应对快速技术变革时代所面临的信任挑战。\ 关键发现 2.青少年与虚假和误导性材料的互动重塑了他们对在线内容的信任。 青少年中认为通用人工智能将使他们在网上看到的信息准确性更容易、更难或不会改变其信任能力的比例 •超过7成(72%)的青少年在经历过虚假或欺骗性内容后改变了他们评估在线信息准确性的方式(见图C,列出相关经历和因该经历而改变百分比)。1 1.许多青少年表示,他们被虚假内容误导,包括由人工智能生成的内容。 •大约五分之二(41%)的青少年表示,他们意识到自己看到过真实但具有误导性的图像或视频。 •超过三分之一的青少年(35%)表示,生成式人工智能系统将会使之相信准确性更难 •超过三分之一(35%)的青少年报告称他们曾被在线虚假内容误导。 他们看到的在线信息(图B)。 •青少年如果有过任何形式的虚假或误导性内容体验,相较于没有这些体验的青少年,他们更有可能表示生成式人工智能将让他们更难以信任网络信息的准确性(40% vs. 27%)。 •关于五分之一的青少年(22%)报告称,他们分享过后来发现自己分享的内容是假的。 •超过四分之一(28%)的青少年曾怀疑他们是在与聊天机器人还是人类交谈。 含义:青少年对网络内容准确性的认识反映出对数字平台的信任缺失,这指出了对青少年进行错误信息教育干预的机会,同时也表明科技公司在优先考虑透明度的同时,需要开发提升其平台上共享内容可信度的功能。 含义:青少年在区分真实和操控内容方面面临重大挑战,这可能导致对在线平台的信任度下降。 13至18岁青少年中,经历过______并表示“是”他们已经改变了评估在线内容准确性方式的比例 3.生成式人工智能在青少年中面临重大的可信度挑战。 4. 少年对科技公司信任度低。 图E:青少年在多大程度上信任科技公司对人工智能做出负责任的决定上存在分歧,如果有的话。 •大约六成青少年表示,主要科技公司(例如,谷歌、苹果、Meta、抖音、微软等)不能被信任关心他们的心理健康和福祉(64%)或即使损害利润也要保护人们的安全(62%)。 青少年报告信任科技公司的百分比如果有的话,做出关于他们如何使用人工智能的责任决策。在他们产品中 •近五分之二的青少年(39%)在使用生成式人工智能完成学校作业时,发现了AI输出的问题或不准确之处(图D)。 •36%的青少年表示他们没有注意到问题,还有四分之一(25%)的人不确定。 •略超过一半的青少年表示,他们对主要科技公司做出道德和负责任的设计决策(53%)、保护青少年个人信息安全(52%)或在考虑不同用户需求时保持包容和公平(51%)的信任水平较低。 含义:大约三分之一的青少年在生成式AI输出中发现了不准确之处,这强调了提高AI可靠性的重要性,并为所有青少年提供工具和技能,以批判性地评估AI生成的内容,尤其是在教育环境中。 关于人工智能,近一半(47%)的青少年对科技公司如何使用人工智能做出负责任的决策几乎没有信任(图E)。 含义:当提到科技公司时,青少年对这些公司在设计和决定新功能和技术时是否将青少年的安全和福祉放在首位缺乏信心。为了重建信任,科技公司可以通过参与式设计过程直接与年轻人互动,吸收他们的反馈,以创建更安全、更道德的数字环境,解决青少年关于隐私、安全和心理健康的特定关切。 结论 5.青少年对保障生成式人工智能表达强烈支持。 •四分之三的青少年(74%)认为隐私保护和透明度是管理人工智能的重要措施。 生成式人工智能让普通用户轻松快速地传播不可靠的声明和虚假媒体的能力可能会加剧青少年现有的低信任水平在媒体和政府等机构中。当被问及在当前信任度低的环境中如何管理人工智能时,青少年们强调了在人工智能输出准确性和偏差方面提供可见警告的重要性、设计用于阻止个人数据与人工智能平台共享的机制、水印来识别人工智能创作的内容,以及在内容被用于训练人工智能模型时对创作者进行补偿的做法。展望未来,一个多利益相关方的方法——包括政策制定者、科技公司、媒体机构、教育工作者、父母和照顾者,以及重要的是,青少年自己本身——对于在快速演变的数字世界中促进批判性思维和知情决策的文化至关重要。 相当一部分青少年对他们在网络上遇到的视觉内容持谨慎态度,尤其是在社交媒体上看到的视觉内容。在人们对视觉内容真实性——特别是在线媒体上的真实性——信任度下降的背景下,35%的青少年认为生成式AI系统将使人们更难相信在线信息的准确性。鉴于在生成式AI快速发展的背景下,对信息的信任——尤其是在线信息——面临着日益增长挑战,因此比以往任何时候都更关键的是:装备青年具有“”的技能调查,而非怀疑。他们遇到的信 •74%的青少年表示,鼓励生成式人工智能平台阻止人们在它们系统上分享个人信息是很重要的。 •73%的青少年希望人工智能生成的内容被标注或水印。 息。 •61%的人认为内容创作者应该因AI系统使用的数据而获得报酬。 含义:青少年对水印、警告和创作者补偿等措施的大力支持突显了即使在年轻人中,对生成式AI进行全面监管的需求。科技公司应与监管机构合作,制定明确、可执行的规范,优先考虑透明度、隐私和道德AI的使用。通过将实践与这些期望对齐,公司不仅可以重建信任,还可以为负责任的AI治理树立先例。 方法总结 •此数据来自一项全国代表性调查,包括1,045名美国成年人的回答(年龄18岁或以上)他们是13至18岁青少年或监护人的父母或监护人,以及其中一名青少年子女的回答。所有18岁的受访者仍在高中学习。该调查以在线形式进行,使用英语或西班牙语。 •数据由Ipsos Public Affairs代表Common Sense Media于2024年3月至5月收集。 •子群体之间的差异在小于 .05 的统计显著性水平上进行了测试。p •关于更多详细信息,请参阅本系列早期报告中“方法”部分。人工智能时代的曙光." •配对(二元)父母和青少年调查包括13至18岁的1,045名青少年的回答,以及为了获得250名黑人儿童和300名拉丁裔儿童受访者而进行的超额抽样。 关于常识 常识致力于通过提供可靠的信息、教育和独立的声音,改善儿童和家庭的生活。我们的独立研究旨在为家长和监护人、教育工作者、健康组织和政策制定者提供关于儿童使用媒体和技术及其对他们的身体、情感、社会和智力发展影响的可靠、独立数据。更多信息,请访问commonsense.org/research. commonsense.org