重要性https://doi.org/10.1073/pnas.24267661221 of 7随着人工智能工具在工作场所日益普及,理解人工智能使用的社交动态至关重要。通过对四项涉及4400多名参与者的实验,我们揭示了对人工智能使用的社交惩罚:使用人工智能工具的个人会受到他人对其能力和动机的负面评价。这些评价表现为预期的和实际的社会惩罚,形成一种悖论——即能提升生产力的人工智能工具在同时提升绩效的同时也会损害个人的职业声誉。我们的研究识别出人工智能使用可能面临的潜在障碍,并强调了社会认知如何降低工作场所对有益技术的接受度。作者单位:Fuqua商学院、管理学与组织学院,杜克大学,北卡罗来纳州达勒姆市,27701作者贡献:J.A.R.、R.P.L. 和 J.B.S. 设计了研究;J.A.R.执行了研究;J.A.R. 和 J.B.S. 分析了数据;J.A.R.、R.P.L. 和 J.B.S. 撰写了论文。作者声明无利益冲突。本文是 PNAS 直投稿件。版权所有 © 2025 作者。由 PNAS 出版。本文在Creative NonCommercialNoDerivativesCommons AttributionNCND)License 4.0 (CC BY通信联系地址。电子邮件:jessica.reif@duke.edu. 本文的在线支持信息位于https://www.pnas.org/lookup/suppl/doi:10.1073/pnas.2426766122/-/DCSupplemental2025年5月8日发布。 结果https://doi.org/10.1073/pnas.2426766122对这种负面认知的预期给那些考虑是否采用AI的人们带来困境:使用AI可能同时提高他们的生产力,但会削弱他人对他们能力和动机的认知。尽管已有大量研究探讨人们如何感知AI系统自身(26),但我们却很少了解评估者如何看待使用这些系统的人。了解从AI获取帮助是否真的会导致社会评价的负面后果,对于预见和应对与AI采用相关挑战至关重要。努力和能力长期以来一直是专业环境中人们被评估的主要指标(18, 19),因此人们致力于向他人展现这些受重视的特质(7, 20)。任何形式的帮助都会引发归因模糊性,从而给受益者带来印象管理方面的考量。当一个人在接受帮助以完成某项任务时,旁观者必须判断应将多少功劳归功于个人,多少归功于帮助(21)。在这个过程中,他们可能会想象反事实情景——即如果个人未获得帮助可能出现的情景——并预想可能发生的结果(22)。这一过程同样适用于关于付出的努力的评价,旁观者可能会考虑他们实际观察到的努力程度,以及反事实地思考如果目标人物付出更多努力,结果可能有何不同(23)。因此,接受帮助可能会使个人能力与付出努力的意愿蒙上一层阴影(3, 24)。意识到这种模糊性,接受帮助的人可能会担心旁观者会低估他们的能力和动机,从而隐瞒他们接受了帮助(8, 25)。这些社会评价方面的顾虑是有道理的,因为旁观者可能将使用帮助的行为解读为受益者本人不愿意或没有能力自己完成任务。那些不被认为是主流的或符合共识的行为尤其容易引发特质归因(24)。新兴技术就其定义而言是新的,因此其使用不太可能被视为习惯做法。基于归因理论,我们提出,减少努力或能力需求的新兴技术的使用,尤其可能引发对其操作者的负面特质推断。与以往仅执行特定操作或做出预测的工具不同,人工智能工具可能因其能够从经验中学习并实现更自主的操作而被视为更具能动性。强化ominously ( 17 ). Such powerful tools maydoubts related到他们操作者的能力和努力。Study 1.我们首先考察了员工是否相较于其他AI工具更不愿意在工作场合披露使用某AI工具,以及他们预期在使用每种工具时会被如何看待。(non tool. 我们招募了500名在线参与者,并要求他们想象他们最近开始使用“生成性”人工智能(AI ToolNon“AI工具”条件) 或一个“仪表板创建工具”(工具条件) 在工作中执行一项任务。然后,参与者评估了他们披露使用该工具的可能性。预期经理和同事以及他们被他人从四个维度感知:懒惰、可替代性、能力和勤勉。因为人工智能工具可能会被视为更具能动性的人工智能工具(因此更值得获得信用:相较于非使用者在任务完成上的成功率),我们预测,AI 工具的使用者会认为他人会认为他们更懒惰、更可替代、是AI工具的使用者。我们也能力较弱,不够勤奋,不像预期的那样,他们不太可能向经理和同事披露使用这些人工智能工具。测试以检查差异我们进行了AI工具AI工具Non每个六种因变量的条件和1 描绘了效应量(科恩氏)d) for pnas.org在全部六个测试中。首先,我们检验了参与者AI工具condition believed they would be evaluated as lazier and moreAI工具Nonreplaceable than participants in the条件。AI工具与我们的假设一致,参与者condiMSDtion被认为会显得更懒惰(=3.25,=AI工具MNon1.49) 比参与者condition (= 2.72,SDP= 1.41), (492.8) = 4.08, 95% CI [0.28, 0.79], < 0.001). They also reported that they would be perceived as morereplaceable inAIAI工具M SD Nonthecondition (=3.39, =1.67) than in theM SD工具状态 (= 2.83, = 1.63), (494.3) = 3.84, 95% CIP[0.28, 0.86], < 0.001).我们随后考察了参与者认为他人会如何根据本研究测量的两个代理维度(能力和勤勉)来评价他们:参与者报告称他们AI工具believed others would judge them as less competent intheAI工具MSD Non条件 (= 4.72, = 1.46) 比在conditionMSD= 5.45, = 1.22), (477.5) = 6.00, 95% CI [−0.96, −0.49],Pp<0.001). Similarly, they reported that they expected tobe perAI工具M SD被视为不太勤奋的condition (=4.66, =1.44)AI工具M SDNonthan in thecondition (=5.25, =1.28), (487.5)P= 4.86, 95% CI [−0.83, −0.35], < 0.001). 这些结果表明,人们认为使用更多代理技术的群体可能认为自己会被评估为较少代理性。最后,我们考察了与披露相关的两个变量。Fig.1.预期感知差异和披露差异的效果量研究对其他人而言(1)。注意:正的d值表示在AI工具条件下数值较高,而负的d值表示在AI工具条件下数值较低。N = 497。误差线代表95%置信区间。变量之间的相关性从0.53至0.88。AI工具参与者在condition reported that they would beM不太可能向他们的经理披露使用该工具的情况 (= 4.91,SD非AI工具M= 1.59)高于参与者条件 (=5.25,PSD= 1.55), (494.3) = 2.42, 95% CI [−0.62, −0.06], = 0.016).AI工具参与者在条件报告了较低的意愿。MSD披露向同事使用该工具(= 4.85,= 1.58)AI工具MNonthan participants in the条件 (= 5.17,SDP= 1.57), (494.8) = 2.23, 95% CI [−0.59, −0.04], = 0.026). 这些结果与我们的预测一致,即使用AI工具的人在职场中可能不愿意向他人透露其使用情况。研究2。我们随后测试了评价者是否对已知从人工智能获得帮助的员工比从其他形式获得帮助或根本未获得帮助的人评价得更负面。我们招募了1,215名在线参与者来完成一项研究,其中他们阅读了一段关于员工的段落,并评估他们认为该员工有多懒,以及他们如何从六个代理维度看待该员工:有能力、勤奋、有抱负、独立、自信和有支配力(27)。段落呈现是从384个独特的刺激中随机选择的,这些刺激系统地操纵了性别、职业 2 of 7 https://doi.org/10.1073/pnas.24267661223 of 7这一发现的潜在解释之一是,频繁使用AI的人认识到它能带来的生产力提升,因此预期使用AI的候选人在完成任务方面具有优势。由于任务描述并未明确说明是否可以使用AI,高频率使用AI的人可能推断AI可用,并认为使用AI的候选人会在任务中表现良好。第二种潜在解释是,对AI使用者的性格推断因个人AI使用情况而异,因此非AI使用者可能在招聘决策中更倾向于惩罚AI使用者。我们旨在阐明研究在上述两种潜在解释中4.我们先测试了管理者使用AI的影响、候选人使用AI的影响,任务and their interaction on managers’ evaluation of the candidate’sFitSI使用线性回归模型(附录, 表S5)平均而言,管理者参与者认为常规使用AI的候选人与从未使用AI的候选人在任务适应性方面相似。P =任务匹配0.516。然而,候选人使用人工智能的影响依赖于管理者参与者的个人AI使用(b = 0.06, SEt(1664)P= 0.01,= 7.08, < 0.001). 与使用人工智能频率较低的管理者参与者相比,使用人工智能频率较高的管理者参与者倾向于认为每天使用人工智能的候选人更适合这项任务。招聘决策的结果与此模式一致。研究3。接下来,我们考察了人们是否根据信念阶段采取激励相容的行为。关于在两个使用AI的人招聘任务。在第一阶段,我们招募了801名在线参与者候选人(job) 完成了短时间的在线任务,任务内容是在网格中数不同颜色的瓷砖。任务完成后,他们报告了自己使用生成式AI工具的频率。在第二阶段,我们招募了1,718名在线参与者来管理人员。as管理者被指示他们正在招聘一个需要描述图像内容的任务,并且他们的薪酬将基于他们所招聘候选人实际执行任务的表现。随后,管理者审查了一个已经完成该任务候选人的资料,该候选人对应于一个经常使用人工智能(Daily)或不使用(None)的候选人。管理人员随后回应了任务匹配三个项目评估员工and made a binary雇佣:选择将奖励给予完成任务的焦点员工,或者从已完成任务的候选人池中随机选择一名候选人。之后,他们报告了自己的AI使用情况。研究 4。在我们最后的这项研究中,我们检验了懒惰感知是否在候选人AI使用与候选人结果之间的关系中起中介作用。我们还检验了,如果AI被清晰地描述为对候选人正在考虑的任务有用,那么社会评价惩罚是否可以被抵消。tern. 招募候选人的倾向取决于每位经理参与者的自身AI使用情况,如交叉分析所示。SI在逻辑回归模型中显示的行动术语附录, 表格z PS2(b = 0.15, SE = 0.03, = 5.80, < 0.001)。该模型揭示,自身使用频率较低的经理参与者更倾向于不使用AI的候选人,而自身使用频率较高的经理参与者更倾向于每日使用AI的候选人。图3描绘了这些交互效应。assuredness. * 这表明,人工智能的社会污名化自用并不仅限于特定人群中的使用。结果表明这是一个普遍现象。测试结果和模型检验了代理所有指标的交互作用。附录vied in theSI根据候选人AI使用情况,任务表现没有差异。SI 附录表S4在模型中,“候选人日常使用AI”被编码为1,“候选人从未使用AI”被编码为1,以及管理者参