您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[钱伯斯(Baker McKenzie)]:北美 AI 调查 - 发现报告
当前位置:首页/行业研究/报告详情/

北美 AI 调查

北美 AI 调查

美国的监管和执法机构越来越多地关注人工智能及其潜在的偏见和其他危害 , 但 Baker McKenzie 的一项新研究发现 , 首席执行官中的许多人对评估人工智能威胁过于自信。同时 , 人力资源和招聘工具监督中存在严重的盲点。贝克麦肯齐 AI 研究商业领袖低估了与使用 AI 相关的风险。CAIO 将是企业前进的重要任命。公司及其股东面临的监管和诉讼风险迫在眉睫。下一步证明点 只是4%许多受访者认为与使用人工智能相关的风险是 “重大的 ” 。 38%相信他们公司的董事会并没有完全意识到人工智能是如何在整个组织中使用的。 Only41%受访者表示 , 他们在董事会层面拥有人工智能专业知识。 Only36%受访者目前有一名首席人工智能官 (CAIO) 。 64%目前缺乏 CAIO 的受访者并不急于雇用或任命一个。 24%受访者表示 , 他们管理人工智能风险的企业政策没有记录在案 , 或者根本不存在。 Only54%受访者表示 , 他们的组织让人力资源参与人工智能工具的决策过程。 少于一半 (47%) 的受访者可以用他们所有的人工智能工具来覆盖一些支持人工智能的结果。联系我们布拉德福德 · 纽曼合伙人 , Palo Alto bradford. newman @ bakermckenzie. com帕梅拉 T. 教堂合伙人 , 纽约 pamela. church @ bakermckenzie. com乔治 · 阿夫拉姆合作伙伴 , 多伦多AI 工具的风险评估是正确管理此类工具的法规遵从性、使用、审计和报告要求所必需的。 AI 监督和治理政策需要制定和颁布 , 以减轻与使用人工智能相关的已识别风险。公司应确保人工智能工具是透明的、可解释的、公平的和经验性的。同时还促进问责制并尊重数据隐私法律。这需要根据使用的 AI 类型和企业文化制定量身定制的方法。高管和董事会级别的治理和监督程序至关重要- 培训和培养跨职能 AI 团队的需要。额外资源 :关注 AIDT 和云调查以人为中心的人力资源 AI企业应该咨询有很强洞察力的从业者进入执法和监管机构的思维定式 , 如美国司法部和 SEC ; 英国的 SFO 、 FCA 、 HMRC 和 CMA ; 中国大陆的欧盟委员会和 AIC 等司法管辖区。随着人工智能监管的增加 , 新法规的执行也会增加。方法论:对 500 名美国 C 级高管的调查得出了见解 , 这些高管自我确定为决策团队的一部分 , 负责组织对人工智能工具的采用 , 使用和管理。这项调查是由 Baker McKenzie 与 Coleman Parkes 合作进行的。互联世界的解决方案人工智能与美国的企业监督Baker McKenzie 的北美人工智能和机器学习实践