AI智能总结
目录 当企业智慧遇上人工智能4人工智能的现状4 人工智能还是非人工智能6 识别AI风险与收益6进行人工智能效益分析7 识别AI风险8 9 / 社会风险 10 / 知识产权泄露与失效 10 / 无效所有权 11 / 网络安全与韧性影响 11 / 内部权限结构薄弱 11 / 技能差距 12 / 过度反应 12 /预期与非预期使用 12 / 数据完整性 13 / 责任 采用持续风险管理14方法14 / 第一步:识别风险14 / 第二步:定义风险偏好15 / 第三步:监控和管理风险 建设人工智能安全计划:八项协议15和准则15 / 一:信任但核实16 / 二:设计可接受的使用策略16 / 三:指定人工智能负责人16 / 四:进行成本分析17 / 五:适应并创建网络安全计划17 / 六:强制审计和可追溯性18 / 七:制定一套人工智能伦理18 / 八:社会适应,在人工智能驱动的未来繁荣19致谢21 摘要 这是许多科幻电影的前提:技术超越人类智能,造成破坏并最终征服人类。尽管这在现实生活中尚未发生,但ChatGPT的近期发布感觉像是片头曲——这只是众多生成式人工智能(AI)工具中的一个。现在,像苹果公司联合创始人史蒂夫·沃兹尼亚克和特斯拉首席执行官(CEO)埃隆·马斯克等科技界的知名领导者也加入了那些要求公司延缓“大型AI实验”的行列。1当行业进行风险评估时。他们的公开信指出,大规模AI项目在没有监督和智能管理的“可能对社会和人类造成深远风险”,并要求暂停进一步发展。信中也强调了治理体系以及一个专门负责AI的新监管机构的需求。 然而,其他行业领导者认为生成式人工智能的利弊都被夸大了2我们正面临有限的技术,这些技术远不如我们的最大期望那样有帮助,也不如我们的最大恐惧那样强大。但有一个结论是确定的:人工智能已经席卷了我们的商业和世界,首席信息安全官(CISO)、IT风险管理官、高管和IT高级管理层需要紧跟快速变化的风险环境,这一点十分紧迫。 1 futureoflife.org,“暂停大型人工智能实验:一封公开信”,2023年3月22日,F https://futureoflife.org/open-letter/pause-giant-ai-experiments/2 兰德尔,J.;“网络安全负责人应对人工智能风险与潜在回报”华尔街日报, 2023年5月25日,https://www.wsj.com/articles/ cybersecurity-chiefs-navigate-ai-risks-and-potential-rewards-9138b76d 当企业智慧遇上人工智能 就在几个月前,很难想象来自各行各业的专业人士会转向一个应用程序来生成法律论证和建议、计算机代码、莎士比亚风格的十四行诗和临床治疗方案。然而,数百万用户迅速适应了像这样生成式人工智能工具的便捷新世界。和谷歌的巴德。OpenAI的ChatGPT 4尽管其取得了巨大 也许可以将人工智能的出现与那些突破相提并论。但它更像汽车或互联网的诞生:一场将席卷所有行业的创新浪潮。 3的成功并且有多种用途,但大多数用户并不熟悉生成式AI的危险。因此,随着公司争先恐后地设计和利用AI工具,许多风险管理努力正在落后。 建立和使用新兴技术的努力不应以风险管理为代价。 人工智能引领了我们在与科技互动方式上的基础性转变。一直为我们服务的传统护栏和安全协议,在某种程度上已经不敷使用,因为生成式人工智能的流行度和影响力持续增长。新领域意味着新的风险,与以往的技术飞跃不同,寻求权威声音的企业反而面临着如何在深思熟虑中最大化人工智能价值,同时巧妙地最小化风险的疑虑。 建立和使用新兴技术的努力不应以风险管理为代价。不幸的是,这是大多数新技术的普遍模式。那些记得智能手机、3D打印或物联网(IoT)出现的人 人工智能的现状 尽管人工智能能够模仿人类思维模式和言语,但它并没有意识。通常所说的所谓人工智能实际上主要由机器学习技术或大型语言模型(LLMs)构成。例如,在输入了300亿ChatGPT消耗了书籍、网站、维基百科词语,以及其他来 5源,并使用人类反馈强化学习(RLHF)进行训练,反馈改进了它的回复。Bard 以类似的方式进行了训练,但也从互联网上获取信息。Megatron,6微软和英伟达的合资企业 是通过对新的“并行”技术进行训练,并可能很快通过能力的巨大提升超越ChatGPT。开发这些工具所使用的技术引发了关于LLM中使用的数据来源以及是否信任这些数据用于训练AI赋能工具的问题。 尽管像ChatGPT这样的私营公司占据了媒体聚光灯的大部分,但像ChatSonic、Jasper、Wordtune等其他初创公司正在帮助用户将AI不仅仅视为一个工具,而是视为一种新类型的 人工智能发展的速度连最资深的技术老兵都感到惊讶。几乎每周都会有人对人工智能的优势、危险、限制或潜力做出新的宣告,而且往往得出相互矛盾的结论。许多商业领袖选择等待人工智能尘埃落定后再设计正式的商业战略,这一点并不令人意外。但虽然这可能看似最安全的路径,但延迟本身也带有自身的风险。 功能技术。这部分得益于使用私人部门与公共部门信息贡献的生成式人工智能预训练。这些公司通过提供一系列满足用户多样化需求的工具和服务,正在变革我们与人工智能的交互方式。针对用户反馈,创作者正添加安全控件、文本分类器和其他功能,以变得更具有竞争力与实用性。 因此,无论人工智能革命以何种形式展开,我们都知道人工智能将长期存在,并且开始适应才是通往安全的最佳和最智能的路径。商业领袖应当假设人工智能已经在企业内部使用,因为其流行度在过去几年里呈指数级增长。一个8在使用ChatGPT时爆炸式增长的例子显示在图1. 例如,Bard被设计为也能作为个人助理工作,并且可以完成从预订假期到创建饮食计划等一系列任务。ChatGPT正在被整合到Microsoft Office 365中,作为Microsoft 365 Copilot。7很快,任何使用 Microsoft Word、Excel 或 PowerPoint 的用户都将能够使用 Copilot 创建新的演示文稿、制定市场进入策略,甚至将最复杂的财务数据提炼成报告。 人工智能还是非人工智能 听起来自信且合法,在用户寻找与他们问题相关的答案时,会让他们感到困惑或被误导。三星电子,11苹果,12摩根大通13与威瑞森通信14出于安全顾虑,已对生成式 AI在工作场所的使用进行了严格限制。 马会一直存在,但汽车只是一个新奇玩意——一种时尚。9 — dviceA从密歇根储蓄银行到亨利·福特律师霍勒斯·拉克汉姆 一些组织因为害怕未知而选择忽视人工智能日益增长的影响。另一些组织因为害怕又一项技术噱头,而将人工智能的承诺视为纯粹的炒作。但如果运用得当,人工智能工具可以增强人类的想法,补充商业流程,并将复杂信息提炼成易于理解的内容,所有这些都能推动更高的利润和绩效。 尽管考虑到目前人工智能能力的模糊性和后果,这些限制是有道理的,但大多数商业领袖意识到,关于长期人工智能格局的决定将比简单的“是”或“否”更为复杂。如果一家企业完全禁止人工智能,它可能会最小程度地削弱其竞争优势,因为一些员工、合作伙伴、分销商和竞争对手可能会从中受益。即使在企业中不使用人工智能赋能的工具,忽视这项技术也可能使企业面临更多风险(例如,过时、难以获得顶尖人才等)。 从轮子到汽车,历史表明,任何能让我们在更少的努力下完成更多事情的技术都曾风靡一时——正如生成式人工智能所证明的那样。从自动化繁琐任务到生成创意内容,生成式人工智能已展现出其提高生产力和释放人类创造力的潜力。如今,一些工人已将使用人工智能视为与查看电子邮件或在线购买商品一样平常。随着时间推移,人工智能将与我们个人和职业生活深度融合。 从轮子到汽车,历史表明,任何能让我们在更少努力下完成更多事情的技术都曾非常流行——正如生成式人工智能所证明的那样。 因此,高级领导者,如果他们希望利用人工智能技术,将需要确保其组织内具备正确的基础设施和治理流程。为了准确地理解人工智能所包含的漏洞和优势,领导者必须进行全面的、考虑了人工智能领域当前不确定性及其未来力量的风险评估分析。 尽管人工智能已渗透到社会和文化的几乎每个方面,但有些企业已禁止或限制使用人工智能。Stack Overflow,一个提供编程问答论坛的网站,曾暂时禁止使用ChatGPT10由于它倾向于给出错误的答案 识别AI风险与收益 人工智能即将渗透到各行各业的商业中。从为学生提供现成的学术论文,到为好莱坞影业公司编写剧本和 分析工厂车间设计的缺陷,人工智能为几乎所有团队、领域和组织带来益处。在集体行业层面(以及单个企业层面), 9 布什内尔,S.T.;亨利·福特真相, 里利和利公司, 美国, 1992 10 meta.stackoverflow.com,“临时政策:ChatGPT被禁,”https://meta.stackoverflow.com/questions/421831/temporary-poli- cy-chatgpt-is-banned11考利,C.《三星在代码泄露后限制生成式AI的使用》Tech.co,2023年5月8日https://tech.co/news/samsung-restricts-genera- tive-ai-use#:~:text=New%20Policy%20Bans%20Samsung%20Employeesz12 泰利,A.;M. 克鲁ppa;“苹果限制员工使用ChatGPT,加入其他公司担心泄露”华尔街日报,18五月2023,https://www.wsj.com/articles/apple-restricts-use-of-chatgpt-joining-other-companies-wary-of-leaks-d44d7d34?mod=article_inline13 路克帕特,A.;“摩根大通限制员工使用ChatGPT,”华尔街日报,2023年2月22日,https://www.wsj.com/articles/jpmor- gan-restricts-employees-from-using-chatgpt-2da5dc34?mod=article_inline14 Moneylife.in,“摩根大通限制员工使用ChatGPT”,23二月2023https://www.moneylife.in/article/jpmorgan-chase-re- stricts-workers-from-using-chatgpt/69948.html 领导者必须在安装适当且有效的护栏的同时,采取四个重要步骤来最大化人工智能的价值: 4. 实施适当的AI安全协议。 如果企业领导者能够遵循这些步骤,在他们的企业中利用人工智能工具和流程时,他们更有可能取得风险与回报的良好平衡。 1.识别AI优势。2.识别AI风险。3.采取持续风险管理方法。 进行人工智能效益分析 领导者兼慈善家比尔·盖茨等预见到人工智能的众多益处,15从为服务不足地区提供医疗保健和教育到纠正气候变化的影响。对于企业而言,潜在的优势包括更好的创新、效率、生产力和劳动力优化。公司已经开始利用人工智能自动化任务,并将员工重新分配到他们能够创造更多价值的工作中,例如专注于设计一个卓越的新服务领域或发展更周到的客户关系。 那些希望不利用人工智能的公司很可能会发现自己正走在一条淘汰的道路上。就像人工智能程序在短短几周内就吸引了数十亿用户一样,这些程序改变市场和产品能力的速度可能会令人震惊。 企业巨头可能会发现,他们的AI赋能竞争对手比以往任何时候都要聪明、快,而且更具杀伤力。图2包含一些示例用例。16 图2: 其公司伦理。一些考虑因素包括: 使用人工智能加剧了竞争 公司A是行业领导者,凭借一款旗舰产品十年来一直主导其市场。CEO对公司地位感到安心,因为竞争情报向她