您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [普华永道]:生成式人工智能的风险和机遇管理 - 发现报告

生成式人工智能的风险和机遇管理

信息技术 2023-11-07 - 普华永道 福肺尖
报告封面

生成式人工智能的风险和机遇管理 2023年10月 搭建可信赖的人工智能坚持负责任的人工智能 目录 引言2企业面临的风险4生成式人工智能对企业的影响5识别生成式人工智能的应用场景6管理新增和加剧的风险8董事会和董事成员可采取的措施10高级管理层可采取的措施11底线13普华永道风险及控制服务部门的服务14联系我们了解更多信息15 引言 2022年11月,我们迎来了一场真正的革命。一夜之间,即便是仅会使用聊天软件的网民都感受到了人工智能的魔力。 在短短一周内,便有上百万用户通过ChatGPT撰写短文、编写计算机代码、创作艺术、把长文精炼为更有文采、更简洁的短文。 与此同时,一些心怀不轨的群体则试图利用生成式人工智能编写恶意软件、散播更具迷惑性的钓鱼邮件和伪造更逼真的虚假身份。这似乎预示着大规模欺诈、隐私泄露、虚假信息和网络攻击正向我们袭来。 在ChatGPT亮相仅数月后,生成式人工智能便深入地融入我们的生活和业务。活跃消费用户增长之快前所未有。从OpenAI的GPT3到GPT4,人工智能的功能实现了飞跃,在代码编写和中级专业写作方面的成绩显著。各大科技公司也不甘落后,纷纷推出/更新竞争产品;创业公司发布了定制应用程序的模型;包括普华永道在内的各大公司已宣布大规模投资自家的“CompanyGPT”,以供内部使用和对外提供新服务。 但担忧也随之而来,有人告诫“具有人类竞争智能的人工智能系统可以对社会和人类构成深远的风险”,社会大众和行业专家对此都深感忧虑。该项技术的头部供应商也承认存在类似风险。 针对生成式人工智能,采用以风险为导向的方法将确保公司在数字化道路上,始终符合监管机构、消费者和其他利益相关者的期望。公司只有在采用生成式人工智能的同时建立信任,才能快速、充分地利用这项改变世界的技术带来的红利。 风险管理关乎成败。如果公司希望成功实施生成式人工智能计划并取得竞争优势,则需要评估该技术可能给全公司带来的风险。为此,公司需要一套风险管理框架,以便更好地抓住机遇。 只有48% 78% 46%中国内地及68%中国香港 员工认为,加速采用人工智能有助于事业发展(资料来源:益普索,2022年) 中国受访者认为,产品和服务采用人工智能的利大于弊 (资料来源:益普索,2022年) 企业正在投资包括人工智能在内的新兴技术。(资料来源:普华永道,2023年) 企业面临的风险 生成式人工智能是人工智能家族中的一个强大分支,对企业具有颠覆性影响。它能够支持企业运营的几乎所有方面(包括客户服务、软件开发和数据分析)实现自动化和提升。 公司想要搭上人工智能的快车,实现持续发展,则需尽早招募风险专业人员。如此方能树立公司信心,顺利实施和推进生成式人工智能项目。 公司的风险管理人员必须管理好新增和加剧的风险,以及在业务、法律和监管方面的一系列挑战。白宫、美国国会、美国联邦贸易委员会、中国国家互联网信息办公室和欧盟相继采取行动,对生成式人工智能进行监管。与此同时,针对生成式人工智能违反数据保护法,在未经同意的情况下,收集、使用和披露个人信息的行为,部分国家(意大利、加拿大、西班牙、法国、德国)展开了调查,以此响应社会各界的不满或担忧。 借助人工智能,公司能针对不同客户定制个性化互动,改善互动方式,从而提升客户关系。人工智能可以自动完成批量任务,例如处理保险索赔和沟通或执行某些软件开发任务。 通过人工智能,团队能更轻松地了解非结构化数据,包括合同、发票、客户反馈、保单、保险理赔员告知单、绩效评估、医疗记录等。 员工生产力可以大幅提升。根据OpenAI的估计,每10名员工中约有8名*可通过生成式人工智能自动完成其至少10%的工作任务,而这仅仅是起步。生成式人工智能工具可以自动完成例行任务,使员工得以解放,从而投身更具创造性的工作,或以更创新、更全面的方式理解复杂主题和任务,提升批判性思维。 随着生成式人工智能技术日益普及,中国国家互联网信息办公室(网信办)、国家发展和改革委员会(发改委)、教育部、科学技术部(科技部)、工业和信息化部(工信部)、公安部和国家广播电视总局(广电总局)于2023年7月10日联合发布了《生成式人工智能服务管理暂行办法》,并于2023年8月15日生效。2023年10月18日,中央网信办更进一步发布《全球人工智能治理倡议》。 随着技术需求的持续增长,生成式人工智能的功能也在不断进步。仅仅不到四个月,人工智能语言系统就在复杂度和功能性两方面取得了显着进步,发展劲头势不可挡。 习主席在中共中央政治局会议上指出,“要重视通用人工智能发展,营造创新生态,重视防范风险”。 生成式人工智能对企业的影响 企业在涉足生成式人工智能时需重点关注以下方面。 员工:培养技能,适应新工作方式。 生成式人工智能可以为知识型员工赋能,助力员工在更短的时间内取得更大的成果。然而,为了充分利用人工智能的潜力,公司应当为员工提供必要的技能培训,适应新工具和新工作方式。企业必须深谙运用之道,切勿因生成式人工智能看似简单而掉以轻心。随着人工智能的采用,新的岗位也将应运而生,如提示工程师和模型专家。这些人才的组合好比“人工智能工厂”,为企业人工智能系统的实施和维护提供支持。 职能转型:重构运营。 为快速获得投资回报,部署生成式人工智能的“最佳着力点”很明确,即于运营各方面(例如营销、财务、供应链和税务合规)全面部署,以实现自动化和提升。凭借生成式人工智能,公司可最大限度地利用现有资源、强化决策能力、提升客户和员工体验。生成式人工智能可以优化数据集和文档集的整理,简化人工研究工作,还可用于起草财务、风险和合规性报告、定制个性化客户服务方案、识别人工报告中违规点。然而,为确保结果可靠,企业应依托负责任的人工智能框架施加强有力的监管。 云和数据:奠定增长基础。 生成式人工智能可挖掘非结构化数据的潜力,以此支持决策优化、收入增长和业务扩展。在推进数据和应用程序现代化时,公司应当充分考虑生成式人工智能,进而从根本上改变云应用的构建和运作方式。 负责任的人工智能:建立信任和管理风险。 企业想要通过生成式人工智能实现彻底革新,信任是首要前提。这需要企业负责任地使用人工智能,制定精细的实施方案,确保使用过程中的诚信和道德标准。通过整合技术、流程和技能,负责任的人工智能框架可以解决生成式人工智能的相关风险,例如网络威胁、隐私问题、法律影响、性能问题、偏见和知识产权风险。为了有效实施负责任的人工智能,最好的方法是将信任融入设计,从起步阶段便将信任纳入公司体系,并根据经验教训不断完善。 新商业模式:数据货币化和行业重塑。 如果企业能自主地将非结构化数据转换为可实现的构想或新软件代码、产品、服务,或为每位客户提供真正意义上的定制体验,未来将会如何?生成式人工智能提供了这种可能,它既能建立新商业模式,也能颠覆基本价值链。企业在利用生成式人工智能提升运营效率的同时,不妨思考这项技术在近期将如何实现公司业务和所在行业的颠覆。 识别生成式人工智能的应用场景 生成式人工智能可在企业运营的大多数方面(从客户服务到软件开发和数据分析)实现自动化和提升。企业可以从以下角度识别应用场景。 自上而下 自下而上 生成式人工智能在各行业和业务职能方面的用途 生成式人工智能优异的工作表现对员工的益处 行业 任务类型 生 成式 人工 智能 技术 能够 解决 不同 行业(例如医疗保健、科学研究和金融)的众多问题。 某些类别的任务(如汇总、转换和问答)最适合生成模型的技术机制。 这些功能如何融入企业的业务流程? 哪些生成式人工智能技术可用于企业所在的行业?生成功能如何助力企业立于不败之地? 业务职能 输出数据形式 生成式人工智能技术可用于研发、营销、销售、客户支持、运营、法律和后台流程。 生成技术可生成全新的文本、代码、图像、音频、视频等。 团队和员工个人每天产出何种类型的内容? 生成式应用程序如何提供尽善尽美的服务? 企业的IT和风险专业人员可以帮助企业加速实施负责任的生成式人工智能。他们可以确保生成式人工智能的隐私保护到位、公平(不良偏见得到有效管理)、有效可靠、负责透明、可解释和可说明。 换言之,即是赢得信任。 管理新增和加剧的风险 我们认为,公司需要了解和管理该技术的以下四大固有风险: 提示或输入风险 数据风险 模型和偏见风险 用户风险 向人工智能模型提供粗浅提示或问题而生成的误导性、不准确或不良回答。 错误信息传播、知识产权或合同问题(因未经批准使用数据),或因采用低质量数据训练生成式人工智能模型而产生的误导性和有害内容。 用户在不知情的情况下采纳错误信息和其他不良内容而导致的意外后果。例如,用户可能会将人工智能产生的虚假信息(即错误或荒谬的回答)当作事实。 在语言模型开发时,违反道德和负责任的人工智能原则,导致输出歧视性或不公平的内容。 因生成式人工智能的使用情况不同,公司还可能面临其他风险,尤其是在公司计划创建与基础模型关联的专有模型并添加专有或第三方数据的情况下。 公司的风险专业人员有助于获取各利益相关方对生成式人工智能的信任。因此,他们应将信任融入设计,以信任为价值主张,而非一味追求速度,以此赢得客户、投资者、业务合作伙伴、员工和社会的认可。 风险领域专家应考虑隐私、网络安全、合规、第三方管理、法律义务、知识产权方面的全部风险,并相互协作管理好整体企业风险。 同时,公司应与人才/人力资源负责人合作,制定各级培训计划,让每位员工熟知生成式人工智能的风险与回报。安排经验丰富的人员检查生成式人工智能输出的“初稿”。 监控员工表现,防止随时间推移出现“技能萎缩”、自满、质量下降的情况。 各种成熟的框架为设计和部署值得信任的人工智能应用程序提供了良好开端,其中包括香港政府资讯科技总监办公室(OGCIO)发布的《人工智能道德框架》、香港个人资料私隐专员公署(PCPD)发布的《开发及使用人工智能道德标准指引》、中国银行保险监督管理委员会发布的《关于银行业保险业数字化转型的指导意见》以及《IS0/IEC 23053:2022使用机器学习(ML)的人工智能(AI)系统框架》。 对于公司而言,制定有效的人工智能治理策略至关重要。除风险管理专业人员外,公司内外部人员均可能影响公司负责任地使用生成式人工智能的能力,包括数据科学家、数据工程师、数据提供方、领域专家、社会与文化分析师、多样性、公平性、包容性与可接取性、社区影响领域的专家、用户体验设计师、治理专家、系统出资人、产品经理、第三方实体、评估人员以及法律和隐私保护专业人员。 董事会和董事成员可采取的措施 首先,董事会要提高董事对人工智能和生成式人工智能的认识,利用管理层和外部资源,紧跟技术发展潮流,与时俱进,了解新的用例、商业模式的变化、相关风险并坚持负责任的实施原则。 董事需要从业务角度考虑人工智能和生成式人工智能技术及其使用。董事会行使监督职能,负责向管理层提出问题(本报告中分享了一些可供借鉴的示例),并适时向管理层提出质疑。董事会应考虑采用人工智能和生成式人工智能是否需要额外的技能,或是否依赖管理层或第三方。 考虑与利益相关方的沟通 复核人工智能的应用成本和效益 •董事会还应考虑公司如何向内外部利益相关方讲好人工智能故事;•管理层注重战略变革,以期在当今瞬息万变的商业环境中保持适应能力和竞争力•确保采取防范措施以保护员工、客户、 •董事会应当与管理层讨论应用人工智能的总体效益和成本。•从效益角度出发,企业需要重新构想完成工作的方式,包括员工的工作方式、与客户的互动方式、销售的产品和竞争方式。•管理层希望营造一种鼓励员工学习新技能、激励员工快速创新以抓住新机遇的企业文化,因此,公司可能需要投入成本,为全体员工提供人工智能和生成式人工智能应用方面的知识和技能培训。 制定问责治理模型 监督人工智能监管计划以衡量项目成果 •公司需要建立问责治理模型,首先要明确公司内部人工智能治理的责任。•有效的治理模