您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[世界经济论坛]:具有生成性 AI 的患者第一健康 : 重塑护理体验 - 发现报告

具有生成性 AI 的患者第一健康 : 重塑护理体验

AI智能总结
查看更多
具有生成性 AI 的患者第一健康 : 重塑护理体验

患者第一的健康与重塑生成 AI : 护理体验 WHITE PAPER JANUARY 2024 Contents 前言 执行摘要 4 1三大类生成 AI 用例5 为患者参与 2如何以及为什么生成 AI 将彻底改变患者的方式6 参与他们的健康 3 安全 , 有效的面向患者的生成式 AI 的三个障碍 10 4为了使患者的生成 AI 成为现实 , 医疗保健利益相关者12 必须采取这四个步骤 结论 14 贡献者 15 尾注 16 免责声明 这份文件由世界经济论坛发布,作为对某个项目、洞察领域或互动的贡献。文中所表达的研究发现、解释和结论是世界经济论坛协力过程的结果,并得到其认可,但其结果未必反映世界经济论坛的观点,也不一定代表其全体成员、合作伙伴或其他利益相关方的意见。 © 2024 世界经论坛. 保留所有权利。本出版物的任何部分均不得以任何形式或通过任何手段进行复制或传输,包括复印和录音,或通过任何信息存储和检索系统。 前言 Shyam Bissen卫生中心负责人和医疗保健 , 世界经济论坛 Pratap KhedkarZS 首席执行官 在2022-23年,世界经济论坛与ZS合作发布了关于人工智能(AI)在医疗健康领域最具前景的应用案例、 Adoption 遇到的主要障碍、构建信任和采用AI解决方案的框架,以及呼吁医疗生态系统及相关方采取行动的报告。就在该论文即将发布之际,OpenAI推出了ChatGPT,将生成式AI引入公众讨论,并为利用AI解决医疗健康领域的棘手问题开辟了新的可能性。 鉴于大约80%的医疗数据是未结构化的,这些模型有望解决“传统”的预测AI技术不适用于的全球医疗健康挑战。 这份白皮书专门探讨生成式AI如何帮助赋能患者。它基于与医疗、技术及其他领域数字化和创新领导者的访谈,这些领导者分享了他们对最具有前景的患者参与应用场景的看法、最大的采用障碍以及关键使能因素,以利用这一新型模式改善全球健康成果。 例如,大型语言模型(LLMs)通过训练大量未结构化的数据,可以根据少量提示生成原创且类似人类的文字。 执行摘要 生成 AI 提供了一种强大的新模式来应对全球医疗保健挑战 , 但它不是灵丹妙药。 新冠病毒疫情加剧了众多现有的全球卫生保健问题领域——其中包括严重的医疗人员短缺。1扩大的健康不平等和卫生系统财务的生存压力。世界卫生组织估计,当前全球卫生工作者短缺1500万(包括医生1000万)。2到 2030 年 ,这一数字预计将下降到 1000 万。大约 95% 的缺口在低收入和中等收入国家 (LMICs) 。3 许多医疗保健公司和其他利益相关方在应对患者期望如何参与卫生系统的变化方面进展缓慢,如上所述。2024 年 ZS 未来健康报告这论文专注于利用生成式AI推动直接患者参与的应用前景,这一应用场景具有高度潜力以减轻医疗系统负担、减少医护人员的工作压力,并改善患者的体验和成果。 这对全球健康构成了重大威胁,因为现有的医疗保健提供者根本无法应对需要接受治疗的患者数量——更不用说提供所需的预防性护理以延长全球人口的健康寿命了。得益于机器学习和深度学习技术的迅速进步,人工智能被赞誉为解决广泛存在的医疗保健难题的答案。4然而 , 如 2023年联合论坛和 ZS 报告所述 , 仍然存在重大障碍在健康领域使用 AI 扩展智能解决方案 : 释放对高潜力用例的影响. 主要收获包括 : 生成式AI在帮助患者完成整个健康旅程方面展现出显著潜力——从跨地区和文化背景提供可靠的健康信息,到确保患者获得适当的护理水平,并帮助他们管理自身状况。 患者-facing生成AI解决方案在医疗领域的 Adoption 面临的最大障碍包括医生和公众之间的不信任、数据基础中的漏洞以及在资源有限的环境中实现可扩展性。 尽管生成型人工智能(AI)并非医疗健康的万能药,但它确实为利益相关者提供了一种强大的新手段,以应对现有预测型AI技术难以解决的医疗健康挑战。然而,预测型AI的局限性并不是推动生成型AI在医疗健康领域开发和使用唯一的原因。长期以来一直在进行的“消费者化”医疗进程——新冠疫情加速了这一进程——是推动医疗健康转型的强大且不断增长的力量。从公众对互联网日益依赖以获取健康信息,到美国的医疗定价透明法律以及欧洲各国出台的各种政策以使医疗更加可及,患者们普遍要求更便捷和易于获得的医疗体验。 鼓励在医疗健康领域采用生成式AI取决于向模型灌输同理心和领域特定知识、通过连接数据生态系统来减轻偏见并持续优化模型、保持人类参与其中以及开发更经济有效的方法来训练和运行多模态基础模型。 用于患者参与的三大类生成 AI用例 生成 AI 可以在医疗保健中以多种方式应用 , 以赋予患者权力并减轻卫生系统负担。 在与负责审核和实施生成式人工智能(AI)解决方案的健康-care和科技领域领导者交流后,出现了三个主题。一是利用AI和其他新兴技术创造价值已成为企业的首要议程。二是尽管医疗领域充满了实验,但对于哪些应用场景已经准备好部署并具有变革潜力仍缺乏共识。三是对于生成式AI应用场景类型如何分类也尚未达成一致意见。 通过自动化数据管理并从非结构化数据中提取洞察,从而创建更加坚实的数据基础,而此前使用早期的AI技术进行这项工作极其耗时、繁琐且效率低下。 生成式AI可以通过提供更加直观和类似人类与患者及护理人员的对话,帮助 informscare决策并激发行动。 –生成 AI 使Insights生成器:实时分析结构化数据集(如健康 数据)和非结构化数据集(如医生笔记),展现出作为“副驾”帮助医疗提供者快速分析信息并解读结果的巨大潜力。这些工具还可以帮助加速跨数据集的数据整合,从而帮助医生、护士和医疗系统更快获得更准确的洞察。 基于对文献的回顾和与来自医疗、技术及其他行业的数字和创新领导者进行的定性访谈,用例主要归类为三大类别: –传统的聊天机器人行动驱动因素:经常令患者和提供者感到失望, –用最小生产力提升器:生成式AI模型可以创建足够类似 人类的图像和文本,从而自动化许多当前的手动任务——从转录医生与患者的会诊记录、起草电子邮件到总结临床研究和提供一般健康信息。生成式AI还可以用于 因为信息不完整、模糊或无关,未能将洞察转化为实际行动。生成式AI可以通过提供更加直观、类人的与患者及其照顾者的对话来增强提供者,这些对话有助于指导护理决策并激发行动。 如何以及为什么生成 AI 将彻底改变患者参与健康的方式 生成 AI 有望颠覆患者获取健康信息、接受护理和管理病情的方式。 在 2023 年 6 月的报告中 ,在健康领域使用 AI扩展智能解决方案 : 释放对潜在用例的影响,超过50位来自医疗、政府、科技、学术界和非政府组织(NGOs)的领导者接受了访谈。许多受访者认为,人工智能和其他前沿技术可用于推动患者参与领域的变革;然而,他们也指出了挑战,包括分散的医疗生态系统、在没有“人工干预”的情况下与患者互动可能带来的责任问题以及传统聊天机器人存在的技术限制。 随着生成式AI的发展,问题来了:鉴于我们已知的更好患者参与与改善健康结果之间的联系,5这项技术能否通过在各种医疗健康互动中直接与患者沟通,安全地解决医疗工作者短缺的危险问题? 传统上,医疗保健系统主要在患者健康旅程的几个离散点与个人患者进行互动:当他们看医生、开始治疗以及停止治疗时。医疗保健系统需要的是在整个健康旅程中与患者互动、影响和收集见解的方法。生成式AI可以协助实现这三方面的需求。 疾病管理干预措施 用于患者分诊的联合飞行员 健康教育援助 LMICs * 的生活方式支持、早期疾病教育甚至产前护理 ,重点关注消费者和护理人员 协助监测 , 副作用管理 , 依从性和保持患者的治疗 第一英里的患者护理导航, 以帮助了解指导患者进行诊断或治疗的位置 患者参与使用案例 1:健康教育援助 其中有 100 万人为美国 65 岁及以上的人提供无偿护理11- 可靠且可访问的健康信息。( Globally,人们每年无偿承担16.4亿小时的照料工作,主要由女性完成,照顾所有年龄段的人。)12) LLMs可以训练成多语言模型,不仅提供正确的答案(最低要求),还能使答案足够易于理解,从而具备实际操作性。 然而,健康教育不仅在于提供信息,还在于使这些信息易于医疗保健消费者理解(从而使其具有可操作性)。最近的一项调查显示,健康素养差距每年给美国经济造成高达2380亿美元的损失,特别是在未服务社区以及英语水平有限的那部分人口(约占总人口的8%)中。13在欧盟 , 这一数字在 1200 亿欧元至 3200 亿欧元之间。14低收入和中等收入国家(LMICs)的健康素养更加有限,这些国家的教育水平较低、卫生系统资源严重不足且获得健康教育的机会有限。15 大型语言模型(LLMs)仅基于超过指定质量阈值的健康数据进行训练,将消除传统搜索中存在的不足。此外,它们可以被训练成多语言模型,提供不仅正确——这是最基本的要求——而且足够易于理解的答案,使得无论用户的语言流利程度、教育水平或文化背景如何,这些答案都能具有实际操作性。 安全 , 有效的面向患者的生成 AI 的三个障碍 采用障碍包括数据问题 , 对产出的不信任以及在富裕国家之外扩大规模的障碍。 在之前的联合 briefing 报告中,关于人工智能在医疗领域的应用,技术与医疗领域的领导者们指出了众多阻碍人工智能广泛应用的障碍,包括数据基础的缺失、算法信任度不足、技术基础设施不健全以及可扩展性问题。 使用生成式AI与患者互动面临许多相同挑战,同时还有一些新的挑战。这些挑战已经按照优先级从高到低进行了排序。 数据和信任仍然是在医疗保健中采用生成 AI 的两个基本障碍。 Mustaqhusain Kazi , 罗氏信息学战略和数字创新全球主管 数据基础上的洞 不信任 而在许多组织已经在构建自身数据管理基础设施的基础上增加了数据联盟甚至联邦学习的情况下,还需要额外的工作来确保模型能够在足够 robust 的数据上训练,从而产生适合安全可靠患者使用的输出。两个主要的数据问题如下: 受访者普遍认为信任是阻碍医疗领域生成式AI广泛应用的最大障碍,其中最关键的问题是准确性问题。 由于经常不清楚的原因 不准确性:对于用户而言,大语言模型(LLMs)在缺乏足够数据的情况下偶尔会产生错误或误导性的回答或响应。这些幻觉往往难以辨别,可能导致混淆和信息误导。由于错误健康信息的风险非常高,确保提供者将生成式AI整合到工作流程中,使其增强而非自动化临床决策至关重要。此外,在初始版本中开发人员需精心设计提示工程,并对未来的版本不断优化新的和领域特定的数据集,以确保LLMs避免传播错误信息并能够解释模型为何以特定方式响应。 与预测 AI 技术一样 ,偏见输出:生成式AI的输出反映了其训练数据中存在的偏见。这创造了在整个模型生命周期中增强透明度的紧迫需求——尤其是对于那些如OpenAI、谷歌及其他公司基于广泛互联网内容进行训练的模型。 患者健康数据为患者隐私:极其敏感,因此组织必须将安全、隐 私和持续的数据管理保护纳入治理模型。强生和 Syntegra使用生成式AI创建“合成数据”,从而使他们能够在完全绕过安全和隐私问题的情况下利用该技术。 像Perplexity AI这样的公司正在通过增加功能以解释模型如何得出某一输出结果来提高对输出的信任度,从而实现更高的透明度。这有助于用户评估他们应给予其多大的信任程度。 跨区域和上下文的可扩展性 数据若无行动便毫无用处,而生成式AI拥有巨大的潜力来赋能决策,特别是在中低收入国家,这些国家的医疗资源极度匮乏。 John Sargent , BroadReach Group 创始合伙人 为了使患者的生成 AI 成为现实 , 医疗保健利益相关者必须采取这四个步骤 克服医疗健康领域生成型AI的采用障碍需要整个医疗生态系统各参与方采取行动并进行合作。 Chat