您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[中国科学技术交流中心&瑞士驻华大使馆]:共建可信赖的科研生态——第三届中瑞科研诚信研讨会白皮书 - 发现报告

共建可信赖的科研生态——第三届中瑞科研诚信研讨会白皮书

共建可信赖的科研生态——第三届中瑞科研诚信研讨会白皮书

PHITE PAPER: THE 3RD SIHO-SWISS RESEARCH THTEGRITY WORKSHOP第三届中瑞科研诚信研讨会白皮书 NTRODUCTION引言 值此中瑞建交75周年之际,瑞士联邦政府科技文化中心(SwissnexinChina),Frontiers开放科学出版社、瑞士驻华大使馆、中国科学院文献情报中心及中国科学技术交流中心在瑞士驻华大使馆联合举办了“共建可信赖的科研生态:第三届中瑞科研诚信研讨会”。 研讨会汇聚了中瑞两国的政策制定者、学术专家及行业领袖,旨在共同应对新兴挑战,分享科研诚信领域的最佳实践。会议致力于为培育符合伦理,值得信赖的科研生态系统提供前瞻性见解,并进一步深化双方(特别是青年学者之间)在科研诚信与科学伦理方面的互信、对话与协作。 瑞士驻华大使白瑞谊阁下(H.E.JurgBurri)在欢迎辞中强调科技领域的相互理解与合作,是解决跨国伦理问题的关键所在, 来自中瑞两国知名机构的专家一一包括科技部科技评估中心、瑞士科研诚信能力中心(KWIS)、中国科学院文献情报中心、清华大学、北京大学、苏黎世联邦理工学院(ETHZurich)及苏黎世应用科技大学(UniversityofAppliedSciencesZurich)等专家,分享了前沿的研究见解,并就通往“可信人工智能(TrustworthyAl)的最佳路径展开了深入探讨, 以下为本次研讨会的核心成果: 主题一:学术界人工智能的末来 1.人工智能在学术界的作用:治理与诚信的视角 中方专家指出,中国在科研诚信治理上采取集中式管理模式,由科技部、教育部等政府机构制定顶层政策。国家层面关于诚信与伦理法规的修订,往往与重大的学术不端事件紧密相关,在国家监管框架的指导下,各高校和科研院所制定并落实具体的实施组则。 相比之下,瑞士专家分享了瑞士的分散式管理模式。在这一模式下,科研诚信不端行为通过大学内部的具体机制进行管理,并受不同州级和联邦法规的约束。瑞士的科研诚信治理框架与《欧洲科研诚信行为准则》(EuropeanCodeofConductforResearchIntegrity)保持一致,强调诚实、问责和可重复性是科学公信力的重要支柱。2021年,瑞士科学院(SwissAcademiesofArtsandSciences)发布了《科研诚信行为准则》作为行业指导方针。 科研诚信是全球性议题,任何单一机沟都难以独立压对,需要包括中国和瑞土在内的国际科研共同体加强合作,逆过这样的研讨会凝聚共识,共同构注可信赖的科研生态。 2.人工智能对研究的双重影响:创新与伦理挑战 尽管人工智能在破除研究壁垒(如语言障碍、知识壁垒)及提升研究包容性方面潜力巨大、但技术本身并非完美无缺。人工智能算法本身可能内含偏见、且存在制造新科研鸿沟的风险一一即早期采用者可能获得优势,从而拉大差距。此外,人工智能生成内容及辅助项目的责任归局问题,也使学界陷入两难。学者们强调,在人工智能介入研究产出的过程中,必须出台明确指引、厘洁角色分工、责任边界及伦理问责机制。2 人工智能在书助克股科研完向上有三个片而的潜力,一是在照法数据问题方面的磨力,能报在语言和恢态分析方面提供助力:二是在诉差检偿方面的潜力,能够帮助发现基干统计的异常,找到是否有被忽初的研究问题;三是在促进料学开放方面的潜力,无论解决语言沟通,和识券源的共享,还是对干全世界分布在不司节点下的和识体案的完普即年注,A都将提供新时机遇2 主题一:学术界人工智能的末来 3.利用人工智能变革研究范式 人工智能驱动的研究立项等创新模式,为重塑学术出版带来了前所未有的机遇一一人工智公平回报问题,仍是横亘在前的重大障碍。透明度、稳健的同行评审机制以及公平协作,被视为瑾保人工智能伦理化整合的三大基石。 针对最佳实践,会议建议培育类似"明厨(glasskitchen)模式的透明度以重塑信任,规范数据的有序复用,并确保贡献者获益。人工智能工具应在加速同行评审、课题预测、资源匹配及热点监测的同时,赋能作者、审稿人与编辑团队间的高效协作。2 在当前的学术和研究陷局中,我们正在见证我所称的全域化科研一一即不司领域进行广泛的协作与交叉,这提出了一个新的排战:所有学科必须在同一个平台上进行研究。 4.在人工智能时代打击科研不端行为 人工智能技术的滥用及不断演变的造假手段(如论文工厂、虚假同行评审、圈像墓改)正严重侵蚀研究的可信度。这不仅动摇了公众对科学的信任,也令出版业声普受损。对此,学者们呼吁采取多管齐下的防御策略:既要利用AI工具侦测不端行为:也要统一伦理准则,更要加强国际层面的协调合作。 Frontiers的一项关键举措是人工智能审稿助手AIRA。该工具通过分析海量数据:标记疑似不端模式并进行风险评分,确保欺诈性投稿在早期被拦截并转交人工复核。需强调的是,AI工具并非要取代人类编辑,而是为了辅助人类做出更明智的决策。2 Frontiers通过至合独立T三(如Ccctue和ClorSkies)并运行专门的科研诚信审计部门来污医更亮杂,协同的不端行为,从而进一步加强ARA系统。来白作者和辑的反圆显示出高满画度和质量指标的提升,这为“人机协同”方法有效保护科学记录完整性主张提供了有力支持。 主题一:学术界人工智能的未来 5.治理与机构对学术压力的应对 以出版为导向的高强度评估体系被认为是导致学术不端的潜在催化剂,通过全面的披否协议,灵活的标准及制度性改革来规范诚信已迫在眉睫。在技术驱动的学术环境下,建立跨区域,跨行业的合作框架对于应对不端风险至关重要。 瑞士专家特别指出,块乏协调的报告机制和数据共享实践,是自前记录不端案件的主要痛点。为此,瑞士于2025年正式成立瑞士科研诚信能力中心(KWIS),建立全面的披露机制。该中心将负责收集所有上报的学术不端案件,并向学术机构推荐最佳实践方案。 所有大学及表据联讲究法案获得资助的组织部有义务可瑞士科研诉信能力中心汇报,它们必须向该中心授去任问己启动的科研诚信调查程序、已实施的制裁以及正在开展的合在提高科世诚信意识的措柜, 主题二:生命科学中人工智能的伦理考量 1.生命科学人工智能中的伦理挑战 将人工智能整合到生命科学研究中引发了伦理关切,如知情同意、数据管理以及风险与收益的平衡,特别是在脑机接口(Brain-ComputerInterfaces)和临床决策算法等领域。例如,临床环境中使用的决策算法具有提高诊断准确性的潜力,但当系统预测错误或不被充分理解时,也会带采与用户自目主权和监管相关的风险,学者们强调,必须建立稳健的框架来保障算法透明度及问责制,确保临床应用始终置于伦理监管之下。 在现实世界的医疗项目中,约0%其干大语言模生LargeLanguageMocel(LLM)的原型从未投入停用。LLM被广泛传可以减轻行政负担,普及去学知识、加速研究井克股语言库碍,但这些率诺注往流干表面。LLM只是工三,并非万能钥匙,仅在某些获官,纽分的领或有用, 2.二次数据使用与全球合作关切 数据的二次使用问题备受旺目,尤其是考虑到AI系统处理若海量的私人健康信息。建立由多学科团队组成的伦理审查系统已成必要。会议建议采用“动态知情同意"程序,确保患者全流程参与。学者们还提出了一套涵盖临床,伦理、法律及社会文化因素的评估框架,并特别强调需考虑到跨文化差异。在国际合作层面,重点应放在透明的数据共享、跨境问责机制及AI模型的临床影响评估上, 主题二:生命科学中人工智能的伦理考量 3.精准医学的实践伦理框架 传统的伦理原则本身不足以指导医疗背景下负责任的人工智能开发,瑞士学者展示了一个参与式研究方法案例,该案例将正式的伦理分析与实际的利益相关者需求相结合。瑞士学者展示了PRECISE4Q(Personalised Medicine by Predictive Modelling in Stroke for betterQualityofLife)项目的“大数据健康研究反思框架”(ReflectiveFrameworkforBigDataHealthResearch),强调从一开始就进行包容性的共创,确保与社会需求保持一致,利用集体智慈进行伦理创新,并通过在整个开发和部署过程中优先考虑医疗专业人员和患者的视角来改善患者预后,从而能够全面评估与精准医学工具相关的风险、收益及潜在隐患。 该准架的主要日的是激发联盟伙伴之间的讨论和反思,使他们能够识别并预见可能及Precie4工且成功转化为临末实践的落在伦理战,通过这种方式,该框架旨在通保升发记部署阶段的决策与以患者为中心的护理的核心伦理价估双和月则紧密一致。 主题二:生命科学中人工智能的伦理考量 4.医疗领域大语言模型(LLMs)面临的挑战 尽管大语言模型前景广周、但其临床落地仍面临重关溢,如输出不可靠、成本高品以及未能有效减轻行政负担。专业人员往往需耗费额外精力验证A输出的准确性。更令人担忧的是,这可能导致双层医疗体系的风险:一层是依赖不可靠A工具的资金医乏社区,另一层是享有受训专家服务的特权群体。在医疗资源本就紧张的背景下,盲目向A倾斜资源可能加剧这种不平等, 最佳实践和建议强调,应将大语言模型视为用于特定,定义明确的应用程序的工具,而非包治百病的解决方案。还必须解决伦理考量,例如大型数据中心的环境影响以及模型训练期间对知识产权的可疑处理,例如,瑞士提供了一种开放和逐明数据训练的创新方法,可作为合乎伦理的人工智能发展的典范。此外,必须注意防止建立双层医疗体系的风险即一层依赖不可靠的人工智能工具服务于资金不足的社区,另一层则拥有受过培训的专业人员。在已然紧张的医疗系统中,将资金错配给人工智能工具进一步凸显了谨慎整合的必要性,最终:鼓励利益相关者严格评估收益,并考虑财务和运营现实,避免受商业压力推动而言目追逐快速采用人工智能的炒作。 人工智能的发展速度非常快,但制定指导方针和手例的过程却相对缓慢。科学界本寻对人工智能或其潜力了群并不特别充分。科学界对人工智能的满在临用非常担忧。 关键共识 中瑞双方一致认为,人工智能为学术界带来机遇的同时也伴随若挑战,必须建立集体的治理框架。透明度与可更复性被确立为在学术和医疗领域维系信任的两大支柱。 在制定人工智能、脑机接口等前沿技术的伦理准则时,跨学科投入与多方参与具有紧迫性。双方致力于通过技术进步与伦理审议的结合,解决人工智能问责制及数据二次使用等复杂难题, 促进跨国对话对于确保新兴技术伦理应用的一致性至关重要:且必须充分尊重和考量文化差异。知识交流是实现相互学习的关键途径。 未来展望 通过深入剖析人工智能技术与伦理框架的复杂互动,本次研讨会为中瑞未来的合作实了基石。基于对透明度、可重复性和问责制的共同承诺,中国和瑞士有望引领全球,共同塑造生命科学研究稳健且符合伦理的未来, 室于当前学术诚信面临的问恶,需要研究君,出版商、相关机构的共同努力,而大学和科研机构也需费改革和完苦科研绩效评价体系,避免唯论支或影旧因子向, 当下科研与出版正面临若海量信息,真假难解,信任流失和“被动式开放数据的开店,一方面人工智能制造了内容围境,另一方面人工智能又被寄望于成为解法方案,传统出版模式长期以来率担这在作者即读有之间诊补不信任”的作用,但随若人工宵能逐步进八写作,评事与传等环节,学本出版的流程与分工正在发主变化:若行业不及时迟整机制与规范,部分环节可能出现“过意自动化”,人为把关弱化的情况,这也将带末新的挑战。 附录:议程 14:30开蒂致辞 白瑞谊,瑞土驻华大使刘细文,中国科学院文献情报中心主任范洺,Frontiers首席执行总编张小伟,中国科技交流中心欧洲处 14:50主旨演讲1:中瑞料技伦理与科研诚信框架 施筱勇,科技部科技评估中心EdwinCanstable:瑞士科研诚信能力中心创始主席 1525主旨演讲2:出版领域的人工智能:创新与真实性之间人工智能在维护研究诚信中的作用:规模化实现质量与诚信JulieMoSvalastog:Fr