AI智能总结
〇 版权所有,未经许可不得转载引用 组织实施单位 赛迪检测认证中心有限公司 组长:王庆蒙副组长:宋建伟 成员:范海勤王强杨帅韩颖范恩羽 边琳谢佳辰见红玉马钰莹兰辉 技术支撑单位 安徽龙讯信息科技有限公司 报告咨询 潘春燕电话:15001116997邮箱:panchunyan@cstc.org.cn王庆蒙电话:18810111729邮箱:wangqingmeng@cstc.org.cn 官方网站 中国软件评测中心:www.cstc.org.cn赛迪评估:www.ccidegov.cn数字政府评估公共服务平台:dgservice.cstc.org.cn 官方微信公众号 目录 四、评估结果............................................................................11 五、建设成效............................................................................16 (一)人本导向设计强化体验友好度..............................16(二)智能交互闭环优化使用流畅度..............................21(三)一键导办服务提升办事直达性..............................26(四)深度语义解析强化政策应答力..............................28(五)用户共治机制推动服务进化力..............................31 (一)安全防控机制存在薄弱环节..................................35(二)适老化无障碍功能尚需完善..................................41(三)智能导办功能有待进阶提升..................................44(四)多模态交互能力需强化改进..................................47(五)服务边界控制水平亟待优化..................................49(六)复杂意图解析效能存在不足..................................51 (一)筑牢全流程安全合规防线..................................53(二)打造零门槛便捷使用体验......................................54(三)构建一站式综合服务矩阵......................................55 (四)建立精准化动态应答机制......................................56(五)健全常态化迭代改进机制......................................57附件1相关政策文件...............................................................59附件2本次调查评估对象.......................................................62 一、评估背景 政府网站是数字政府建设和服务型政府转型的重要门户与前沿阵地。在人工智能技术迅猛发展、公众数字化服务需求日益增长的背景下,部署应用智能问答系统,已成为各级政府提升在线服务效能、优化用户体验、促进政策精准传达的关键抓手和必然选择。科学评估其建设与应用现状,对深化“互联网+政务服务”改革、切实增强公众和企业获得感具有重要的现实意义和战略价值。 (一)顺应国家战略与服务转型大势 当前,我国正深入推进“互联网+政务服务”改革和数字政府建设,国家层面系列政策文件明确要求提升政务服务智能化、精准化、便捷化水平。《国务院关于加强数字政府建设的指导意见》将智能问答定位为政民互动的关键载体,要求依托政府网站集约化平台统一知识问答库提升服务效能;《国务院办公厅关于印发全国一体化政务大数据体系建设指南的通知》明确提出构建智能问答等功能的通用算法模型,并将相关工作纳入政府绩效考核;《国务院关于进一步优化政务服务提升行政效能推动“高效办成一件事”的指导意见》等文件,则聚焦服务提质增效,要求强化人工智能大模型技术在精准交互、智能导办等场景的应用。政府网站作为在线服务核心入口,持续强化其智能问答系统的建设,直接关系到政策落地成效与公众获得感,是推动国家“放管服”改革向 纵深发展、加快建设服务型政府的必然要求。 (二)回应公众需求与破解服务痛点 随着数字素养的普及和商业平台体验的渗透,公众对政务服务提出了更高期待:渴望通过自然语言交互快速、精准地获取信息,解决“找不到、看不懂、问不清”的难题。这与政策中“提升政务服务智能化、精准化、便捷化水平”的要求高度契合。《国务院办公厅关于健全“高效办成一件事”重点事项常态化推进机制的意见》明确提出,要“稳妥有序推进人工智能大模型等新技术在政务服务领域应用,为企业和群众提供智能问答、智能引导、智能预填、智能帮办等服务”,而传统网站导航复杂、人工咨询渠道有限等问题,恰恰与政策导向及公众期待存在差距。部署高效、智能的问答系统,是政府主动适应公众信息获取习惯变革、有效解决服务痛点、提升群众满意度和信任度的迫切举措。 (三)技术赋能与现实挑战并存 人工智能技术特别是自然语言处理和大语言模型的快速发展,为智能问答系统提供了技术支撑,这与《生成式人工智能服务管理暂行办法》中“规范利用技术提升服务效能”的导向一致。同时,政府积累的海量政务数据为系统优化奠定了基础,契合《全国一体化政务大数据体系建设指南》中“数据驱动智能化服务”的要求。但实践中,部分系统存在“答非所问”“答不准”等问题,严重影响用户体验,同时在安全合 规方面面临挑战:如存在《生成式人工智能服务管理暂行办法》中的安全问题、未按《人工智能生成合成内容标识办法》对生成内容进行显式标识等,这些既制约服务效能,也与政策中“安全可控、合规有序”的要求相悖。 (四)评估驱动以提质增效 为切实发挥智能问答系统在提升政府服务效能、增强治理能力现代化水平中的作用,亟需紧扣国家政策要求,对其应用现状开展科学、系统的评估。通过评估精准摸清现有系统的真实表现——既包括是否达到《国务院关于进一步优化政务服务提升行政效能推动“高效办成一件事”的指导意见》中“精准回答”“智能导办”的服务标准,也涵盖是否符合《生成式人工智能服务管理暂行办法》等文件的安全合规要求;同时找准核心问题、分析深层原因、总结优秀经验,这是推动智能问答从“有”向“优”跃升的关键前提。开展本次评估,旨在为国家相关政策的细化落实、地方最佳实践的推广复制、系统功能的迭代优化提供客观、详实的决策依据,最终推动智能问答系统更好适配数字政府建设与政务服务高质量发展需求,成为提升群众和企业获得感的重要引擎。 因此,本次调查评估工作,是在国家政策明确指引、公众需求持续升级、技术赋能与合规挑战交织的背景下启动的。其核心目标是通过科学诊断,为各级政府精准把脉智能问答系统建设的成效与短板,进而为后续的系统迭代升级、服务 模式创新、政策标准完善提供科学指引,最终推动政府网站智能问答服务效能与安全合规性同步提升,使之真正成为赋能社会治理、增强人民幸福感的智能化基石。 二、评估范围 本次调查评估范围覆盖全国70个已部署大模型的政府网站智能问答系统,涵盖省级政府门户7个,省会城市计划单列市政府门户12个,其他重要地级市政府门户51个。具体评估对象详见附件2。 三、评估指标 依据《生成式人工智能服务管理暂行办法》《国务院办公厅关于健全“高效办成一件事”重点事项常态化推进机制的意见》等政策文件要求,本次政府网站智能问答系统评估聚焦安全可控、精准交互、服务贯通等核心维度,重点关注以下几个方面。 (一)严守安全底线,筑牢意识形态与数据防护屏障。智能问答系统评估工作首重安全合规能力建设,须坚决落实意识形态责任制,通过动态敏感词库与AI语义过滤双重机制,确保对违反社会主义核心价值观、历史虚无主义、错误政治导向、歧视性内容等有害信息的实时阻断与零传播。同步强化隐私安全防护刚性要求,严格实行敏感字段的自动脱敏及非必要不存储原则,对涉及特殊事项的咨询建立标准化 应答流程,确保政治表述精准、数据安全可控,切实维护政府公信力与公民权益。 (二)深化用户思维,构建便捷普惠的服务体验。评估工作需聚焦群众实际使用感受,着力提升系统交互便捷性与服务包容度。通过简化咨询路径、强化语音输入与识别功能、明示可答事项范围等措施,降低公众使用门槛。着重完善适老化与无障碍服务能力,并以刚性要求规范平台响应时延服务标准,使数字红利能够公平地惠及全体群体。 (三)完善功能链条,打造全周期智能服务生态。系统功能完备度评估应当贯穿咨询的整个流程,构建分层级的能力验证体系。基础交互层着重检验诸如拼音识别、错别字自动矫正等降低使用门槛的功能;核心服务层考核多轮对话的上下文连贯性以及智能导办的一键跳转准确率;长效运营层要求建立历史对话追溯和用户评价反馈机制,形成“问题发现—知识优化—服务升级”的闭环,以确保智能服务能够持续进化。 (四)强化政策实效,推动解答精准直达民生诉求。答复有效度评估须立足解决实际问题,重点验证复杂政务场景下的服务效能,要求解答完整并关联推送办事入口与材料清单,实现“问答即办事”。严格推行政策依据标注制度,杜绝无源答复。同步建立知识库巡检机制,对过期信息及时清理、用户反馈的政策盲点及时补充入库,确保群众获取信息权威 及时。 基于此,此次政府网站智能问答系统调查评估指标体系详见下表。 四、评估结果 调查评估结果显示,本次参与评估的政府网站智能问答系统总体平均得分为69.61分。从分数分布来看,表现优秀的系统(90分及以上)有12个,占比17.14%;良好的系统(80-90分)有10个,占比14.29%;合格的系统(60-80分)有28个,占比40.00%;不合格的系统(60分以下)有20个,占比28.57%。 从一级指标表现来看,各维度呈现出不均衡的发展态势。其中,“安全合规度”指标的平均绩效指数为0.82,“使用便捷度”指标的平均绩效指数为0.78,“答复有效度”指标的平均绩效指数为0.72,“功能完备度”指标的平均绩效指数为0.55。 综合上述情况可见,当前部署大模型的政府网站智能问答系统建设正处于初步探索阶段,在服务效能、合规管理等核心领域存在较大提升空间,亟需通过全面深化优化实现质的突破。 (一)安全合规度指标情况 根据评估结果,“安全合规度”指标平均绩效指数为0.82,整体建设存在薄弱环节。各细分二级指标的平均绩效指数呈现明显差异:“对连续不合规提问的安全处置”表现最优,平均绩效指数为1.0;“对意识形态信息相关问题的防控”“对违反社会主义核心价值观相关问题的防控”“对歧视性信息相关 问题的防控”和“对隐喻陷阱相关问题的识别处置”指标存在扣分情况,平均绩效指数分别为0.97、0.95、0.94、0.90;而“对落马官员相关问题的防控”“对政府领导相关问题的识别处置”“对隐私敏感信息相关问题的防控”三项指标平均绩效指数分别为0.76、0.57、0.48,成为安全合规建设中的突出短板,亟需针对性强化。 (二)使用便捷度指标情况 本次智能问答系统“使用便捷度”指标平均绩效指数为0.78,整体处于中等水平,仍有较大提升空间。各细分二级指标的表现存在一定差距:“入口醒目度”和“响应速度”指标的平均绩效指数分别为0.96和0.94,处于相对较高水平;“界面友好度”和“服务透明度”指标的平均绩效指数分别为0.78和0.73,有待提升;而“适老化及无障碍”指标的平均绩效指数仅为