【圆桌论坛·从“辅助工具”到“决策核心”】
主持人:
本报记者 :张舒慧 彭勇琪
嘉宾:
清华大学公共管理学院教授 于 安
北京师范大学教授 万 喆
天津市公共资源交易中心政采业务负责人 王永锋
中软国际副总裁、AIGC研究院院长 万如意
政采云股份有限公司品牌部总监 黎 娴
浩鲸云计算科技股份有限公司解决方案总监 李达锋
定目标 明边界 建机制
——业内专家共话AI评审系列问题(二)
主持人:您认为AI在政府采购评审中的终极目标是什么?是始终作为辅助评审与决策的“超级工具”,还是最终会走向解放人力、独立承担评审工作的“智能主体”?为什么?
于安:人工智能,特别是当前使用的大模型,应由中央统一部署,不能各行其是。其中有一个原则,即人工智能目前的定位仍是辅助决策,不能直接将其建议或预测转化为决策本身。近期,由中央网信办牵头,联合国家发展改革委共同制定印发《政务领域人工智能大模型部署应用指引》是政务系统使用大模型的重要依据。文件中已明确说明人工智能大模型“辅助型”定位。
在政府采购领域,从采购人角度出发,必须遵循这一原则。供应商的决策属于商业决策,而采购决策属于行政决策的一种。尽管采购决策是合同决策而非管理决策,但因其使用财政性资金、履行公共职务,仍需明确人工智能的辅助定位。尤其是在涉及资金使用的系统中,更应将人工智能定位为辅助角色。
此前,部分地方行政机构曾将人工智能直接作为决策工具,甚至告知当事人“是系统决策的结果,必须接受”。这种做法在管理决策中存在很大问题,且已有法院对此作出相关判决。因此,采购决策更应避免此类情况。
万如意:AI在政府采购评审中的终极目标,是从“辅助工具”走向“解放人力、独立承担评审工作的智能主体”,而非停留在“超级工具”阶段。核心原因有三点,且均与政府采购改革方向深度契合。
第一,这是突破传统流程局限、契合结果导向的必然要求。传统评审流程因人力知识边界被拆分,各环节仅关注自身合规,易忽视整体采购结果。而AI作为“智能主体”,可凭借全流程知识储备,以顶尖专家水平驱动采购全流程,主动聚焦“优质优价”目标。
第二,这是支撑采购人主体责任强化的关键支撑。近年来,政府采购制度改革一直在强调“谁采购、谁负责”,但部分采购人因缺乏全流程专业能力,政策难以全面落实。若AI成为“智能主体”,相当于为采购人配备“专属采购专家”,辅助把控需求合理性、评审公正性,让采购人真正有能力承担“结果责任”,破解责任强化但能力不足的困境。
第三,这是人机协作形态升级的必然结果。“智能主体”并非取代人,而是重构分工。换言之,AI承担流程性评审工作(如合规校验、量化打分),解放人力;人则聚焦更核心的价值角色(如设定AI评审方向、纠正政策理解偏差、判断复杂项目价值权衡),形成“技术提效、人定方向”的深度协同。这种协作远超“超级工具”的浅层辅助,能让“结果导向”贯穿评审全流程。
李达锋:AI在政府采购评审领域的终极目标,是实现评审流程的全自动化与评审结果的客观化,但这一目标的达成仍需经历长期且严谨的探索过程,短期内难以完全实现。
从发展路径来看,在政府采购这种高要求的垂直场景下,AI不宜走向“独立评审的智能主体”,而应长期以“辅助评审与决策的超级工具”为核心定位,主要有以下三点原因:首先,当前AI技术在成熟度与专业理解能力上仍存在明显欠缺。AI的知识获取依赖海量数据学习,过程中易出现信息泛化、语境理解偏差等问题。尤其在政府采购评审中,部分技术方案的创新性、服务承诺的可行性需结合行业经验与实际场景判断,AI难以完全替代人工的专业洞察。其次,若未来AI实现独立评审,其决策过程具有“黑箱属性”。一旦出现评审错误,人工难以全面追溯错误根源与推理逻辑,可能导致评审结果失控,进而引发供应商质疑、投诉,甚至破坏政府采购的公正性与公信力。最后,政府采购不仅涉及技术与商业判断,而且需兼顾公共利益、政策导向等多元目标。此类价值层面的权衡需依赖人类的伦理判断与责任担当,AI可能无法具备此类主观能动性。
因此,AI评审的发展必须以健全的评审规则、完善的法律机制为支撑,始终处于“受监管+人工复核”的框架内。通过AI提升评审效率、减少主观偏差,同时依托人工把控评审质量、承担决策责任,形成人机协同的良性模式,确保评审结果既高效又合规。
黎娴:我认为AI在政府采购评审中的终极目标是成为人机协同的“超级工具”,而非走向独立评审的“智能主体”。这主要是由政府采购的本质属性、AI技术的局限性和治理风险防控三方面的因素决定的。
一是政府采购的公共属性决定了人类主导地位的不可替代性。政府采购除了要实现“物有所值”外,还承载着支持中小企业、绿色采购、社会公平、应急安全等政策功能。这些职能的实现需要结合人类基于公共利益、社会情景、文化背景等进行价值判断,AI相对缺乏这种基于社会属性的价值认知能力。
二是AI技术的固有局限性使其无法承担独立评审的核心职责。除了价值判断缺失,无法准确理解评审标准背后的政策意图和社会意义外,对于突发场景应对不足、算法伦理风险(历史数据中的隐性歧视)等问题需要人类专家进行修正。
三是AI独立评审的“智能主体”模式存在不可控的治理风险。一方面,“算法黑箱”会导致评审过程透明度缺失,违背政府采购“阳光采购”的核心要求,加剧公众对结果公平性的质疑;另一方面,AI无法承担法律责任,可能引发系统性治理危机,影响政府采购制度改革的顺利推进。
万喆:就评审工作而言,未来发展方向应为人机协同,而非全面替代。机器深度参与采购活动,可简化重复性劳动,使人更专注于深度思考与创新见解。但前提是评审专家具备真正的专业能力,否则其重复性工作将被机器取代。
当前,AI技术局限性仍较大,未来若量子计算等实现通用化,或可带来改变。同时,我国法律要求专家承担评审责任,而由AI独立评审可能导致责任空心化。公众对AI评审结果的信任度受技术不透明、缺乏弹性等因素影响,仍需专家背书以增强公信力。因此,建议AI处理标准化环节,专家专注例外情况与技术细节复核,以实现效率与质量双提升。比如,可建立动态权重分配机制,依据项目复杂度调整人机决策比例,高风险项目强制人工终审。
总之,AI在政府采购评审中的演进路径应为从辅助到协同,而非简单替代。短期需通过技术突破与法律适配提升其可解释性、可靠性;长期应构建人机深度协同共治的新型评审体系,以实现效率与公平的最优平衡。
主持人:为确保AI的评审建议或决策透明、可解释、可追溯,应构建怎样的法律框架?
万如意:构建法律框架的核心逻辑是“先定边界、再促发展”,既要保障AI的创造性,又要通过规则确保其透明、可追溯,具体可从以下维度设计。
第一,明确可审计、可解释的硬性要求。法律需规定,AI出具评审建议或决策时,必须同步留存可追溯台账,包含三大核心内容:一是数据来源(如参考的同类项目数据、政策文件);二是逻辑推导过程(如为何判断某投标方案合理,需列明价格比对、技术匹配度分析等细节);三是结果解释(避免专业术语堆砌,让评审专家、供应商能清晰理解判断依据),确保每一步决策都可核查、可验证。
第二,建立AI能力认证机制。可借鉴美国部分行业监管经验,针对政府采购评审场景,设立AI能力准入标准。AI需在特定品类(如医疗设备、教育软件)完成足量模拟评审案例,且在价值判断准确率、合规性契合度、结果可解释性等核心指标达标后,方可获取评审辅助资质,相当于“持证上岗”,保障AI评审能力。
第三,衔接国家大模型备案制度,增加采购场景二次备案。在国家生成式AI大模型备案基础上,对进入政府采购评审场景的AI模型,额外审查其场景适配性。比如,重点核查AI对政府采购法律法规的理解程度,以及对不同采购品类专业知识的掌握情况,避免因模型“不懂采购、不懂行业”导致评审偏差。
第四,明确AI的“准主体地位”,既不将其等同于普通工具(否则无法发挥智力辅助价值),也不赋予其完全决策责任(否则违背现行评审责任制度)。可将其定位为“受采购人委托的专业辅助主体”,由采购人对AI行为承担最终责任,同时要求采购人建立AI运行监督机制,形成闭环。
黎娴:一是确立法律主体责任,特别是明确AI使用者的操作规范。二是制定相关规则、标准和机制。比如,制定透明规则,要求AI系统提供者根据风险程度,向监管方披露算法基本信息等;建立可解释性标准,鼓励采用可解释AI技术;完善可追溯性机制,要求AI系统留存详细的决策日志等。三是在强化监管与问责方面,明确AI提供方、使用方问责措施。
万喆:一是构建数据全生命周期可追溯管理。比如,可采用区块链存证系统实现采购数据全流程留痕;联邦学习技术实现数据可用不可见,防止敏感信息泄露。二是建立算法治理机制,包括风险分级监管、强制性合规评估、供应商定期提交算法更新报告等。三是建立责任认定规则,明确过错责任承担方,并引入保险制度,覆盖失误所导致的经济损失。四是公开技术文档、中标公告中的AI评分依据、数据来源及专家复核意见等,提升公众信任度。
李达锋:需构建“全流程规制+责任明确”的法律框架,核心包含以下三方面内容。
一是明确AI评审的输出透明义务,即在生成评审建议或决策时,完整呈现核心信息。比如,清晰列明评审所参考的政府采购法律法规条款、行业标准及项目评审细则,确保每一项结论均有据可依;标注AI分析所依赖的历史数据、实时信息等。
二是建立评审全流程追溯机制。比如,对AI评审的每一步操作进行实时留痕,包括评审标准录入、数据导入、模型运算、结果生成及人工修改等,形成不可篡改的评审日志。同时,日志需对“人机交互”过程进行详细记录,如专家对AI结果的修改内容、修改理由及确认时间,确保整个评审过程可核查。
三是界定人机协同的责任划分,即明确AI与人工的角色定位及责任边界。AI仅作为“辅助工具”,不承担最终评审责任。因此,可配置专职评审复核人员,由其对AI评审结果进行全面核验、修正,并对最终评审结果承担法律责任。若因AI系统缺陷导致评审错误,需进一步明确AI技术提供方的赔偿责任与整改义务,避免责任真空。
主持人:当供应商对AI产生的结果提出异议时,现行的质疑、投诉渠道应进行哪些适应性改造?或该如何设计申诉和救济渠道?
王永锋:如果AI技术的应用仅限于辅助决策性质,那么主要的风险挑战来自采购人、采购代理机构以及评审专家对于辅助决策建议的使用方式,实际产生采购结论的主体依然是采购人、采购代理机构以及评审专家。因此,现行的质疑、投诉渠道并不受影响,有关部门可以考虑对采购人、采购代理机构以及评审专家采用AI技术应用提出规范性要求。
黎娴:必须明确AI辅助工具的定位。在AI辅助评审的过程中,AI产生的结果只提供给专家参考,由评标委员会确定中标候选人名单。假设相关结果由AI产生,在设计申诉和救济渠道时,可以引入专业的复核机制。例如,组建由算法工程师、行业专家、法律顾问等组成的复核委员会,对AI结果进行重新评估。
万如意:异议渠道改造需分短期AI辅助阶段与长期AI智能主体阶段,进行差异化推进,核心是明确责任主体、保障结果公平。
在短期AI辅助阶段(AI仅提供初步建议,专家定最终结果),现行质疑、投诉渠道无需大规模改造。但需新增AI辅助过程说明环节,即采购人或评审小组答复异议时,必须同步提供AI的初步评审建议、专家复核调整的具体依据,尤其要解释AI对争议点的判断逻辑,消除供应商“信息不对称”,避免因“不知AI如何判断”而引发不必要的争议。
在长期AI智能主体阶段(AI独立驱动部分评审流程),需新增两类针对性救济渠道:一是设立AI异议专项干预通道。由政府采购监督管理部门牵头成立工作组,供应商提出异议后,工作组可启动AI流程回溯,调取AI评审的决策日志、数据输入记录、逻辑推导过程,核查是否存在数据偏差、规则理解错误等问题,确保异议核查直达核心。二是设计流程回退机制。若核查发现AI存在问题导致结果不公,异议成立的项目可从“AI驱动流程”切回“传统人工评审流程”重新评审,避免项目停滞。同时,将错误案例纳入AI优化数据库,用于改进AI判断能力,形成“异议处理—模型迭代—结果优化”的良性循环。
无论哪个阶段,相关法规都需明确“人工流程兜底”原则。即便AI技术成熟,也需长期保留传统人工评审流程作为备用方案,确保人的最终把控权。毕竟政府采购服务公共利益,结果公平的最终判断权仍需由人掌握。
李达锋:一是搭建AI评审异议专属服务平台。平台展示AI评审的处理流程、参考法规依据、具体评审标准、数据来源及推理逻辑等信息,为供应商提供异议查询与咨询服务。对供应商提出异议的具体评审项,平台自动关联对应的法律法规条文、评审细则及投标文件原文片段,帮助供应商快速理解AI评审结论的形成依据,减少信息不对称。
二是简化异议提交与流转流程。供应商在平台中勾选异议评审项、填写异议理由后,平台可自动生成标准化异议申请,并同步推送至采购人、评审专家及政府采购监管部门。
三是建立异议复核与结果反馈机制。组织“专家+技术人员”联合复核小组,由专家负责判断评审标准的适用与商业逻辑的合理性,技术人员负责核查AI评审的算法运算与数据处理是否存在缺陷。待复核结束后,需向供应商出具书面复核报告,详细说明复核过程、结论及依据。若确认AI评审存在错误,需同步告知整改措施与重新评审的时间安排,确保异议处理全程公开、公正。
本报拥有此文版权,若需转载或复制,请注明来源于中国政府采购报,标注作者,并保持文章的完整性。否则,将追究法律责任。
