江明涛:筑牢人工智能伦理底线 护航产业负责任创新
时间:2026-04-14
文 | 国家工业信息安全发展研究中心主任、党委副书记 江明涛
人工智能作为引领新一轮科技革命和产业变革的战略性技术,在释放创新活力、赋能高质量发展的同时,其伦理风险也日益凸显,成为制约产业可持续发展的关键问题。《人工智能科技伦理审查与服务办法(试行)》(以下简称《办法》)围绕人工智能科技伦理管理作出全面系统的规范,构建起全生命周期的伦理治理框架,为规范人工智能科技活动、推动产业负责任创新提供了制度遵循,对我国人工智能领域实现创新与安全兼顾、发展与规范并举具有重要意义。
一、应势而立,统筹人工智能创新发展与安全治理
当前,人工智能技术进入规模化应用新阶段,随着生成式人工智能、智能体等新技术不断涌现,伦理风险也呈现出复杂性、隐蔽性和扩散性等特点。《办法》的出台,立足我国人工智能发展实际,紧扣时代发展需求,既是对国家科技伦理治理顶层设计的具体落实,也是应对人工智能伦理安全挑战、引领产业健康发展的必然选择。
(一)落实国家科技伦理治理顶层设计的具体举措
近年来,我国高度重视科技伦理治理工作,先后出台《关于加强科技伦理治理的意见》《科技伦理审查办法(试行)》等政策文件,构建了“顶层设计+具体实施”的科技伦理治理总体框架,明确了科技伦理治理的总体要求、基本原则和工作机制。人工智能作为科技伦理风险高发领域之一,亟须出台相关政策将顶层原则性要求转化为可操作、可落地的具体规范。《办法》以科技伦理治理的顶层文件为依据,紧扣人工智能技术研发和应用特点,对伦理原则、实施主体、工作程序、监督管理等核心内容作出细化规定,是落实国家科技伦理治理工作要求的关键举措。
(二)应对人工智能科技伦理安全挑战的现实需要
随着人工智能技术的快速演进和广泛应用,伦理安全问题迅速显现,给社会治理和公众权益保护带来新挑战。从数据层面看,采集不规范、样本选择单一化易引发隐私泄露、偏见歧视,损害特定群体的合法权益;从算法层面看,高度自主的人工智能系统可能导致技术失控,人工智能的内容生成能力带来虚假信息传播等问题;从应用层面看,人工智能在医疗、教育、公共安全、金融等领域的应用,涉及人类生命健康、人格尊严、公共秩序等核心权益,一旦伦理失范,可能引发严重后果。《办法》针对人工智能科技活动全链条的伦理风险点,建立审查评估、跟踪管理、违规追责的全流程防控机制,为防范和化解人工智能伦理安全风险提供了制度保障,有效回应社会各界对人工智能伦理治理的迫切需求。
(三)推动人工智能产业负责任创新的内在要求
负责任创新是人工智能产业可持续发展的内在要求,只有将伦理价值嵌入创新全过程,才能赢得社会信任、筑牢产业根基,确保人工智能发展不偏离增进人类福祉的根本方向。《办法》将“规范人工智能科技伦理治理,促进公平、公正、和谐、安全和负责任创新,推动人工智能产业健康发展”作为目的,要求各类创新主体将伦理要求贯穿全过程,引导创新资源向符合伦理要求、具有社会价值的领域集聚,不仅能够保障人工智能技术始终服务于人类社会发展,更能推动我国人工智能产业形成创新与规范并重、发展与安全统筹、技术与伦理协同的良性发展格局。
二、系统构建,打造全生命周期人工智能伦理治理框架
《办法》构建了涵盖伦理原则、主体责任、审查程序的人工智能伦理治理框架,形成了申请受理、分类审查、跟踪管理、申诉复核的全流程审查程序,内容设计兼具系统性、针对性和可操作性,为人工智能科技伦理治理提供了全面的制度规范。
(一)确立伦理原则,划定科技伦理审查重点
《办法》立足人工智能技术发展和应用特点,明确了开展人工智能科技活动的伦理原则,即“增进人类福祉、尊重生命权利、坚持公平公正、合理控制风险、保持公开透明、保护隐私安全、确保可控可信”,为各类创新主体开展人工智能科技活动划定了基本遵循,也为科技伦理审查工作确立了价值坐标。在明确伦理原则的基础上,《办法》进一步划定科技伦理审查重点为人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护六个核心方面,并明确提出评判准则。例如,公平公正方面,要求采取有效措施防止偏见歧视、算法压榨,保障资源分配、机会获取、决策过程的客观性与包容性;责任可追溯方面,要求采取日志管理等措施,实现数据、算法、模型、系统全链路可追踪和管理。《办法》提出的审查重点紧扣人工智能伦理风险的核心痛点,将伦理原则转化为具体的审查准则,确保伦理审查工作有的放矢、落到实处。
(二)明确职责定位,构建层次化的审查体系
人工智能科技伦理治理是一项系统工程,需要政府、企业、高校、科研机构等多方主体协同参与。《办法》明确了各类主体的职责定位,构建起“核心责任主体+专业审查团队+配套服务平台”的层次化审查体系,为伦理治理工作的开展提供了组织保障。一是明确核心责任主体,将“从事人工智能科技活动的高等学校、科研机构、医疗卫生机构、企业等”列为人工智能科技伦理审查管理的责任主体,要求设立人工智能科技伦理委员会,并配备必要的工作人员、办公场所和经费,保障委员会独立开展工作。二是规范专业审查团队建设,明确人工智能科技伦理委员会的职责、构成,要求组成包含具有人工智能技术、应用、伦理、法律等相关专业背景的专家。三是搭建配套服务平台,推动地方、相关主管部门依托相关单位建立专业性人工智能科技伦理审查与服务中心,开展人工智能科技活动伦理审查、复核、培训、咨询等服务,弥补了部分主体伦理治理能力短板,实现了伦理服务的普惠性。层次化的审查体系,既明确了各类主体的核心职责,又实现了优势互补、协同发力,为全生命周期伦理治理提供了坚实的组织支撑。
(三)构建审查程序,形成分级分类审查模式
《办法》针对不同风险等级、不同场景类型的人工智能科技活动,构建起全流程审查程序,形成了一般程序、简易程序、专家复核程序、应急程序相结合的分级分类审查模式。一是规范基础申请与受理流程,明确了伦理审查的申请主体、申请材料和受理要求。二是实行一般程序与简易程序“繁简分流”,一般程序适用于伦理风险较高的科技活动,简易程序适用于风险不高于日常生活常规风险、对已批准方案作较小修改等情形,简化流程、提高效率。三是设立专家复核程序,针对高风险科技活动实施更严格的监管,动态调整“需要开展科技伦理专家复核的人工智能科技活动清单”,将对人类产生较强影响的人机融合系统研发、具有舆论社会动员能力的系统研发、具有高度自主能力的决策系统研发等高风险活动纳入复核范围。四是制定应急程序,针对突发公共事件等紧急状态,明确应急审查流程和时效要求,确保紧急情况下人工智能科技活动的伦理审查不缺位、不滞后。
三、协同发力,推动人工智能科技伦理治理工作落地
《办法》已系统构建了人工智能科技伦理治理制度框架,推动人工智能科技伦理治理工作走深走实,需要多方主体协同发力,从治理模式、技术支撑、宣传引导等多方面入手,进一步将制度规定转化为实际行动。
(一)推行敏捷治理,适配人工智能技术发展节奏
人工智能技术具有迭代速度快、应用场景多元、风险演变迅速的特点,后续可采取“敏捷治理”思路,依据人工智能技术发展和应用情况动态更新专家复核清单、伦理审查标准等内容,及时将新技术、新应用、新场景纳入治理范围。同时,各地区、各行业可结合自身人工智能发展实际,制定出台具体的实施细则和管理规范,提升治理的针对性和可操作性,将敏捷治理贯穿于伦理治理的全过程。
(二)强化技术支撑,以技术手段防范伦理风险
防范人工智能伦理风险,既要依靠制度规范,也要发挥技术手段的支撑作用。《办法》明确提出“强化以技术手段防范人工智能科技伦理风险”。应积极开展人工智能科技伦理前沿技术创新与跨领域研究,鼓励研发数据去偏见、算法可解释、模型鲁棒性设计等技术,从源头降低伦理风险产生的可能。加快通用性风险管理、评估审计工具研发与应用,实现对伦理风险的精准识别和有效处置。
(三)加强宣传引导,营造全社会共同参与的治理氛围
人工智能科技伦理治理需要全社会的共同参与。加强宣传引导、凝聚社会共识,是推动伦理治理工作落地的重要基础。应充分发挥高校、科研机构、社会团体的作用,开展面向相关从业人员的伦理培训,提升科技工作者的伦理意识和风险防控能力,通过宣传普及提升全社会对人工智能伦理风险的认知水平,形成多方协同、共治共享的人工智能科技伦理治理格局。
国家工业信息安全发展研究中心将持续聚焦《人工智能科技伦理审查与服务办法(试行)》的实施落地,充分发挥在理论研究、标准研制、风险研判、安全评估等领域的优势,为各级主管部门和广大创新主体提供专业的研究咨询与能力支撑。同时,积极搭建产学研用多方交流平台,推动伦理治理经验总结、典型案例推广与标准体系建设,为构建完善人工智能伦理治理体系,加强治理能力建设提供坚实支撑,共同推动我国人工智能产业行稳致远。
来源:国家工业信息安全发展研究中心