At the comparative level, the European Union adopts a four-tier framework—unacceptable, high, limited, and minimal risk—and imposes stringent, lifecycle-wide compliance obligations on high-risk systems. Although comprehensive, this framework produces excessively heavy compliance burdens and lacks flexibility in responding to technological dynamics. South Korea employs a horizontal regulatory model centered on high-impact AI, characterized by concise provisions and a streamlined structure, yet its taxonomy does not adequately differentiate among distinct categories of risks. Canada distinguishes between biased-output systems and harm-based systems, but ultimately applies uniform obligations to both categories, resulting in a disconnect between risk classification and regulatory practice. The United States adopts the most flexible structure: a dual-track model distinguishing safety-impacting AI from rights-impacting AI. On the basis of a unified minimum compliance baseline, the U.S. model adds differentiated requirements for rights-impacting systems and incorporates deferral, exemption, and dynamic adjustment mechanisms that enhance regulatory adaptability.
Despite differences in legislative traditions and policy objectives, the four jurisdictions share a common governance logic: risk identification as the regulatory starting point, risk classification as the core organizing principle, and differentiated obligations as the primary regulatory tool. The proportionality principle underlies these systems. The U.S. dual-track model distinguishing safety and rights impacts offers notable advantages in proportionality, precision, and institutional flexibility, thereby providing a valuable template for China in building a multi-level governance structure.
In light of these comparative insights, this article proposes that China optimize its AI risk-governance framework along three dimensions. First, China should establish a layered legislative structure combining common rules + sector-specific rules. A national-level Artificial Intelligence Basic Law should articulate overarching governance principles, risk-classification methods, and baseline regulatory obligations. Sectoral regulatory authorities should then develop technical standards and regulatory rules tailored to specific application scenarios, thereby balancing systemic coherence with operational flexibility and avoiding fragmented governance.Second, China should adopt a dual-track classification framework that distinguishes between safety-impacting AI and rights-impacting AI. Systems involving life safety, critical infrastructure, or public security should be categorized as safety-impacting AI, whereas systems that affect fairness, fundamental rights, or vulnerable groups should be regulated as rights-impacting AI. For systems that present hybrid or overlapping risks, a primary-risk identification mechanism should be introduced to classify them according to their dominant risk attributes. In addition, a combined-obligations mechanism should be implemented to allow both sets of obligations to apply where necessary, thereby enhancing the precision of risk identification and strengthening the applicability of regulatory tools.Third, China should develop a comprehensive system of dynamic adjustment and flexible exemptions. Through presumed-strict classification, application-based exemptions, periodic review, and cross-departmental feedback mechanisms, regulatory measures can be dynamically aligned with technological evolution and sector-specific characteristics. Such mechanisms help prevent regulatory rigidity and excessive compliance burdens, ensuring that governance tools remain adaptive to emerging risks and evolving industrial practices.
In sum, through comparative analysis of foreign regulatory models and the construction of a localized governance pathway, this article argues that the core of China′s AI risk-governance framework lies in risk-based classification as its organizing principle, a layered legislative structure as its institutional foundation, a dual-path classification model as its methodological approach, and dynamic adjustment mechanisms as its regulatory toolset. A governance system guided by unified national principles, supported by differentiated regulatory rules, and coordinated between central and sectoral authorities can achieve a dynamic balance between safeguarding safety and fostering innovation, thereby forming a Chinese model of AI risk governance capable of addressing the complexities of the digital era.
近年来,人工智能的迅猛发展不仅深刻重塑着人类的生产与生活方式,也带来网络安全、个人隐私、算法歧视等系统性风险与治理挑战[1]。随着人工智能全面嵌入社会经济运行的各个层面,传统应对措施已难以有效发挥其应有功能。各国有必要构建系统化、全周期规制体系,以应对人工智能所引发的多维度冲击。同时,人工智能在推动产业升级和经济增长方面的巨大潜力不容忽视。相关研究表明,人工智能通过提升能源效率、增强创新能力和提高数字化水平等机制,对新质生产力具有显著促进效应[2]。因此,如何在促进技术创新与防范潜在风险之间实现动态平衡,成为人工智能立法需要回应的核心议题。
从域外经验看,欧盟《人工智能法案》建立了“四级风险分类+统一严格义务”的横向规制体系,其虽制度完善但监管强度较高,合规成本偏重;韩国《人工智能发展及信任基础建立基本法》(简称《人工智能基本法》)以“高影响人工智能”为规制核心,在规制强度上相对温和,主要采取统一的横向规制路径;加拿大《人工智能和数据法案》在重点规制“高影响人工智能”的基础上区分“偏见性输出”与“安全影响”两类风险,但未形成差异化义务体系;美国《促进政府使用人工智能的治理、创新与风险管理备忘录》(以下简称《备忘录》)[3]通过“安全影响型”与“权利影响型”双路径分类,在统一最低合规基线之上增设差异化义务与灵活豁免机制,实现了更具针对性与比例性的弹性治理。总体而言,主要国家和地区已形成共识,即以风险为核心、以比例原则为基础,通过风险识别、分类分级与差异化义务的配置,实现风险防控与创新促进的动态平衡。
我国在一系列政策文件和部门规章中陆续引入风险分级分类治理理念,初步形成场景化治理路径。然而,我国现行制度存在统一立法缺位、分级标准不一、操作性不足、部门规制碎片化和反馈机制不健全等问题,难以形成系统性、协同性风险治理闭环。基于此,本文在人工智能深度介入社会治理与公共生活背景下,借鉴欧盟、韩国、加拿大和美国等主要法域经验,构建既契合我国国情,又兼具科学性、灵活性与前瞻性的人工智能风险防控制度,从而为未来统一立法提供制度路径,并有效回应数智时代多样化与高度不确定性带来的技术风险挑战。
“人工智能风险”具有类型多元、机制复杂且高度不确定特征[4],其根源在于人工智能系统的自动化特征、复杂模型结构及数据驱动机制,使其在运行与决策过程中内生出多维度的不确定性后果。该类风险本质上体现为损害发生的概率与损害严重程度的综合,并可能对人身安全、社会公正、基本权利、经济稳定以及环境可持续性等产生潜在冲击。在人工智能迅速发展的时代背景下,科技所带来的“人为不确定性”日益成为公众关注的焦点,“安全”逐渐让位于以可接受风险为基准的相对性判断,以统计概率与认知科学为基础的“风险”概念取代传统“无危则安”的绝对安全标准,成为现代规制的核心逻辑[5]。在这一框架下,欧盟《通用数据保护条例》《数字服务法案》《人工智能法案》、韩国《人工智能基本法》、加拿大《人工智能和数据法案》以及美国《备忘录》等均在不同程度上采用以风险为导向的规制方式。然而,人工智能风险作为一种高度抽象的概念,需通过具体方法、模型和流程予以识别与规制[6]。此时,风险分析便成为前提性工具。风险分析一般包含风险评估与风险管理两个环节,前者通过测量与判断来识别危害程度,后者在评估结果的基础上实施干预,即通过系统性评估,使抽象的风险概念具体化、结构化,以为政府介入与制度响应提供事实基础和判断依据[7]。风险评估又可划分为3个递进步骤:首先是确立风险标准,即界定负面后果、识别受影响主体并设定衡量依据;其次是风险识别,即根据标准判定具体事件是否构成人工智能风险;最后为正式评估,即从可能性和严重性两个维度定量判断风险等级,为规制决策提供依据[8]。
当人工智能风险达到干预阈值时,进入人工智能风险规制环节。此时,政府将人工智能风险本身视为规制对象,采取干预行为以防控潜在不利后果。在此框架中,人工智能所带来的风险不仅是介入的理由,更是规制的核心目标。其目的在于通过制度手段预防和减轻其对公共利益的威胁[9]。为避免“一刀切”式的监管,此时需引入风险导向规制。这是一种以风险为工具、根据量化评估结果(如风险评分)分配监管资源与执法优先级的治理方式,强调差异化与精准化监管,以实现法律适用和干预强度与人工智能所带来的实际风险相称[10]。
总体而言,人工智能风险分级分类治理逻辑由4个递进阶段构成:人工智能风险为治理起点,风险分析为认知工具,风险规制是政府介入的正当性目标,而风险导向规制则是根据风险程度决定监管策略执行标准。这一四阶路径不仅构成人工智能现代风险治理的理论基础,也为构建科学、系统、可操作的人工智能监管体系提供了制度框架。
在设计人工智能治理规则时,需充分理解人工智能技术本身所具备的一系列典型特征,这些特征使得人工智能不同于传统产品或服务,其对现有法律体系存在挑战。首先,人工智能系统具有高度技术复杂性,伴随而来的是较高的技术门槛和技术安全风险,这意味着传统治理模式仅依靠政府对人工智能安全风险进行有效识别和治理效果不佳,需要非政府主体深度参与,形成多元主体治理模式[11]。其次,人工智能系统具有高度不确定性[12]。许多人工智能模型,尤其是深度学习系统,其内部决策逻辑不仅难以解释,且输出结果还受训练数据、算法结构及使用场景等多重因素的影响,因此传统治理模式容易陷入“科林格里奇困境”,即在技术早期阶段无法有效预测潜在风险与影响[11]。再次,人工智能系统在各行业的广泛嵌入性也使其风险呈现出高度情境依赖特征。同一算法模型在医疗、司法或交通等不同场景中的风险表现不同,因此传统“一刀切”式规制方式难以覆盖复杂多变的实践需求。最后,人工智能系统风险具有多维度复杂性,不仅会影响个体权利(如隐私权和非歧视权),还会对整体社会结构(如公共安全、就业公平)产生深远影响[13]。同时,人工智能技术发展速度又远超立法适应能力,使得技术规制方式滞后于技术迭代速度与周期。
正是由于人工智能具有技术复杂性、高度不确定性、高度情境依赖性、影响维度复杂性和快速演变性等特征,使得传统静态、线性规制技术难以满足现实需求。各国(地区)多选择基于风险分级分类的规制模式,相较于传统治理模式,基于风险分级分类规制模式具有显著优势。首先,人工智能的动态演化、影响维度复杂和高度不确定性等特征会在一定程度上引起公众的普遍恐慌,因而“现实型”和“预先型”人工智能规制方法成为公众的广泛需求。而基于风险分级分类规制模式通过预先识别问题风险与发生的可能性,设定相应优先级顺序,确定规制级别,形成一种既能应对现实挑战又能预见未来风险的独特规制方式。其次,基于风险分级分类规制模式有助于理性引导政府干预。通过设定清晰的优先事项与政策目标,使监管措施聚焦真正存在重大风险的人工智能系统,从而避免“一刀切”式规制所带来的资源浪费与创新抑制。基于风险分级分类规制要求监管制度具备弹性与适应性,以在实际运行过程中根据技术演进或风险评估错误及时调整策略,这在技术快速发展领域尤为重要。再次,针对人工智能技术的复杂性,基于风险分级分类规制强调治理的多元性。它鼓励多方利益相关者参与人工智能风险监测、分析、管控及监管等环节,构建协同治理框架,同时兼顾不同主体在不同风险情境下的利益与价值偏好,以有效应对人工智能技术复杂性所带来的治理难题。最后,人工智能规制往往面临促进技术发展与保护个体权利、社会正常秩序之间的张力。基于风险分级分类规制模式,通过强调风险—收益权衡和技术中立性原则,在两者之间找到平衡点。风险—收益权衡不仅要求识别和控制潜在风险,也要充分考虑人工智能技术带来的创新、经济和社会效益,避免因过度规制错失发展机遇;技术中立性则强调对技术应用风险进行规制,而非对技术本身进行规制,从而为不同技术路径发展提供空间[14]。因此,基于风险分级分类规制模式能在符合比例原则的基础上,有效解决人工智能技术规制困境。
国务院2023年和2024年连续两年将人工智能法草案纳入年度预备提请全国人大常委会审议的法律案[15-16],十三届、十四届全国人大常委会立法规划亦将人工智能立法列为重点事项[17-18]。目前,人工智能法仍未出台,但以风险为导向的分级分类治理模式已逐渐成为我国人工智能制度建构的重要逻辑。从2017 年《新一代人工智能发展规划》提出风险分级分类治理思路, 到2019年《新一代人工智能治理原则》确立“敏捷治理”原则,再到 2021 年《新一代人工智能伦理规范》强化风险预防与预警机制,直至 2023 年《全球人工智能治理倡议》明确提出建立风险等级测试评估体系。由此,国家层面已基本完成从原则倡导到制度确认的转变,并为后续立法奠定了明确方向。
然而,当前缺乏全国层面统一的人工智能基本法,现行治理体系呈现出碎片化与分散化特征[19]。各部门虽已采用风险分级分类思路,但在分类基准、标准适用和实施方式上缺乏一致性,导致制度衔接不畅、协调性不足,在实际操作中也难以有效实现分级分类治理的预期目标。国内学界不断呼吁出台统一的人工智能基本法,并提出若干立法方案。其中具有代表性的成果为《人工智能法示范法(专家建议稿)》和《人工智能法(学者建议稿)》。二者均延续了我国监管政策风险分级分类逻辑,但在具体制度设计上存在差异。学者建议稿将人工智能划分为“一般人工智能、关键人工智能、特殊人工智能”,并对关键人工智能设定严格义务,同时针对特殊人工智能在不同应用场景下增设差异化安全要求;而专家建议稿则采用“负面清单”模式,对列入清单的人工智能系统附加更严苛的义务,并引入准入许可制度。
总体而言,国家层面人工智能治理已从理念倡导走向制度确立,但统一立法的缺位使得制度体系仍然碎片化。学界提出的多种立法方案虽在路径设计上各有差异,但却共同彰显了通过风险分级分类构建人工智能治理体系的共识,这为未来国家层面人工智能立法提供了丰富的理论储备和制度参考。
与国家层面顶层设计相呼应,我国人工智能治理在部门层面更多体现为基于场景的分散化规制(见表1),即针对不同技术和应用领域出台相应管理规范[20],这一做法虽在一定程度上推动风险分级分类理念的落地,但也暴露出明显不足。
表1 部门层面人工智能治理的代表性制度举例
Table 1 Examples of representative systems for AI governance at the government department level
发布时间发布机构名称领域2023.7国家互联网信息办公室、国家发展改革委、教育部等7部门《生成式人工智能服务管理暂行办法》生成式人工智能2022.11国家互联网信息办公室、工业和信息化部、公安部《互联网信息服务深度合成管理规定》深度合成2023.11交通运输部办公厅《自动驾驶汽车运输安全服务指南(试行)》自动驾驶2022.3国家药品监督管理局《人工智能医疗器械注册审查指导原则》医疗器械
(1)诸如《生成式人工智能服务管理暂行办法》第16条要求主管部门依照技术和应用特点采取分类分级监管,《互联网信息服务算法推荐管理规定》第23条、24条、27条建立了算法分级分类管理、备案与安全评估制度,《互联网信息服务深度合成管理规定》第15条、第17条针对生物识别、国家安全与社会公共利益等场景分别设定差异化义务,均体现出风险分级分类治理理念,初步探索出场景化的分级分类治理路径。但由于缺乏国家层面统一技术标准,这些制度在分类基准和适用方式上仍显粗略,在实际操作与跨领域衔接方面存在不足。
(2)现有制度主要集中在深度合成、自动驾驶、生成式人工智能等前沿领域,呈现出高度场景化应用特征,但尚未形成覆盖全领域的系统性分级分类框架[21]。这种场景化治理规则有助于回应人工智能治理存在的紧迫性风险,却难以完全涵盖潜在高风险领域,从而会削弱整体监管效力,并在不同领域之间导致治理失衡。此外,碎片化的监管格局使监管边界模糊,既可能出现监管真空,也可能引发重复监管。
(3)我国人工智能风险治理体系虽已在国家与部门两个层面初步建立,但从目前各部门立法情况看,制度运行“执行与反馈”环节存在一定不足。现行风险治理结构主要依赖自上而下的政策与规范文件,缺乏自下而上的风险反馈与动态调整机制,导致国家、部门与企业之间尚未形成有效联动。这不仅体现在部门层面缺乏对行业风险变化的定期评估与调整机制、制度更新效率不足,更体现在微观企业层面,作为人工智能技术的核心开发者与使用者,相关部门规章虽对其合规义务有所规定,但普遍缺乏可操作的“申请—审查—反馈”机制,使企业在面对新风险或义务变动时,缺乏制度化沟通与豁免渠道。这种“单向规制—缺乏回路”模式使分级分类治理在实践中难以实现动态平衡,也会削弱治理体系的灵活性与持续适应能力。未来要实现精准与高效的风险治理,需要在国家与部门双层框架下建立制度执行与协同调整机制,形成政府、行业与企业之间的互动闭环,以确保人工智能治理体系的长期韧性与有效性。
自《欧盟数字化单一市场战略》启动以来,欧盟数字政策中的风险分级分类监管路径在数据、在线内容及人工智能领域最新立法中表现突出,《通用数据保护条例》《数字服务法》即为典型代表[12]。欧盟《人工智能法案》是《欧盟数字化单一市场战略》的重要组成部分[22],该法案采用统一立法横向规制体系,旨在兼顾内部市场创新与基本权利保护两大目标[9],确立以风险程度为核心的四级分类体系,即不可接受风险、高风险、有限风险与最小风险,并对不同类别设置相应比例化合规义务。
(1)第一类为不可接受的人工智能系统。根据《人工智能法案》第5条,凡对《欧盟基本权利宪章》所载明的基本权利及人类尊严、自由、平等、民主、法治等存在严重威胁的人工智能系统一律禁止使用,主要包括操控或欺骗用户潜意识的人工智能系统、对弱势群体造成严重伤害的人工智能系统、基于社会评分或特征预测犯罪风险的人工智能系统、在公共空间使用实时生物识别进行执法的人工智能系统。除个别特定用途(如医疗或刑事调查)外,上述系统均属禁止范畴。该分类划定了欧盟人工智能监管的“红线”,体现出其以风险分级原则为基础的强监管取向。
(2)第二类为高风险人工智能系统。欧盟《人工智能法案》第六条将此类系统划分为两组。第一组由第6条第1款及《附件一》确定,系作为产品安全组件或本身即为产品的人工智能系统,如自动驾驶、医疗器械中的图像识别、电梯控制、缆道运输等。其监管重点在于防范因技术缺陷或系统失稳引发的物理伤害,因此需在投放市场前接受第三方合格评估,以确保技术稳健与安全可靠。第二组根据第6条第2款及《附件三》确定,涵盖虽非产品组件但应用于社会关键领域或涉及基本权利的人工智能系统,如基础设施、教育招生、招聘、执法、司法和边境控制等。其规制的目的在于防止算法滥用、歧视或侵犯隐私,维护社会公平与基本自由。总体而言,欧盟在高风险类别中同时关注技术安全与人权保障,前者聚焦物理安全,后者着眼于社会伦理与权利保护,体现了欧盟风险治理中“安全与权利并重”的双重逻辑。对于高风险人工智能系统而言,欧盟《人工智能法案》构建了一套覆盖全生命周期的严格规制体系[23]。在事前环节,该法案要求系统提供者在风险管理、数据治理、技术文档编制、透明度与信息披露、人类监督以及准确性与安全性等方面履行义务,以确保系统从源头上具备合规性与可控性。在事中与事后环节,则进一步强调建立质量管理体系和文档保存机制,要求提供者妥善留存运行日志、及时采取纠正措施、配合监管机构工作,并在必要时设置欧盟境内的授权代表。同时,所有高风险系统必须通过合格评估程序,获得欧洲合格认证(CE)标志与合格声明,并完成注册。这些规定共同形成一个“事前预防—过程审查—事后监督”的闭环监管框架,充分体现了欧盟以风险治理为核心的制度理念。
(3)第三类为有限风险人工智能系统。根据欧盟《人工智能法案》第50条,该类别人工智能系统指与自然人交互、生成内容、使用情绪识别或生物特征分类技术的系统,如自然人交互的人工智能系统、生成或操控合成内容的人工智能系统、在工作场所或教育环境中部署的情绪识别或生物特征分类系统、使用人工智能生成或操控的深度伪造内容等。此类系统虽不构成高风险,但仍有可能误导用户或影响权益,因此需履行特定透明度义务,明确告知其人工智能属性与生成内容来源。
(4)第四类为低风险人工智能系统,即未被归类为上述3种风险类别的人工智能系统[21]。此类系统对自然人的健康、安全或基本权利几乎不构成威胁,因此不强制适用合规义务,仅建议遵循行业自律规范,如人工智能支持的翻译服务、基于用户兴趣或需求的推荐系统、垃圾邮件过滤器等[24]。
韩国国会于2024年12月通过了《人工智能基本法》,成为继欧盟《人工智能法案》之后全球第二个制定全面规制人工智能的国家。该法采用横向规制体系,与欧盟法案的庞大篇幅相比,仅由正文43条与附则3条组成,条文简明,整体上更具“基本法”的属性。
在风险规制模式上,韩国未采用欧盟的“四级风险分类体系”,而是重点规制“高影响人工智能”,其定义与欧盟“高风险人工智能”基本相同,只是术语有所不同。第2条将“高影响人工智能”界定为可能对生命、身体安全及基本权利造成重大影响或引发风险的系统,并列举了10个适用领域(能源、饮用水、医疗、核设施管理、犯罪侦查中的生物识别、招聘与信贷、交通、公共决策、学生评价等)并授权总统令追加。可见,韩国在风险识别上基本沿袭欧盟思路,只是规制对象聚焦在“高影响人工智能”这一类别。
在具体规制举措上,韩国《人工智能基本法》通过第31条~第35条形成一个覆盖入口、技术、信息、经营与社会法层面的综合性规制体系,即确认—认证—透明性—经营者义务—影响评估。第一,在事前识别环节,要求经营者自我审查产品或服务是否属于高影响人工智能,并在必要时申请科学技术信息通信部长确认。第二,在技术安全层面,经营者在提供高影响人工智能时应努力通过“检验认证”等第三方验证,国家机关在采购或应用人工智能时也应优先考虑已通过认证的系统。第三,在信息透明环节,经营者需事先告知用户系统基于人工智能运作,并对生成物进行明确标识,尤其是难以与现实区分的虚拟声音、图像或视频,必须以用户可识别的方式加以提示,以防止误导。第四,在实质性运行层面,其规定高影响人工智能经营者需履行一系列义务,包括建立风险管理方案、保障结果可解释性、制定用户保护措施、实施人类监督、保存合规文档等,以确保人工智能可控与合规。第五,在基本权利保障层面,要求经营者在提供高影响人工智能时努力对其影响进行评估,评估其对生命、隐私、平等等基本权利的潜在影响,国家机关也需优先考虑通过评估的系统。
总体而言,韩国《人工智能基本法》以“高影响人工智能”为监管核心,通过“确认—认证—透明性—经营者义务—影响评估”5个环节,构建一个覆盖入口认定、技术安全、用户知情、运行管理与社会影响的全链条监管体系。该制度在保持横向规制统一性的同时,初步展现了以风险程度为导向的分级治理思路,为亚洲地区人工智能立法提供了参照。
加拿大《人工智能和数据法案》在立法模式上延续横向规制体系,但在风险分类上与韩国相同,回避了欧盟《人工智能法案》的四级风险分类体系,未采用“高风险”术语,而仅将“高影响人工智能”作为核心监管对象,这一调整显示出加拿大在规制强度与范围上较欧盟有所限缩。
与韩国“高影响人工智能”模式不同,加拿大法案在高影响人工智能系统内部进一步区分两类风险场景:①偏见性输出型。该风险场景是指人工智能系统生成内容、所作决策、推荐或预测在无正当理由情况下,基于《加拿大人权法》第三条所列的一个或多个禁止歧视事由(如种族、性别、年龄等),可能会产生不公平、不透明或歧视性结果,从而影响社会公平与个体基本权利。②安全影响型。该风险场景是指人工智能系统可能会对个人造成身体或心理伤害、财产损坏或经济损失,其定义更为广泛,侧重于直接后果,而不特别关注其背后的偏见或歧视性动因。这一“双路径”分类表明,立法者意识到人工智能风险产生的异质性。然而,《人工智能和数据法案》未对两种类型的高影响人工智能系统制定具体区别化的合规义务或监管措施,而是统一适用同一套合规制度,包括建立风险评估、识别与减缓方案,持续监控减缓措施的合规性与有效性,妥善保存合规记录,公开系统设计与功能说明,及时通报重大危害风险以及主动配合主管机关调查与监管等。这套制度虽在理念上回应了公平性与安全性的双重关切,但在具体制度安排上缺乏针对性,未根据风险性质差异施加差别化义务,导致“分类有别而监管同质”,其精细化治理能力仍显不足。
在联邦层面,美国发布《备忘录》,旨在建立政府内部人工智能使用的统一规制框架,兼顾安全与权利保护,推动负责任创新与公共信任。与欧盟、韩国和加拿大立法不同,该文件仅适用于美国联邦政府各机构。在《备忘录》中,美国在人工智能治理上体现出典型的场景导向性特征,仅对重点场景进行规制,并注重在风险与创新之间保持平衡[25]。
《备忘录》明确区分了“安全影响型人工智能”“权利影响型人工智能”。其中,安全影响型人工智能是指以输出作为行动或决策的主要依据,可能对生命安全、环境、关键基础设施及战略资产等领域产生重大影响的人工智能系统,如核能设施、电网系统等。权利影响型人工智能是指以输出作为针对特定个人或实体决策的主要依据,且该决策对公民权利、公平机会及获取关键政府资源或服务具有法律或实质性重大影响的人工智能系统,其分布于就业、教育、金融、医疗、住房等领域。对于上述两类人工智能系统,《备忘录》规定需遵守一系列共同最低风险管理实践,包括进行全面评估、在真实环境中测试系统性能、开展独立评估、持续监控与定期开展人工智能使用风险复评、减缓对权利和安全产生的新兴风险、确保充分的人工监督和培训以及公开透明的披露系统功能等。在此基础上,权利影响型人工智能系统还需额外履行一系列义务,如识别和评估算法对公平和公正的影响并消除算法歧视、征求和采纳受影响社区及公众的反馈意见、对人工智能系统引发的歧视风险进行持续监控并在无法缓解情况下停用系统、在作出对个人不利决定时及时通知当事人并提供申诉渠道、建立人工介入和救济程序以及在可能情况下为人工智能系统决策提供便捷的人工替代选项等。这一制度设计显示,美国在与加拿大相似的“安全/权利(偏见)”二分法理念下,进一步强调差异化治理,既设定统一的合规基线,又针对权利风险额外设立强化保障,从而在体系上实现更具针对性与精细化的风险治理模式。
与其它法域相比,《备忘录》的另一独特之处在于进一步引入灵活调整机制,以避免僵化的“一刀切”管理模式。一方面,对于被推定为高风险的人工智能系统,可由首席人工智能官基于系统性风险评估,申请认定其不属于高风险类别,从而免于适用严格的最低风险管理要求;另一方面,对于确需纳入高风险范围但暂无法完全合规的系统,美国政府允许机构依据具体情境申请延期或豁免。其中,延期适用于存在合理技术或管理障碍且能提出整改计划的情形,豁免则限于履行要求反而可能会增加风险或妨碍关键公共职能的特殊场合,所有申请均需经过充分的风险论证、书面说明并接受统一监管。该机制体现了美国在人工智能治理中对“统一标准”与“灵活适用”协调的取舍,即在确保安全与权利保护的同时,为创新发展保留了制度弹性。
总体来看,主要国家和地区在人工智能治理上普遍采取基于风险分级分类的监管路径。无论是欧盟的《人工智能法案》、韩国的《人工智能基本法》,还是加拿大的《人工智能和数据法案》与美国的《备忘录》,其共同点均在于通过识别与分类人工智能系统潜在风险来施加差异化合规义务。这一趋势表明,以风险为核心的分级治理模式已成为全球人工智能立法的共识。
在立法模式上,欧盟、韩国和加拿大均采取统一立法的横向规制体系。然而,从治理效率与技术迭代角度看,横向规制体系并非人工智能立法的理想模式,其弊端在于容易陷入“一刀切”困境。人工智能应用场景复杂多样,不同行业风险类型与治理需求差异显著,统一规定往往难以精准匹配。例如,将以安全性风险为主的自动驾驶系统与以公平性风险为主的招聘算法置于同一监管强度下,不仅会增加不必要的制度负担,还可能会导致适用失衡,使合规成本畸高、创新空间受限[26]。此外,统一立法周期漫长,难以及时响应人工智能技术的快速迭代,导致制度更新滞后。以意大利为例,其最新法案尝试弥补欧盟横向规制的不足,在医疗、劳动、司法、公共行政等关键领域分别设定差异化义务,但未能降低整体合规成本,反而造成欧盟统一与国内补充的双重合规压力。
因此,在我国未来人工智能风险防控立法中,应摒弃单一依赖横向规制体系的不足,以防止在行业差异与技术快速迭代背景下出现制度滞后、调整成本过高及高合规压力等问题[27]。同时,不能完全依赖部门规制而忽视体系化协调,而应在统一立法与分领域治理之间寻求平衡。在国家层面确立基础性法律框架,在部门层面保留灵活实施与细化空间,形成国家立法与部门规制双层结构,从而在制度系统性与治理灵活性之间实现动态平衡。
从风险分类角度看,欧盟《人工智能法案》构建了目前最为系统的四级风险框架,体系完整但合规强度过高,不利于产业发展;韩国与加拿大简化为“高影响系统”规制,整体规制强度较缓和,但存在过度监管或分类效能不足的问题;美国采用安全影响型与权利影响型双路径,通过统一基线与差异化义务并行方式,构建比例化与灵活性兼备的治理结构。以场景导向和比例原则为基础,在统一合规标准的基础上设置灵活豁免与动态调整机制,兼顾安全、权利与创新,体现出更高的适配性与实效性。
因此,在风险分类上,美国模式可能更契合我国人工智能风险治理的现实基础与制度需求。首先,在我国确立国家立法与部门规制双层结构的前提下,美国安全影响型与权利影响型双路径分类能够在国家层面固化安全与权利的共性标准与基线要求,在部门层面根据行业风险特征细化技术标准与权利保障措施,在体系化与灵活性之间实现平衡,既守住安全与权利底线,又为制度预留适度弹性。其次,该模式与我国发展与安全并重的政策导向高度一致。通过将人工智能风险划分为安全影响型与权利影响型,可在制度层面实现对不同风险类型的精准识别与差异化治理,兼顾比例原则与场景差异,更符合我国多元化应用场景下的精细化治理需求。最后,美国模式所强调的动态调整机制,能够有效弥补我国现行制度中“单向规制与缺乏反馈回路”的不足。通过最低合规基线与灵活豁免机制并行,赋予监管机关与企业在应对新兴技术与快速变化场景时的自主调节空间,从而在确保安全底线的同时,增强制度的敏捷性、适应性与弹性。此种模式有助于推动监管与技术演进协调互动,使我国人工智能治理体系在安全与创新之间实现动态平衡。
综合而言,域外经验为我国人工智能立法提供了3点启示:①风险分级分类应成为人工智能治理的基本逻辑与核心理念;②应在国家立法与部门规制之间形成协同双层架构,以兼顾体系化与灵活性;③应以比例原则为指导,借鉴美国“安全—权利”二分法,构建差异化义务,并建立针对高风险人工智能的动态调整与灵活豁免机制,以弥补我国部门立法中“单向规制、缺乏反馈回路”的不足,形成兼顾风险防控与技术创新的中国特色治理模式。
推进人工智能立法,尤其是以风险治理为核心的规制立法,已具备迫切性与现实必要性,发展与安全并重是我国人工智能治理需坚守的基本要求[28],风险分级分类治理理念是在确保安全底线的同时促进技术创新的关键路径。通过对欧盟、韩国、加拿大与美国等主要法域的比较可见(见表2),尽管各国在分类标准、合规义务与制度设计上存在显著差异,但均形成以风险识别为基础、以比例原则为导向的治理逻辑。这表明,体系化与比例化协调是人工智能立法的内在要求。我国未来人工智能立法需在体系化与比例化之间取得平衡,在吸收域外有益经验和教训的基础上,探索契合本土实际的风险治理路径。
表2 欧盟、韩国、加拿大、美国人工智能风险治理模式对比
Table 2 Comparison of AI risk governance models in the EU, Korea, Canada, and the U.S.
国家/地区风险分类方式合规义务特点 主要特点欧盟 四级分类:不可接受风险/高风险/有限风险/最小风险全面规制,统一适用严格的全生命周期合规义务体系完整、覆盖全面,以基本权利(隐私、公平、生命健康)为核心价值,具有制度标杆作用容易陷入“一刀切”式强监管,导致不同类型人工智能适用同质化要求,合规成本高、创新受限;立法过程复杂冗长,难以及时回应技术快速迭代要求韩国 高影响人工智能对所有高影响人工智能统一施加“确认—认证—透明性—经营者义务—影响评估”等横向合规要求框架简洁,条文精炼;通过横向规制在不同领域建立统一合规标准,强化对生命、隐私等基本权利的保护过度依赖横向规制,缺乏风险类型细分;义务过于繁重,监管弹性不足加拿大对高影响人工智能的二分法:偏见性输出/安全影响型所有高影响系统统一义务(风险评估、记录保存、公开说明);未对不同类别分别设置差异化义务风险分类理念合理,体现“风险导向+权利导向”的结合;制度简明清晰未能针对不同风险类型设定差异化义务,制度回应的精细化程度不足美国 对高风险人工智能的二分法:安全影响型/权利影响型高风险系统适用统一最低要求(影响评估、性能测试、独立评估等);“权利影响型”系统额外适用歧视评估、公众参与、告知义务、人工替代选项等;动态调整机制在最低合规基线的基础上,对权利风险增设差别化义务,制度更具针对性和精细化;最大程度上兼顾灵活性与创新适用范围局限于政府内部规制,缺乏统一立法层级
“敏捷治理”理念已成为国际社会的共识,而基于风险分级分类对人工智能进行规制,正是这一理念在中观与微观层面的具体实践[29]。我国人工智能风险防控制度的构建应以风险分级分类为核心方法,立足本土实际,探索符合中国国情的分级监管路径[30]。通过对域外制度的比较可见,构建国家立法与部门规制双层治理结构,是在统一框架下实现差异化与场景化治理的有效途径。这一模式能够有效避免横向规制的僵化倾向,同时兼顾制度的系统性与灵活性。在“统一立法”与“分立立法”体例的基础上[31],本文提出以“共性与个性”相结合的分层立法策略,将其作为我国人工智能立法体系的制度路径。
在共性层面上,在全国层面制定人工智能基本法[27],明确人工智能治理的基本原则、风险分类方法、底线义务框架等共性制度要素,并为后续分领域规制授权提供法理基础。在此过程中,可充分发挥国家新一代人工智能治理专业委员会的咨询与专业支撑作用,同时广泛吸纳人工智能领域专家、技术人员及产业界代表,确保制度设计的科学性与适应性。该共性框架的核心价值在于为各行业主管部门提供统一的制度坐标与分类基准,防止因多部门分头立法而导致治理碎片化与标准冲突,确保国家层面制度协调与整体一致性。
在个性层面上,应尊重人工智能风险场景的差异性,相关主管部门既积累了大量经验又拥有相对充足的执法资源[32]。因此,应推动人工智能相关部门对现行部门规章和行政规范性文件进行修订与完善。例如,自然资源部、交通运输部、国家卫生健康委等部门可结合本行业中人工智能的具体风险类型,制定相应技术规范和监管细则;对于跨领域、多环节复杂应用场景,可通过多部门协同机制,联合出台综合性规制方案。这种由中央统一原则、部门细化规则的共性与个性相结合的立法结构,能够在保障制度协调一致性的基础上,实现对人工智能系统的精确治理与动态调整,以适应人工智能快速发展的技术环境[33]。
事实上,我国近年来在实践中已初步形成由中央统筹、主管部门协同推进的分级治理格局。例如,《互联网信息服务算法推荐管理规定》《互联网信息服务深度合成管理规定》以及《生成式人工智能服务管理暂行办法》等法规的出台,体现出国家层面主导原则确立与部门层面技术细则协作制定的制度逻辑。这一趋势为未来我国在人工智能立法体系中实现共性框架与个性规制的有机结合奠定了良好基础,也为回应复杂多变的人工智能技术挑战提供了可持续治理路径。
综上,遵循共性与个性相结合的立法思路,既能发挥中央统一立法的统筹与权威功能,确保风险治理的体系化和一体化,又能借助主管部门的专业经验提升规则的精细化和可操作性,从而回应我国当前人工智能风险治理碎片化和操作性不足的难题,进一步实现对各类高风险场景的全面覆盖,避免监管真空,为未来人工智能立法奠定坚实的制度基础。这一思路的创新之处在于,不再简单地在“统一立法”与“分立立法”之间二元对立,而是强调二者互补与结合,通过共性与个性相结合的制度结构实现宏观与微观、统一与差异、稳定与灵活的有机统一。
在中央层面统一立法中,应将人工智能系统按功能属性划分为“安全影响型”与“权益影响型”两种类型,将其作为配置监管义务的基本起点。前者涵盖可能对公共安全和生命健康产生重大影响的场景,如核设施、电网系统、水处理、交通调度、环境保护、危险品管理、医疗设备控制等,其监管重点应放在物理风险和系统故障的防范,突出技术安全性、系统可靠性、功能测试与失效响应等工程性机制;后者则涵盖直接影响个体权利与社会公平的场景,如执法与司法决策、出入境管理、教育评估、就业筛选、金融信贷和社会福利分配等,其监管重心应落在程序正义、反歧视审查、可解释性、用户申诉与人工复审等制度环节。
在具体管理措施上,应根据不同类别分别设定差异化义务。对于安全影响型人工智能,应重点落实以工程技术为主的风险控制机制,包括第三方测试、安全标准审查、事故报告制度、技术文档保留等;而对于权益影响型人工智能,则应强化人类监督、提升透明度和公众参与度,保障用户知情权与申诉权,防止系统性歧视,并在必要时提供人工干预或替代选项。通过这种与用途场景相匹配的差异化合规要求,可在降低不必要合规负担的同时,有效提高监管的针对性和执行力。
然而,在现实中人工智能系统“安全风险”与“权益风险”有时会呈现交叉、叠加甚至相互制约的态势。例如,智慧城市治理系统既承担公共安全的实时监控任务,又可能因数据或算法偏差对弱势群体造成差别化对待。如果缺少与“双轨分类”相对应的协调机制,容易导致分类标准模糊、责任边界不清,从而削弱风险治理的有效性。基于此,有必要在“两分法”总体框架下进一步构建系统化配套机制,而该机制的设计应当始终遵循风险分级分类比例规制原则。
(1)确立“主导风险识别机制”。该机制适用于人工智能系统同时具有安全风险与权益风险,但两类风险严重程度存在明显不同。此时,应按照系统可能造成的最大危害后果确定其主要风险属性,若系统失效可能导致不可逆的生命安全或公共安全损害,应优先归入安全影响型路径;若系统主要影响程序正义、基本权利或弱势群体,则应归为权益影响型路径。对于另一类义务,则可在必要时设置适度豁免或部分履行、第三方审查或合规性评估等方式替代[14]。
(2)建立“叠加义务机制”。若人工智能系统同时具有高度安全风险与高度权益风险,则应允许两类义务叠加适用,以避免义务主体利用分类差异规避关键义务。但在某些情境下,叠加义务可能会导致义务主体难以完全履行,此时应辅之以动态调整机制与灵活豁免机制,以确保义务体系既具防护能力,又保持可行性。
(3)强化国家新一代人工智能治理专业委员会在双轨分类体系中的统筹作用。然而,“安全—权益”分类框架的具体细化以及交叉风险情境下的义务适用,不宜完全依赖其自上而下“一揽子”制定。更为合理的模式是:一方面,由其制定分类定义、框架规则,并根据主导风险识别机制与叠加义务机制对复杂风险情境提出指导意见;另一方面,各主管部门应基于行业实践与具体应用场景变化持续反馈数据,形成中央规则供给与基层经验回流的双向联动结构。此举既可避免多头立法导致的标准冲突,也能够在体系层面形成适配性更强、柔性更高的治理架构。
总之,通过确立“安全—权益”两分法的风险分类体系,构建主导风险识别与叠加义务机制,并建立中央与地方之间的双向联动体系,能够在保障公共安全与基本权利的基础上,实现兼具比例性与体系性的风险治理。
上述分类机制提供了风险治理结构性框架,而动态调整机制则使该结构能够随技术迭代和场景变化保持灵活性与适应性。我国当前人工智能风险监管制度在企业层面普遍存在合规机制单向固化、沟通渠道不畅和缺乏动态反馈机制等问题。这导致监管体系难以及时响应技术迭代与行业变动,造成部分领域出现过度规制或监管滞后的情形。为此,可借鉴美国针对高风险人工智能的动态调整与灵活豁免机制,进一步增强人工智能风险分级监管的适应性与灵活性。其必要性在于,人工智能技术持续迭代,不同行业或应用场景的风险特征可能随之发生显著变化,而某些特定情境下的风险又具有高度特殊性[34]。如果监管机制缺乏动态调整能力,极易导致制度僵化与过度合规负担,从而削弱创新活力。
(1)在政府层面,各领域主管部门应根据技术发展、行业实践与应用场景变化,定期评估现行分级分类标准的适用性。如果发现部分行业或场景风险属性已显著降低,或现行义务已不再合理,应主动通知相关企业申请豁免或延期,并将相关情况及时报告国家新一代人工智能治理专业委员会。另外,建立统一的信息汇总与共享机制,定期对各部门的调整报告进行综合研判。若某些场景因技术成熟或配套体系完善而不再属于高风险类别,或现有义务确有必要修正,国家新一代人工智能治理专业委员会可向国家立法机关提交正式建议,推动国家层面相关法律规范的周期性修订与完善。
(2)在企业层面,对于被先行推定为高风险的典型场景,企业应依法履行更严格的合规义务,但在具备充分技术论证与风险控制能力的前提下,应允许其依法申请豁免或延期。为提高制度的针对性与透明度,可将豁免制度细分为完全豁免、阶段性豁免与附条件豁免3种类型。其中,完全豁免适用于经第三方专业机构评估,确认系统风险已显著降低且不再构成高风险的情形;阶段性豁免适用于技术仍处于改进过渡期、企业能够提出明确整改计划与时间表的情形;附条件豁免则适用于虽有高风险特征但企业能履行部分关键义务(如数据治理与人工监督)的情形。企业在申请时需提交书面材料,明确豁免或延期的范围、理由及支持性证据,并附带独立第三方评估报告,以提升申请的客观性与可信度。主管部门在受理后应依法进行审查、组织专家评议,并作出批准或驳回决定。批准后,应建立持续跟踪与动态复核机制,当企业经营状况或系统性能发生重大变化时,主管部门可随时调整或撤销豁免。所有豁免与调整决定应报国家新一代人工智能治理专业委员会备案。
通过上述安排,形成与前述分类体系相互衔接的“推定从严—申请灵活—跟踪动态—立法调整”的循环机制,使分级分类监管不仅在结构上具有区分度,也在运行过程中保持灵活性。这不仅有助于避免制度僵化和合规负担过重,也能确保监管措施、技术发展与社会需求保持动态匹配,使监管体系在科学性、灵活性与法治性之间实现动态平衡。
在“第四次工业革命”浪潮中,人工智能技术正深度嵌入社会经济运行的各个领域,其在推动产业升级与技术变革的同时,也对以人类智能为基础所构建的既有法律秩序提出严峻挑战[35]。如何在“规制”与“创新”之间取得动态平衡,构建既能有效防范风险、又不妨碍技术发展的治理体系,已成为全球共同面临的核心议题。欧盟、韩国、美国、加拿大等主要经济体均选择以风险为核心展开人工智能治理,逐步确立风险分级分类监管模式。尽管路径各异,但“风险导向”与“比例规制”逐步成为国际人工智能治理的共识。
本文在系统比较四大法域人工智能风险治理实践的基础上,结合我国现实困境与制度需求,提出本土化制度优化路径:第一,构建共性与个性相结合的分层立法体系,在全国统一法律框架下,由行业主管部门针对不同应用场景制定配套规则,实现制度协调性与治理灵活性的有机统一。第二,确立安全影响型与权益影响型两分法风险分类框架,引入“主导风险识别”与“叠加义务适用”机制以提高风险识别精度与监管工具适配性,从而形成覆盖更广、操作性更强的治理结构。第三,完善动态调整与灵活豁免机制,在“推定从严—申请灵活—跟踪动态—立法修订”的循环体系中,确保制度能够随技术进步与场景演化实现迭代更新,避免制度僵化与过度规制。
展望未来,我国人工智能立法需围绕若干关键议题展开深入探索,如高风险领域识别与动态评估机制、风险等级标准与豁免程序的制度化设计、跨部门协同与信息共享机制的运行以及监管工具在实践中的可执行性与可持续性。在立法层面回应人工智能快速发展所带来的机遇与挑战,构建科学、灵活、具有前瞻性的中国特色人工智能风险防控制度,并在全球人工智能治理格局中贡献中国方案。
[1] 郑煌杰.生成式人工智能的伦理风险与可信治理路径研究[J].科技进步与对策,2025,42(12):38-48.
[2] 何元浪,袁健红.人工智能发展与新质生产力提升:理论机制与实证检验[J].科技进步与对策,2025,42(11):1-11.
[3] Office of Management and Budget. Advancing Governance, Innovation,and Risk Management for Agency Use of Artificial Intelligence M-24-10[EB/OL]. (2024-03-28) [2025-06-25].https://www.whitehouse.gov/wp-content/uploads/2024/03/M-24-10-Advancing-Governance-Innovation-and-Risk-Management-for-Agency-Use-of-Artificial-Intelligence.pdf.
[4] 顾楚丹.面向未来的人工智能社会风险及其预期治理[J].西北民族研究,2025,40(5):122-135.
[5] 许可.人工智能法律规制的第三条道路[J].法律科学(西北政法大学学报),2025,43(1):59-71.
[6] POWER M. Organized uncertainty: designing a world of risk management[M]. Oxford: Oxford University Press, 2007.
[7] GELLERT R. Understanding the notion of risk in the General Data Protection Regulation[J]. Computer Law &Security Review, 2018, 34(2): 279-288.
[8] ISO. Risk management: principles and guidelines[R]. Geneva: International Organization for Standardization, 2009.
[9] DE GREGORIO G,DUNN P.The European risk-based approaches: connecting constitutional dots in the digital age[J]. Common Market Law Review, 2022, 59(2): 473-500.
[10] QUELLE C. Enhancing compliance under the General Data Protection Regulation:the risky upshot of the accountability and risk-based approach[J]. European Journal of Risk Regulation, 2018, 9(3): 502-526.
[11] 张璐瑶.敏捷治理与人工智能治理机制创新[D].上海:上海国际问题研究院,2023.
[12] 张涛. 人工智能治理中“基于风险的方法”: 理论、实践与反思[J]. 华中科技大学学报(社会科学版), 2024, 38(2): 66-77.
[13] 周学峰.论人工智能的风险规制[J].比较法研究,2024,38(6):42-56.
[14] EBERS M. Truly risk-based regulation of artificial intelligence: how to implement the EU′s AI Act[J]. European Journal of Risk Regulation,2025,16(2): 684-703.
[15] 中华人民共和国国务院办公厅. 国务院2023年度立法工作计划(国办发〔2023〕18号)[EB/OL].(2023-06-06)[2025-07-01].https://www.gov.cn/zhengce/content/202306/content_6884925.htm.
[16] 中华人民共和国国务院办公厅.国务院2024年度立法工作计划(国办发〔2024〕23号)[EB/OL].(2024-05-09)[2025-07-01].https://www.gov.cn/zhengce/zhengceku/202405/content_6950094.htm.
[17] 全国人民代表大会常务委员会.十三届全国人大常委会立法规划[EB/OL].(2018-09-10) [2025-07-01]. http://www.npc.gov.cn/zgrdw/npc/xinwen/2018-09/10/content_2061041.htm.
[18] 全国人民代表大会常务委员会. 十四届全国人大常委会立法规划[EB/OL].(2023-09-08) [2025-07-01]. http://www.npc.gov.cn/npc/c2/c30834/202309/t20230908_431613.html.
[19] 陈亮.人工智能立法体系化的困境与出路[J].数字法治,2023,1(6):10-17.
[20] 张凌寒,于琳.从传统治理到敏捷治理:生成式人工智能的治理范式革新[J].电子政务,2023,20(9):2-13.
[21] 徐伟,张丽梅.人工智能立法:欧盟经验与中国路径[J].德国研究,2024,39(6): 76-93, 141.
[22] EUROPEAN COMMISSION. Proposal for a regulation laying down harmonised rules on artificial intelligence (Artificial Intelligence Act) COM(2021) 206 final[EB/OL]. (2021-04-21)[2025-06-25]. https://eur-lex.europa.eu/legal-content/EN/TXT/?uri=CELEX%3A52021PC0206.
[23] 曾雄,梁正,张辉. 欧盟人工智能的规制路径及其对我国的启示——以《人工智能法案》为分析对象[J]. 电子政务,2022,19(9):63-72.
[24] ECLEAR. The EU AI Act explained[EB/OL].(2023-12-11)[2025-06-25].https://eclear.com/article/the-eu-ai-act-explained/.
[25] 沈伟,陈徐安黎.全球人工智能治理模式比较与中国进路[J].亚太经济,2025,42(3):140-154.
[26] 刘子婧. 欧盟《人工智能法案》:演进、规则与启示[J]. 德国研究,2024,39(3): 101-128, 151.
[27] 周汉华. 论我国人工智能立法的定位[J]. 现代法学,2024,46(5): 17-34, 217.
[28] 张新宝,魏艳伟.我国人工智能立法基本问题研究[J].法制与社会发展,2024,30(6):5-21.
[29] 薛澜,贾开,赵静. 人工智能敏捷治理实践:分类监管思路与政策工具箱构建[J]. 中国行政管理,2024,40(3): 99-110.
[30] 张凌寒.中国需要一部怎样的《人工智能法》——中国人工智能立法的基本逻辑与制度架构[J].法律科学(西北政法大学学报),2024,42(3):3-17.
[31] 申卫星.面向未来的中国人工智能立法:思路与重点[J]. 探索与争鸣,2024,40(10): 5-8.
[32] 丁晓东.人工智能风险的法律规制——以欧盟《人工智能法案》为例[J]. 法律科学(西北政法大学学报),2024,42(5): 3-18.
[33] 解志勇.高风险人工智能的法律界定及规制[J].中外法学,2025,37(2):285-305.
[34] 张欣.人工智能治理的全球变革与中国路径[J].华东政法大学学报,2025,28(1):18-32.
[35] 张敏.新质生产力背景下人工智能立法的创新法定位研究[J].政法论丛,2025,41(3):153-167.