在进行了为期三天的激烈谈判后,欧洲议会、欧洲理事会和欧盟委员会三方于12月8日晚就《人工智能法案》达成协议,法案规定了对人工智能领域的全面监管。据路透社报道,这项法案最早将于明年初生效并于2026年实施。国际社会观察认为,《人工智能法案》具有全面性和综合性。未来,法案将对人工智能的研发、产品和服务的设计与运行带来巨大影响。

欧盟《人工智能法案》实行风险分级监管

基于风险制定监管制度

继2022年欧盟推出旨在加强在线服务竞争的《数字市场法》以及删除非法有害在线内容、保护用户数据的《数字服务法》后,欧盟就《人工智能法案》达成协议。

欧盟《人工智能法案》实行风险分级监管

《人工智能法案》主要内容包括规定了高影响通用人工智能模型和高风险人工智能系统的规则,在欧盟层面进行了治理体系的修订,扩展了禁止清单,允许法律执法机关在公共场所有限制地使用远程生物识别技术。此外,法案涉及诸多概念的定义和范围、基本权利影响评估、高风险人工智能系统的分类、法律执法的例外情况、新的治理架构、罚款、透明度以及支持创新的措施。

欧盟《人工智能法案》实行风险分级监管

法案的一个突出特点是注重基于风险来制定监管制度,以平衡人工智能的创新发展与安全规范。浙江大学光华法学院教授、浙江立法研究院院长郑春燕在接受《法治日报》记者采访时称,欧盟的《人工智能法案》确立了“基于风险”的人工智能治理框架,将人工智能系统评估后划分为最小风险、有限风险、高风险和不可接受风险四个等级,并对各个等级采取差异化的监管方式。

欧盟《人工智能法案》实行风险分级监管

“这种‘基于风险’的治理框架与传统法律中‘基于权利’的治理框架相区别,更符合人工智能时代的风险特点和监管要求。”郑春燕解释道,一方面,这种立法模式大多具有原则性的特点,原则性规定而非具体规则占据法律的主要内容,且大量关键性规范都比较宽泛。这既为人工智能技术的创新性发展预留了法律空间,又使得立法以一种包容性的姿态面向快速变迁的社会现实,避免法律的滞后性。另一方面,这种立法模式将法律所确立的宽泛规范理解为程序而非确定的规则,相关企业和个人通过“尽力合规”的方式执行法律规定,而监管机构则将相关法律义务的履行理解为持续的风险评价过程。这样的好处在于可以采取一种相对灵活和合比例的方式执行立法所确立的原则,从而最大程度避免风险的产生和扩散。

欧盟《人工智能法案》实行风险分级监管

立法进程总体进展迅速

当前,人工智能发展的速度远远超过技术监管、法律伦理、政策评估的脚步,需要一些更有远见的框架来应对未知挑战。在此背景下,欧盟一直在加快立法总体进程。

欧盟《人工智能法案》实行风险分级监管

欧盟委员会于2021年4月21日提出《人工智能法案》提案的谈判授权草案,将严格禁止“对人类安全造成不可接受风险的人工智能系统”,包括有目的地操纵技术、利用人性弱点或根据行为、社会地位和个人特征等进行评价的系统等。草案还要求人工智能公司对其算法保持人为控制,提供技术文件,并为“高风险”应用建立风险管理系统。每个欧盟成员国都将设立一个监督机构,确保这些规则得到遵守。

欧盟《人工智能法案》实行风险分级监管

2022年12月6日,欧洲理事会一致通过《人工智能法案》草案,允许与欧洲议会进行谈判。此后,欧洲议会和欧盟理事会就草案进行了多轮修订和讨论。欧洲议会议员们争议的核心是监管是否会阻碍创新,即如何平衡数据隐私与避免扼杀人工智能的创新和投资。其中最具争议的领域是决定哪些人工智能系统将被归为“高风险”。

欧盟《人工智能法案》实行风险分级监管

2023年2月24日,欧洲议会议员布兰多·伯尼菲和德拉戈·图多拉奇提出了一份妥协修正案,包含了欧洲议会议员经过马拉松式谈判后提出的反馈意见。例如,针对监管沙盒(经济术语,指一个受监督的安全测试区)机制,反馈中要求建立沙盒机制的监管机构,指导和监督高风险人工智能系统的开发人员。3月14日,布兰多·伯尼菲和德拉戈·图多拉奇提出了一份关于通用目的人工智能草案,提议为这类人工智能系统的提供商设定相应义务,并为相关参与主体设定责任。此外,他们提议,ChatGPT等通用目的人工智能系统的整个生命周期都必须接受外部审计。

欧盟《人工智能法案》实行风险分级监管

2023年6月14日,欧洲议会全体会议表决确认其认同立场。欧洲议会投票结束后,欧洲议会、欧洲理事会和欧盟委员会立即就法案举行了第一次“三方会谈”。随后的7月18日、10月2日和24日,分别举行了第二、三、四次“三方会谈”,直至此次协议达成。

欧盟《人工智能法案》实行风险分级监管

长远发展仍需多方努力

《人工智能法案》为全球提供了全面、横向和具有约束力的人工智能法规,法案的规定和方法很可能成为其他国家在制定人工智能法规时的参考蓝本。尽管法案将对人工智能领域的治理带来巨大影响,但这一领域的长远发展仍需多方努力。

欧盟《人工智能法案》实行风险分级监管

欧盟内部市场委员蒂埃里·布雷东表示:“《人工智能法案》不仅是一本规则手册,而且将成为欧盟初创企业和研究人员有效治理全球人工智能的助推器。”

欧盟《人工智能法案》实行风险分级监管

目前,已有多个国家正在准备完善监管手段。美国的立法者提出了两项独立的人工智能法案,其中一项要求美国政府在使用人工智能与人互动时保持透明,另一项法案则提出调研美国在最新技术方面是否仍具备竞争力。在企业层面,谷歌与环球音乐尝试就人工智能“深度伪造”技术达成解决协议。作为人工智能大国,中国在全球人工智能治理上从未缺位。在11月1日英国布莱奇利园举行的首届人工智能安全峰会上,中国代表指出,发展人工智能,应当积极倡导以人为本,智能向善,加强技术风险管控,并在相互尊重、平等互利的原则基础上,鼓励各方协同共治,增强发展中国家在人工智能全球治理中的代表性和发言权,不断弥合智能鸿沟和治理能力差距。

欧盟《人工智能法案》实行风险分级监管

国际社会舆论称,《人工智能法案》的实施将有助于塑造人工智能的未来发展方向,防范潜在的风险,并在全球范围内促进对人工智能的可持续监管。但同时也应注意,强监管措施会对人工智能领域创新带来负面效应。这份法案的长期效果仍有待观察。(王卫)

欧盟《人工智能法案》实行风险分级监管

来源: 法治日报

标题:欧盟《人工智能法案》实行风险分级监管

地址:http://www.greeer.com/kafeiji/57764.html