欧盟的《人工智能法案》在欧盟的官方公报上公布,开启了法律期限的倒计时。
欧盟具有里程碑意义的基于风险的人工智能应用法规《欧盟人工智能法案》的完整最终文本已在欧盟官方公报上公布。
20 天后,也就是 8 月 1 日,新法律将生效,在 24 个月内——即到 2026 年年中——其条款通常将全面适用于人工智能开发者。然而,该法律对实施欧盟的人工智能规则手册采取了分阶段的方法,这意味着从现在到那时——甚至更晚些时候——有各种值得注意的截止日期,因为不同的法律条款将开始适用。
欧盟立法者于去年 12 月就该集团针对人工智能的首部综合规则手册达成了一项政治协议。
该框架对人工智能开发者规定了不同的义务,具体取决于使用案例和感知到的风险。大部分人工智能的使用不会受到监管,因为它们被认为风险较低,但根据该法律,少数人工智能的潜在使用案例被禁止。
所谓的“高风险”用例——例如人工智能的生物识别应用,或在执法、就业、教育和关键基础设施中使用的人工智能——在法律允许的范围内,但此类应用的开发者在数据质量和反偏见等方面面临义务。
第三个风险层级还对诸如人工智能聊天机器人等工具的制造商提出了一些较宽松的透明度要求。
对于通用人工智能(GPAI)模型的开发者,例如 OpenAI 的 GPT(ChatGPT 所基于的技术),也有一些透明度要求。通常根据计算阈值设定的最强大的 GPAI,可能也需要进行系统性风险评估。
在少数成员国政府的支持下,人工智能行业的一些人士大力游说,试图减轻全球人工智能伙伴关系(GPAI)的义务,理由是担心该法律可能会阻碍欧洲培养出能与美国和中国的竞争对手抗衡的本土人工智能巨头。
“Phased implementation”常见释义为“分阶段实施;逐步实施”
首先,人工智能的禁用清单将在该法律生效六个月后适用——也就是在 2025 年初。
很快将被视为非法的人工智能禁用(或“不可接受风险”)用例包括中国模式的社会信用评分;通过无针对性地抓取互联网或闭路电视(CCTV)来编制人脸识别数据库;执法部门在公共场所使用实时远程生物识别技术,除非存在若干例外情况之一,例如在搜寻失踪或被绑架人员期间。
接下来,在生效九个月后——也就是大约在 2025 年 4 月——操作规范将适用于相关范围内的人工智能应用程序的开发者。
欧盟的人工智能办公室是一个由法律设立的生态系统构建和监督机构,负责提供这些准则。但究竟由谁来实际编写这些指导方针仍存在疑问。
据 Euractiv 本月早些时候的一份报告,欧盟一直在寻找咨询公司来起草这些准则,这引发了民间社会的担忧,即人工智能行业参与者将能够影响适用于他们的规则的形式。最近,MLex 报道称,在欧洲议会议员要求使这一过程具有包容性的压力下,人工智能办公室将发出征集意向书,以选择利益相关方为通用人工智能模型起草行为准则。
另一个关键的截止日期在生效后 12 个月,即 2025 年 8 月 1 日到来,届时该法律中关于必须符合透明度要求的通用人工智能的规定将开始适用。
一部分高风险人工智能系统获得了最宽松的合规期限,在生效后有 36 个月的时间——即到 2027 年——来履行其义务。其他高风险系统必须更早合规,在 24 个月之后。