欧盟表示,通用人工智能的新规定可以随着时间的推移不断发展
欧盟议员于上周五晚间达成的政治协议是关于该区块自诩为全球首个全面规范人工智能的法律的。该协议确立了欧盟委员会能够调整全欧盟人工智能规章,以跟上这一尖端领域的发展步伐。
立法者选择《欧共体法》对当前生成式AI工具繁荣背后最强大的模型进行监管的术语——“通用”AI模型和系统,而不是使用行业选择的术语,如“基础”或“前沿”模型——这也是根据委员会的考虑来选择的,以确保该法律具有未来性。共同立法机构偏向于使用一个通用术语来避免将特定技术(即基于Transformer的机器学习)与其使用相挂钩的分类。
一位委员会官员今天建议:“未来,我们可能有不同的技术方法。所以,我们正在寻找一个更通用的术语。” “基础模型当然是通用人工智能模型的一部分。这些模型可以用于各种各样的任务,也可以集成到系统中。给你一个具体例子,通用人工智能模型将是GPT-4,而通用人工智能系统将是ChatGPT,其中GPT-4被集成到ChatGPT中。”
正如我们早前报道的那样,欧盟立法机构达成的协议包括了用于管理所谓的通用目的人工智能(GPAI)的低风险层和高风险层 —— 这些通用目的人工智能包括了像OpenAI的ChatGPT这样的生成型人工智能工具引起的病毒性热潮。高风险规定将适用于生成型人工智能技术的触发条件由法律中的初始阈值确定。
正如我们上周报道的那样,欧盟AI法规中同意的草案提到了用于训练模型的计算量,也就是浮点运算(或FLOPs)——将GPAI被认为具有“高影响力能力”的门槛设置在10^25个FLOPs。
但是在今天与记者进行技术简报时,回顾政治协议的欧盟委员会确认这只是一个“初始门槛”,并确认它将有权力通过实施/委派行为(即二级立法)随时间更新门槛。它还表示,FLOPs门槛的想法是随着时间的推移与由欧盟委员会内设立的新的专家监督机构AI办公室开发的“其他基准”相结合。
为什么选择了25 FLOPs作为GPAI的高风险阈值?该委员会表示,这个数字是为了捕捉当前一代前沿模型而选择的。然而,它声称在长时间的三方谈判中,立法者并没有讨论过,甚至没有考虑是否适用于当前正在使用的任何模型,比如OpenAI的GPT-4或Google的Gemini,以达成最终规则的形成。
欧洲委员会的一名官员补充说,无论如何,最终是否符合FLOPs门槛以及是否属于具有系统风险的GPAI规则,都取决于GPAI制造商自行评估。
“没有官方数据显示ChatGPT或Gemini或中文模型在FLOPs方面达到这个水平,”官方在新闻发布会上说道。“根据我们现有的信息和我们选择的10^25这个数字,我们选择了一个能够捕捉到一定程度的前沿模型。我们现在不会断言这是否涵盖了GPT-4、Gemini或其他模型,因为在我们的框架中,公司需要自己评估他们使用的FLOPs数量或计算能力。但是,当然,如果你阅读科学文献,很多人会指向这些数字作为目前最先进的模型。我们将会看到公司将如何评估,因为他们是最适合做这个评估的人。”
他们补充道:“制定这些规定时,并没有特别考虑某些公司。实际上,这些规定是为了界定门槛而制定的。顺便提一下,这个门槛可能会因为技术进步而发生变化,我们有能力根据技术进化来调整这个门槛。门槛可能会提高,也可能会降低,我们还可以开发其他更适合用来测量不同时期的基准。”
符合人工智能法重大风险等级的 GPAIs 将面临公正性监管要求,以评估和减轻系统风险 — 这意味着他们必须主动测试模型输出,以减少对公共卫生、安全、公共安全、基本权利或整个社会可能产生的实际(或“合理预见到的”)负面影响的风险。
在“低层”GPAI(生成对抗网络人工智能)只需承担较轻的透明度要求,包括对生成的AI输出应用水印的义务。
GPAIs(2021 年 4 月起早期委员会版本的基于风险框架提出的)水印要求,主要针对透明度要求,例如 AI 聊天机器人和深度伪造技术。现在,这个要求也将普遍适用于通用人工智能系统。
“根据最新的现有技术,尝试为生成的AI文本添加水印是一项义务,”委员会官员在详述达成的水印义务细节时表示。“目前,技术在给视频和音频添加水印方面要比给文本添加水印更出色。但我们要求的是基于最先进的技术进行水印处理,当然我们期望随着时间的推移,技术将更加成熟,并且尽可能达到最佳水平。”
GPAI模型制造商还必须致力于尊重欧盟的版权规定,包括遵守欧盟版权指令中关于机器可读的文本和数据挖掘的退出规定,以及免除透明度要求的例外条款。开源GPAIs对透明度要求的豁免不意味着它们可以摆脱版权义务,委员会确认版权指令仍将适用于开源GPAIs。
关于AI办公室,该办公室在为通用人工智能(GPAIs)设定风险分类阈值方面将发挥关键作用,委员会确认目前尚未确定该专家机构的预算和人员配备。(然而,在周六凌晨,欧盟的内部市场专员蒂埃里·布勒顿表示,随着该通用人工智能监管机构的建立,欧盟将迎来“很多”新同事。)
当被问及关于AI办公室的资源配置时,一名委员会官员表示,该问题将由欧盟的执行机关在未来做出“适当和官方的决定”。“我们的想法是可以为办公室建立专门的预算项目,如果需要,我们也可以聘请来自成员国的国家专家,此外还可以聘请临时雇员和永久员工。其中一部分员工也将被部署在欧洲委员会内部,”他们补充道。
AI办公室将与新设立的科学顾问委员会共同工作,以帮助该机构更好地理解先进AI模型的能力,以便对系统风险进行监管。官员指出:“我们确定了科学专家委员会在建立时起到重要作用的角色,它可以有效地帮助AI办公室了解是否存在尚未被发现的新风险。”“例如,还可以发现一些未被FLOP阈值所捕捉到的模型警报,这些模型基于某些原因可能导致重要的风险,政府应当予以关注。”
尽管欧盟的行政机构似乎热衷于确保即将到来的法律的重要细节被公之于众,尽管目前还没有最终的文字——因为在接下来的几周,欧盟将面临整合协商期间与立法机构达成共识的工作,这个过程需要耗费长达38个小时,于上周五晚间结束——但在这些细节中仍然可能隐藏着一些隐患。因此,值得密切审查即将公布的文字,可能是在一月或二月。
此外,虽然全面的监管工作还需数年才能启动,但欧盟将在此期间推动全球公共人工智能组织(GPAIs)遵守实践准则,因此人工智能巨头将面临尽可能接近即将施行的硬性规定的压力,通过欧盟的人工智能协议。
欧盟人工智能法案本身可能要等到2026年才能完全生效——因为最终的法案文本必须经过编纂(并翻译为成员国语言),在议会和委员会的最终投票中确认后,法律文本才会在欧盟官方期刊上公布,并且在生效前还有一段短暂的时间。
欧盟议员还同意了《行动法》合规要求的有阶段性的实施方式,高风险规定在GPAIs适用之前将有24个月的延期期限。
人工智能的严格禁止使用案例清单将很快生效,仅在该法律生效后的六个月内——这可能意味着对某些“不可接受的风险”使用人工智能的行为的禁止,例如社会评分或类似Clearview AI的自拍识别数据库,将在2024年下半年开始执行,前提是在理事会或议会中没有最后一刻的反对意见出现。(有关被禁止使用的人工智能用途的完整清单,请阅读我们之前的帖子。)