英国政府敦促采取更积极的态度,以避免错过人工智能热潮,需关注来自低风险国家的合法移民者

AI7号2024-02-02726

Chat中文版

根据今天发布的一份报告,英国政府在AI安全性方面的观点过于狭窄,存在在AI热潮中落后的风险。

该报告由英国议会上议院的通讯和数字委员会发布,经过数月的收集证据的努力,涉及大量利益相关者的意见,包括大型科技公司、学术界、风险投资家、媒体和政府。

报告的关键发现之一是,政府应该重新关注大型语言模型(LLM)可能带来的更近期的安全和社会风险,例如版权侵犯和虚假信息,而不是过于担心世界末日般的情景和假设性的存在威胁,报告称这些担忧是“夸大了的”。

“人工智能大型语言模型的快速发展很可能对社会产生深远影响,与互联网的引入相当重要。这使得政府能够正确对待这一发展,不要错过机遇,特别是如果是出于对遥远和不太可能的风险的谨慎,那就更加重要了。”传媒与数字委员会主席斯托维尔女男爵在一份声明中表示。“为了能够利用这些机遇,我们需要应对风险,但我们需要持有适度和实际的态度。我们必须避免英国错失潜在的人工智能热潮。”

这些发现出现在全球许多地方都在应对快速发展的人工智能浪潮的同时,OpenAI的ChatGPT成为了过去一年中引发公众关注的LLMs的典型代表。这种炒作引发了同样的兴奋和恐惧,并引起了各种关于人工智能治理的讨论——拜登总统最近签署了一项行政命令,旨在制定人工智能安全和安保标准,而英国则通过举办AI安全峰会等举措力争将自己置于人工智能治理的前沿。去年11月,在Bletchley公园举行的AI安全峰会上,世界政治和企业领导人齐聚一堂。

与此同时,人们开始在是否应该对这项新技术进行何种程度的监管问题上出现分歧。

监管捕获

脸书的首席人工智能科学家Yann LeCun最近与数十位签署人一起在一封公开信中呼吁AI发展更加开放,旨在对抗OpenAI和Google等科技公司通过游说来争取“AI行业的监管掌控”,以保障AI研发的开放性。

“历史向我们展示,急于追求错误类型的监管可能导致权力集中,伤害竞争和创新,”信中写道。“开放的模式可以为开放的辩论提供参考,并改进政策制定。如果我们的目标是安全、安全性和问责制,那么开放和透明是实现这些目标的关键要素。”

正是这种紧张气氛成为上议院“大型语言模型和生成式人工智能”报告的核心推动力量,该报告呼吁政府将市场竞争作为“明确的人工智能政策目标”,以防止一些当前的主导者(如OpenAI和Google)的监管困扰。

事实上,在报告的几页中,“封闭”与“开放”的问题引起了关注,并得出结论称“竞争动态”不仅对于谁最终主导AI / LLM市场至关重要,也对最终实施何种监管监督产生了影响。报告指出:

委员会在其调查中表示,它对政府是否应该对此事采取明确立场进行了审查,是支持开放还是封闭,得出的结论是“一个细致入微并循序渐进的方式至关重要”。但它同时表示,收集到的证据在一定程度上受到了利益相关者的影响。

例如,微软和谷歌表示他们通常支持“开放访问”技术,但他们认为公开的LLM(大型语言模型)存在的安全风险太大,因此需要更多的保障措施。以微软的书面证据为例,该公司表示:“并非所有参与者都有良好的意图或足够的能力来解决高度功能强大的[大语言]模型所带来的挑战”。

公司指出:

但与此同时,开放式的LLM更加容易接触,它们形成了一个“良性循环”,使更多的人能够摆弄其中的东西,并审查引擎盖下发生的事情。全球人工智能平台Hugging Face的全球政策总监艾琳·索莱曼在她的证据阶段表示,开放访问训练数据和发表技术论文等内容是风险评估过程中至关重要的一部分。

英国政府最近成立的人工智能安全研究所主席Ian Hogarth还指出,我们现在正处于一个位置,即私营企业正在有效地“自己给自己批改作业”来评估风险,并定义LLMs和生成式人工智能的前沿。Hogarth表示:

避免或努力避免监管被控制是许多问题的核心所在。那些正在开发领先的LML工具和技术的公司也呼吁进行监管,许多人认为这实际上是为了阻止那些试图迎头赶上的人。因此,该报告承认对于工业游说监管或政府官员过于依赖“狭窄的私营部门专业知识库”来制定政策和标准存在关注。

基于这样的原因,委员会建议“加强科技创新与技术部门以及监管机构的治理措施,以减少无意中被监管困扰和群体思维的风险。”

根据报告,这应该:

狭窄的关注范围

然而,这一切导致了报告推荐的主要重点之一:AI安全辩论过于被一个狭隘的叙述所主导,这个叙述主要关注灾难性风险,特别是来源于“那些最早开发这些模型的人们”。

事实上,一方面报告呼吁对“高风险、高影响模型”进行强制安全测试 - 这些测试超出了少数公司的自愿承诺。但与此同时,报告指出对灭绝性风险的担忧被夸大了,这种夸张只是为了转移对LLM今天正在带来的更紧迫问题的注意力。

报告得出结论:“可以几乎确定,在未来三年内,存在性风险几乎不会出现,而在接下来的十年内也极有可能不会出现。”“随着我们对这一技术的理解的增加和负责任的发展的增加,我们希望对存在性风险的忧虑会减少。政府有责任监测所有可能情况 - 但这不能分散其对机遇的利用和解决更有限的即时风险的注意力。”

这份报告指出,抓住这些“机遇”需要解决一些更为紧迫的风险。报告发现,现在可以轻易地通过基于文字的媒介以及音频和视觉的“深度伪造”来制作和传播错误和虚假信息,即使专家也难以辨认。随着英国即将举行大选,这一点尤其重要。

国家网络安全中心评估称,大型语言模型“几乎肯定会被用于生成虚假内容;超真实的机器人将使虚假信息传播更加容易;预计在2025年1月之前的下一次全国性投票活动中,深度伪造活动可能会变得更加先进。”

此外,该委员会对于利用受版权保护的素材来训练语言模型(LLMs)的立场非常明确──开放人工智能实验室(OpenAI)以及其他大型科技公司一直在这么做,并声称训练人工智能是一种合理使用场景。因此,艺术家和媒体公司(如纽约时报)正在对使用网络内容来训练LLMs的人工智能公司进行法律诉讼。

“一个应该及时解决的AI领域的破坏是使用受版权保护的材料来训练LLMs,”报告指出。“LLMs需要摄入大量的数据集以正常工作,但这并不意味着它们应该可以无需许可或付给权利持有人费用就能使用任何它们能找到的材料。这是政府可以迅速解决的一个问题,它应该这样做。”

值得强调的是,上议院通信和数字委员会并未完全排除末日场景的可能性。事实上,该报告建议政府的人工智能安全研究机构应立即进行并公布“对工程路径的灾难性风险和警示指标进行评估”作为当务之急。

此外,报告指出,强大的人工智能模型的不断增多会带来“可信的安全风险”,这些模型很容易被滥用或故障。然而,尽管承认了这些问题,委员会认为,对这些模型实施完全禁令并非是解决方案,主要是因为最糟糕的情况可能不会发生,而且禁止这些模型本身也非常困难。因此,委员会认为政府的人工智能安全研究所应该发挥作用,并建议该研究所开发“新方法”来在真实场景中确定和跟踪这些模型的使用情况。

报告指出:“完全禁止它们可能是不成比例的,也很可能无效。然而,我们需要共同努力来监控和减轻累积影响。”

就大部分而言,该报告并未说LLMs和更广泛的人工智能运动不具备真实风险。但报告指出政府需要对其战略进行“重新平衡”,减少对“科幻末日场景”的关注,更多关注其可能带来的好处。

该报告称:“政府过于偏向于狭窄的AI安全视角。它必须重新平衡,否则将错失利用LLMs的机会,落后于国际竞争对手,并对关键技术成为对海外科技公司的战略依赖。”

推荐阅读

反垄断执法者承认他们正争分夺秒地学习如何应对人工智能

2024-02-012247
Chat中文版

Google 地图通过生成式人工智能进行实验,以提升发现能力

2024-02-012533
Chat中文版

亚马逊在其移动应用中推出了名为“Rufus”的AI购物助手

2024-02-01884
Chat中文版

Probabl 是一个围绕流行的库 scikit-learn 建立起来的新的人工智能公司

2024-02-011800
Chat中文版

Arc正在开发一款代表你浏览的人工智能代理程序

2024-02-011219
Chat中文版