随着人工智能的加速发展,欧洲领先的隐私原则正受到威胁,EDPS警告称

AI7号2024-04-091149

Chat中文版

欧洲数据保护监察员(EDPS)警告说,欧盟数据保护和隐私制度的关键支柱正受到行业游说者的攻击,可能会在下一届议会任期中遭到立法者的批评。

周二,监管机构负责人沃伊切赫·维沃罗夫斯基警告说:“我们对这些原则本身发起了相当强烈的攻击。”他在回答欧洲议会公民自由委员会成员的提问时表示,他们担心欧盟的《一般数据保护条例》(GDPR)存在被削弱的风险。

特别是我指的是最小化和目的限制的[GDRP]原则。目的限制在未来几年肯定会受到质疑。

6月份即将进行议会选举,而欧盟委员会的任期将于2024年底到期,因此对欧盟执行机构的改变也在逼近。新当选议员的任何做法转变都可能影响欧盟对个人数据的高标准保护。

自2018年5月起,GDPR生效实施,但维维欧尔斯基在欧洲数据保护督察官年度报告发布后的午餐发布会上阐述了他对即将到来的监管挑战的看法。他表示,下届议会的成员中很少会有参与起草和通过这一重要隐私框架的立法者。

他建议说,在欧洲议会工作的人们会把GDPR看作是一项历史事件,预测新一届议员中会有人渴望就这项具有里程碑意义的立法是否仍然适用进行讨论。尽管他也表示,重新审视过去的法律是一个经常发生的过程,即每当选举产生的议会成员发生变化时。

但他特别强调了行业游说,尤其是企业针对《通用数据保护条例》中目的限制原则所提出的投诉。一些科学界人士也认为这一法律要素限制了他们的研究,根据Wiewiórowski。

一些数据控制者希望他们能够重新利用为目的“A”收集的数据,以发现我们甚至不知道我们将要寻找的事情。有一个商界代表曾经说过一句老话,即目的限制是对人类的最大罪行之一,因为我们未来可能会需要这些数据,却不知道用途是什么。

我不同意这个观点。但我不能视而不见这个问题被提出的事实。

任何偏离GDPR的目的限制和数据最小化原则的举措都可能对该地区的隐私产生重大影响。该地区最早通过了一套全面的数据保护框架。尽管GDPR已在其他地方激发了类似框架,但欧盟仍被认为拥有全球最严格的隐私规定之一。

GDPR 中包含一个义务,即那些希望使用个人数据的人只能处理他们目的所需的最少信息(也就是数据最小化)。此外,收集用于一个目的的个人数据不能随意再次被用于发生的任何其他用途。

《GDPR》的目的限制原则意味着数据操作应该与特定用途相关联。进一步的处理可能是可能的 — 但是,例如,可能需要获得信息所属个人的许可,或者具有另一个有效的法律依据。因此,目的限制方法为数据操作注入了有意的摩擦。

法律的这个要素需要提前明确个人数据的使用目的,而不是仅仅为了以防将来可能发生的某种目的而收集和保留个人信息。尽管数据最小化鼓励尽可能少地保留数据。但当前全行业推动开发更多更强大的生成式人工智能工具,导致为训练人工智能模型而争相获取数据的局面——这与欧盟的做法直接相悖。

OpenAI,ChatGPT的开发方,在这里已经遇到了麻烦。它正面临一系列与GDPR合规问题和调查相关的困难,包括涉及用于模型训练的个人数据处理的法律依据。

Wiewiórowski并没有明确指责生成式人工智能驱动GDPR的用途限制原则遭受“强烈攻击”。但他确实将人工智能列为该地区数据保护监管机构面临的关键挑战之一,这是由于技术发展迅速所导致的。

他预测:“与人工智能和神经科学相关的问题将成为未来五年中最重要的部分。”。

尽管这并非技术革命,我们在AI革命时期所面临的技术挑战是显而易见的。我们更多地是拥有了工具的民主化。但我们也必须记住,在像现在这样的大不稳定时期,比如俄罗斯对乌克兰的战争时期,技术每周都在发展,他也在谈到这一点。

战争在推动数据和人工智能技术的使用方面发挥着积极作用 —— 比如在乌克兰,人工智能在卫星图像分析和地理空间情报等领域起到了重要作用 —— Wiewiórowski表示,战场应用正在推动全球其他地方对人工智能的应用。他进一步预测,这种影响将在未来几年延伸到整个经济领域。

在神经科学领域,他指出由于后人类主义运动而产生的监管挑战,该运动旨在通过将人类与信息系统进行物理连接来增强人类能力。他说:“这不是科幻小说。” “[这是]目前正在发生的事情。我们必须从法律和人权的角度做好准备。”

一些针对后人类主义理念的初创公司示例包括埃隆·马斯克的Neuralink,该公司正在开发可以读取脑电波的芯片。Facebook 的母公司 Meta 也被报道正在研发一种可以解读人们想法的人工智能。

随着技术系统和人类生物学日益融合,隐私风险可能确实很严重。因此,短期内任何由人工智能驱动的削弱欧盟数据保护法律的举措,可能会对公民的人权产生长期的影响。