谷歌的生成式人工智能在欧洲面临隐私风险评估审查

AI7号2024-09-121545

Chat中文镜像

谷歌在欧盟的首席隐私监管机构已展开调查,以确定该公司在使用人们的信息来训练生成式人工智能方面是否遵守了欧盟的数据保护法。

具体而言,它正在调查这家科技巨头是否需要进行数据保护影响评估(DPIA),以便积极考虑其人工智能技术可能对那些信息被用于训练模型的个人的权利和自由所构成的风险。

生成式人工智能工具因生成看似合理的虚假内容而声名狼藉。这种倾向,再加上能够应要求提供个人信息,给其制造商带来了诸多法律风险。负责监督谷歌遵守欧盟《通用数据保护条例》(GDPR)情况的爱尔兰数据保护委员会(DPC),有权对已确认的任何违规行为处以高达 Alphabet(谷歌的母公司)全球年营业额 4%的罚款。

谷歌已经开发了几款生成式人工智能工具,包括一整个系列的通用大型语言模型(LLM),并将其命名为 Gemini(以前称为 Bard)。谷歌利用该技术为人工智能聊天机器人提供支持,包括增强网络搜索功能。在这些面向消费者的人工智能工具背后,是谷歌的一款名为 PaLM2 的 LLM,它于去年在谷歌的 I/O 开发者大会上推出。

爱尔兰数据保护委员会表示,根据将《通用数据保护条例》纳入国内法的 2018 年《爱尔兰数据保护法》第 110 条,它正在调查谷歌是如何开发这一基础人工智能模型的。

生成式人工智能模型的训练通常需要大量的数据,大型语言模型制造商所获取的信息类型,以及他们获取这些信息的方式和地点,正因其涉及一系列法律问题,包括版权和隐私,而受到越来越多的审查。

在后一种情况下,用作人工智能训练素材且包含欧盟人员个人信息的信息,无论其是从公共互联网上抓取的还是直接从用户那里获取的,都要遵守欧盟的数据保护规则。这就是为什么许多大型语言模型已经面临与隐私合规相关的问题——以及一些《通用数据保护条例》(GDPR)的执法行动,包括 GPT(和 ChatGPT)的制造商 OpenAI 以及开发 Llama AI 模型的 Meta 。

埃隆·马斯克旗下的 X 也因将人们的数据用于人工智能训练而招致了《通用数据保护条例》(GDPR)的投诉以及爱尔兰数据保护委员会(DPC)的愤怒——这导致了一场法庭诉讼,X 承诺限制其数据处理,但未受到制裁。不过,如果 DPC 认定 X 为训练其人工智能工具 Grok 而处理用户数据的行为违反了相关制度,X 仍可能面临 GDPR 的处罚。

数据保护委员会(DPC)对谷歌生成式人工智能的数据保护影响评估(DPIA)调查是该领域的最新监管行动。

DPC 在一份新闻稿中写道:“法定调查涉及的问题是,谷歌在对与开发其基础人工智能模型‘Pathways 语言模型 2(PaLM 2)’相关的欧盟/欧洲经济区数据主体的个人数据进行处理之前,是否依据《通用数据保护条例》第 35 条(数据保护影响评估)履行了可能承担的进行评估的任何义务。”

它指出,当个人数据处理可能导致高风险时,数据保护影响评估在确保充分考虑和保护个人的基本权利和自由方面可能具有“至关重要的意义”。

DPC 补充道:“这项法定调查是 DPC 更广泛工作的一部分,DPC 与其欧盟/欧洲经济区(European Economic Area)的同行监管机构合作,对在人工智能模型和系统开发中处理欧盟/欧洲经济区数据主体的个人数据进行监管。” 其提到了欧盟《通用数据保护条例》(GDPR)执法网络正在努力就如何最好地将隐私法应用于生成式人工智能工具达成某种共识。

已联系谷歌就数据保护委员会(DPC)的询问作出回应。