在更新服务条款之前,领英(LinkedIn)抓取了用户数据用于培训。
领英(LinkedIn)可能在未更新其条款的情况下,利用用户数据训练了人工智能模型。
美国的领英用户——但欧盟、欧洲经济区或瑞士的用户除外,这可能是由于这些地区的数据隐私规则——在其设置页面中有一个选择退出的切换按钮,披露领英抓取个人数据以训练“内容创作 AI 模型”。这个切换按钮并非新出现的。但是,正如 404 Media 最先报道的那样,领英最初并未更新其隐私政策以反映这一数据使用情况。
服务条款现在已经更新,但通常这种情况会在发生重大变化(比如像这样将用户数据用于新用途)之前很久就进行。原本的想法是,如果用户不喜欢这些变化,他们可以选择更改账户或离开平台。但这次似乎并非如此。
那么领英正在训练哪些模型呢?该公司在问答中表示,是其自身的模型,包括用于写作建议和帖子推荐的模型。但领英还称,其平台上的生成式人工智能模型可能由“另一家供应商”训练,比如其母公司微软。
问答中写道:“与领英的大多数功能一样,当您使用我们的平台时,我们会收集和使用(或处理)有关您使用该平台的数据,包括个人数据。”“这可能包括您对生成式人工智能(用于创建内容的人工智能模型)或其他人工智能功能的使用、您的帖子和文章、您使用领英的频率、您的语言偏好以及您可能向我们团队提供的任何反馈。我们会按照我们的隐私政策使用这些数据来改进或开发领英服务。”
领英此前告诉 TechCrunch,它使用“增强隐私的技术,包括编辑和删除信息,来限制用于生成式人工智能训练的数据集所包含的个人信息。”
若要选择退出领英的数据抓取,在桌面端前往领英设置菜单的“数据隐私”部分,点击“用于生成式人工智能改进的数据”,然后关闭“使用我的数据训练内容创作人工智能模型”选项。您还可以通过此表格尝试更全面地选择退出,但领英指出,任何退出操作都不会影响已经进行的训练。
非营利组织开放权利组织(ORG)呼吁英国数据保护权利的独立监管机构信息专员办公室(ICO)对领英和其他默认利用用户数据进行训练的社交网络展开调查。本周早些时候,Meta 宣布,在与 ICO 合作简化选择退出流程后,将恢复抓取用户数据用于人工智能训练的计划。
“领英是最新一家被发现未经同意就处理我们数据的社交媒体公司,”ORG 的法律和政策官员马里亚诺·德利·桑蒂在一份声明中表示。“选择退出模式再次被证明完全不足以保护我们的权利:不能指望公众去监督和追查每一家决定使用我们的数据来训练人工智能的在线公司。选择加入同意不仅是法律规定,也是符合常理的要求。”
负责监督《通用数据保护条例》(GDPR,欧盟的总体隐私框架)合规情况的监管机构——爱尔兰数据保护委员会(DPC)告诉 TechCrunch,领英上周通知该委员会,其全球隐私政策的澄清说明将于今日发布。
数据保护委员会的一位发言人表示:“领英告知我们,该政策将为那些不希望自己的数据用于训练生成内容的人工智能模型的会员提供退出设置。”“欧盟/欧洲经济区的会员无法使用这一退出选项,因为领英目前并未使用欧盟/欧洲经济区会员的数据来训练或微调这些模型。”
TechCrunch 已联系 LinkedIn 请其置评。如果收到回复,我们将更新这篇报道。
对更多数据来训练生成式人工智能模型的需求,导致越来越多的平台重新利用或以其他方式重复使用其大量的用户生成内容。有些平台甚至已经开始将这些内容货币化——Tumblr 的所有者 Automattic、Photobucket、Reddit 和 Stack Overflow 等网络都在向人工智能模型开发者授权数据。
并非所有平台都能让人轻易选择退出。当 Stack Overflow 宣布将对内容进行授权时,有几位用户删除了自己的帖子以示抗议——结果这些帖子被恢复,他们的账号也被暂停使用。