监督委员会希望 Meta 完善其围绕人工智能生成的露骨图像的政策。

AI7号2024-07-251302

Chat中文镜像

在对 Meta 如何处理人工智能生成的露骨图片进行调查后,该公司的半独立监督机构——监督委员会,目前正敦促该公司完善其针对此类图片的政策。该委员会希望 Meta 将其使用的术语从“贬损性的”改为“未经同意的”,并将此类图片的政策从“欺凌和骚扰”部分移至“性剥削社区标准”部分。

目前,Meta 关于人工智能生成的露骨图片的政策源自其“欺凌和骚扰”板块中的“贬低性性感修图”规则。该委员会还敦促 Meta 用一个泛指被处理过的媒体的术语来取代“photoshop”这个词。

此外,Meta 禁止未经同意的图像,如果这些图像“是非商业性的或在私人环境中产生的”。该委员会建议,这一条款不应强制要求删除或禁止未经同意由人工智能生成或处理的图像。

在两起备受瞩目的案件之后,提出了这些建议。在这两起案件中,Instagram 和 Facebook 上发布的由人工智能生成的公众人物的露骨图片让 Meta 陷入了困境。

其中一起案例涉及一张由人工智能生成的印度公众人物的裸照被发布在 Instagram 上。有几位用户举报了这张照片,但 Meta 没有将其删除,实际上在 48 小时内未经进一步审查就关闭了举报工单。用户对这一决定提出上诉,但工单再次被关闭。该公司直到监督委员会受理此案、删除内容并封禁账号后才采取行动。

另一幅由人工智能生成的图像与一位美国公众人物相似,并被发布在了 Facebook 上。由于媒体报道,Meta 已经将该图像纳入其媒体匹配服务(MMS)库(一个存有违反其服务条款的图像的数据库,可用于检测类似图像)中,当另一名用户在 Facebook 上上传该图片时,Meta 迅速将其删除。

值得注意的是,在监督委员会的推动下,Meta 才将这位印度公众人物的图像添加到 MMS 库中。该公司显然告诉委员会,在此之前,资源库中没有该图像,因为当时没有关于这个问题的媒体报道。

该委员会在其说明中表示:“这令人担忧,因为许多深度伪造私密图像的受害者并非公众人物,他们要么被迫接受未经同意的图像传播,要么就得每次都进行举报。”

“突破信托”是一家印度组织,致力于减少网络上基于性别的暴力行为。该组织指出,这些问题以及 Meta 的政策具有文化方面的影响。在提交给监督委员会的评论中,“突破信托”表示,未经同意的图像常常被轻视,被视为身份盗窃问题,而非基于性别的暴力行为。

该组织的媒体负责人巴尔莎·查科博蒂(Barsha Charkorborty)向监督委员会写道:“受害者在警察局/法庭报告此类案件时,往往会面临二次伤害(比如‘为什么你要把自己的照片放出来等等’,即便不是他们的照片,比如深度伪造的照片也是如此)。一旦照片出现在互联网上,很快就会超出其来源平台的范围,仅仅在来源平台上删除是不够的,因为它会迅速传播到其他平台。”

在一次通话中,查科博蒂告诉 TechCrunch,用户通常不知道他们的报告在 48 小时内就被自动标记为“已解决”,Meta 不应该对所有情况都采用相同的时间线。此外,她建议该公司还应致力于提高用户对这类问题的认识。

德维卡·马利克(Devika Malik)是一位平台政策专家,此前曾在 Meta 的南亚政策团队工作。她今年早些时候告诉 TechCrunch,平台在很大程度上依赖用户举报来删除未经同意的图像,但在处理人工智能生成的媒体时,这可能不是一种可靠的方法。

马利克表示:“这给受影响的用户带来了不公平的负担,他们得证明自己的身份以及未表示同意(Meta 的政策就是如此)。当涉及到合成媒体时,这可能更容易出错,而且获取和验证这些外部信号所花费的时间会让相关内容产生有害的影响力。”

位于德里的智库“量子中心”(The Quantum Hub,TQH)的创始合伙人阿帕拉吉塔·巴尔蒂(Aparajita Bharti)表示,Meta 应该允许用户在举报内容时提供更多背景信息,因为他们可能不清楚 Meta 政策下不同类别的违规行为。

她说:“我们希望 Meta 能超出监督委员会的最终裁决,启用灵活且以用户为中心的渠道来举报此类内容。”

我们承认,不能期望用户对不同报告类目之间的细微差别有完美的理解,并主张建立系统,以防止真正的问题因元内容审核政策的技术细节而被忽视。