在竞选全面展开的一年中,Meta将扩大对人工智能生成图像的标注
Meta正在扩大其社交媒体平台Facebook、Instagram和Threads上关于人工智能生成图像的标注,以涵盖一些使用竞争对手的生成式人工智能工具创建的合成图像。至少在竞争对手使用它所称为“行业标准指标”来识别内容是否为人工智能生成,并且Meta能够检测到的情况下。
该发展意味着这家社交媒体巨头希望在其平台上标注更多基于人工智能生成的图像。但他们没有公布任何具体数据,也就是说,不清楚人工合成内容相对于真实内容在常规推送给用户时的比例,因此在与人工智能驱动的虚假信息和误导信息的斗争中,这一举措的重要性有多大还不确定(尤其在全球选举年这个大背景下)。
Meta表示它已经能够通过它自己去年12月发布的“Imagine with Meta”生成式人工智能工具来检测和标记“真实感图像”。然而,到目前为止,它还没有标记使用其他公司工具创建的合成图像。因此,这是它今天宣布的(初步)措施。
“我们一直与行业合作伙伴合作,以制定共同的技术标准,以指示使用人工智能创建的内容,”Facebook子公司Meta总裁尼克·克莱格在一篇博文中宣布扩大标注范围时写道。“能够检测到这些信号将使我们能够为用户在Facebook、Instagram和Threads上发布的人工智能生成的图片进行标注。”
根据克莱格的说法,Facebook将在接下来的几个月内推出扩展标识,并在“每个应用支持的所有语言”中应用标识。
当我们要求更多详细信息时,Meta的一位发言人未能提供更具体的时间表,也没有提供关于哪些市场将获得额外标签的任何细节。但是克莱格的帖子暗示推出将是逐渐的——“在接下来的一年内”——Meta可能会专注于世界各地的选举日历,以决定在不同市场何时何地推出扩展标签。
“在接下来的一年里,我们将采用这种方法,而这期间将有许多重要的选举在世界各地进行。” 他写道:“在此期间,我们希望更多了解人们是如何创造和分享AI内容的,人们最看重什么样的透明度以及这些技术的发展如何。我们所学到的将影响行业最佳实践和我们自身的方法。”
Meta对AI生成的图像进行标注的方法依赖于两种技术:通过其生成AI技术对合成图像应用可见标记的检测以及该工具还内嵌了“隐形水印”和元数据。正是这些通过竞争对手的AI图像生成工具嵌入的相同类型的信号,Meta的检测技术将寻找。Clegg指出,Meta一直在与其他AI公司合作,通过诸如“AI伙伴关系”等论坛,旨在制定共同标准和最佳实践,以识别生成性AI。
他的博客文章没有明确说明其他人在这方面所做出的努力的程度。但是克莱格暗示,Meta将能够在未来的12个月内识别出由谷歌、OpenAI、微软、Adobe、Midjourney、Shutterstock以及自己的AI图像工具生成的图像。
人工智能生成的视频和音频怎么样?
就人工智能生成的视频和音频而言,克莱格表示,一般来说,目前检测这类伪造作品还是太具有挑战性了,因为标记和水印技术的采用程度还不足以使检测工具发挥出良好的效果。此外,这些信号还可以通过编辑和进一步的媒体篡改进行删除。
“目前还无法识别所有AI生成的内容,并且有人可以去除看不见的标记。因此,我们正在追求一系列的解决方案,”他写道。“我们正在努力开发分类器,以便能够自动检测AI生成的内容,即使内容没有看不见的标记。同时,我们正在寻找方法,以增加难度去除或修改看不见的水印。”
例如,Meta的AI研究实验室FAIR最近分享了我们正在开发的一项名为稳定签名的隐形水印技术的研究。这将把水印机制直接整合到部分图像生成器的生成过程中,对于开源模型来说非常有价值,因为这样水印就无法被禁用。
鉴于人工智能生成和检测方面的技术能力差距,Meta正在改变其政策,要求用户在发布“逼真的”人工智能生成视频或“逼真的”声音时告知平台内容是合成的。克莱格表示,如果Meta认为内容“存在极高的可能误导公众涉及重要事项”,它有权对其进行标注。
如果用户未能进行此手动披露,他们可能面临的处罚是根据Meta现有的社区准则进行的(例如账户暂停、封禁等)。
“无论是谁,我们的社区准则都适用于全世界的每个人和所有类型的内容,包括由人工智能生成的内容。”当被问及未能进行公开披露的用户可能面临的制裁类型时,Meta的发言人告诉我们。
在Meta极度关注人工智能生成的虚假信息风险的同时,值得记住数字媒体的篡改并不是什么新鲜事,而且误导大众并不需要高级的生成式人工智能工具。只需获得一个社交媒体账号和一些基本的媒体编辑技巧,就足以制造一个迅速传播的虚假信息。
在这一方面,由Meta成立的内容审查机构——督导委员会最近做出了一项决定,他们审查了Meta决定不删除一段被篡改的视频,视频中拜登总统与他的孙女在做假装不恰当触摸的动作。督导委员会敦促这家科技巨头修改他们所描述的“不连贯”政策,特别是在虚假视频方面,明确指出了Meta在AI生成内容上的关注点。
“就目前而言,这个政策毫无意义,”监督委员会联席主席迈克尔·麦康奈尔写道。“它禁止展示人们说了他们实际上没有说的内容的被篡改视频,但却不禁止展示一个人做了他们实际上没有做过的事情的帖子。这个政策只适用于通过人工智能创作的视频,但却对其他虚假内容睁一只眼闭一只眼。”
在进行董事会审查的背景下,被问及是否考虑扩大政策,确保不忽视与人工智能无关的内容操纵风险,Meta的发言人拒绝回答,仅表示:“我们对这一决定的回应将在60天的时间窗口内在我们的透明中心进行分享。”
LLMs作为一种内容审核工具
Clegg的博客文章还讨论了Meta以迄今为止“有限”的方式使用生成式人工智能作为帮助其执行自身政策的工具,以及GenAI在这方面可能承担更多责任的潜力。Meta的总裁表示,Meta可能会在“高风险”时刻,例如选举期间,转向使用大型语言模型(LLMs)来支持其执法努力。
“尽管我们使用AI技术来帮助执行我们的政策,但我们对于此目的使用生成AI工具的限制较大。但我们对生成AI有着乐观的看法,它可以帮助我们更快、更准确地清除有害内容。在选举等高风险时刻,它也可以对执行我们的政策起到有益作用,”他写道。
我们已经开始测试大型语言模型 (LLM),通过对其进行训练,以帮助确定内容是否违反了我们的社区准则。初步测试表明,LLM比现有的机器学习模型表现更好。在某些情况下,我们还使用LLM来清除审核队列中的内容,当我们非常有信心该内容不违反我们的规定时。这样可以为我们的审核员释放出处理更有可能违规的内容的能力。
所以,为了减少对超负荷的人工内容审核员眼球和大脑的创伤风险,Meta现在正在尝试使用生成式人工智能作为标准人工智能内容审核的补充。这样可以减少有害内容的输出量。
人工智能本身无法解决 Meta 的内容管理问题,而人工智能和新一代人工智能结合是否能够解决这个问题看起来令人怀疑。但在外包有害内容管理给低薪人员的策略在多个市场面临法律挑战的时候,它可能会帮助这家科技巨头提取更高效率。
Clegg的帖子还指出,Meta平台上由AI生成的内容“有资格由我们独立的事实核查合作伙伴进行事实核查”,因此也可能标记为被揭穿(即除了标记为由AI生成之外,还可能标记为“由AI想象”,就像Meta当前的GenAI图像标签一样)。这对于试图在其社交媒体平台上了解所见内容的可信度的用户来说,听起来越来越令人困惑 - 在这些平台上,一条内容可能会有多个标志应用于其上,只有一个标签,或者根本没有标签。
克莱格还避免讨论人工事实核查人员的可用性的持续不对称问题。这些人通常由非营利机构提供,而这些机构在揭露数字虚假信息方面时间和资金有限;而许多恶意行为者则能够访问社交媒体平台,受到众多激励和资助,能够利用越来越普遍和强大的人工智能工具(包括Meta自身正在建立和提供以推动其内容相关业务)大规模地制造虚假信息威胁。
在Meta的平台上,关于合成内容与真实内容的普遍程度没有可靠数据,也没有关于其人工智能虚假检测系统实际效果的数据,因此我们很难得出结论——除了明显的一点:在选举相关虚假信息大量传播的这一年,Meta感到压力,必须展示出他们正在采取行动。