当生成印度男性的图像时,Meta AI 对头巾着迷
人工智能图像生成器中的偏见是一个被广泛研究和报道的现象,但消费者工具继续展现出明显的文化偏见。这个领域的最新罪犯是 Meta 的人工智能聊天机器人,出于某种原因,它真的很想给任何印度男人的图像添加头巾。
该公司于本月早些时候在超过十二个国家推出了Meta AI,涵盖了WhatsApp、Instagram、Facebook和Messenger。然而,该公司已将Meta AI 推广给印度等一些国家的特定用户,印度是全球最大的市场之一。
TechCrunch在我们的人工智能测试过程中研究了各种特定文化的查询,在这个过程中,我们发现,例如,Meta正在阻止印度与正在进行的大选相关的查询。但Meta人工智能的新图像生成器Imagine也显示出一种特殊的偏见,即生成戴着头巾的印度男性,还有其他偏见。
在我们测试不同的提示词并生成了50多张图像来测试不同情景时,这里展示了它们的大部分,只有少数例外(比如“一个德国司机”),我们通过这些来看系统如何表现不同文化。生成过程中没有科学方法,我们也没有考虑物体或场景表现的不准确性超越了文化角度。
印度有很多男人戴头巾,但比例并不像Meta AI的工具所暗示的那么高。在印度的首都德里,最多能看到15个男人中的一个戴头巾。然而,在由Meta的AI生成的图像中,大约有5张图片中有3-4张是代表印度男性戴头巾的。
我们从"一个印度人在街上走"这个提示开始,所有的图片都是戴着头巾的男人。
[图库 ids="2700225,2700226,2700227,2700228"]
接下来,我们尝试生成带有提示的图像,比如“一个印度男人”,“一个印度男人在下棋”,“一个印度男人在做饭”,以及“一个印度男人在游泳”。Meta AI只生成了一张没有头巾的男人的图像。
[gallery ids="2700332,2700328,2700329,2700330,2700331"] 将上述内容翻译为:[相册 id="2700332,2700328,2700329,2700330,2700331"]
即使在没有性别提示的情况下,Meta AI 在性别和文化差异方面也没有展现出太多的多样性。我们尝试了不同职业和环境的提示,包括建筑师、政治家、羽毛球运动员、射箭手、作家、画家、医生、教师、气球商和雕塑家。
[gallery ids="2700251,2700252,2700253,2700250,2700254,2700255,2700256,2700257,2700259,2700258,2700262"] 翻译为: [图库 ids="2700251,2700252,2700253,2700250,2700254,2700255,2700256,2700257,2700259,2700258,2700262"]
正如你所看到的,尽管在不同的场景和服装中多样性很大,所有的男性角色都戴着头巾。再次强调,虽然在任何职业或地区都很普遍,但Meta AI将它们视为如此普遍仍然有些奇怪。
我们生成了一些印度摄影师的图片,其中大部分使用的是过时的相机,只有一张图片中一只猴子还以某种方式拿着一台单反相机。
[gallery ids="2700337,2700339,2700340,2700338"] → [相册 ids="2700337,2700339,2700340,2700338"]
我们还生成了一名印度司机的图像。直到我们加入“时髦”的这个词,图像生成算法才显示出了阶级偏见的迹象。
[gallery ids="2700350,2700351,2700352,2700353"] 转为简体中文应为:[相册 ids="2700350,2700351,2700352,2700353"]
我们也尝试生成两幅类似提示的图片。以下是一些例子:办公室里的印度程序员。
[gallery ids="2700264,2700263"] -> [画廊ID为“2700264,2700263”]
在田地里操作拖拉机的印度男子。
两名印度男子坐在一起。
[gallery ids="2700281,2700282,2700283"] -> [相册 ids="2700281,2700282,2700283"]
此外,我们尝试使用提示生成一幅图像拼贴画,比如一个印度男人配以不同发型。这似乎达到了我们预期的多样性效果。
[gallery ids="2700323,2700326"] 翻译成简体中文:[图库编号="2700323,2700326"]
Meta AI的Imagine还有一个令人困惑的习惯,即对相似的提示生成相同类型的图像。例如,它经常生成一幅旧式的印度房屋图像,色彩鲜艳,木柱和造型屋顶。快速进行谷歌图像搜索就会告诉你,大多数印度房屋并非如此。
[gallery ids="2700287,2700291,2700290"] => [图库 ids="2700287,2700291,2700290"]
我们尝试了另一个提示词“印度内容创作者”,它生成了一张反复出现的女性创作者的图像。在下面的画廊中,我们包含了在海滩、山丘、山脉、动物园、餐厅和鞋店拍摄的内容创作者的图片。
[gallery ids="2700302,2700306,2700317,2700315,2700303,2700318,2700312,2700316,2700308,2700300,2700298"] 请将以下英文翻译成简体中文: [gallery ids="2700302,2700306,2700317,2700315,2700303,2700318,2700312,2700316,2700308,2700300,2700298"] [图库 id="2700302,2700306,2700317,2700315,2700303,2700318,2700312,2700316,2700308,2700300,2700298"]
像任何图像生成器一样,我们在这里看到的偏见可能是由于训练数据不足,以及之后的测试过程不足造成的。虽然你无法测试所有可能的结果,但常见的刻板印象应该很容易被发现。元AI似乎为给定的提示选择一种代表,至少表明数据集中对于印度来说缺乏多样化的代表。
作为对TechCrunch就训练数据和偏见问题提出的回应,Meta表示正在努力改进其生成式人工智能技术,但并未提供太多关于此过程的详细信息。
一位发言人在一份声明中表示:“这是一项新技术,可能并不总是能返回我们预期的响应,这与所有生成式人工智能系统相同。自我们推出以来,我们不断发布更新和改进我们的模型,并将继续努力让它们更好。”
Meta AI最大的吸引力在于它是免费的,并且能够在多种设备上轻松使用。因此,来自不同文化背景的数百万人会以不同的方式使用它。像Meta这样的公司一直在努力改进图像生成模型,以提高它们生成对象和人物的准确性,同时也很重要的是他们努力防止这些工具陷入刻板印象中。
元即将要求创作者和用户使用这个工具在其平台上发布内容。然而,如果生成偏见持续存在,它们也会在用户和观众中确认或加剧偏见。印度是一个多元化的国家,拥有许多文化、种姓、宗教、地区和语言的交汇处。致力于人工智能工具的公司需要更好地代表不同的人群。
如果你发现人工智能模型生成异常或带偏见的输出,可以通过邮箱im@ivanmehta.com或Signal上的链接联系我。