谷歌暂停AI工具Gemini生成人物图像的能力,因为存在历史不准确性
谷歌表示,它已经暂时停止了其旗舰生成式人工智能模型Gemini生成人物图像的能力,以便更新技术,以提高涉及人物描绘的输出的历史准确性。
在社交媒体平台X上一篇帖子中,该公司宣布暂停生成人物图片,并称其正在努力解决与历史不准确相关的“最近问题”。
“在此期间,我们将暂停人物图片的生成,并很快发布改进版。”补充道。
本月早些时候,谷歌推出了“双子座”图像生成工具。然而,最近几天,一些生成的历史人物图像在社交媒体上出现,例如美国开国元勋被描绘成美洲印第安人、黑人或亚洲人,引发了批评甚至嘲笑。
在LinkedIn上的一篇动态中,总部位于巴黎的风险投资家迈克尔·杰克逊今天加入了抨击的行列,称谷歌的人工智能为“毫无意义的多元化、公平和包容的恶搞”。(DEI代表“多样性、公平和包容”)
在昨天的一篇帖子中,谷歌确认他们“意识到”人工智能在一些历史图像生成方面存在“不准确性”,并在声明中补充称:“我们正在立即努力改进这些图像生成。Gemini的人工智能生成了各种各样的人物,这通常是件好事,因为全球各地的人都在使用它。但在这里没有达到预期效果。”
生成式人工智能工具根据训练数据和其他参数,如模型权重,生成输出。
这些工具往往更容易受到批评,因为它们产生的结果更带有刻板印象,比如对女性的过度性感形象,或者对要求展示高地位工作角色的提示,使用的是白人男性的形象。
2015年,谷歌推出的一款早期人工智能图像分类工具引发了众怒,当时它错误地将黑人男性分类为大猩猩。该公司承诺解决这个问题,但据《连线》报道几年后,它的“解决办法”其实是一种纯粹的权宜之计:谷歌只是简单地阻止技术识别大猩猩。