AI领域的女性:Allison Cohen谈如何构建负责任的人工智能项目
为了给关注人工智能的女性学者和其他人应有的——以及过去被忽视的——关注度,TechCrunch正式推出一系列采访,专注于那些对人工智能革命做出贡献的杰出女性。随着人工智能的发展,我们将在今年发布多篇文章,突出那些经常被忽视的重要工作。在此阅读更多相关人物介绍。
Allison Cohen是魁北克Milai机器智能项目高级经理,该团队有超过1200名研究人员,专注于人工智能和机器学习。她与研究人员、社会科学家和外部合作伙伴合作,推动具有社会益处的人工智能项目。科恩的工作包括一款检测厌恶女性言论的工具,一款用于识别疑似人口贩卖受害者在线活动的应用程序,以及一款在卢旺达推荐可持续农业实践的农业应用程序。
此前,科恩曾在全球人工智能伙伴关系组织担任AI药物发现的共同负责人,该组织旨在引导人工智能的负责任发展和使用。她还曾在德勤担任AI战略顾问,并在独立的加拿大智库国际数字政策中心担任项目顾问。
问答。
简单地说,你是如何开始涉足人工智能领域的?是什么吸引你进入这个领域的?
意识到我们可以用数学模型来处理从识别面孔到谈判贸易协议等一切事物,改变了我看世界的方式,这也是我觉得人工智能如此迷人的原因。具有讽刺意味的是,现在我从事人工智能工作,却意识到我们不能——在很多情况下也不应该——用算法捕捉这些现象。
在多伦多大学攻读全球事务硕士期间,我接触到了这个领域。该项目旨在教导学生了解影响世界秩序的各种系统,涵盖宏观经济学、国际法律、人类心理等方面。随着我对人工智能的了解加深,我意识到它对世界政治的重要性,以及自己有必要在这个领域进行深入学习。
我能够进入这个领域的契机是一次论文写作比赛。在比赛中,我写了一篇文章描述迷幻药物如何帮助人类在充斥着人工智能的劳动市场保持竞争力,这使我有资格参加2018年的圣加仑讨论会(那篇文章是一个创作作品)。我的邀请以及随后参与该活动,让我有信心继续追求我在这个领域的兴趣。
在人工智能领域,你最自豪的工作是什么?
我管理的一个项目涉及构建一个包含针对女性的微妙和明显偏见表达实例的数据集。
在这个项目中,对自然语言处理专家、语言学家和性别研究专家组成的多学科团队进行人员配置和管理是非常关键的。这个过程需要贯穿整个项目生命周期。这是我感到相当自豪的事情。我亲身体会到了为什么这个过程对于构建负责任的应用程序是至关重要的,也明白了为什么不够重视这个过程-因为这是一项艰苦的工作!如果你能支持各个利益相关方在跨学科间有效沟通,就能促进将社会科学长期传统与计算机科学前沿发展相结合的工作。
我也为这个项目受到社区的好评感到自豥饣!我们的一篇论文在领先的人工智能会议NeurIPS的社会责任语言建模研讨会上获得了关注。此外,这项工作启发了一项类似的跨学科过程,由瑞典人工智能管理,他们将这项工作调整为适应瑞典对于厌女症的概念和表达方式。
你是如何应对男性主导的科技行业挑战,以及延伸到男性主导的人工智能行业的呢?
在这样一个前沿产业中,我们仍然看到存在问题的性别动态,这是不幸的。它不仅对女性造成不利影响,我们所有人都会受损。我在Sasha Costanza-Chock的书《设计正义》中了解到了一个概念,叫做“女性主义立场理论”,这让我感到很受启发。
这个理论声称,边缘化社群的知识和经验并没有获得像其他人那样的特权,他们对世界的看法可以带来公平和包容性的改变。当然,并非所有边缘化社群都相同,这些社群中的个体经验也各有不同。
即便如此,这些群体的多元视角对我们帮助航行、挑战和消除各种结构性挑战和不公平至关重要。这就是为什么不包括女性会使人工智能领域排斥更广泛的人群,也会强化领域外的权力动态。
在处理男性主导的行业方面,我发现盟友非常重要。这些盟友是坚固和信任关系的产物。例如,我非常幸运地拥有像彼得·库尔兹维利这样的朋友,他分享他在播客领域的专业知识,支持我打造一个以女性为主导和中心的播客节目,名为“我们正在建设的世界”。这个播客节目让我们能够提升更多在人工智能领域的女性和非二进制人的工作。
您会给那些想进入人工智能领域的女性们什么建议?
找到一扇敞开的门。它不一定需要付费,也不一定需要是一个职业,甚至不一定需要和你的背景或经验相符。如果你能找到一个机会,你可以利用它来磨练自己在这个领域的声音,并从中建立起来。如果你在志愿工作,全力以赴吧 — 这将让你脱颖而出,希望能尽快得到报酬。
当然,能够做志愿者也是一种特权,我也想要承认这一点。
在疫情期间失去工作,加拿大失业率达到历史最高点时,很少有公司愿意招聘人工智能人才,而那些在招聘的公司也不会寻找有八个月咨询经验的全球事务专业学生。在找工作的同时,我开始自愿加入了一个人工智能伦理组织。
在做志愿工作时,我参与的一个项目是关于是否应该为由人工智能创作的艺术作品提供版权保护。我联系了一家加拿大人工智能法律公司的律师,以便更好地了解这个领域。她介绍我认识了CIFAR的某人,后来又把我介绍给Mila人工智能团队的执行董事本杰明·普吕德奥姆。想到通过关于人工智能艺术的一系列交流,我了解到了一个后来改变了我的生活的职业机会,真是令人惊叹。
人工智能在发展过程中面临的一些最紧迫的问题是什么?
我对这个问题有三个答案,它们在一定程度上是相互关联的。我认为我们需要弄清楚:
- 如何调和人工智能被构建为规模化的事实,同时确保我们构建的工具能够适应当地的知识、经验和需求。
- 如果我们要构建符合当地环境的工具,就必须在人工智能设计过程中纳入人类学家和社会学家。但是存在着大量的激励结构和其他障碍,阻碍了有意义的跨学科合作。我们如何克服这一问题?
- 我们如何能更深刻地影响设计过程,而不仅仅是融合多学科专业知识?具体来说,我们如何改变激励机制,使我们设计的工具更多地服务于那些最急需的人,而不是那些数据或商业最有利可图的人?
AI用户应该注意哪些问题?
劳工剥削是一个我认为没有得到足够关注的问题之一。有许多人工智能模型使用监督学习方法从带标签的数据中学习。当模型依赖于带标签的数据时,就需要有人进行标记(例如,有人在猫的图像上添加标签“猫”)。这些人(标注者)通常是有被剥削的实践。对于那些在训练过程中不需要数据被标记的模型(如一些生成型人工智能和其他基础模型),数据集仍然可以被剥削地构建,因为开发者通常既没有获得数据创建者的同意,也没有提供报酬和认可。
我推荐大家关注Krystal Kauffman的工作,我很高兴看到她在这个TechCrunch系列中被提及。她正在为注释者的劳动权利进行倡导,包括获得生活工资、终止“群体拒绝”做法,以及与基本人权一致的参与做法(针对侵入式监控等发展)。
负责任地构建人工智能的最佳方法是什么?
人们经常参考伦理人工智能原则来声称他们的技术是负责任的。不幸的是,伦理反思只能在已经做出许多决定后才能开始,其中包括但不限于:
- 你在做什么?
- 你是怎么建造它的?
- 它将如何部署?
如果等到这些决定做出后再行动,你将错失无数建设负责任技术的机会。
根据我的经验,构建负责任的人工智能最好的方式是从流程的早期阶段开始意识到问题如何定义,满足哪些利益;方向如何支持或挑战现存的权力动态;以及哪些社区将通过人工智能的使用得到赋权或失去权利。
如果你想创造有意义的解决方案,你必须谨慎地驾驭这些权力系统。
投资者如何更好地推动负责任的人工智能发展?
询问团队的价值观。如果这些价值观在某种程度上受到当地社区的定义,并且有一定程度的责任感,那么团队更有可能采用负责任的做法。