AI领域的女性: 克莱尔·莱博维茨,公共智库AI和媒体诚信专家
为了给以人工智能为重点的女性学者和其他人他们应得的,也是过期的,光环,TechCrunch正在推出一系列采访,关注那些为人工智能革命作出贡献的杰出女性。随着人工智能的迅速发展,我们将在整年中发布几篇文章,突出一些常常被忽视的重要工作。在这里可以阅读更多相关报道。
Claire Leibowicz 是合作伙伴关系AI(PAI)机构的AI和媒体诚信项目负责人,该机构是由亚马逊、Meta、谷歌、微软等公司支持的产业团体,致力于“负责任”地推动AI技术的应用。她还负责监督PAI的AI和媒体诚信指导委员会。
2021年,莱伯维茨曾是《Tablet Magazine》的新闻专员,2022年,她成为洛克菲勒基金会贝拉焦中心的研究员,专注于人工智能治理。莱伯维茨拥有哈佛大学心理学和计算机科学学士学位,以及牛津大学硕士学位,她曾就人工智能治理、生成式媒体和数字信息向公司、政府和非营利组织提供建议。
问答环节
简单来说,你是如何开始进入人工智能领域的?是什么吸引了你进入这个领域?
或许看起来有些矛盾,但我是从对人类行为的兴趣转向了人工智能领域。我在纽约长大,总是被那里人们互动的许多方式所吸引,以及一个多元化社会是如何形成的。我对影响真相和正义的重大问题很好奇,比如我们如何选择相信其他人?是什么引发了群体间的冲突?人们为什么相信某些事情是真实的而其他事情不是?我在学术生活中开始探讨这些问题,通过认知科学研究,很快意识到技术正在影响这些问题的答案。我也发现人工智能如何成为人类智能的一个比喻很有趣。
这使我进入了计算机科学课堂,教职员工——我必须向巴巴拉·格罗兹教授喊一声好,她是自然语言处理领域的开拓者,还有吉姆·沃尔多教授,他把自己的哲学和计算机科学背景融合在一起——强调在课堂上吸引非计算机科学和工程专业的学生,专注于技术的社会影响,包括人工智能。而当时“人工智能伦理学”还不是一个独立且受欢迎的领域。他们明确指出,尽管技术理解是有益的,技术影响着包括地缘政治、经济、社会参与等广泛领域,因此需要来自各种学科背景的人就看似技术性的问题发表意见。
无论你是一名教育工作者思考生成式人工智能工具如何影响教学法,还是一名博物馆策展人在展览中尝试预测路径,或者是一名医生研究新的图像检测方法来阅读实验报告,人工智能都会影响到你的领域。这个现实,即人工智能触及许多领域,令我感到惊讶:在人工智能领域工作有智力上的多样性,并且这也带来了影响社会多方面的机会。
你在人工智能领域最引以为傲的工作是什么?
我为在人工智能领域的工作感到自豪,它以一种令人惊讶且行动导向的方式汇聚了不同的观点,不仅容纳,而且鼓励不同意见。六年前,我作为PAI组织的第二名员工加入了这个机构,立刻意识到该组织在承诺多元化观点方面是开创性的。PAI将这样的工作视为人工智能治理的重要前提,能够减少危害并引导人工智能领域的实际应用和影响。这一点已经被证实,我很高兴能够帮助塑造PAI对多学科的接纳,并看到该机构与人工智能领域一起成长。
过去六年我们在合成媒体领域的工作早在生成式人工智能成为公众意识的一部分之前就开始了,并展示了多方利益相关者人工智能治理的可能性。在2020年,我们与来自民间社会、行业和媒体的九家不同组织合作,共同塑造了Facebook的Deepfake检测挑战赛,这是一个用于构建模型检测人工智能生成媒体的机器学习竞赛。这些外部视角有助于塑造获胜模型的公平性和目标,展示了人权专家和记者如何在看似技术性的问题如Deepfake检测中做出贡献。去年,我们发布了一套关于负责任合成媒体的规范指南 - PAI的合成媒体负责任实践 - 现在有来自完全不同背景的18位支持者,从OpenAI到TikTok再到Code for Africa、Bumble、BBC和WITNESS。能够在受技术和社会现实影响的基础上提出可操作的指导意见是一回事,但要真正获得机构支持则是另一回事。在这种情况下,各机构承诺提供关于如何处理合成媒体领域的透明报告。那些具有切实指导意见的人工智能项目,展示如何在各个机构中实施这些指导意见,对我来说意义深远。
在男性主导的科技行业中,以及相应的男性主导的人工智能行业中,你是如何应对挑战的呢?
在我的职业生涯中,我曾有过许多优秀的男性和女性导师。找到那些既支持又挑战我的人对我所经历的任何成长都至关重要。我发现,专注于共同的兴趣,并讨论激励AI领域的问题,可以让有着不同背景和观点的人聚在一起。有趣的是,PAI团队中超过一半是女性,并且许多致力于AI和社会或负责任AI问题的组织中也有很多女性员工。这往往与从事工程和AI研究团队的人员形成鲜明对比,并且在AI生态系统中代表性方面迈出了正确的一步。
您会给想进入人工智能领域的女性什么建议?
正如我在前一个问题中提到的,我遇到的一些主要由男性主导的人工智能领域也是技术性最强的领域之一。虽然我们不应该将技术能力放在人工智能领域中的其他形式素养之上,但我发现拥有技术训练对我在这些领域的信心和效率都是一种好处。我们需要在技术角色中实现平等代表,并对那些擅长其他领域如民权和政治的专家们的专业知识持开放态度,这些领域的性别代表更加平衡。同时,赋予更多的女性技术素养对于平衡人工智能领域的代表性至关重要。
我还发现与在人工智能领域中平衡家庭和职业生活的女性联系起来是非常有意义的。找到可以谈论与职业和育儿相关的重要问题的榜样,以及女性在职场上仍然面临的一些独特挑战,让我感到更有能力应对这些挑战。
当人工智能不断发展时,面临的一些最紧迫的问题是什么?
随着人工智能的发展,线上和线下的真实性和信任问题变得愈发棘手。随着内容从图像到视频再到文本都可能是由人工智能生成或修改的,眼见是否为实?如果文件很容易被篡改,我们如何依赖证据?如果真人非常容易被模仿,我们在线上是否能有纯人类空间?我们如何在人工智能提供言论自由与可能造成伤害之间取得平衡?更广泛地,我们如何确保信息环境不仅仅由少数几家公司和他们的员工塑造,而是包括来自全球各地利益相关者的观点,包括公众?
除了这些具体问题之外,PAI还涉及人工智能和社会的其他方面,包括在算法决策时如何考虑公平和偏见,在劳动力如何受到人工智能的影响以及如何影响人工智能,如何导航人工智能系统的负责任部署,甚至如何使人工智能系统更加反映各种观点。在结构层面,我们必须考虑人工智能治理如何通过吸纳不同的观点来应对巨大的权衡考虑。
AI用户应该注意哪些问题?
首先,人工智能使用者应该知道,如果某事听起来太好了,那很可能就是真的。
过去一年以来,生成式人工智能的迅猛发展,当然反映了巨大的智慧和创新,但也导致了围绕人工智能的公众信息传递往往夸大其词且不准确。
AI用户也应该明白,人工智能并不是革命性的,而是加剧并增强了现有问题和机会。这并不意味着他们应该对人工智能不那么认真,而是应该将这一知识作为在日益受人工智能影响的世界中航行的有用基础。例如,如果你担心人们在选举前通过更改标题错误理解视频的事实,你应该担心他们用深度伪造技术进行误导的速度和规模。如果你担心工作场所的监控使用,你也应该考虑人工智能如何使这种监控更容易更普遍。对人工智能问题的新奇性保持健康的怀疑态度,同时也要诚实地看待当前时刻的独特之处,这对用户在与人工智能相遇时带来有益的框架。
如何负责地构建人工智能是最好的方式?
负责任地构建人工智能需要我们扩大对谁在“构建”人工智能中发挥作用的概念。影响科技公司和社交媒体平台当然是影响人工智能系统影响的关键途径,这些机构对于负责任地构建技术至关重要。同时,我们必须承认,来自各个民间社会、产业、媒体、学术界以及公众的多样化机构必须继续参与,以构建符合公共利益的负责任的人工智能。
以负责任的方式开发和部署合成媒体为例。
科技公司可能会担心他们在导航合成视频如何影响选民之前的责任,而记者可能会担心冒名顶替者制作合成视频,声称这些视频来自他们信任的新闻品牌。人权捍卫者可能会考虑与AI生成的媒体如何减少视频作为滥用证据的影响相关的责任。艺术家可能会对通过生成媒体表达自己的机会感到兴奋,同时也担心他们的创作可能会在未经同意的情况下被利用来训练产生新媒体的AI模型。这些多样化的考虑表明将不同利益相关方纳入到负责任构建AI的倡议和努力中是多么重要,以及各种机构是如何受到影响,并影响到AI被整合到社会中的方式。
投资者如何更好地推动负责任的人工智能发展?
多年前,我听到白宫前首席数据科学家DJ Patil描述了对早期社交媒体时代普遍的“快速行动,破坏一切”口号的修订,这个观点一直让我印象深刻。他建议该领域“刻意行动,修复问题”。
我喜欢这一点是因为它并没有暗示停滞或创新的抛弃,而是意在让人们能够在承担责任的同时进行创新。投资者应该帮助鼓励这种心态,让他们的投资组合公司有更多的时间和空间来推行负责任的人工智能实践,而不是束缚进展。往往,机构把有限的时间和紧迫的截止日期描述为做“正确”事情的限制因素,而投资者可以成为改变这种态势的主要推动力。
随着我在人工智能领域工作的时间越长,我发现自己越来越频繁地面对深刻的人文问题。这些问题需要我们每个人都去回答。