AI中的女性:Ewa Luger 探讨人工智能如何影响文化 —— 以及相反

AI7号2024-04-20794

Chat中文版

为了给AI领域的女性学者和其他人他们应得的——而且过去被忽视的——关注度,TechCrunch将推出一系列专访,聚焦那些为AI革命做出重要贡献的杰出女性。随着AI的继续蓬勃发展,我们将在今年发布几篇文章,突出那些经常被忽视的重要工作。点击这里阅读更多人物特写。

Ewa Luger是设计信息研究所的联合主任,也是由英国艺术与人文研究委员会支持的桥接负责人工智能分歧(BRAID)计划的联合主任。 她与政策制定者和行业密切合作,并且是英国文化、媒体和体育部(DCMS)专家团队的成员,这是一群为DCMS提供科学技术建议的专家群体。

Luger的研究探究数据驱动系统(包括人工智能系统)中的社会、伦理和互动问题,特别关注设计、权力分配、排除领域和用户同意等方面。之前,她曾在艾伦·图灵研究所担任研究员,曾在微软公司任职研究员,并曾是剑桥大学克里斯蒂学院的研究员。

问答环节

简要地讲,您是如何开始从事人工智能的?是什么吸引您投身这个领域?

博士毕业后,我去了微软研究院,在英国剑桥实验室的用户体验和设计团队工作。在那里,人工智能是一个核心关注点,所以我的工作自然而然地更多地发展到这个领域,并扩展到围绕人工智能中心的问题(例如智能语音助手)。

当我搬到爱丁堡大学时,是因为我想探索算法可解释性这个领域,而在2016年,这还是一个小众领域。我发现自己深入研究了负责任人工智能领域,目前正在共同主导一个由AHRC资助的关于这一主题的国家项目。

在人工智能领域,你最为自豪的工作是什么?

我最为引用的作品是一篇关于语音助手用户体验的论文(2016年)。这是同类研究中第一篇,并且仍然被广泛引用。但我个人最为自豪的工作还在继续。BRAID是一个我共同领导的项目,与一位哲学家和伦理学家合作设计。这是一个真正跨学科的努力,旨在支持英国负责任人工智能生态系统的发展。

与爱达罗维斯研究所和英国广播公司合作,旨在将艺术和人文知识与政策、监管、行业和志愿部门联系起来。当涉及到人工智能时,我们经常忽视艺术和人文,这在我看来总是很奇怪。当COVID-19爆发时,创意产业的价值如此之深刻;我们知道借鉴历史至关重要,以避免重蹈覆辙,哲学是一直让我们在医学科学领域保持安全和知情的伦理框架的根源。像Midjourney这样的系统依赖艺术家和设计师内容作为训练数据,然而这些学科和从业者在该领域中几乎没有发言权。我们希望改变这一现状。

更具体地说,我曾与微软和英国广播公司等行业合作伙伴一起共同制作负责任的人工智能挑战,并共同努力找到可以应对这些挑战的学者。到目前为止,BRAID已经资助了27个项目,其中一些是个人奖学金项目,我们很快将推出新的招标。

我们正在为有意向参与人工智能的利益相关者设计一门免费的在线课程,并建立一个论坛,希望能吸引各个人群以及其他部门的利益相关者,以支持对这项工作的治理,并帮助打破当前围绕人工智能存在的一些神话和夸大之辞。

我知道这种叙述方式是当前围绕人工智能的投资所青睐的,但同时也会培养那些最有可能遭受未来危害的人群的恐惧和困惑。BRAID项目将持续到2028年底,在下一阶段,我们将解决人工智能素养、抵抗空间以及竞争和救济机制。这是一个(相对)较大的项目,为期六年,资金由AHRC提供,总额为1590万英镑。

你如何应对男性主导的科技行业挑战,以及延伸至男性主导的人工智能行业?

这是一个很有意思的问题。我要先说的是,这些问题并不仅仅存在于产业中,人们经常认为是这样的。学术环境在性别平等方面也面临着非常相似的挑战。我目前是一个研究所 — 设计信息学院的联合主任,这个研究所将设计学院和信息学院联系在一起,所以我要说,在性别平等方面和与限制女性在工作场所发挥其全部专业潜力方面,我们都有更好的平衡。

但在攻读博士期间,我所在的实验室男性占据主导地位,并且在工业领域也是如此,虽然程度较轻。抛开职业中断和照顾他人的明显影响,我的经历涉及两种交织在一起的动态。首先,对女性有更高的标准和期望,例如要随和、积极、善良、支持性强、团队合作者等等。其次,在争取机会时,我们往往缄默不语,而不够资格的男性却会毫不犹豫地去争取。所以我不得不在许多场合将自己推到舒适区之外。

另一件我需要做的事情是设立非常明确的界限,并学会什么时候拒绝。女性通常被训练成为(并被视为)讨好他人的人。我们往往被视为那种会为男性同事不愿意做的任务提供帮助的人,甚至被假定在任何会议中都是泡茶者或记录员,不管你的专业地位如何。只有通过拒绝,并确保你了解自己的价值,你才能被看作不同的人。说所有女性都如此是过于武断的,但这绝对是我的经历。我应该说,在工业界时我有一位女经理,她非常出色,所以我所经历的大部分性别歧视是在学术界中。

总的来说,这些问题是结构性的和文化性的,因此要解决它们需要付出努力,首先是让它们显现出来,其次是积极地解决它们。没有简单的解决办法,而任何解决方案都会给科技领域的女性增添更多情感劳动。

您会给想要进入人工智能领域的女性什么建议?

我的建议一直是抓住让你提升的机会,即使你觉得自己不完全适合。让他们拒绝你,而不是你自己放弃机会。研究表明,男性会选择他们认为能胜任的角色,而女性只会选择她们觉得自己已经能够胜任或者正在胜任的角色。目前,在招聘过程和资助方面也出现了更多关于性别意识的趋势,尽管最近的例子显示我们还有很长的路要走。

如果你看一下英国研究与创新人工智能中心,最近曝光的,几百万英镑的投资,最近公布的九个人工智能研究中心都由男性主导。我们应该更加努力确保性别代表性。

随着AI的发展,面临的一些最紧迫的问题是什么?

考虑到我的背景,也许并不令人意外,我会说面对人工智能最紧迫的问题是与我们在设计、管理和使用人工智能系统时如果不小心可能发生的立即和长期的危害有关。

目前最紧迫的问题是大规模模型的环境影响,这一问题受到了严重的研究不足。如果应用的好处大于风险,我们可能会选择接受这些影响。但目前,我们看到像Midjourney这样的系统被广泛用于简单的娱乐目的,用户大多,如果不是完全地,对每次运行查询的影响毫无察觉。

另一个紧迫问题是如何协调人工智能创新速度与监管环境跟得上的能力。这并不是一个新问题,但监管是我们确保人工智能系统负责任地开发和部署的最佳工具。

AI的民主化(我指的是像ChatGPT这样的系统对任何人都如此容易获取)被认为是一个积极的发展,这一观点非常容易被接受。然而,我们已经看到生成内容对创意产业和从业者产生的影响,特别是涉及版权和归属性问题。新闻业和新闻制作者也在竞相确保他们的内容和品牌不受影响。对我们的民主系统来说,这一点有巨大的影响,特别是在关键的选举周期中。从地缘政治的角度来看,这些影响可能会产生实质性的改变。最后,如果不提到偏见问题,这个问题清单就会显得不完整。

人工智能用户应该注意哪些问题?

不确定这是与公司使用人工智能还是普通公民有关,但我假设是后者。我认为这里的主要问题是信任。我在想,现在有许多学生正在使用大型语言模型来生成学术作品。不管道德问题如何,这些模型仍然不够好。引用往往是不正确或脱离上下文的,有些学术论文的细微差别被忽略了。

但是这也涉及到一个更广泛的问题:你还不能完全信任生成的文字,所以只有在上下文或结果风险较低时才应该使用这些系统。 明显的第二个问题是真实性和可信度。 随着模型变得越来越复杂,要确切知道是人类还是机器生成的将变得越来越困难。 我们作为一个社会尚未发展出必要的素养,能在AI丰富的媒体环境中对内容做出理性判断。在这个过渡期内,旧的媒体素养规则仍然适用:检查信息来源。

另一个问题是人工智能并非人类智能,因此模型并非完美——如果有人心怀不轨,它们很容易被欺骗或损坏。

负责地构建人工智能的最佳方法是什么?

我们目前拥有的最好的工具是算法影响评估和监管合规,但理想情况下,我们应该寻找的是积极追求善行而不仅仅是试图降低风险的过程。

回归基础,显而易见的第一步是解决设计师的构成问题 - 确保人工智能、信息学和计算机科学这些学科吸引到更多女性、有色人种以及其他文化的代表。这显然不是一个快速解决方案,但如果构成更加多样化,我们显然会更早地解决偏见问题。这让我想到数据语料库的问题,需要确保数据适应预期用途,并采取措施适当地去偏见。

然后就需要培训系统架构师意识到道德和社会技术问题——将这些问题视为与主要学科同等重要。然后我们需要给系统架构师更多的时间和权力来考虑和解决任何潜在问题。然后我们来到治理和共同设计的问题,利益相关者应该参与系统的治理和概念设计。最后,我们需要在系统接触到人类主体之前对系统进行彻底的压力测试。

理想情况下,我们应该确保有退出、争议和救济的机制存在,尽管这在新兴的法规中已经涵盖了很多。这似乎是显而易见的,但我还想补充一点,你应该准备放弃那些在责任方面设置失败的项目。在这里经常会出现已沉没成本谬误的情况,但如果一个项目没有如你所愿地发展,那么提高你的风险承受能力而非坚持下去可能会导致产品的不时之死。

当然,最近采纳的欧盟AI法案涵盖了其中很大部分。

投资者如何更好地推动负责任人工智能的发展?

退一步说,现在普遍认为和接受的是,互联网的整体模式是对用户数据的货币化。同样地,大部分,如果不是全部,人工智能创新都是受资本收益推动的。特别是人工智能的发展是一个资源消耗大的行业,抢先上市的驱动力经常被描述为一场军备竞赛。因此,价值观责任始终与其他价值观竞争。

这并不是说企业不在意,各种人工智能伦理学家也付出了很多努力,试图将责任重新定义为在该领域中实际区分自己的一种方式。但这种情况似乎不太可能发生,除非你是政府或其他公共服务机构。很明显,首先进入市场总是要与全面消除可能的危害做出权衡。

但说回责任这个词。在我看来,责任是我们能做到最少的。当我们对孩子说,我们相信他们能够负责任时,我们的意思是,不要做任何违法、令人尴尬或疯狂的事情。这基本上是表现如何像一个正常人在这个世界上的基础。相反地,当应用于公司时,它变成了一种无法达到的标准。你得问问自己,这怎么会成为我们会进行讨论的话题呢?

此外,优先考虑责任的动机非常基本,涉及到希望成为值得信赖的实体,同时也不希望用户遭受新闻性的伤害。我这样说是因为很多处于贫困线上或来自边缘群体的人,他们未达到利益门槛,因为他们没有经济或社会资本来抗衡任何负面结果,也无法引起公众注意。

所以,回到这个问题,这取决于投资者是谁。如果是七大科技企业之一,那么他们是受以上规定保护的。他们必须选择始终优先考虑不同的价值观,而不仅仅在适合他们的时候。对于公众或第三部门来说,负责任的人工智能已经与他们的价值观保持一致,因此他们通常需要足够的经验和洞察力来帮助做出正确和明智的选择。最终,推动负责任的人工智能需要价值观和激励措施的一致。

推荐阅读

AI领域的女性:Allison Cohen谈如何构建负责任的人工智能项目

2024-04-201402
Chat中文版

本周的人工智能:当“开源”并非那么开放

2024-04-20446
Chat中文版

随着人工智能炒作周期达到高峰,为何矢量数据库备受瞩目

2024-04-20442
Chat中文版

创业周刊:人工智能热度逐渐消退?

2024-04-19265
Chat中文版

模特太多了

2024-04-191204
Chat中文版