人工智能领域的女性:桑德拉·沃彻,牛津大学数据伦理学教授

AI7号2024-03-091804

Chat中文版

为了给关注人工智能的女性学者和其他人他们应得的——而且是迟来的——曝光时间,TechCrunch推出了一系列采访,聚焦为人工智能革命做出贡献的杰出女性。随着人工智能的蓬勃发展,我们将在整年期间发布多篇文章,突出那些经常被忽视的重要工作。在这里阅读更多相关人物的介绍。

桑德拉·瓦赫特是牛津互联网研究所的教授和资深研究员,研究领域包括数据伦理、人工智能、机器人、算法和监管。她同时还是英国国家数据科学与人工智能研究所图灵研究所的前研究员。

在图灵研究所期间,观察者评估了数据科学的伦理和法律方面,强调了一些不透明算法变得种族主义和性别歧视的案例。她还研究了审计人工智能的方法,以应对虚假信息并促进公平。

问答环节

简单来说,你是如何开始从事人工智能领域的?是什么吸引你来到这个领域的?

在我一生中,我从未忘记过创新和技术有着令人难以置信的潜力,可以让人们的生活变得更好。然而,我也知道技术可能会对人们的生活产生毁灭性后果。因此,我始终被驱使着,不仅仅是因为我对正义的强烈感觉,还要找到一种方法来保证完美的中间立场。既促进创新,又保护人权。

我一直觉得法律在社会中扮演着非常重要的角色。法律可以作为一个承上起下的桥梁,既保护人们又促进创新。法律作为一门学科对我来说很自然。我喜欢挑战,喜欢了解系统的运作方式,看看我能否利用它,找到漏洞,然后加以修补。

人工智能是一种极具变革力量的科技。它已被应用到金融、就业、刑事司法、移民、健康和艺术领域。这既有利也有弊。而它到底是好是坏取决于设计和政策。我对人工智能自然而然地产生了兴趣,因为我觉得法律可以通过确保创新惠及尽可能多的人们而做出有意义的贡献。

在 AI 领域,您最为自豪的工作是什么?

我认为我目前最自豐的一部作品是与哲学家布伦特·米德尔施塔特、计算机科学家克里斯·拉塞尔合作写的一篇文章,而我作为律师也参与其中。

我们最新的有关偏见和公平的研究《机器学习的不公平性》揭示了在实践中强制执行许多"群体公平"措施的有害影响。具体来说,公平是通过"水平调整"来实现的,或者说让每个人变得更糟,而不是帮助弱势群体。在欧盟和英国的非歧视法律背景下,这种方法非常有问题,同时在伦理上也堪忧。在Wired的一篇文章中,我们讨论了在实践中水平调整可能有多么有害——例如,在医疗保健领域,强制实施群体公平可能意味着错过更多不必要的癌症病例,同时也会降低整体系统的准确性。

对于我们来说,这是一件令人恐惧的事情,也是科技、政策以及每个人都应该知道的重要内容。事实上,我们已经与英国和欧盟监管机构联系,并向他们分享了我们令人震惊的结果。我由衷希望这能给决策者提供必要的支持,以制定新政策,防止人工智能造成如此严重的危害。

你如何应对男性主导的科技行业所带来的挑战,以及男性主导的人工智能行业呢?

有趣的是,我从未将技术视为属于男性的东西。直到我上学的时候,社会告诉我,科技不适合像我这样的人。我还记得十岁那年,课程规定女孩要学编织和缝纫,而男孩则在造鸟屋。我也想建鸟屋,请求转到男孩班,但老师告诉我“女孩不做那些事”。我甚至找到学校校长试图推翻决定,但遗憾的是那时失败了。

在对抗一种说你不应该成为这个群体一员的成见时,是非常困难的。我希望我能说这样的事情不再发生,但不幸的是,事实并非如此。

然而,我非常幸运能与像布伦特·米特尔斯塔特和克里斯·拉塞尔这样的盟友一起工作。我有幸拥有像我的博士导师这样的令人难以置信的导师,还结识了一批志同道合的男女朋友,他们都在努力引领前进的道路,改善对科技感兴趣的每个人的处境。

您会给希望进入人工智能领域的女性什么建议?

首先要努力寻找志同道合的人和盟友。找到属于自己的团队并互相支持是至关重要的。我最有影响力的工作总是来自与来自不同背景和领域的开放思维的人交流,共同解决我们面临的共同问题。仅仅依靠传统智慧无法解决新颖的问题,所以历史上面临进入人工智能和其他技术领域障碍的妇女和其他群体拥有真正创新和提供新东西的工具。

在AI发展过程中面临的一些最紧迫的问题是什么?

我认为有很多问题需要严肃的法律和政策考虑。比如,人工智能受到有偏见的数据困扰,导致歧视和不公平的结果。人工智能本质上是不透明的,难以理解,但却被委托决定谁能获得贷款,谁能得到工作,谁必须进监狱,以及谁被允许上大学。

生成式人工智能存在相关问题,同时也助长了虚假信息,存在幻觉,违反数据保护和知识产权,使人们的工作岌岌可危,并且对气候变化的贡献超过航空业。

我们没有时间可耽搁;这些问题我们本应昨天就解决了。

AI用户应该注意哪些问题?

我认为有一种倾向是相信某种关于人工智能的叙述,就是“人工智能已经到来并且将会长存,要跟上来否则就会被落后”。我认为重要的是思考谁在推动这个叙事,谁从中获益。重要的是要记住实际权力所在。权力不在那些创新者手里,而是在购买和实施人工智能的人手里。

因此,消费者和企业应该问自己,“这项技术实际上是否对我有帮助?以及在哪方面?”现在电动牙刷里已经嵌入了“人工智能”。这是为谁设计的?谁需要这个?这里面到底有什么提升?

换句话说,问问自己有哪些问题需要解决,是否人工智能能够真的解决这些问题。

这种思维方式将改变市场力量,创新将希望转向更关注社区实用性而非简单利润的方向。

如何负责任地构建人工智能?

有着要求负责任人工智能的法律制定。这里同样存在一个非常无益且不真实的说辞主导:即监管抑制创新。这是不正确的。监管抑制有害创新。良好的法律促进和培育道德创新;这就是我们拥有安全汽车、飞机、火车和桥梁的原因。如果监管阻止违反人权的人工智能的创造,社会并不会受损。

有关汽车的交通和安全法规也被称为“扼杀创新”和“限制自主性”。这些法律阻止了没有驾照的人驾驶,防止了没有安全带和气囊的汽车进入市场,并惩罚那些不遵守限速的人。想象一下,如果没有法律来规范车辆和司机,汽车行业的安全记录会是什么样子。目前,人工智能正处于类似的转折点,重型工业游说和政治压力意味着仍不清楚它将走哪条道路。

投资者如何更好地推动负责任的人工智能?

几年前我写了一篇名为《公平的人工智能如何让我们变得更富有》的论文。我深信,尊重人权、不偏不倚、能够解释和可持续发展的人工智能不仅符合法律、伦理和道德规范,而且还能赚钱。

我真心希望投资者能明白,如果他们推动负责任的研究和创新,他们也将获得更好的产品。糟糕的数据、糟糕的算法和糟糕的设计选择会导致更糟糕的产品。即使我无法说服你们应该做出道德选择,因为这是正确的选择,我希望你们能看到道德选择也更具盈利性。道德应该被视为一种投资,而不是一道障碍。

推荐阅读

OpenAI宣布新董事会成员,并恢复首席执行官Sam Altman的职务

2024-03-09171
Chat中文版

人工智能领域的女性:康奈尔大学政府教授莎拉·克雷普斯

2024-03-081918
Chat中文版

人工智能欺诈检测软件公司Inscribe.ai裁员40%的员工

2024-03-08830
Chat中文版

AI2孵化器获得2亿美元的计算资源,以支持有需求的人工智能初创公司

2024-03-07729
Chat中文版

NFT平台Zora为AI模型制作者提供了一种新颖的赚钱方式

2024-03-071353
Chat中文版