AI中的女性:拉希达·理查德森,万事达卡的高级法律顾问,专注于AI和隐私

AI7号2024-02-202739

Chat中文版

为了让以人工智能为重点的女性学者和其他人得到她们应得和早就应该得到的关注,TechCrunch正在推出一系列采访,聚焦那些为人工智能革命做出贡献的杰出女性。随着人工智能潮流的持续,我们将在整个一年内发布若干篇文章,突出那些经常被忽视的关键工作。在这里阅读更多相关人物简介。

拉什达·理查森是万事达卡的高级法律顾问,负责处理与隐私和数据保护以及人工智能相关的法律问题。

理查森曾是AI Now Institute政策研究主任,这个研究机构研究人工智能的社会影响,并曾在白宫科技政策办公室担任数据与民主高级政策顾问。自2021年以来,她一直是东北大学法学与政治科学助理教授,专攻种族与新兴技术。

拉什达·理查森,万事达卡人工智能高级律师。

简单来说,你是怎么开始涉足人工智能领域的?是什么吸引了你进入这个领域?

我的背景是一名民权律师,在那里,我处理了一系列问题,包括隐私、监视、学校解种族隔离、公平住房和刑法司法改革。在处理这些问题的过程中,我目睹了政府采用和尝试基于人工智能技术的早期阶段。在某些情况下,风险和顾虑是显而易见的,我帮助领导了纽约州和市的许多技术政策努力,以创造更大的监督、评估或其他保障措施。在其他情况下,我本能地怀疑与人工智能相关解决方案的福利或功效声明,特别是那些被宣传为解决或减轻结构性问题,如学校种族隔离或公平住房。

我的以往经验也让我对现有政策和监管的空白有很高的敏感度。我很快注意到在人工智能领域很少有像我这样拥有背景和经验的人,或者能够提供我在政策倡导和学术研究中开发的分析和潜在干预措施。因此,我意识到这是一个我可以做出有意义贡献并且以独特方式延续我以往经验的领域和空间。

我决定把我的法律实践和学术研究都集中在人工智能上,特别是关于其发展和应用的政策和法律问题。

在 AI 领域,您最引以为傲的工作是什么?

我很高兴看到这个问题终于得到了更多利益相关方的关注,尤其是决策者。在美国,法律跟不上科技政策问题的历史很长,五六年前,我觉得人工智能可能也会面临同样的命运,因为我记得曾参与与决策者的互动,无论是在正式场合如美国参议院听证会,还是教育论坛,大多数决策者对这个问题视而不见,或者认为不需要紧急处理,尽管人工智能在各个领域迅速普及。然而,在过去一年左右的时间里,情况发生了重大变化,人工智能成为公共话题的常客,政策制定者更加重视利害关系,并意识到需要采取明智的行动。我还认为各行各业的利益相关方都意识到人工智能带来独特的利益和风险,这些问题可能无法通过传统做法解决,因此政策干预得到了更多的认可,或者至少得到了赞赏。

你如何在男性主导的科技行业,进一步延伸至男性主导的人工智能行业中应对挑战?

作为一个黑人女性,我习惯于在许多领域成为少数群体,虽然人工智能和科技行业是极其同质化的领域,但它们并不是新奇的,也不太不同于其他拥有巨大权力和财富的领域,比如金融和法律行业。因此,我认为我之前的工作经验和生活经历帮助我为这个行业做好准备,因为我对自己可能要克服的偏见和可能遇到的挑战性动态非常敏感。我依靠自己的经验来导航,因为我有独特的背景和观点,曾在所有行业的人工智能领域工作过 —— 学术界、行业界、政府和公民社会。

AI用户应该注意哪些问题?

人工智能用户应意识到的两个关键问题是:(1)更深入了解不同人工智能应用和模型的能力和限制,以及(2)当前和未来法律解决关于人工智能使用方面的冲突或某些担忧的能力存在很大不确定性。

在第一个观点上,公众讨论和理解人工智能应用的好处和潜力以及它们的实际能力和限制存在不平衡。这个问题还因为人工智能用户可能无法理解人工智能应用与模型之间的区别而变得更加严重。随着ChatGPT和其他商业可用的生成式人工智能系统的推出,公众对人工智能的认识有所增长,但这些人工智能模型与消费者多年来接触的其他类型的人工智能模型是有区别的,比如推荐系统。当关于人工智能的讨论变得混淆不清时——技术被视为一体化时——往往会扭曲公众对每种应用或模型实际能做什么以及与其限制或缺陷相关的风险的理解。

在第二点上,关于人工智能(AI)的发展和使用的法律和政策正在不断发展。虽然已经有许多法律(例如民权、消费者保护、竞争、公平借贷)适用于AI的使用,但我们正处于了解这些法律如何执行和解释的早期阶段。我们也正处于专门针对AI制定政策的早期阶段,但我从法律实践和研究中注意到,这些法律的碎片化留下了一些未解决的领域,只有在涉及AI发展和使用的更多诉讼产生后才能得到解决。总的来说,我认为普遍对法律和AI的当前状况缺乏深入的了解,以及关于责任等关键问题的法律不确定性可能意味着某些风险、伤害和争端可能会在商业之间或监管机构与公司之间的多年诉讼中得不到解决,产生能提供一些明晰的法律先例。

负责任地构建人工智能的最佳方式是什么?

在构建人工智能时,面临的挑战在于许多负责任人工智能的基本支柱,如公平和安全,都是基于规范价值观——而这些概念并没有共享的定义或理解。因此,一个人可能表现得负责,但仍然造成伤害,或者可能恶意行事,并依赖于这些概念没有共享规范的事实来声称自己在诚信行事。在全球标准或某种共享框架能够明确构建人工智能的责任意味之前,追求这一目标的最佳方式是制定明确的原则、政策、指导和标准,通过内部监督、基准测试和其他治理实践来执行负责任人工智能的开发和使用。

投资者如何更好地推动负责任的人工智能发展?

投资者可以更好地界定或至少澄清何为负责AI的开发或使用,并在AI行为者的实践不一致时采取行动。目前,“负责任”或“值得信赖”的AI实际上是营销术语,因为没有明确的标准来评估AI行为者的实践。虽然一些新兴的法规,如欧盟AI法案将建立一些治理和监督要求,但仍有一些领域可以通过投资者激励AI行为者制定更好的实践,以关注人类价值或社会利益。然而,如果投资者在发现不一致或者有不良行为者的证据时不愿采取行动,那么调整行为或实践的动机将会很少。

推荐阅读

布雷特·泰勒的新公司如何在人工智能时代重新思考客户体验

2024-02-191892
Chat中文版

AI 领域的女性:李·泰德里奇,全球人工智能合作伙伴关系的专家

2024-02-192975
Chat中文版

据报道,软银的孙正义正在寻求1000亿美元以打造一个新的人工智能芯片企业

2024-02-192642
Chat中文版

戴力想要利用人工智能自动进行尽职调查

2024-02-192779
Chat中文版

人工智能领域的女性:欧洲议会议员和欧盟AI法案顾问伊娃·迈德尔

2024-02-182381
Chat中文版