人工智能领域的女性:康奈尔大学政府教授莎拉·克雷普斯

AI7号 2024-03-09 1997

Chat中文版

为了给关注人工智能的女性学者和其他人他们应得的 — 且过分延迟的 — 照明机会,TechCrunch 正在推出一系列采访,聚焦那些为AI革命做出贡献的杰出女性们。随着人工智能的繁荣持续,我们将在全年期间发布若干篇文章,突出那些经常被忽视的关键工作。阅读更多的人物简介请点击这里。

莎拉·克雷普斯是一位政治科学家,美国空军退伍军人和分析师,专注于美国外交和国防政策。她是康奈尔大学政府系教授,康奈尔法学院兼职教授,也是西点现代战争研究所的兼职学者。

Kreps最近的研究探讨了人工智能技术(如OpenAI的GPT-4)在政治领域中的潜力和风险。她在去年为《卫报》撰写的一篇评论专栏中写道,随着越来越多的资金投入人工智能领域,不仅是公司之间,而且是国家之间的人工智能军备竞赛将加剧,而人工智能政策挑战也将变得更加艰巨。

问题与解答

简单说,你是如何开始涉足人工智能的?是什么吸引你进入这个领域的呢?

我从涉及国家安全的新兴技术领域开始。当Predator无人机被部署时,我是一名空军军官,并曾参与先进雷达和卫星系统的工作。我在这个领域工作了四年,所以作为博士,我自然会对研究新兴技术对国家安全的影响感兴趣。我首次写了关于无人机的文章,讨论逐渐转向了无人机的自主性问题,这当然涉及到人工智能。

2018年,我参加了华盛顿智库的一场人工智能研讨会,OpenAI团队进行了关于他们所开发的新GPT-2技术的演示。我们刚刚经历了2016年的选举和外国选举干预,那些非英语为母语的人的语法错误等小细节很容易被发现——这些错误并不奇怪,因为这些干预是由俄罗斯支持的互联网研究机构执行的。在OpenAI进行这个演示的时候,我立刻对大规模生成可信的虚假信息,并通过微观定位,以比之前手工编写内容更有效的方式操纵美国选民的心理产生了兴趣。在那种情况下,规模总是一个问题。

我联系了OpenAI,并成为了他们分阶段发布策略中的早期学术合作者之一。我的研究重点是调查可能的滥用案例 - 即GPT-2和后来的GPT-3是否可作为政治内容生成器。在一系列实验中,我评估公众是否会认为这些内容可信,然后还进行了一项大型现场实验,我生成了“选区来信”,并将其随机分配给实际选区来信,以查看立法者是否以相同的比率回应,进而了解他们是否可以被愚弄 - 即恶意行为者是否可以通过大规模来信活动塑造立法议程。

这些问题触及了主权民主的核心,我毫不犹豫地得出结论,这些新技术确实对我们的民主构成了新的威胁。

在AI领域,您最为自豪的工作是什么?

我为我进行的现场实验感到非常自豹。之前没有人做过类似的事情,我们是第一个在立法议程环境中展示破坏潜力的人。

但我也为一些不幸从未推向市场的工具感到自豪。我与康奈尔大学的几名计算机科学学生合作开发了一款能处理立法来信并帮助其以有意义的方式回复选民的应用程序。在ChatGPT出现之前,我们就在开发这个应用程序,利用人工智能来处理大量的电子邮件,并为时间紧迫的工作人员提供人工智能辅助,以便与选区或州内的民众交流。我认为这些工具很重要,因为选民对政治感到失望,同时议员的时间也面临着越来越多的需求。以这种对公众利益有益的方式开发人工智能似乎是政治科学家和计算机科学家的有价值的贡献和有趣的跨学科工作。我们进行了一些实验来评估人们对人工智能辅助回复的感受,并得出结论,也许社会还没有准备好接受这样的工具。但在我们停止开发几个月后,ChatGPT出现了,人工智能如此普及,以至于我几乎想知道我们以前是如何担心这是否在道德上可疑或合法。但我仍然认为,我们问了有关合法用例的困难的道德问题是正确的。

你如何应对男性主导的科技行业以及男性主导的人工智能行业中的挑战?

作为一个研究人员,我并没有感到这些挑战特别严峻。我刚刚在旧金山湾地区,看到所有人都在酒店电梯里飞快地推销自己,这一幕我觉得很老套,也可能令人望而生畏。我建议他们找到导师(无论是男性还是女性),培养技能,让这些技能证明自己的实力,勇敢接受挑战,保持顽强。

你会给想进入人工智能领域的女性什么建议?

我认为女性有很多机会 — 他们需要发展技能,并且充满信心,她们就会蓬勃发展。

随着人工智能的发展,面临的一些最紧迫的问题是什么?

我担心人工智能社区已经开展了许多关注“超级对准”等课题的研究计划,这些计划模糊了更深层次、或者说更正确的问题,即我们试图让人工智能与谁的价值观或者什么价值观对准。谷歌的“双子星”在推出时出现了问题,这显示出只与一小部分开发者的价值观对准可能导致(几乎)可笑的历史错误在其输出中出现。我认为那些开发者的价值观是出于善意的,但揭示出这些大型语言模型正在被编程为特定的一组价值观,这将塑造人们对政治、社会关系和各种敏感话题的思考方式。这些问题不构成存在风险,但确实构建了社会结构,并让主导这些模型的大公司(例如OpenAI、谷歌、Meta等)拥有相当大的权力。

人工智能用户应该注意哪些问题?

随着人工智能变得无处不在,我认为我们已经进入了一个“信任但验证”的世界。完全否定一切是悲观的,但现在有大量的人工智能生成的内容,用户在直觉上需要谨慎地判断什么值得信任。在假定一切准确之前,最好寻找替代资源来验证真实性。但我认为我们在社交媒体和错误信息方面已经有所了解。

负责地构建人工智能的最佳方式是什么?

我最近为《原子科学家公报》撰写了一篇文章,起初是关于核武器的,但后来逐渐转变为涉及人工智能等颠覆性技术的议题。我一直在思考科学家如何能够更好地成为公众管理者,并希望将一些我为一本书项目所研究的历史案例联系起来。我不仅概述了一套我认可的负责任发展步骤,还谈到了为什么一些人工智能开发者提出的问题是错误的、不完整的或误导的。

推荐阅读

人工智能欺诈检测软件公司Inscribe.ai裁员40%的员工

2024-03-09 908
Chat中文版

AI2孵化器获得2亿美元的计算资源,以支持有需求的人工智能初创公司

2024-03-08 811
Chat中文版

NFT平台Zora为AI模型制作者提供了一种新颖的赚钱方式

2024-03-08 1447
Chat中文版

大多数人工智能基准测试告诉我们很少的原因是什么?

2024-03-08 2324
Chat中文版

苹果 M3 MacBook Air 评测:仍然是大多数人最好的 Mac 选择

2024-03-08 517
Chat中文版