山姆·奥特曼离开 OpenAI 的安全委员会
OpenAI 首席执行官萨姆·奥特曼(Sam Altman)即将离开 OpenAI 于 5 月成立的内部委员会,该委员会负责监督与公司项目和运营相关的“关键”安全决策。
在今天的一篇博客文章中,OpenAI 表示,该委员会,即安全与保障委员会,将成为一个“独立”的董事会监督小组,由卡内基梅隆大学教授齐科·科尔特(Zico Kolter)担任主席,成员包括 Quora 首席执行官亚当·丹格罗(Adam D’Angelo)、已退休的美国陆军上将保罗·中曾根(Paul Nakasone)和前索尼执行副总裁妮可·塞利格曼(Nicole Seligman)。他们都是 OpenAI 董事会的现有成员。
OpenAI 在其帖子中指出,在奥特曼离职后,该委员会对 o1(OpenAI 的最新人工智能模型)进行了安全审查。该公司表示,该组织将继续定期接收 OpenAI 安全团队的简报,并保留推迟发布的权力,直至安全问题得到解决。
OpenAI 在帖子中写道:“作为其工作的一部分,安全与保障委员会……将继续定期接收有关当前和未来模型的技术评估报告,以及发布后持续监测的报告。”“[我们]正在基于我们的模型发布流程和实践,建立一个综合的安全与保障框架,并为模型发布明确界定成功标准。”
奥特曼离开安全与保障委员会之前,今年夏天,五名美国参议员在致奥特曼的一封信中对 OpenAI 的政策提出了质疑。曾经专注于人工智能长期风险的 OpenAI 员工中,近一半已经离职,前 OpenAI 研究人员指责奥特曼反对“真正的”人工智能监管,而支持有利于 OpenAI 公司目标的政策。
就他们所指出的,OpenAI 大幅增加了其在联邦游说方面的支出,2024 年上半年预算为 80 万美元,而去年全年为 26 万美元。今年春天早些时候,奥特曼还加入了美国国土安全部的人工智能安全与保障委员会,该委员会为美国关键基础设施中人工智能的开发和部署提供建议。
即便奥特曼离职,也几乎没有迹象表明安全与保障委员会会做出严重影响 OpenAI 商业路线图的艰难决策。值得注意的是,OpenAI 在 5 月份曾表示,将通过该委员会来解决对其工作的“合理批评”——当然,“合理批评”见仁见智。
在 5 月份为《经济学人》撰写的一篇专栏文章中,前 OpenAI 董事会成员海伦·托纳(Helen Toner)和塔莎·麦考利(Tasha McCauley)表示,他们认为如今的 OpenAI 不可信,无法做到自我问责。他们写道:“根据我们的经验,我们认为自我治理无法可靠地抵御盈利激励的压力。”
而且 OpenAI 的盈利动机正在增强。
有传言称,该公司正在进行一轮 65 亿美元以上的融资,这轮融资将使 OpenAI 的估值超过 1500 亿美元。为了达成这笔交易,据报道 OpenAI 可能会放弃其混合式的非营利性企业结构,这种结构试图限制投资者的回报,部分是为了确保 OpenAI 始终与它的创立使命保持一致:开发能“造福全人类”的通用人工智能。
hbspt.forms.create({ 区域: "na1", 门户 ID: "44101848", 表单 ID: "09f96578 - 8d24 - 4d8a - 8e9f - 7700cff83c29" });