Meta发布其最新的定制人工智能芯片,以赶上其他竞争对手

AI7号2024-04-10134

Chat中文版

为了赶上竞争对手在生成式人工智能领域的发展,Meta正投入数十亿美元用于自己的人工智能项目。其中一部分数十亿美元用于招募人工智能研究人员。但更大的部分用于研发硬件,特别是用于运行和训练Meta人工智能模型的芯片。

Meta今天展示了其芯片开发努力的最新成果,显眼地是在英特尔宣布其最新人工智能加速器硬件后的一天。被称为“下一代”Meta培训和推断加速器(MTIA),这是去年MTIA v1的继任者,该芯片可以运行模型,包括用于对Meta旗下平台(比如Facebook)的排名和推荐广告进行处理。

与基于7nm工艺制造的MTIA v1相比,下一代MTIA采用了5nm工艺。在芯片制造中,“工艺”指的是芯片上可以制造的最小组件的尺寸。下一代MTIA是一个体积更大的设计,比其前任装有更多处理核心。虽然它消耗更多功耗-90瓦而不是25瓦-但它也拥有更多内存(128MB而不是64MB),并且以更高的平均时钟速度运行(1.35GHz,而不是800MHz)。

Meta表示,下一代MTIA目前已在其16个数据中心区域实时运行,并与MTIA v1相比,性能整体提高了3倍。如果这个“3倍”的说法听起来有点模糊,那么你没错-我们也是这么认为的。但Meta只会自愿透露,这个数字是来自测试“四个关键型号”跨两个芯片的性能。

Meta在与TechCrunch分享的博客文章中写道:“由于我们控制了整个技术堆栈,我们可以实现比商业可用的GPU更高的效率。”

麦塔公司的硬件展示在公司关于各种正在进行的生成式人工智能项目的新闻发布会后仅仅24小时就开始了,这一举动有几个方面是不同寻常的。

1. 在博客文章中,Meta透露目前并未在生成式AI训练工作负载中使用下一代MTIA,尽管该公司声称有“几个正在进行中的项目”在探索这一技术。 2. Meta承认下一代MTIA不会取代GPU来运行或训练模型,而是将其作为补充。

细读字里行间,Meta 步伐缓慢——或许比它希望的更慢。

Facebook的人工智能团队几乎可以肯定地面临着削减成本的压力。该公司计划到2024年底在用于训练和运行生成式人工智能模型的GPU上花费约180亿美元,而随着尖端生成模型的训练成本在数千万美元范围内,内部硬件呈现出一种有吸引力的替代方案。

随着Meta的硬件滞后,竞争对手正不断领先,这让Meta的领导层感到相当焦虑,我猜测。

本周,谷歌将其第五代专用AI训练芯片TPU v5p正式提供给谷歌云客户,并公布了用于运行模型的首款专用芯片Axion。亚马逊已拥有多个自定义AI芯片系列。去年,微软推出了Azure Maia AI加速器和Azure Cobalt 100 CPU,进入这一领域。

在这篇博客文章中,Meta表示下一代MTIA从第一块硅片到生产模型仅用了不到九个月的时间,这个时间比谷歌TPU之间的典型窗口要短。但是如果Meta希望实现与第三方GPU独立的程度,并与激烈的竞争对手相匹敌,它还有很多赶上的工作要做。

推荐阅读

Google将AI动力的编辑工具,如魔法编辑器,免费提供给所有Google Photos用户

2024-04-101696
Chat中文版

TechCrunch分钟:谷歌的“双子座代码辅助”想要利用人工智能帮助开发者

2024-04-10979
Chat中文版

Poe为AI机器人创建者引入了每条消息的收费模式

2024-04-091897
Chat中文版

Symbolica希望通过押注符号模型来避免人工智能军备竞赛

2024-04-091605
Chat中文版

eBay在其iOS应用中添加了一种基于人工智能的“搭配购物”功能

2024-04-091437
Chat中文版