谷歌推出两款新的开放式图灵学习器(LM)
谷歌在推出最新的Gemini模型版本仅仅过了一周,今天又宣布推出了Gemma,一款轻巧的开源模型系列。从Gemma 2B和Gemma 7B开始,这些新模型是“受Gemini启发”的,并可用于商业和研究目的。
Google并没有向我们提供关于这些模型如何与Meta和Mistral等类似模型性能进行比较的详细报告,仅指出它们是“当今最先进的”。公司确实指出这些是密集的解码器模型,与其Gemini模型(以及早期的PaLM模型)使用的架构相同,并且我们将在Hugging Face的排行榜上看到今天晚些时候的基准数据。
为了开始使用Gemma,开发人员可以访问现成的Colab和Kaggle笔记本,以及与Hugging Face、MaxText和Nvidia的NeMo集成。一旦预训练和调整完毕,这些模型就可以在任何地方运行。
谷歌强调这些是开放模型,值得注意的是它们并非开源。事实上,在今天宣布之前的新闻发布会上,谷歌的珍妮·班克斯强调了公司对开源的承诺,但同时指出谷歌在如何称呼 Gemma 模型方面非常有意识。
“【开放模型】现在在行业中已经相当普及,”班克斯说道。“这通常指的是开放权重模型,开发人员和研究人员可以广泛访问并自定义和微调模型,但与此同时,使用条款——比如再分发,以及对开发的那些变种的所有权——会根据模型自身的具体使用条款而有所不同。因此,我们看到一些区别,传统上我们会称之为开源的是有所不同的,我们决定将我们的 Gemma 模型称为开放模型,这是最有意义的事情。”
这意味着开发人员可以自行使用这个模型进行推理和微调,谷歌团队认为,尽管这些模型的规模很适用于许多用例。
Google DeepMind 产品管理总监Tris Warkentin说:“过去一年,生成质量显著提高。”“以前只有极大型模型才能完成的事情,现在用最新的较小型模型也能实现。这打开了全新的发展人工智能应用的方式,我们对此感到非常兴奋,包括能够在本地开发者桌面或笔记本电脑上使用您的RTX GPU进行推理和调整,在GCP的单个主机上使用Cloud TPU也可以。”
这也适用于谷歌竞争对手在该领域的开放模式,因此我们将看看Gemina模型在实际情况下的表现如何。
除了推出新款式之外,谷歌还发布了一个新的负责任生成AI工具包,为使用Gemma创建更安全的AI应用提供“指导和必要工具”,以及一种调试工具。