为什么苹果将采用一种小型模型方法来实现生成式人工智能

AI7号2024-06-122784

Chat中文镜像

自ChatGPT、Gemini和Midjourney等模型推出以来,围绕它们最大的问题之一是它们在我们日常生活中将发挥什么样的作用(如果有的话)。这是苹果正努力回答的问题,他们推出了自己的产品,苹果智能,这个产品在2024年的WWDC上正式揭晓。

这家公司在周一的演示中使用了闪亮的手法;这就是主题演讲的工作方式。当高级副总裁克雷格·费德里吉(Craig Federighi)不在天空中跳伞,也没有借助好莱坞(嗯,是库比蒂诺)的魔术进行攀墙,苹果公司决心证明他们自家的模型和竞争对手一样有竞争力。

这个问题还没有定论,测试版只在周一发布,但公司后来透露了一些与其生成式人工智能方法不同的地方。首先是范围。该领域许多知名公司都采取“越大越好”的模式。这些系统的目标是作为世界信息的一站式购物中心。

然而,苹果对这一类别的方法更加务实。苹果智能是一种更具针对性的生成式人工智能方法,专门构建在该公司不同的操作系统基础上。从某种意义上说,这是一种非常苹果的方法,它将摩擦无限的用户体验置于首位。

在某种意义上,苹果智能是一种品牌推广活动,但另一方面,该公司更倾向于将生成式人工智能方面无缝地融入操作系统中。如果用户对支持这些系统的基础技术没有概念,这完全没问题,甚至更可取。这就是苹果产品一直以来的工作方式。

使模型保持小巧化。

其中许多关键在于创建较小的模型:训练系统使用为其操作系统用户所需功能而设计的定制数据集。目前不清楚这些模型的大小会对黑匣子问题产生多大影响,但苹果认为,至少拥有更多主题特定的模型将增加系统做出具体决定的透明度。

由于这些模型的相对有限,苹果并不指望在促使系统进行文本摘要时会有大量的变化。然而,从提示到提示的变化取决于被摘要的文本长度。操作系统还具有反馈机制,用户可以报告生成式人工智能系统的问题。

尽管苹果智能比较注重细节,但由于包括了“适配器”,可以涵盖各种请求,针对不同的任务和风格进行专门设置。总的来说,苹果不是采用“越大越好”的模型创建方式,因为需要考虑尺寸、速度和计算能力等因素,特别是在处理设备上的模型时需要考虑这些因素。

ChatGPT,Gemini和其他的。

考虑到苹果的模型的有限专注性,对像OpenAI的ChatGPT这样的第三方模型开放是很合理的。该公司专门为macOS/iOS体验培训了其系统,因此会有很多超出其范围的信息。在系统认为第三方应用程序更适合提供响应的情况下,系统提示将询问您是否想外部共享该信息。如果您没有收到这样的提示,请求正在使用苹果公司的内部模型处理。

这应该与苹果合作的所有外部模型都有相同的功能,包括谷歌双子座。这是系统罕见地会以这种方式引起人们对其生成式人工智能的关注之一。这个决定是部分为了消除任何隐私顾虑。每家公司在收集和对用户数据进行培训时都有不同的标准。

要求用户每次选择加入,即使这样做会增加一些阻力,但也减轻了苹果的责任。您还可以选择退出使用第三方平台系统,尽管这样做会限制操作系统/ Siri 可以访问的数据量。然而,您无法一次性选择退出 Apple 智能。相反,您将需要逐个功能地进行选择退出。

私有云计算

无论系统是在设备上还是通过私有云计算远程服务器处理特定查询,都不会得到明确说明。苹果的理念是这样的披露并不是必要的,因为它将自己的服务器与设备同样严格地遵守隐私标准,甚至包括它们运行的第一方硅片。

要确定查询是在设备上还是离线处理的一种方法是断开机器与互联网的连接。如果问题需要云计算来解决,但机器找不到网络,它会弹出一个错误提示,表示无法完成请求的操作。

苹果正在详细介绍哪些操作需要基于云的处理。这里有几个因素在起作用,而这些系统的不断变化意味着今天需要云计算的任务明天可能可以在设备上完成。设备上的计算并不总是更快的选择,因为速度是苹果智能在确定在哪里处理提示时考虑的参数之一。

然而,总会有一些操作需要在设备上进行。其中最显著的是图像工坊,因为完整的扩散模型是存储在本地的。苹果对模型进行了调整,使其能够生成三种不同风格的图像:动画、插图和素描。动画风格看起来很像另一个史蒂夫·乔布斯创立的公司的风格。同样,文本生成目前有三种风格可供选择:友好的、专业的和简洁的。

即使在这个早期的测试阶段,Image Playground的生成速度也令人印象深刻,通常只需几秒钟。至于在生成人物形象时是否包容性的问题,系统需要你输入具体的细节,而不是仅仅猜测诸如种族等事情。

苹果将如何处理数据集

苹果的模型是通过使用授权的数据集和公开可访问信息来训练的。后者是通过苹果机器人完成的。该公司的网络爬虫已经存在了一段时间,为Spotlight、Siri和Safari等应用程序提供上下文数据。该爬虫已经为发布商提供了一个现有的选择退出功能。

“通过Applebot-Extended,” 苹果指出,“网络发布者可以选择退出他们的网站内容用于训练苹果基础模型,从而为苹果产品的生成式人工智能功能提供支持,包括苹果智能、服务和开发者工具。

通过在网站代码中包含一个提示来实现。随着苹果智能的推出,该公司还引入了第二个提示,允许网站出现在搜索结果中,但在生成式AI模型训练中排除网站。

负责任的人工智能

苹果在WWDC的第一天发布了一份名为“介绍苹果的设备和服务器基础模型”的白皮书。除其他内容外,它还强调了公司AI模型的原则。特别是,苹果强调了以下四点:

  1. “为用户提供智能工具:我们确定可以负责任地使用人工智能来创建解决特定用户需求的工具的领域。我们尊重用户如何选择使用这些工具来实现他们的目标。”
  2. 代表我们的用户:我们致力于构建深度个性化的产品,目标是真实地代表全球用户。我们不断努力,避免在我们的人工智能工具和模型中传播刻板印象和系统性偏见。
  3. “谨慎设计:我们在设计、模型训练、特征开发和质量评估的每个阶段都采取预防措施,以确定我们的人工智能工具可能被滥用或导致潜在危害。我们将在用户反馈的帮助下不断积极改进我们的人工智能工具。”
  4. 保护隐私:我们通过强大的设备处理和私有云计算等创新基础设施来保护用户的隐私。在训练基础模型时,我们不会使用用户的私人数据或用户互动。

苹果对基础模型的定制化方法允许系统针对用户体验进行特别定制。自从第一台Mac问世以来,公司一直采用这种以用户体验为先的方法。提供尽可能顺畅的体验符合用户的需求,但不应该以牺牲隐私为代价。

今年公司将不得不在当前一系列操作系统测试版普及之际进行艰难的平衡。理想的方法是根据最终用户的需求提供尽可能多或尽可能少的信息。肯定会有很多人不在乎查询是在本地执行还是在云端执行。他们只关心系统默认选择最准确和高效的方式。

对于关注隐私保护的人和其他对此感兴趣的人来说,苹果应该尽可能实现用户透明度,更不用说出版商可能不愿意他们的内容被用来训练这些模型了。目前存在一些无法避免的黑匣子问题,但在可以提供透明度的情况下,应该在用户要求时提供。