MIT的机器人学先驱罗德尼·布鲁克斯认为,人们极大地高估了生成人工智能的能力
当罗德尼·布鲁克斯谈论机器人技术和人工智能时,你应该倾听。他目前是麻省理工学院的帕纳松克机器人学名誉教授,并且是Rethink Robotics、iRobot和他目前的努力Robust.ai的联合创始人。布鲁克斯还在1997年开始的十年里领导了麻省理工学院计算机科学与人工智能实验室(CSAIL)。
实际上,他喜欢对人工智能的未来进行预测,并在他的博客上保留了一个得分表,记录他的预测表现如何。
他知道自己在说什么,他觉得也许是时候控制一下人工智能生成技术所带来的夸大炒作了。布鲁克斯认为这是令人印象深刻的技术,但也许并不像许多人所说的那样强大。“我并不是说LLM不重要,但我们必须谨慎评估它们”,他告诉科技媒体TechCrunch。
他说生成式人工智能的问题在于,虽然它完全有能力执行一定的任务,但它不能像人类一样做任何事情,而人类往往高估它的能力。“当一个人看到一个人工智能系统执行一个任务时,他们立即将其推广到类似的事情,并估计人工智能系统的能力;不仅仅是在那个任务上的表现,而是围绕这个任务的能力。”布鲁克斯说。“他们通常非常乐观,这是因为他们使用了一个基于人类表现的模型。”
他补充说,问题在于生成式人工智能并不是人类,甚至也不像人类,试图赋予它人类的能力是有缺陥的。他说人们觉得它能力很强大,甚至想将其用于一些毫无意义的应用。
布鲁克斯提到他最新的公司Robust.ai,提供了仓储机器人系统作为例子。最近有人建议他可以通过为系统建立LLM,让仓库机器人知道去哪里,这样会很酷而且高效。但在他看来,这并不是生成式人工智能的合理用例,实际上会拖慢速度。更简单的方法是将机器人连接到从仓库管理软件中获取的数据流。
“当你有10,000个订单在两小时内需要发货时,你必须对此进行优化。语言并不能帮助忙;它只会减慢事情的进程。”他说道。“我们有大规模的数据处理和AI优化技术和规划。这就是我们如何快速完成订单的方式。”
另一个布鲁克斯在涉及机器人和人工智能时学到的教训是,你不能试图做得太多。你应该解决一个可以轻松集成机器人的可解决问题。
“我们需要在已经清理干净的地方进行自动化。所以我的公司的例子是我们在仓库的表现相当不错,而且仓库实际上是相当受限制的。那些大建筑的照明不会改变。地面上也不会有东西散落,因为推车的人会碰到那些东西。也不会有漂浮的塑料袋。而且在那里工作的人没有动机对机器人恶意,“他说道。
布鲁克斯解释说,这也涉及到机器人和人类共同工作,因此他的公司设计这些机器人是为了与仓库操作相关的实际目的,而不是制造看起来像人类的机器人。在这种情况下,它看起来像一个带有把手的购物车。
“因此,我们使用的外形不是人形机器人四处走动——尽管我建造和交付的人形机器人比任何其他人都多。它们看起来像购物车,”他说道。“它有一个把手,所以如果机器人出了问题,人可以抓住把手,并随心所欲地操作它,” 他说。
经过这么多年,布鲁克斯已经学会了让技术易于理解和为特定目的而构建。 “我总是尽量让科技易于人们理解,因此我们可以大规模部署,始终关注商业案例;投资回报也非常重要。”
即使如此,布鲁克斯表示我们必须接受,当涉及到人工智能时,总会有一些难以解决的特殊案例,可能需要数十年才能解决。“如果不仔细限制人工智能系统的部署方式,总会有一些需要数十年才能发现和解决的特殊案例。矛盾的是,所有这些修复本身也是完全依赖人工智能的。”
布鲁克斯补充说,主要是由于摩尔定律,人们普遍存在这种错误观念,即技术发展总是会呈指数增长的——即如果ChatGPT 4已经这么好了,想象一下ChatGPT 5、6和7会有多么厉害。他认为这种逻辑存在缺陷,即技术并不总是呈指数增长,尽管摩尔定律如此。
他以iPod为例。在几次迭代中,存储容量的确从10GB翻了一番,一直增加到160GB。如果按照这个增长速度继续下去,他估计到2017年我们将拥有一个存储容量为160TB的iPod,但当然我们并没有。2017年出售的机型实际上是带有256GB或者160GB的,因为正如他所指出的,实际上没有人需要超过这个容量。
布鲁克斯承认LLMs在某些时候可能对国内机器人有所帮助,在那里它们可以执行特定任务,尤其是随着人口老龄化趋势,人手不足以照顾他们。但他表示,即使如此,这也可能带来一系列独特的挑战。
人们说,“哦,大型语言模型将使机器人能够做一些以前做不到的事情。”但问题并不在于此。能够做事情的问题在于控制理论和各种其他的数学优化,”他说道。
布鲁克斯解释说,这最终可能会导致具有实用语言界面的机器人,适用于护理情况下的人们。“在仓库里,告诉个别机器人为一个订单取一样东西是没有用的,但对于家庭长者护理来说,人们可以跟机器人说话可能会很有用。”他说道。