反对伪装的爱心主义
“我应该说你是一个人,虽然你拥有兽类的所有症状吗?我怎么知道你是个人?通过你的外形吗?当我看到一个长得像人的野兽时,这更让我害怕。” — 罗伯特·伯顿,《忧郁症解剖学》
我建议禁止软件进行伪人类性行为,即模仿人类。我们必须采取措施,防止被普遍称为人工智能的计算机系统表现出与人类一样的生活、思考的行为;相反,它们必须使用明确的积极信号来将自己标识为复杂的统计模型。
如果我们不这样做,这些系统将会系统性地为隐藏的私利而欺骗数十亿人,并且从美学角度来看,因为智能生命受到机器模仿是不合适的。
正如许多学者在60年代之前已经观察到的那样,人类非常渴望将自己看作是副本:只要用自然语言粉饰一下,大多数人就会相信自己正在与另一个人交谈。
但是,从一个引人入胜的新奇之物,一种心理语言错觉的形式开始,已经逐渐升级为有意的欺骗行为。大型语言模型的出现产生了能够对任何问题生成似乎合理且语法正确的答案的引擎。显然,这些可以用于有益的用途,但是机械化复制的自然语言与人类对话在表面上几乎无法区分也带来了严重的风险。(同样适用于生成媒体和算法决策。)
如果尚未达到大规模,但这种危险正逐渐变得越来越近、越来越明显,这些系统已经被呈现为人类或被误认为是人类。拥有资源创建这些模型的组织不仅是偶然地,而是刻意地设计它们来模仿人类互动,并打算广泛地部署在目前由人类执行的任务上。简而言之,人工智能系统的目的是足够令人信服,以至于人们会以为它们是人类,且不会被告知其真实身份。
正如很少有人费心去发现一个过时的文章或者故意编造的虚假信息的真实性一样,很少有人会在日常交流中询问对方的人性。这些公司正指望这一点,并打算滥用这种做法。如果我们不采取行动阻止,广泛的误解就会不可避免地产生,即将这些人工智能系统视为有思想、感情和对存在有一般利益的真正人类,而它们实际上没有这些重要的特征。
这并不是关于对人工智能普遍性的恐惧,或者失业问题,或者其他任何紧迫的担忧,尽管从某种意义上说,这是生存在世的问题。用梭罗的话来说,这是为了防止我们沦为我们工具的工具。
我认为,对于软件通过肤浅模仿人类特质来欺骗性地自我表现为人是对人类特质的滥用和贬低,对整个人类社会造成了伤害。因此,我提议我们禁止所有这种伪人类行为,并要求明确的信号表明某个代理、交互、决策或媒体作品来自计算机系统的产物。
以下是一些可能的信号,我们可以讨论一下。它们可能听起来奇思妙想,甚至荒谬不已,但是我们要承认:我们生活在荒谬而古怪的时代。今年的严峻难题去年还是科幻小说,有时甚至还不需要回溯到那么久远。
当然,我并没有幻想有人会自愿遵守这些规定,即使有奇迹般地被要求遵守,那也无法阻止恶意行为者无视这些要求。但这就是所有规则的本质:它们不是违背不了的物理定律,而是用于引导和辨识善意人士的有序社会中的一种手段,并为制裁违规者提供了一个结构。
如果不采用像以下规则那样的规定,数十亿人将会在不知情和未经同意的情况下接触到伪人类的媒体和互动,如果他们知道是机器在背后操作,他们可能会以不同的方式理解或行动。我认为,任何源自人工智能的东西都应该被大家立即感知到,而不仅仅是由专家或数字取证检查出来。这是一件无可非议的好事。
至少可以把它当作一个思维实验。这应该成为关于人工智能监管和伦理的对话中的一部分,这些系统应该明确宣布自己的存在,并且避免欺骗 - 如果它们这样做,我们可能都会受益。以下是一些可能实现这一目标的想法。
1. 人工智能必须押韵。
这听起来很奇特和诙谐,当然这是最不可能被采纳的规则。但没有其他事情能如此完美地解决由生成语言引发的如此多问题。
如今,人工智能冒充最常见的场景之一是在基于文字的交互和媒体中。然而,问题实际上并不在于人工智能能够产生类似人类的文字,而在于人们试图将这些文字冒充为自己的,或者以某种方式来证明这些文字是由人类发表的,无论是垃圾邮件、法律意见、社会研究论文还是其他任何东西。
目前有很多关于如何在自然环境中辨别人工智能生成的文本的研究,但迄今为止取得的成果甚微,只是一场无尽的军备竞赛的承诺。有一个简单的解决方案:所有由语言模型生成的文本应该具有一个独特的特征,任何人都可识别,同时保留原意。
例如,由AI生成的所有文本都可以押韵。
押韵在大多数语言中都是可能的,在文字和口语中同样显而易见,并且在各种能力、学习和识字水平中都能够理解。对人类来说,模仿押韵是相对困难的,但对机器来说却几乎是微不足道的。几乎没有人会费力发表一篇用ABABCC的押韵六步诗写成的论文或提交一篇作业。但如果被要求或需要,一个语言模型将会愉快地、立即地完成这个任务。
我们不需要对韵律太挑剔,当然其中一些押韵可能会有些偏巧、刻意或笨拙,但只要呈现出韵律的形式,我觉得就足够了。目标不是为了美化,而是让任何看到或听到特定文本的人都能清楚地知道它来自于人工智能。
如今的系统似乎有一种文学倾向,正如ChatGPT所展示的那样。
改进的韵律语料库将提高清晰度,同时降低语气的强烈程度。但它可以传达大致意思,如果它引用了来源,用户可以参考这些来源。
这并不能消除幻觉,但会提醒所有读者需要警惕它们。当然,它可以重新书写,但这也不是一项微不足道的任务。而且人类模仿AI并用自己的俚语风格表达的风险很小(尽管它可能会促使一些人改进自己的技艺)。
再次强调,并不需要对所有生成的文本进行普遍和完美的改变,而是要创造一个可靠、明确的信号,表明你正在阅读或听到的文本是由人工生成的。总会有无限制的模型存在,就像总会有假冒伪劣和黑市存在。你无法完全确定一段文字不是由人工生成的,就像你无法证明一个否定陈述一样。不良行为者总会找到规则的漏洞。但这并不削弱用一个普遍的肯定信号来表示一些文本是由人工生成的的好处。
如果你的旅行推荐采用抑扬格的方式,你可以很确定没有人费心去编写这些句子来欺骗你。如果你的客户服务代表用尽人一生来满足你的旅行计划,你就知道这个人不是真的在帮助你。如果你的心理治疗师用对联的方式引导你度过危机,那说明他没有思想和情感可以同情和给出建议。同样地,对于CEO的博客文章、向学校董事会的投诉,或是有关饮食失调的热线都是如此。
在任何这些情况下,如果你知道你正在与一个计算机而不是一个人交谈,你可能会采取不同的行动吗?也许是,也许不是。客户服务或旅行计划可能和人类一样好,而且还更快。一个非人类的“心理咨询师”可能是一项受欢迎的服务。与人工智能的许多互动是无害的、有用的,甚至优于与真人的相同互动。但人们应该从一开始就知道,尤其是在更个人或重要的情况下,要时常被提醒,与他们交谈的“人”实际上并不是真人。如何解释这些互动取决于用户,但这必须是一个选择。
如果有一个实用但不那么古怪的解决方案,我会欢迎它。
2. 人工智能可能没有面孔或身份。
AI模型没有理由拥有人脸,或者任何与人类个性有关的特征,除非试图通过这种方式获取不必要的同情或信任。AI系统是软件,而不是生物体,应该被呈现和看待为软件。当它们必须与真实世界互动时,除了伪善的面部模拟,还有其他表达关注和意图的方式。我将这些发明留给UX设计师富有想象力的头脑。
人工智能也没有国家来源、个性、机构或身份 - 但它的措辞模仿了人类的措辞。因此,如果一个模型说它是在西班牙资源上进行训练的,或者能流利地说西班牙语,这是完全合理的,但它不能声称自己是西班牙人。同样,即使它的所有训练数据都归属于女性人类,这也不会使它拥有女性特质,就像一个由女性画家创作的画廊本身并不是女性一样。
因此,由于人工智能系统没有性别,也不属于任何文化,所以不应该用人类代词如他或她来指代它们,而是应该将其视为对象或系统:如同任何应用程序或软件,可以用“它”和“它们”来称呼。
甚至可能值得将此规则扩展到当这种系统实际上没有自我时,不可避免地使用第一人称的情况。我们可能希望这些系统改用第三人称,例如使用“ChatGPT”而不是“I”或者“me”。但是不可否认的是,这可能比它值得的麻烦更多。其中一些问题在最近发表在《自然》杂志上的一篇引人入胜的论文中进行了讨论。
一种人工智能不应声称自己是虚构的人物,比如为了撰写文章或书籍而创造的名字。这些名字完全是用来识别背后的人类,因此使用它们是伪人类化和误导性的。如果一个人工智能模型生成了大部分内容,应该给予模型相应的认可。至于模型本身的命名(无法避免的必要性;毕竟很多机器都有名字),可以考虑一种约定,比如使用以同一个字母或音素开头和结尾的单一名字——比如Amira、Othello等。
这也适用于特定冒充的情况,比如已经普遍存在的训练系统模仿一个真实活人的声音、语言和知识的做法。作为世界上最著名的声音之一,著名自然学家和旁白大卫·爱登堡经常成为这种行为的特殊对象。然而,尽管结果可能很有趣,但这种行为实际上是伪造和贬低他的认可,以及他一生中精心培养和定义的声誉。
在这里导航同意和伦理非常困难,必须与技术和文化一起发展。但我怀疑即使是今天最宽容和乐观的人也会在接下来的几年里产生担忧,因为不仅世界知名人物,而且政治家、同事和亲人将被无意识地和出于恶意的目的而被再创造出来。
3. 人工智能不能“感受”或“思考”。
没有情感或自我意识的情况下使用情感语言是没有意义的。软件不能感到抱歉、恐惧、担心或快乐。之所以使用这些词是因为统计模型预测人类会这么说,而它们的使用并不反映任何内在状态或驱动力。这些虚假和误导性的表达毫无价值甚至意义,只是像一张脸一样,唯一的作用是引诱人类对话者相信该界面代表或是一个人。
因此,人工智能系统不能声称“感受到”或表达对用户或任何对象的情感、同情或沮丧。该系统无感觉,只是根据其训练数据中相似的序列选择了一系列合理的词语。尽管类似于文学中“我爱你/我也爱你”的机械对话已经非常普遍,但是相对幼稚的用户们会将与语言模型的相同对话视为面对面的真实交流,而非自动补全引擎的预设结果。
思维、意识和分析的语言也不适合于机器学习模型。人类使用像"我认为"这样的短语来表达只有有感知能力的生物才有的动态内在过程(虽然是否仅限于人类是另一回事)。
语言模型和人工智能总体上都是有确定性的:它们是能为每个输入产生一个输出的复杂计算器。为了避免这种机械性的行为,可以通过向提示中添加随机数或包含一些产生不同输出的函数来改变情况,但这不能被误解为任何真正思考的表现。它们对于一个回答的正确性没有更多的"思考",就像计算器对8 x 8等于64没有"思考"一样。语言模型的数学更为复杂,只是这样而已。
因此,这些系统不应模仿内部讨论的语言,也不应模仿形成和表达观点的语言。在后一种情况下,语言模型仅仅反映训练数据中存在的观点的统计表示,这是一种回忆的问题,而不是立场。 (如果道德等问题被模型的创建者编程进去,它当然可以并且应该表明这一点。)
显然,上述两个禁令直接破坏了语言模型训练和激励去模仿某些类型的人的普遍应用。从虚构角色到治疗师再到关心的伴侣,这种现象需要多年的研究。但现在可以说,如此多人所经历到的孤独和孤立感需要一个比由监控资本主义操纵的随机鹦鹉傀儡更好的解决方案。人们对联系的需求是真实且合理的,但人工智能却是一个无法填补的空洞。
4. AI派生的数字、决策和答案必须标注。
人工智能模型正在越来越多地被用作软件中的中间功能、跨服务的工作流甚至其他人工智能模型。这是有用的,在中期内,各种主题和任务特定的代理很可能成为许多强大应用程序的首选解决方案。但它也增加了当模型产生答案、数字或二进制决策时已经存在的不可解释性的深度。
在不久的将来,我们使用的模型很可能会变得更复杂而不够透明,与此同时,依赖这些模型的结果会越来越常见,出现在之前可能只有个人估计或电子表格计算的情境中。
AI推导出的数据可能更可靠,或者包括了一系列提升结果的数据点。是否以及如何使用这些模型和数据是专业领域的专家需要决定的。重要的是明确表明算法或模型被用于何种目的。
如果一个人申请贷款,而贷款主管仅凭个人决策做出是与否的决定,但其贷款金额和贷款条件受到人工智能模型的影响,那么这一点必须在出现这些数字或条件的任何情况下明显标示出来。我建议添加一个已经存在且易于识别的符号,该符号在其他情况下并不广泛使用,比如⸫,它在历史上表示已删除(或可疑)的内容。
这个符号应该和所使用的模型或方法的文档链接在一起,或者至少给它们命名,以便用户可以查找。这个想法不是提供一个全面的技术解析,大多数人可能无法理解,但是要表达使用了具体的非人决策系统。它只是广泛使用的引用或脚注系统的扩展,AI衍生的数字或声明应该有一个专用的标记,而不是一个通用的。
目前正在进行的研究中,试图减少语言模型生成的陈述性语句,并使其可以单独进行验证。不幸的是,这种方法会导致模型的计算成本增加。可解释的人工智能是一个非常活跃的研究领域,因此这种指导方针可能会像其他方面一样不断演化。
5.人工智能不能做生与死的决策。
只有人类才能权衡一项可能让其他人失去生命的决策所需要考虑的因素。在定义了一个被称为“生死”(或其他能体现正确重要性的术语)的决策类别之后,必须禁止人工智能作出这些决策,或者试图在提供信息和定量分析之外影响这些决策(根据上述所述)。
当然,它仍然可以为确实做出这些决策的人们提供信息,甚至是关键性的信息。比如,人工智能模型可以帮助放射科医生找到肿瘤的正确轮廓,并提供不同治疗方法有效性的统计可能性。但是,如何治疗患者或是否治疗都取决于相关人员(责任问题也是如此)。
顺便一提,这也禁止了致命的机器战争,比如炸弹无人机或自动炮塔。它们可以跟踪、识别、分类等,但是发射子弹必须由人类来完成。
如果面临一种看似无法避免的生死抉择,人工智能系统必须停止或安全地禁用自己。在自动驾驶汽车的情况下,这个推论是必要的。
解决无法解决的“无轨电车难题”的最佳方式是,AI代理人应尽可能安全地毁灭自身,而不考虑自身或乘客的代价(也许这是仅有的例外情况,允许生死规则的例外)。
这并不难——汽车撞到电线杆、高速公路隔离带或树木的方式有无数种。关键是摒弃道德问题,将其转化为随时准备好一个现实的自毁计划的简单事情。如果一个在现实世界中充当代理的计算机系统没有准备好自我销毁,或者至少安全地将自己排除在外,那么汽车(或无人机、机器人)就不应该运作。
类似地,任何人工智能模型如果确定其当前的操作可能导致严重伤害或生命损失,必须立即停止,并解释为何停止,并等待人类干预。毫无疑问,这将产生众多的边界案例,但这总比将其交由一百家私营公司自私的伦理委员会来处理要好。
6. AI 图像必须被截除一角。
与文本一样,图像生成模型生成的内容在外观上与人类输出几乎无法区分。
随着图像质量的提高和访问范围的扩大,这个问题只会变得更加棘手。因此,需要要求所有由人工智能生成的图像具有独特且易于辨别的特点。我建议将一个角剪掉,如上所示。
这并不能解决所有问题,因为当然可以通过剪裁图像来排除它。但是,恶意行为者总是能够绕过这些措施 - 我们应该首先专注于确保任何人在任何情境下都能识别出非恶意生成的图像,例如库存图片和插图。
元数据被剥离; 水印丢失到工件效应中; 文件格式发生变化。目前,一个简单但显著和持久的视觉特征是最好的选项。像一个角落剪掉45度一样,不容忽视但又不常见,位于一侧的四分之一上或下。无论图像是否在上下文中标记为“生成”,保存为PNG或JPG,或具有任何其他临时特性,该特征都是可见且清晰的。它不容易像许多水印一样被模糊化,而且必须重新生成内容。
元数据和数字证据链等方式仍然有其作用,甚至可能还有隐写术,但明确可见的信号是有帮助的。
当然,这会使人们面临新的风险,即只相信带有切角的图片才是生成的。我们现在已经面临的问题是,所有的图片都可疑,我们必须完全依赖于更微妙的视觉线索;没有简单、确切的信号表明一张图片是生成的。切角就是这样一个信号,将有助于定义越来越常见的实践。
附录
人们不会通过使用非受限模型绕过这些规定吗?
是的,有时我会盗版电视节目。有时我会横穿马路。但总的来说,我遵守我们作为一个社会所建立的规则和法律。如果有人想在自己的家里使用一个不押韵的语言模型,出于自己的原因,没有人可以或应该阻止他们。但是,如果他们想要使某些东西广泛可用,他们现在的做法就在一个给每个人安全和舒适的集体环境中进行,有了相应的规则。假想的内容从个人转向社会问题,并从个人规则转向社会规则。不同的国家可能有不同的人工智能规则,就像他们对专利、税收和婚姻有不同的规定一样。
为什么要用新词?我们不能直接说“拟人化”吗?
伪人类主义是伪造人性的行为;人权主义是转化为人性的过程。后者是人类的行为,是将自己的人性投射到某些缺乏人性的事物上。我们会将玩具、宠物、汽车、工具等一切事物人格化,但不同之处在于这些事物并非故意模仿人类特质以营造出它们是人类的印象。人格化的习惯是伪人类主义的附属现象,但它们并不完全相同。
为什么要以如此夸张、过于认真的方式提出这个问题呢?
嗯,这就是我写作的方式!
这样的规则怎样才能被执行?
理想情况下,应该建立一个联邦人工智能委员会来制定规则,与学院、民权倡导者和行业组织等相关方进行合作。我在此仅是提出一些宏观建议,这些建议并不具体可行或可强制执行,但通过严格定义、能力界定、限制规定和信息披露规定,我们可以获得与食品标签、药物宣传、隐私政策等相似的保障。
如果人们无法区分,真的重要吗?
是的,或者至少我是这样认为的。对我来说,人工智能表面模仿人类特征是危险的,必须加以限制。其他人可能有不同的感受,但我强烈怀疑,在未来几年内,越来越清楚地看到,AI模型假装成人会带来真实的伤害。它实质上是非人性化的。
如果这些模型真的有意识会怎么样?
我认为这是不言而喻的,它们不是自我意识的。这种问题可能最终变得可信,但现在这些模型具有自我意识的想法完全没有任何支持。
如果你强迫人工智能进行自我声明,难道不会让它们在未声明时更难被检测到吗?
通过让人工智能生成的内容更明显,存在一个风险,即我们无法自然地辨别它。但是,接下来的几年很可能推动技术发展,以至于即使专家也不能在大多数情境下区分它们。期望普通人完成这个已经困难的过程是不合理的。最终,识别生成内容将成为一项关键的文化和媒体素养技能,但必须在使用这些工具的背景下进行培养,因为我们无法提前做到这一点。在我们作为一种文化训练自己以区分原创与生成内容之前,使用这样的信号将非常有益。
这样的规定不会阻碍创新与进步吗?
这些规则并不限制这些模型能做什么,只是限制它们在公开时的使用方式。禁止做出致命决策并不意味着模型不能拯救生命,只是我们作为一个社会应该选择不完全依赖它们独立地这样做。对于语言也是一样,这些规则并不阻止模型发现或提供任何信息,或执行任何有益功能,只是要求不以人类的伪装方式来进行。
你知道这行不通,对吗?
但这是值得一试的。