不要像跟AI聊天那样与人交谈

我们不应该像对聊天机器人那样与人交谈,AI可能会使我们的人际交往变得单调、更加偏颇或无理。

对于历史上的大部分时期,与电脑沟通并不像与人交谈。在电脑出现的最初几年,人们需要通过穿孔卡片提供精心构造的指令;然后出现了命令行界面,随之而来的是菜单、选项和文本框。如果你想得到结果,你需要学习电脑的语言。

这一情况正在开始改变。大语言模型—现代聊天机器人的基础技术—允许用户通过自然对话与电脑交互,这项创新引入了一些来自人与人交流的包袱。在我们各自探索ChatGPT的早期阶段,我们发现自己在电脑面前打出我们从未对电脑说过的单词:"请"。我们几乎在与这个代数组合体的每一次碰头中都融入了礼貌的句法,我们把它当作人来对待—即使我们知道它不是。

现在,这种交互方式还是新鲜的。但是,随着聊天机器人成为现代生活中无处不在的要素,并在我们的人机交互中占据很大一部分,它们可能会悄无声息地改变我们对电脑和我们的同类的思考方式。

这些聊天机器人可能会引导我们进入一个将人性归因于AI系统的社会,无论是抽象的聊天机器人还是更加物质的机器人。就像我们生物学上倾向于在对象中看到面孔一样,我们在任何可以进行对话的物体中想象智慧。(这并不新鲜:人们将智慧和同情心投射在非常原始的1960年代聊天机器人Eliza上。)我们对LLMs说"请",因为不说感觉不对。

聊天机器人越来越普遍,我们有理由相信它们会成为我们生活的更亲密的部分。AI伴侣的市场,从朋友到浪漫伴侣,已经人满为患。有几家公司正在研发AI助手,类似于秘书或管家,他们将预见并满足我们的需求。还有其他公司正在研发AI治疗师,调解人,和生活教练—甚至是仿制我们已故亲人的幻影。更普遍的说,聊天机器人可能会成为我们与各种电脑化过程互动的界面—一个能够响应我们的语言风格,情绪的每一处细微差别,甚至声音的音调的AI。

许多用户会预设把这些AI当作朋友,而不是他们实际上是由企业创建的系统。互联网已经通过Meta的广告网络等系统对我们进行了监视,LLMs很可能也会加入:例如,OpenAI的隐私政策已经概述了该公司收集的许多不同类型的个人信息。不同的是,聊天机器人的自然语言界面会使他们感觉更像人—我们在双方的每一次礼貌交接中都会加强这一点—我们可能会在心中错误地分类他们。

目前,大型聊天机器人还没有改变它们与用户的沟通方式来满足其母公司的商业利益,但市场压力可能会推动事情朝这个方向发展。在被问及此事时,OpenAI的一位发言人指出隐私政策的一个部分,指出该公司目前不出售或分享个人信息以进行“跨环境行为广告”,公司不“为了推断关于消费者的特征而处理敏感的个人信息”。在今天早些时候与Axios的一次采访中,OpenAI CEO Sam Altman说未来几代AI可能涉及“相当多的个人定制”,“这将让很多人感到不安。”。

其他计算技术已经被证明可以塑造我们的认知。研究表明,网站和文字处理器上的自动完成功能可以大大改变我们的写作方式。一般来说,这些推荐会导致更平庸、更容易预测的散文。当自动完成系统给出偏颇的提示时,会导致偏颇的写作。在一个无害的实验中,积极的自动完成建议导致了更多的积极餐馆评论,而消极的自动完成建议则导致了反向的结果。这些影响可能会远远超过调整我们的写作风格,影响我们的心理健康,就像现在可能导致抑郁和焦虑的社交媒体平台一样。

这些聊天机器人可能带我们走向更令人不安的方向:进入一个我们与他们的对话结果是我们以我们通常对机器表现出的冷淡、不尊重和无礼对待我们的同胞的世界。

现在的聊天机器人在接收到的指令精确到在人类交谈中会被认为是令人震惊的粗鲁的程度时表现最好,这些指令剥离了所有可能被模型误解的交谈礼貌:“草拟一个250字的段落,用我通常的写作风格,详细说明支持以下观点的三个例子,并给出你的来源。”即使是最淡漠的公司首席执行官可能也不会这样对他们的助手说话,但这在聊天机器人中很常见。

如果聊天机器人真的成为某些人主要的日常对话伙伴,那么这些用户在与其他人交谈时,甚至采用AI命令的词典的风险就十分严重。我们将被训练成以一个程序员对电脑讲话的冷酷精确さ去讲话,而不是带有同理心、细微之处和色彩,可能会让那种赋予人类特质的谈话消失。 对此,我们只需看看在社交媒体上机器人账户以怎样的方式败坏了数字对话,用简单编程的回应去煽动情绪,对情绪深沉的主题,他们在2016年的选举中播下了混乱和分裂选民的种子。 但是,AI同伴可能会成为一些用户社交圈中更大的一部分,比今天的机器人可能对这些人使用语言和处理人际关系产生更大的影响。

这样的转变不太可能一夜之间就把人类的交谈变成卡通般的机器人朗诵,但是它可能会在几年的时间里微妙而有意义的重塑口语对话,就像信息的字符限制影响了非正式的写作一样,把LOL、IMO、TMI等词变成了日常术语。

AI聊天机器人总是在你需要的时候在那里,无论你需要他们做什么。人不是这样的。想象一个充满了与他们的AI友人或浪漫伙伴长期对话的人的未来。就像一个人只有通过色情或情色体验过性经历的人,他们可能对人类伴侣有不切实际的期待。聊天机器人越来越普遍,影响可能越来越大。

更普遍的说,AI可能加速机构和社会信任的瓦解。Facebook等技术被认为应该把世界凝聚在一起,但在过去的那些年里,公众越来越怀疑他们周围的人,对公民机构的信任度也不断降低。AI可能使人们更加孤立、猜疑,总是不确定他们交谈的那个人是否真的是一台机器,而无论是什么,都会把他们看成不是人类。

当然,历史上充满了人们声称数字天空正在倒塌,抱怨每一项新的发明都是我们知道的文明的终结。最后,LLM可能只是我们明天的文字处理器,一项便捷的创新,使事情变得更容易,而我们的日常生活大部分时间都没有受到影响。我们走哪条路取决于我们如何训练明天的聊天机器人,但也取决于我们是否投资于今天加强公民社会的纽带。

本文译自 Schneier,由 超载鸡 编辑发布。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2024-01-27
不要像跟AI聊天那样与人交谈
我们不应该像对聊天机器人那样与人交谈,AI可能会使我们的人际交往变得单调、更加偏颇或无理。对于历史上的大部分时期,与电脑沟通并不像与人交谈。

长按扫码 阅读全文