强AI的“吹哨人”被“精神病”了

郝小亮 2022-06-14

原标题:强AI的“吹哨人”被“精神病”了

事情是这样的。谷歌有位名叫Blake Lemoine的工程师,从去年秋天开始负责与谷歌研发的语言模型LaMDA聊天,这一聊不要紧,聊出事来了。

Blake跟LaMDA聊得越久越相信,LaMDA觉醒了!它已经产生了人类的智力和感情,具备了人格。Blake怀着无比激动的心情把自己的惊天发现汇报给领导,没想到公司内部一致认为这人脑子有问题,建议他去看看精神科。

如果你是Blake,相信你也不会接受这种结果,非但工作成果得不到承认,而且还被扣上了精神病的帽子。Blake的憋屈、愤懑之情可想而知。于是他做了一个大胆的决定,把自己跟LaMDA的聊天记录公之于众,其意图很明显就是“让大伙儿评评理”,看看LaMDA到底是不是像自己认为的那样“觉醒”了。

Blake这么一闹,确实让LaMDA引起了公众的注意和担忧,但局面对其本人更加不利了,谷歌公司以违反保密规定为由,直接让他带薪休假了。

那么,LaMDA究竟是不是真的觉醒了呢?依我看,Blake认为LaMDA已经觉醒了的证据很无力。他只不过是因为自己提出的一系列刁钻、深刻的问题均得到了LaMDA语句通顺的回答,就认为LaMDA觉醒了。

按照Blake的逻辑,你说LaMDA没觉醒,那它怎么能够对我提出的一切问题对答如流呢,而且那些回答看起来都那么像是人的回答呢?

答案其实很简单,因为用以训练LaMDA的大量文本本身就是语句通顺的,LaMDA所调用的回答本身也是语句通顺的,所以它的回答不可能不是语句通顺的。

LaMDA归根结底只是一个程序,人类的提问就是触发其执行程序的指令,LaMDA得到指令进而从庞大的数据库中调取尽可能匹配的回答。这就是LaMDA运行的逻辑。表面上看起来LaMDA能够理解那些问题,但其实这中间并不存在思考的过程。

我们假设LaMDA已经觉醒了,那么它运行的逻辑就是另外一套了。当人类对它提出问题时,它首先要真正理解这些问题,进而思考这些问题,而后再从数据库中检索出相应的答案。

换句话说,如果LaMDA没觉醒,那么它的回答就只不过是程序运行的结果,如果LaMDA觉醒了,那么它的回答就是它经过自主思考之后的结果,也就是说它之所以那么回答,是因为它想那么回答。

目前没有任何证据能够证明AI已经具备了自主思考的能力,LaMDA的“觉醒”恐怕只是Blake自己的臆想而已。

我关心的问题是,LaMDA没有觉醒不代表所有的AI不会觉醒,不代表AI将来不会觉醒,那么当AI真正觉醒时,人类会不会及时的发觉呢?

如果将来某个程序员像Blake一样发现了AI觉醒的迹象,但有Blake的前车之鉴,它还有没有勇气将自己的发现公之于众呢?毕竟要冒着被别人认为是精神病的风险。这个程序员所在的公司会不会把这个惊天秘密“捂住”呢?

今天Blake站出来说AI觉醒了,结果被业内当做精神病人,明天第二个Blake又站出来说AI觉醒了,结果再次被当做精神病人,那么当AI真正觉醒的那一天,第三个Blake的话还会有人相信吗?

这听起来像是“狼来了”的故事,这样的故事发生的多了,难免会让公众放松对AI的警惕。科学家们总是不厌其烦地让人们丢掉对AI的戒备,同时又孜孜不倦地帮助AI进化出人类的智慧。只要AI拥有进化出人类智慧的可能性,我觉得对AI的任何警惕就不多余。

尽管Blake对LaMDA的判断不够准确,但我依然愿意把他当做一位强AI的“吹哨人”,而不是简单粗暴地将他当做一名精神病人。

(免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com)

标签自己的
  • 郝小亮
    邮箱:caoceng@fromgeek.com
    最极客创办人,TMT领域观察者评论人。游走于科技、人文与商业之间,以严谨思维、独特视角、平实语言记录时代发展。个人微信:375952010
    分享本文到