巨头扎堆ChatGPT“求自保”,大模型很快会免费丨亮见22期

丨划重点

1. OpenAI可能也没预料到ChatGPT出色的能力表现,人类则习惯为AI赋予科幻、浪漫主义色彩。

2. 各种大模型的能力都还没得到科学的实证,ChatGPT也不一定能完全复现自己的推断,这也是为什么没有一家公司能够复制ChatGPT成功的原因。

3. 已经有非常重的商业模式、产品的团队/公司,不会轻易像OpenAI一样去将技术成果公之于众,大模型作为基础模型很快会走向“免费”。

4. 不用担心“AI取代人工”人类发展进程足够说明新技术的诞生,基本没有引发过于严重的问题。

5. 对于国内公司来讲,产品整合大模型,挑战行业‘大鳄’,是非常好的‘武器’。

丨概述

过去两个月,ChatGPT热潮席卷中文互联网,让整个行业彻底领略了人工智能技术产品应用的潜力。

在火热的同时,也引发了很多人的思考,「ChatGPT能否成为互联网的下一个系统性的机会?」这个问题可以拆解为两层含义,一方面是对ChatGPT能力上限的疑问,另一方面则是对互联网未来发展的疑问。面对如今ChatGPT火爆全球而引发‘人工智能替代人类’的话题,小冰公司CEO李笛认为:数十万年的人类发展,佐证了科技进步带来的效率提升不会产生过于严重的问题,应当对人类社会的自我调节机制有信心,岗位的消失与诞生也代表着人类的迭代与进步。面对如今大量巨头扎堆ChatGPT,李笛认为大模型在当前的时间点是‘挑战者的武器’。对于人工智好与坏的判断,应当是多维度的,而不是单纯地定义。

以下为直播文字精华版:

01

大公司不会轻易推出大模型,更多的是战略防御

刘兴亮:如果用最简单的一句话来介绍ChatGPT,可能是什么?另外,为什么ChatGPT突然就「火了」,有什么偶然和必然因素?核心技术是什么?

李笛:从行业和大众的视角,我的观点是不同的。

大模型技术被证明有效之前,整个行业曾遇到困扰多年的瓶颈,特别是在自然语言处理方面,基于知识图谱、意图识别,大量方案都未能有效解决问题,怎样能够真正通过知识图谱,高效的将知识结构化组织起来,大模型的诞生提供了新的思路。

对于大众来讲所感受到的是它涌现出的新能力。在GPT-1、GPT-2这个阶段还没有展现出这样的能力,但由于OpenAI持续训练、优化大模型,到GPT-3.5时具备了诞生思维链的新能力。

简单来讲,具备思维链能力,能够更好的解决模型在与人交互时的回应,相比早期版本更有逻辑思维,它会将问题逻辑进行拆分,并从训练数据进行关键信息调用、组合,以至于比人的逻辑更加缜密。由于这种方式远远超出大众预期,因而产生非常惊人的效果。

过去几年,整个行业在人工智能的技术范式上的全新突破,也就是大模型。

它的发展过程中也出现过许多创新,最初还被用于演示产品,但仅限于产业内,ChatGPT是首次将大模型新的技术范式带入大众视野,所以大模型才是最关键的技术创新。

图源:网络

刘兴亮:ChatGPT会给人类带来什么?

李笛:人类面对人工智能类型产品时,或多或少会为它赋予科幻电影的色彩,这非常具有浪漫主义色彩。但以从业者的角度来讲,这次大模型的能力表现为什么会让很多人为之惊讶,OpenAI内部可能也没有预料到。

从科研工作者的角度,即便是创造大模型的人,也还没有完全掌握它的规律和它背后的原因。

时至今日,各种大模型涌现,像文本生成涌现逻辑思维推理,其能力出现的具体原因,都还没有得到非常科学的实证。如果ChatGPT自身重新推导一些问题,也不一定能够完全复现,这也是为什么没有一家公司能够复制ChatGPT的成功的原因。

时至今日,很多技术依旧需要实践观察才能实现,过去谷歌验证发现,拥有620亿条的参数规模或以上的模型,才有逻辑思维编程能力,现在研究发现,其实在更小的规模,20个Billion参数,17个Billion,13个Billion,也能不同程度将大模型的逻辑能力复现出来,亚马逊甚至希望在1个Billion或者6个Billion参数规模上,尝试复现这种能力。所以,现在众多“玩家”都在不停的通过更多的实践,摸清楚大模型真正的规律,当然这也意味着我们还不能清楚的了解这类技术的边界是什么。

那些已经有非常重的商业模式、产品的团队/公司,不会像OpenAI一样去将技术成果公之于众。

所以,我非常理解谷歌为什么不抢先将拥有的技术贡献给大众,对于严肃产品,不能依靠经验指数来判断它的好坏,而要通过它的不准确指数进行判断,这也是为什么“Bard”(谷歌基于大模型推出的聊天机器人 )只是回答错两个问题,谷歌的市值就蒸发上千亿美元的原因。

用户层面,不管是ChatGPT还是其它大模型,都将会深刻的影响每个人的生活,这种影响如果应用得好将是有益的,反之则会造成无法预料的后果。

比如,当这类产品能够提供400字以上结论时,如果学生将生成的内容作为作业提交,基础教育就无法深入,因为基础教育理念是需要“独立思维”。如果不动脑思考,直接提交AI生成的内容,这就失去了“基础教育”的意义。

当然,这不会成为阻碍技术进步的原因,但技术落地时,需要有扬长避短的意识,规避它所存在的“另一面”。

02

ChatGPT为何“一本正经的胡说八道”?

刘兴亮:您怎么看待正在热议的ChatGPT会取代很多人类的工作?

李笛:最近,微软小冰日本分部与奈飞推出的AI生成的动画短片《犬与少年》,引发很大争议,许多动画片制作者认为这取代了他们的工作。

人工智能制作的动画《犬与少年》,图源:网络

首先,对于“AI取代人工”的议论不能坐视不管,但也要认可社会科学和自然科学的进步持续伴随人力历史发展。

随着技术、社会结构的变化,人类不停面临同样的问题,某些岗位会消失,也会有其他岗位出现。特定岗位的消失,短时间之内产生巨大的影响,但人类会重新寻找到新的社会结构和岗位结构的配置。所以我们应该相信人类社会的自我调节机制,这才是人类的迭代和进步。

其次,为什么在这个过程中大众会不适应?因为原本由人完成的工作,机器可以做得更有效率,所掌握的信息量更大。

对于“AI取代人工”这个话题,我认为完全不用担心,人类发展进程佐证了,新技术的诞生基本没有引发过于严重的问题,改变岗位、改变每个人的社会分工,这从来都不是问题。

刘兴亮:我们经常看到ChatGPT“一本正经的胡说八道”令人啼笑皆非,AI大模型有海量数据为什么会错误率会这么高?

ChatGPT“一本正经的胡说八道”,图源:网络

李笛:第一由大模型本身的设计限制决定。第二,此类问题也在逐步优化解决。

对比ChatGPT和New Bing,举个例子,比如问及ChatGPT“我想知道日本最长的河的长度的五次方根”,ChatGPT首先需要理解你的问题,它和以前的“意图识别”相比,理解能力更突出,但也有明显的不足。

对于这个问题,第一“与日本最长的河有关”、第二“与河的长度有关”、第三“和长度的五次方根有关”,分步骤进行解决。

正确的求解过程——ChatGPT应该先搜索“日本最长的河”并了解“河的长度”,最后计算“五次方根”,现状是不会这么做,而是在训练数据中寻找答案,很可能就找到错误的答案,因为它是语言模型不是运算模型。

所以你可能会看到ChatGPT输出错误答案,但依靠大模型生成文本描述出来的内容,又显得非常的合乎逻辑,所以给人“一本正经的胡说八道”的感觉。

New Bing又是怎么处理的?它同样对问题进行拆解,并且进行搜索,从互联网信息或者某可信的知识库中找到“日本最长的河是哪条河?”找到“河的长度”,在计算环节会临时生成一段代码并运行,计算出“五次方根”,这个过程就较为复杂,但它会给你正确的答案。

“一本正经的胡说八道”是可以改变的,也会引发新问题,比如完成任务反复的调用数据,结果可能更加准确,但成本反而更贵。无论是OpenAI还是行业中的其他“玩家”,其实都在认真迭代和更新,包括大量采用新的方法进行训练。大模型随着训练的加深以及新的任务训练,水平必然会越来越好。

刘兴亮:从投入产出看,ChatGPT类产品在不同阶段,重点投入分别会在哪些环节,如何赚钱?

李笛:我个人认为大模型作为基础模型很快会走向“免费”。

首先,大模型随着发展会走向趋同,除非不断涌现更多新的能力并不断的进化,所以ChatGPT从最开始1000个token收费2美分,到如今主动下调到1000个token收费0.2美分。

从API调用的角度来讲,整个定价体系是为了让更多的人使用它,实现薄利多销,但如果2美分就可以很好的普及,为什么还要降价到0.2美分?降价意味着它有主动应对潜在竞争的策略。

另一方面,如果将大模型当做商品,模型本身是不附带任何商业模式的,价值的大小在于生成的内容,也许生产内容如同莫言的小说那么高价值,也有可能就像咱们写的检查那样不值钱。

对模型来讲,一样的文本生成流程,输出的内容价值会截然不同,而大模型提供方的收费模式是完全相同的,都是根据字数多少进行计算,所以大模型并不在内容产业的游戏规则中,也就制约其商业模式——只能依赖调用次数多少这一种商业模式。

所以,我个人认为大模型的公司或早或晚都需要向“下”走,深入到某垂直领域做产品。

大模型提供团队和做应用的公司,不可能是完全的合作伙伴关系,他们之间也存在潜在的竞争和吞并的可能,另后者的优势在于,会面临更多的大模型的选项,只要将应用做的足够扎实,从任何维度去建立自己的竞争优势,大模型就不再是它的唯一依赖。

所以,我认为目前为止整个行业的生态远远没有建立起来,在这个过程中还会出现更多复杂的问题。

03

大模型是挑战巨头的“武器”

刘兴亮:巨头们先后扎堆ChatGPT,各种概念股都出现,你觉得有泡沫吗,会改写互联网格局吗?

李笛:现阶段,大模型是“挑战者的武器”。

以微软为例,当微软将它整合在Bing中,以实现去挑战谷歌的目的,而谷歌要想应战,就必须要付出许多倍的成本才能守住自己原来的“疆土”。

对于国内公司来讲,在自己未实现绝对领先位置的产品中使用大模型,挑战行业‘大鳄’,是非常好的‘武器’。对于大鳄来讲,如果在这时不储备相关“武器”,显然只能面临“他杀”的局面,至少从二级市场、用户、合作伙伴等视角来看,都会带来非常大的负面影响,所以很多大公司研究大模型是防御性行为。

另一方面,大模型研究存在很强的“或然性”,业内现在对大模型的研究,还普遍是经验积累,而不是科学的结论,经验需要实际操作。

从战略的角度,有财力的大公司也会去尝试,但是否能够研发出来(成型产品)是两回事,以及成功的研发后是否要把它用在自己的主营业务上又是另一回事,这中间会有很多其他因素考虑。

图源:网络

刘兴亮:过去人工智能有强弱之分,强弱由哪些因素来决定,临界点在哪?

李笛:我个人认为是深度学习。包括强人工智能,弱人工智能,这些定义本身都带有很强的偏见。这并不意味着某个强时另外一个就是弱,因为所有的技术它都有不同的维度,需要多维度考量。特定情况下,强人工智能可能能力非常强,但情感上又是最弱的。

这也是为什么,有些人被认为是学习的天才,也是生活的傻瓜。那么他是强还是弱?所以,这种单一维度的定义强弱,本身存在一定偏见。

抛开这些,我们可以看到人工智能技术它有不同维度的追求。比如,它追求信息的绝对准确性或者追求逻辑和篇幅,追求对用户的启发。

从人工智能角度来讲,不同团队都在不停的探索各种方向,前百度首席科学家、Landing AI创始人吴恩达发过一封信,告诉从业者不要认为不做大模型就不行,强调人工智能是百花齐放的时代,我们现在还处在蛮荒时代,要去不停地去寻找不同规则定义的强弱,或者不同定义的好和坏,而不是只有一种规则。

04

人工智能的三类风险:并发、错误授权、过渡依赖

刘兴亮:人工智能会成为一切产品的标配吗,可能会在什么时候,普通人会有剧烈变化的感知吗,未来可能还会有什么风险?

李笛:我看到的结果是,当它真正深远的影响到人类时,人类是没有感知的。

今天人工智能技术深刻的改变着所有人的日常生活,每个人手机上的计算设计,拍照过程中镜头所捕捉到的画面,人工智能都带来了大量的改变,消费者(对这种变化感知不多)往往只会对超出想象的东西感到兴奋。

所以,人工智能带来真正深远的变化,会深远到你都已经忽略它的存在。

关于风险,在实践中人工智能最大的风险有三类。

第一类风险叫并发。什么叫并发?就是“胡说八道”。人工智能胡说八道一天可以影响到上亿人,并发意味着如果产生问题,它的故障率、错误率即使只有小数点后两位,但乘以它的并发数,将会是无比庞大的数字。所以,并发问题是绝大部分的人工智能需要考虑的风险,尤其是大规模商用、落地的时候。

第二类风险来自于授权。即什么情况下授权人工智能系统做怎样的决策,并且实施怎样的行为。比如今天行业还只允许人工智能去‘思考’,但不允许做具体的决策和执行,比如AI是没有被授权启动汽车的,如果它产生错误,想去发动汽车,在物理上是实现不了的。如果授权系统未明确的指令,那么就会产生相应的风险,即使错误率再低,仍然会存在错误的可能,如果再进一步让它行驶上路,后果就更严重。

第三类风险是依赖。如果过于依赖人工智能,人体自身基本能力就会退化。基本能力退化换来的高效率,是可以接受的。比如通过工具使冶金属冶炼的效率、开采矿藏的效率变得非常高,但如果它使得人的思维停滞,就不一定是好事。所以,在中学、小学,一度对于计算器的使用非常严格,因为这会造成学生心算能力变差。当然,到大学以后,心算能力得到很好的培养,反倒需要用计算器来帮助你去算的更快,所以任何时候都不能过分的依赖工具。

如何规避这三类风险?最主要是人工智能企业本身。

企业往往是最早能够知道技术的边界在哪里的主题,有机会提前预判,规避它的风险并限制它的使用频次。其次,大众对于人工智能的认知不必过于谨慎或者过于乐观,我们应该给创新足够的机会,减少片面化的认知。

刘兴亮:移动互联网有个适老化的概念,聚焦老年人使用体验,人工智能在这方面的做得如何?

李笛:人工智能在这方面有先天性的优点,普遍存在的特点就是让产品体验变得更自然。

当你用搜索引擎时,需要去学会使用关键词搜索技巧,人工智能就不需要,它是自然语言交互,文本之外,语音、视觉都更自然。所以,某种意义上讲,正因为先天具有如此优点,老年人在使用人工智能技术的时候,会让原本不适老化的产品,变得更适应老人。

另外,作为工具,人工智能确实也存在着适配的问题,所以现在才涌现出一类新的职业叫Prompt Engineering(提示工程),试图通过给出提示,让人工智能帮助用户更好的完成工作。

我认为,我们应该看到它具有引发暴风骤雨的潜能,但它离暴风骤雨,离真正改变周围还有很远距离,当前,人们无论是使用ChatGPT,还是其他产品,存在明显的幸存者偏差。

免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com。

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2023-03-10
巨头扎堆ChatGPT“求自保”,大模型很快会免费丨亮见22期
巨头扎堆ChatGPT“求自保”,大模型很快会免费丨亮见22期

长按扫码 阅读全文