人工智能被图灵定义束缚,人类可能高估了AI的未来!

科技云报道 2020-01-09

自深度学习(Deep Learning)技术问世后,许多人都相信这将是带领我们逐步走入“通用 AI”(General AI)梦想的关键,企业领导者也都在演讲中谈及AI时代将会如何来临,然而事情真的如此顺利吗?

近期,计算机视觉与AI专家Filip Piekniewski发表了一篇《AI凛冬将至》的文章,该文章一经发表随即引来热议。

该文主要对深度学习的炒作提出了批评,认为这项技术并不具有革命性,而且正面临发展瓶颈。各大公司对AI的兴趣其实正在收敛,人工智能的又一次凛冬可能要来了。

由“革命”到“进化”

AI未来只是人类脑补的结果

在对AI技术的判断上,人类再次发挥了自身的想象力。

Piekniewski指出,在ImageNet获得不错的解决方案时,许多该领域的知名研究人员都积极的受访并采用相同的论调表示:人们正处在一场巨大的革命前面,从现在开始,所有AI发展只会加速。

然而许多年过去了,期待中的加速并未发生,这些受访的研究人员也不再那么活跃的鼓吹相同的想法,随着情绪降温,他们开始不将深度学习形容为终极演算法,AI相关论文也从“革命”一词逐渐改变为“进化”。

相较于前者,进化听起来要温和且缓慢许多,而这似乎也更为符合 AI 发展的现实情况。

包含OpenAI在内,许多知名研究机构近期都开始变得相对理性,自AlphaGo Zoro问世后,DeepMind也并未再展现出更多令人惊喜的事物,甚至一些论述指出,Google其实不太确定该如何处理DeepMind,因为团队得出的研究成果明显不如原先预期的“那么实际”。

另外,一些大型科技企业的杰出AI研究人员,都开始从实际操作的研究负责人转任至协助游说政府资助的职务上,这种转变迹象显示,像Google、Facebook这些公司对AI研究的兴趣实际上正在慢慢收敛。

与此同时,深度学习的瓶颈正在显现,自动驾驶(Self-Driving)技术在现实世界的实际应用便是最明显的例子,Nvidia、Tesla在发展自动驾驶技术上都遇到了困难,Uber自动驾驶汽车在亚利桑那州则遭遇死亡车祸,这些都从侧面展现了AI技术的缺陷。

除了能明显看出系统设计的问题之外,自动驾驶系统更是花费了很长一段时间,去试图判断眼前的物体究竟是什么,而不是做出最重要、也是逻辑上唯一该做的决策:确保不会碰撞它。

这与人对危机的处理方式并不相同。尽管人们经常在交通事故后说出当下的判断标准,比如“我看到前方有行人所以向左转避开”,但许多心理物理学都曾经提出解释,人们往往是在当下透过神经系统迅速将其判断为障碍并采取行动,等一小段时间过后才会意识到发生了什么。

这种生存机制来源已久,数十亿年来都保护着我们的安全,而在驾驶车辆时,人们自然也会用到这样的原始反应,由于这些反应并非专为驾驶行为而产生,自然也会因为这些反射神经引发一些事故。

然而整体上来说,这种对空间、速度及周遭警觉的原始能力,对于人类安全仍旧有着许多保障。

只是这种能力大多无法用言语来描述,也难以进行测量,这使得研究人员难以对机器进行这方面的系统改良,Nvidia过去所提出的End-to-End方法虽然理论上可行,但从现实一些测试中我们也可知道情况并非这么简单。

神经网络之父Geoffrey Hinton曾承认,反向传播法(Back-Propagation)似乎已走入死胡同,相关研究可能得从头开始展开。

这些发展困境都表明着AI发展的寒冬即将来临,虽然不太可能准确地预测出发生的时间点,但某些明显的迹象可以肯定,它将会出现在某个时刻,然而因为外界对于AI的呼声太过强烈,以至于人们很容易忽略掉这些征兆。

现实充满更多不可预测性

习以为常的盲区应该是AI的核心

虽然图灵为人工智能定下了最基础的定义,但如今我们更多地被图灵的定义给束缚住了。

现实不是预先设定的游戏,如果说有什么不同的话,现实是规则不断变化的游戏的无限集合,任何时候出现了重大发展,游戏规则都要重写,然后所有玩家都得跟着调整否则就会死掉。

相比图灵,莫拉维克悖论更应该被视为AI发展的核心问题。莫拉维克悖论是由人工智能和机器人学者所发现的一个和常识相佐的现象。

和传统假设不同,人类所独有的高阶智慧能力只需要非常少的计算能力,例如推理,但是无意识的技能和直觉却需要极大的运算能力。

这个理念是由汉斯Ÿ莫拉维克、布鲁克斯、马文Ÿ闵斯基等人于80年代所阐释。如莫拉维克所写:“要让电脑如成人般地下棋是相对容易的,但是要让电脑有如一岁小孩般的感知和行动能力却是相当困难甚至是不可能的。”

如果我们希望解决莫拉维克悖论,就要模仿生物体纯粹靠观察世界来学习的能力,而不是需要标签的辅助,这个想法可以通过开发对未来事件做出临时预测的系统来实现,然后通过将其预测与实际情况进行对比来学习。

预测性视觉模型是朝着这个方向迈出的一步,但肯定不是最后一步。

最显而易见的通常是我们最容易忽略的,也是最为重要的。常识的困难在于它对我们实在是太明显了,以至于非常难以用语言表达出来进而给数据打上标签。对于一切“明显”的东西我们存在着巨大盲点。

因此我们无法教计算机常识,这不仅因为这么做可能不切实际,但更根本的是我们甚至都没意识到常识是什么。只有在我们的机器人做了某件极其愚蠢的事情之后我们才意识到这一点。

现实不是游戏。如果说有什么不同的话,现实是规则不断变化的随机事件的无限集合。任何时候出现了重大发展,规则都要重写,然后所有参与者都得跟着调整否则就会死掉。

因此,我们极度需要跳出图灵框架,从人性和意识的角度去理解“智能”,而不是一味沉浸在代码、网络的世界里,这样的人工智能才有未来。

【科技云报道原创】

微信公众账号:科技云报道

(免责声明:此文内容为第三方自媒体作者发布的观察或评论性文章,所有文字和图片版权归作者所有,且仅代表作者个人观点,与极客网无关。文章仅供读者参考,并请自行核实相关内容。投诉邮箱:editor@fromgeek.com)

来源:科技云报道

标签云计算
  • 科技云报道
    邮箱:caoceng@fromgeek.com
    有10年以上科技在记者、云计算专家倾情加盟,世界500强与4A公司营销人所组成的前沿科技媒体,深入报道云计算、人工智能、大数据、AR/VR等垂直领域
    分享本文到