马斯克的人工智能未来保卫战

马斯克的人工智能未来保卫战

2月7日,重型猎鹰火箭(Falcon Heavy)运载火箭发射成功,新的人类最强现役运载火箭就此诞生。不论是这个历史性事件,还是这个人物,都已经在这两天刷屏了。下面,让我们来了解这个一言不发就要改变世界的“变态”在AI领域做出的成绩吧!

埃隆·马斯克

特斯拉和SpaceX的CEO,他计划在火星上殖民,并认为人工智能可能会把人类变成自己的宠物。他热衷于在推特上发布一些争议性言论。除了这些炒作和他巨大的网络价值外,马斯克的公司实际上是在参与……几乎每一个行业。

埃隆·马斯克,与我们所习惯的企业家相比,他的行动规模可以说是宇宙级那么大的。他已经成为未来的代名词。

不管他从事于电动汽车(Tesla),还是向太空发射火箭(SpaceX),他传奇的名声吸引了很多人崇拜。马斯克和他公司的的故事足以让100个记者笔不停歇的写上几天。

他的主要项目会影响到几乎所有的重大产业和全球性问题,我们可以想象一下,这些领域都即将发生颠覆性的重组。

马斯克的人工智能未来保卫战

▲马斯克几乎参与到了所有行业

马斯克的人工智能未来保卫战

▲马斯克在推特上戏称,也许他会把火箭技术应用在汽车上

我们决定对马斯克的生态系统进行一种不同的研究。

我们不是要评估埃隆马斯克和他的公司在承诺和宣传上的表现,而是想看看他的公司是怎样改变或者没有改变这些行业——用数字,确凿的证据,以及颠覆性的具体表现。

这篇文章主要介绍在人工智能领域,埃隆马斯克如何用他公司的资金、发明和创造力改变这个行业。

马斯克的人工智能未来保卫战

▲马斯克的公司

人工智能是一种威胁?

在2017年8月,在Valve的Dota 2锦标赛中,一个新的顶级玩家出现在了在线游戏的世界。在一周的时间里,这名球员击败了包括世界冠军在内的其他顶级球员,这是最艰难的在线比赛之一。这名人工智能玩家其实只打了6个月游戏。

马斯克的人工智能未来保卫战

▲马斯克:OpenAI首次在电竞中击败了世界上最优秀的玩家。这比象棋和围棋等传统棋盘游戏要复杂得多

这条推文说明了了马斯克和他的“非盈利的人工智能研究公司”OpenAI,就像谷歌与AlphaGo和Facebook的DarkForest一样。但对于马斯克和OpenAI来说,这并不是在玩游戏。这关于生命和死亡,以及人类的未来。就他看来,如果人工智能研究继续沿着目前的道路走下去,人类就没有未来。

人工智能现在是科技的核心组成部分,它不仅存在于一些很明显的位置,比如Siri的自然语言处理、谷歌的RankBrain,它存在于几乎所有的科技领域。

马斯克的人工智能未来保卫战

▲cb insights -- AI 100

人工智能研究正以显著的速度向前发展,马斯克认为这是对人类存在的一种威胁。谷歌、Facebook、亚马逊、苹果以及我们统计的AI 100的公司都在利用人工智能带来好处:更高的效率、更高的生产力、更少的人类工作,以及最理想的人类生活 -- 缩减我们做烦琐工作的时间,留下来更多时间去做更有趣、更有创意的事情。

但对这些好处的背后也隐藏着巨大的危机:如果存在一种超级智能的人工智能,它比人类聪明得多,那么是不是就会认为围绕在它周围的人类是无用的呢?

OpenAI的目的是为了加强人工智能研究。在人工智能上工作的公司自然是保密的。这是一项商业命令,所以,就算你可以阅读来自DeepMind或Google Brain团队,甚至是苹果公司的机器学习研究报告,这些公司的具体人工智能应用还是对外界保密的。

OpenAI不仅想要进行研究,而且还想“占领元级,比如平台和基础设施,这样就可以让每个人都能更快地进行研究”。为了实现这一目标,该公司有两个核心组成部分:

  • 研究:它吸引了很多业内最好的研究人员,并承诺他们有机会参与解决人工智能领域的一些重大问题。该组织定期发布自己的人工智能和机器学习研究报告。该团队还在自己的网站上发布更多的想法。

  • 系统:该团队正在构建一个开源平台,来帮助从事人工智能的研究人员更好的了解他们所在研究的机器。例如,该团队建立了一个AI Gym,“一个用于研发和比较强化学习算法的工具包”,其中包括了各种环境,目前有模拟的机器人学任务、桌面游戏、多位数加法之类的计算任务等等。预期工具包中包含的环境将随时间不断增多,用户也会将他们自己创建的环境加入到其中。这些环境都有一个通用交互界面,使用户能够编写可以应用于许多不同环境的通用算法。

OpenAI解决人工智能安全问题

OpenAI的整体概念是将高质量的,谷歌、苹果、 Facebook、 Amazon水平的AI研究开源化,没有商业限制。正如该公司在其博客文章中所言,“因为我们的研究没有财务责任,所以我们能更好地专注于AI对人类的积极影响。”

超级智能的AI真的是个问题吗?这听起来太科幻了,甚至对马斯克来说也是如此。火星上的殖民地或自动驾驶是相对来说很容易的,而想象一个由人工智能引发的灾难并不是一件容易的事。这就是为什么这一领域的其他人对马斯克的担忧持批评态度。机器学习的领导者Andrew Ng说,“担心超过人的人工智能就像担心火星上的人口过多一样。”

但这是马斯克的观点。没有人在考虑这个问题。相反,他们都过于关注人工智能的商业化。他们看不到潜在的问题。

这些问题有两方面:

  • 人工智能会无意识地做有害的事情

  • 人工智能会故意做有害的事情

即使是目前的人工智能,第一个问题也值得担忧。比如说我们造了一个人工智能清洁机器人。所有这些机器人想要做的就是确保这个世界尽可能的干净。如果机器人只是想确保一切都是干净的,那么它有一些选择。第一种选择是清理所有的混乱。这是我们想要的结果,也是人工智能开发人员所期待的结果。但这不是唯一的选择。另一种可能性是,它将试图从一开始就阻止可能出现混乱局面的可能性。人类导致了混乱。“如果没有人,就没有混乱,所以让我们清理所有人”,这增加了人工智能的效用,是解决人工智能问题的一个完全合理的解决方案。

这个人工智能安全研究是OpenAI的主要关注点。2016年,该公司共同撰写了一篇研究论文,题为“人工智能安全的具体问题”。这篇论文指出了人工智能研究人员在推进任何类型人工智能的时候需要认真考虑的五个领域:

避免负面的副作用。我们如何确保人工智能不会完全遵循它的编程?这样它就有主见做一些事情来完成它的任务。

避免赏金黑客。如果我们建立一种奖赏体制来奖励做对人物的人工智能,那么人工智能可能仅仅是试图扩大这种奖赏,而没有实际行动,我们如何避免这一问题?

可伸缩的失误范围。我们怎样才能确保人工智能即使在训练样本很少的情况也能安全的训练呢?比如清洁机器人会知道它要清理咖啡杯,但它如何学会不去“清理”放在桌上一夜的手机呢?

安全探索。人工智能是否能探索可能的结果和训练,而不会产生严重的后果 -- 比如,学习如何擦擦地板而不试图拖出电源插座?

对分布变化的坚固性。随着数据或环境的变化,人工智能是否能继续保持最佳状态?如果清洁工人在办公室里学会了打扫卫生,那么清洁工人是否可以清理工厂的地板?

已经有一些攻击用于测试AI的极限。坚固性是弱人工智能的一个特别值得关注的问题。当你不在他们的舒适区进行测试时,他们的工作表现如何?答案是不太好。图像识别机器学习算法经常把对立的例子错误分类 -- 图像中有特定的噪点被注入其中。

马斯克的人工智能未来保卫战

这是一个良性的例子。然而,不难想象这种行为可能被恶意利用。想象一下,在你的自动驾驶汽车上的AI的恶意对立式攻击,如果在程序中将“停止标志”变成“绿灯”那将会出现什么后果。它可能比毁坏刹车片更致命,这是一种虚拟的攻击,因此是高度可伸缩的。

人工智能安全的核心问题可以归结为一个简单的问题:我们如何确保人工智能和我们想要的东西是一样的?OpenAI正试图在这一领域研究。尽管它专注于这一领域,但它并不是单独工作。GoogleBrain、斯坦福大学和加州大学伯克利分校的研究人员也在研究这一问题。

OpenAI解决超级智能问题

但是,由于超级智能并不是具体的问题,所以这一领域只有OpenAI。

这种担忧背后的主要原因是人工智能的学习速度。赢得Dota2的机器人就是一个很好的例子。从4月份开始,它在每次迭代中都稳步增加了它的能力。

马斯克的人工智能未来保卫战

这张图测量了OpenAI的最好的机器人的TrueSkill等级 -- 类似于国际象棋中的“ELO”等级-- 这是该机器人与其他被训练的OpenAI机器人的获胜比率的总结。

人类需要学几年的东西,人工智能的几个月就能学会。DeepMind的AlphaZero最近在国际象棋领域取得的成功,进一步推进了这一过程。它学会了如何在数小时内就打败最好的象棋计算机。

从随机下棋开始,AlphaZero除了游戏规则之外没有任何这个领域的知识,它在24小时内就完成了在国际象棋和日本棋局上的超人类水平的游戏,并且每一次都击败了世界冠军的程序。

AI通过强化学习来学习。AI玩了成千上万的游戏,从每一个游戏中不断地学习。AlphaZero同时在5000个张量处理单元上运行,这是一种专门构建的处理单元,可以使用Google的TensorFlow框架来运行机器学习算法。每一个单元的学习被结合起来,创造出“一个超人类的游戏水平”。

这些仍然是弱人工智能。但是,通用人工智能(AGI),可以利用这些技术来辅助自己。人工智能已经学会了自我发展。

“ 几个月前,我们引入了AutoML项目,这是一种自动设计机器学习模型的方法…我们发现AutoML可以设计出与人类专家设计的神经网络相媲美的小型神经网络。”—— 谷歌研究博客

一个AGI可以测试数百万个更新、更好的AGIs,从每个参数中挑选最好的参数,并将它们组合起来,使它立即变得更智能。然后,更智能的AGI就会重新开始这个过程。这是加速回报的法则。未来正在加速。学得越快的AI就发展得越快。

马斯克的观点是,我们是棋盘上的皇帝。直到事情结束,我们才会意识到我们的错误。前一分钟我们还是这个星球上的最高生物,下一分钟我们就可能被超越了。在几秒钟内,人工智能就大大超越了我们的能力。人类没有回头路可走。我们变成了至高无上的人工智能脚下的蚂蚁。

对于OpenAI,该计划的目标是让公众充分意识到人工智能所能代表的威胁,从而使它能够主动地受到监管和控制。然而,OpenAI并不是马斯克在这场大火中唯一的武器。他还投资了一种对冲基金,让人类将自己从人工智能中拯救出来,像是一种对于人类未来的保险。

它被称为Neuralink,它的想法是在我们被取代之前,对人类进行数字化的增强。

信息来源:cb insights


关注【AI商业报道】,回复【2017白皮书】,可获得干货《2017人工智能产业发展白皮书》!

马斯克的人工智能未来保卫战

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2018-02-08
马斯克的人工智能未来保卫战
2月7日,重型猎鹰火箭运载火箭发射成功,新的人类最强现役运载火箭就此诞生。

长按扫码 阅读全文