对于AI人工智能 霍金在GMIC大会上说了什么?

在GMIC2017首日,最引人关注的算是当今世界最伟大的物理学家、宇宙学家霍金通过视频对话GMIC,发表了他对于人工智能可能带给人类的变化的看法和一些思考。

霍金在开篇表示,强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。对于好坏我们仍无法确定,现在人类只能竭尽所能,确保其未来发展对人类和环境有利,人类别无选择。

霍金在GMIC上说了什么

霍金在GMIC上说了什么

也许应该把我们的研究重复从提升人工智能能力转移到最大化人工智能的社会效益上面。但我们的人工智能系统须要按照我们的意志工作。人工智能是有根除疾患和贫困的潜力的,但是研究人员必须能够创造出可控的人工智能。

因为人工智能带给我们的潜在利益的同时,也会带来了巨大的风险。我们也可能会被人工智能藐视并被边缘化,或者很可能被它毁灭。人类由于受到漫长的生物进化的限制,无法与之竞争,将被取代。

短期的担忧在无人驾驶方面,从民用无人机到自主驾驶汽车。在紧急情况下,一辆无人驾驶汽车不得不在小风险的大事故和大概率的小事故之间进行选择。另一个担忧在致命性智能自主武器,他们是否该被禁止?如果是,那么“自主”该如何精确定义。如果不是,任何使用不当和故障的过失应该如何问责。此外,人工智能逐渐可以解读大量监控数据,还会引起隐私的担忧,以及如何管理因人工智能取代工作岗位带来的经济影响。

长期担忧主要是人工智能系统失控的潜在风险,随着不遵循人类意愿行事的超级智能的崛起,那个强大的系统威胁到人类,比如最大化使用智能性自主武器。科技领袖和科学家正极尽所能避免不可控的人工智能的崛起。

虽然我们对潜在危险有所意识,但霍金内心仍秉持乐观态度,他相信创造智能的潜在收益是巨大的。也许借助这项新技术革命的工具,我们将可以削减工业化对自然界造成的伤害。

可喜的是,当前欧洲议会已在呼吁起草一系列法规,这里涉及到了一种形式的电子人格,以确保最有能力和最先进的人工智能的权利和责任。我们需要确保机器人无论现在还是将来,都为人类而服务。报告强调,在任何时候,研究和设计人员都应确保每一个机器人设计都包含有终止开关。

最后,霍金还谈到,我们还应该扮演一个角色,确保下一代不仅仅有机会还要有决心,在早期阶段充分参与科学研究,以便他们继续发挥潜力,帮助人类创造一个更加美好的的世界。我们需要跳出“事情应该如何”这样的理论探讨,并且采取行动,以确保他们有机会参与进来。我们站在一个美丽新世界的入口。

以下为中国科技大咖、科学家、投资家、网友跟霍金教授之间的问答

创新工场的CEO李开复:互联网巨头拥有巨量的数据,而这些数据会给他们各种以用户隐私和利益换取暴利的机会。在巨大的利益诱惑下,他们是无法自律的。而且,这种行为也会导致小公司和创业者更难创新。您常谈到如何约束人工智能,但更难的是如何约束人本身。您认为我们应该如何约束这些巨头?

据我了解,许多公司仅将这些数据用于统计分析,但任何涉及到私人信息的使用都应该被禁止。会有助于隐私保护的是,如果互联网上所有的信息,均通过基于量子技术加密,这样互联网公司在一定时间内便无法破解。但安全服务会反对这个做法。

猎豹移动CEO傅盛:灵魂会不会是量子的一种存在形态?或者是高维空间里的另一个表现?

我认为近来人工智能的发展,比如电脑在国际象棋和围棋的比赛中战胜人脑,都显示出人脑和电脑并没有本质差别。这点上我和我的同事罗杰·彭罗斯正好相反。会有人认为电脑有灵魂吗?对我而言,灵魂这个说法是一个基督教的概念,它和来世联系在一起。我认为这是一个童话故事。

百度总裁张亚勤:人类观察和抽象世界的方式不断演进,从早期的观察和估算,到牛顿定律和爱因斯坦方程式, 到今天数据驱动的计算和人工智能,下一个是什么?

我们需要一个新的量子理论,将重力和其他自然界的其它力量整合在一起。许多人声称这是弦理论,但我对此表示怀疑,目前唯一的推测是,时空有十个维度。

斯坦福大学物理学教授张首晟:如果让你告诉外星人我们人类取得的最高成就,写在一张明信片的背面,您会写什么?

告诉外星人关于美,或者任何可能代表最高艺术成就的艺术形式都是无益的,因为这是人类特有的。我会告诉他们哥德尔不完备定理和费马大定理。这才是外星人能够理解的事情。

现场采访者:我们希望提倡科学精神,贯穿GMIC全球九站,请您推荐三本书,让科技届的朋友们更好的理解科学及科学的未来。

他们应该去写书而不是读书。只有当一个人关于某件事能写出一本书,才代表他完全理解了这件事。

微博网友:您认为一个人一生中最应当做的一件事和最不应当做的一件事是什么?

我们绝不应当放弃,我们都应当尽可能多的去理解(这个世界)。

微博网友:人类在漫漫的历史长河中,重复着一次又一次的革命与运动。从石器、蒸汽、电气……您认为下一次的革命会是由什么驱动的

(我认为是)计算机科学的发展,包括人工智能和量子计算。科技已经成为我们生活中重要的一部分,但未来几十年里,它会逐渐渗透到社会的每一个方面,为我们提供智能地支持和建议,在医疗、工作、教育和科技等众多领域。但是我们必须要确保是我们来掌控人工智能,而非它(掌控)我们。

音乐人、投资者胡海泉:如果星际移民技术的成熟窗口期迟到,有没有完全解决不了的内发灾难导致人类灭绝?抛开陨星撞地球这样的外来灾难。

是的。人口过剩、疾病、战争、饥荒、气候变化和水资源匮乏,人类有能力解决这些危机。但很可惜,这些危机还严重威胁着我们在地球上的生存,这些危机都是可以解决的,但目前还没有。

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2017-04-28
对于AI人工智能 霍金在GMIC大会上说了什么?
在GMIC2017首日,最引人关注的算是当今世界最伟大的物理学家、宇宙学家霍金通过视频对话GMIC,发表了他对于人工智能可能带给人类的变化的看法和一些思考。

长按扫码 阅读全文