|有关「杀人机器人」


文/ 刘兴亮 (微信公众号:刘兴亮时间)

1

前一阵,狂人马斯克等116名机器人和AI公司创始人和CEO联手签署了一封给联合国的公开信,呼吁禁止使用机器人武器,也就是传说中的「杀人机器人」。

骤闻此事,我在朋友圈感慨:「问题是,禁止有用吗?」腾讯总编辑李方先生很快留言评论:「有用,拉特兰宗教会议禁止了基督徒之间用弩,冷战冻结核武器,历史可以看的。」

余温未了,马斯克再次发推:「所有国家都会专注于发展计算机科学,各国对人工智能统治权的争夺可能引发第三次世界大战。」马斯克认为,人工智能时代的战争不是由某国领导人发起的,这一切都将自动化。换言之,人工智能会自动规划战略,找出获胜几率最高的战法。作为著名的反对人工智能的人士,马斯克认为人工智能可能是人类生存的最大威胁。

我有些坐不住了!

难道人类作茧自缚的那一天近在咫尺了?倒退十年,不,五年,人们还对人工智能持怀疑态度,没几个人相信一个连着正负电极的金属疙瘩能代替人类进行复杂而深度的思考。

据说人类大脑是宇宙中最复杂的构造,连上帝都为这万物之灵而赞叹。从逻辑上推论,既然机器人是人制造的,那它的可能性就限定在它的制造者那里。任何事物都不可能越过它的造物主的边界。

这就好比一个人无法设想,他居然能制造一个打败自己的人。假如我制造了一个能打败我的人,那就证明我能够打败自己,即A›A。从守恒角度说,A只能等于A。这是个悖论。在AlphaGo出现之前,所有围棋高手都不可能认为自己会输给一个或一群不懂围棋的程序员。然而,他们输了。人工智能给人类上了一课。

2

实际上,只要看看计算器的计算速度——随意找个数字开根号二,人就应该意识到计算机具有超出人脑的独特优势。它们冷静、专注、心无旁骛,严格且毫无纰漏地执行命令,速度接近于光速,这不是一个处在「人世间」,内心装着酸甜苦辣的人能够做到的。

人类是情绪的囚徒,机器人却是逻辑的神祈。

回顾一下历史,不难发现,人类自身的学习和探索能力可以引起一系列的科学变革,从而改变整个世界的文明进程。其中又夹杂着许多不可解释的偶然性。但是,无论历史演进到何种程度,有一件事确定无疑,那就是在制造武器这件事上,我们总是倾尽全力。它带来的后果往往十分可怕。

试想想,如果不是航海技术和工业革命,整个美洲大陆仍然在印加帝国、玛雅文明和阿兹特克文明的缓慢进程中。但是几百个携带着新式武器的冒险者就将整个大陆的文明毁灭了。

过去的科幻电影,常出现令人惊悚的情节,一些铁甲巨型机器人狂奔在人类的战场上,而他们的始作俑者四处躲藏,等待善良的机器人来扭转战局。变形金刚就是最典型的案例。无论影院的视听效果多么具有科技含量,我们在享受故事情节和宏大场景的时候,绝不会为自己的安危担心——因为这都是虚构的!

3

说到这里,我们可以探讨一下人工智能在武器上的诸种可能。

首先,毋庸置疑,杀人机器人一定会出现,只是时间问题。

从广义角度来说,杀人机器人早就出现了,无人机就是典型的杀人机器人。它们虽然受幕后的人类操纵,但自己可以跨越时空执行军事任务,轰炸既定的目标,改变任务的方向,等等不一而足。

再看巡航导弹——尤其是弹道拦截技术,具有极高的智能特性,可以自动调整自己的行动。比之人本身,效率更高。可以断定的是,所有在这个领域具有研究能力的国家,早已全力以赴地将自己的武器系统往更先进的角度在推进,只不过常人不知道而已。

我们再返回到篇首来说。拉特兰宗教会议禁止了基督徒之间用弩,但弩并没有在完成自己使命之前退出战争舞台。它只有被更新式的武器替代之后被淘汰这一条路。

冷战确实没有发展成苏美两个超级大国毁灭地球的核战争,但没有冻结核武器。冷战时期拥核国家,苏美英法中,冷战结束后则增加了印度、巴基斯坦、北朝鲜——最近据说刚刚进行了一次氢弹爆炸实验。拥有核技术的国家有以色列、伊朗和日本。

从人类历史的不可复制和偶然性来看,核武器从来没有未来也不会被冻结。这就预示着人工智能带来的武器革新必然会走上前台,没有人能阻止这一趋势。

其次,杀人机器人到底有什么威力?

这件事几乎不可想象!这就好比一位有血有肉情感丰沛的人,遇到一个冷酷无情不怕子弹没有痛感的超人,并且这个超人能精确地识别你的身份、位置、移动路线。你全方位地被对方「获取」。

这个机器人不仅具有最先进的武器,无论昼夜,严寒或溽热都无所感受,可以下水、飞翔,在陆地上急速前进。并且最可怕的,它可能像一个真正的人欺骗你,让你放松警惕。

总体而言,遇到它你必死无疑。你觉得人工智能做不到这点吗?绝对可以。模拟和集成的技术,可以以叠加的方式,让人类的竞争力不断让位于机器人。

4

据说关于禁止杀人机器人的公约,规定无论冲在前线作战的机器人多么善于计算、锁定、瞄准和杀人,最后扣动扳机的那个命令,必须出自人手。

这又让绝望的我燃起一线生机,或许人类的良知能在最后的时刻给自己留条后路。

极客网企业会员

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2017-09-07
|有关「杀人机器人」
文 刘兴亮 (微信公众号:刘兴亮时间)↡1前一阵,狂人马斯克等116名机器人和AI公司创始人和CEO联手签署了一封给联合国的公开信,呼吁禁止使用机器人武器,也就是传说中的「杀人机器人」。

长按扫码 阅读全文