兰德警告:2040年人工智能或发动核战争毁灭人类

原标题:兰德公司:2040年人工智能或发动核战争毁灭人类

人工智能可能在2040年颠覆核和平的基础

据《每日邮报》北京时间4月25日报道,一家主要的安全智库兰德公司(以下简称“兰德”)警告称,最早在2040年,人工智能就可能发动造成人类毁灭的核战争。

兰德称,催生“世界末日人工智能”机器的技术发展,可能会促使一些国家利用它们的核武库冒险。

在冷战期间,被称作“相互确保摧毁”的状态,维持了两个超级大国之间不稳定的平衡。

然而,人工智能的进步可能意味着“相互确保摧毁”状态遭到破坏,从而削弱对方反击的潜力,而且,这种趋势可能无法阻止。

冷战期间相互确保摧毁维持了超级大国之间脆弱的平衡

兰德称,未来数十年,人工智能的进步,可能破坏“相互确保摧毁”对拥核国家的约束力。

就像在20世纪40年代和50年代的冷战时期,未来核冲突的每一方都有理由担心对手获得技术优势。

改进的人工智能技术,加上更多的传感器和开源数据,可以使各国相信他们的核能力是脆弱的。

报告称,这可能会导致它们采取更激进的措施,跟上美国这样的竞争对手。

兰德研究人员、报告共同作者安德鲁·洛恩(Andrew Lohn)表示,“有些专家担心,人们越来越依赖人工智能会导致新型的灾难性错误。”

各国都面临在技术真正成熟前使用人工智能的压力。因此未来数十年要保持战略稳定性极端困难,所有核大国必须参与新体系的形成,以降低核风险。

报告称,另一种令人担忧的情况是,指挥官可能根据人工智能助手提供的建议作出发动攻击的命令,而人工智能助手接收的信息本身可能就是错误的。

除了提供糟糕的建议外,这样的系统也可能容易受到黑客攻击,从而引发了恶意第三方发动第三次世界大战的可能性。

尽管如此,有人认为人工智能可以通过提高情报收集和分析的准确性,来提高未来的战略稳定性。

专家表示,对用于监测和解释对手行为的分析过程进行改进,可以减少可能导致对抗意外升级的错误计算或曲解。

鉴于未来的改进,最终人工智能系统有可能发展出比人类更不容易出错的能力,因此有助于保持长期的战略稳定性。

根据与在核问题、政府部门、人工智能研究、人工智能政策和国家安全方面的专家举行的一系列研讨会期间收集的信息,兰德研究人员,得出了上述结论。

这项研究是展望2040年重大安全挑战的更广泛研究活动的一部分,考虑了政治、技术、社会和人口趋势的影响。

“人工智能会增加核战争的风险?”研究的全部资料发布在兰德网站上。(编译/霜叶)

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2018-04-25
兰德警告:2040年人工智能或发动核战争毁灭人类
一家主要的安全智库兰德公司(以下简称“兰德”)警告称,最早在2040年,人工智能就可能发动造成人类毁灭的核战争。

长按扫码 阅读全文