AI 风险如核试验,麻省理工教授呼吁:量化失控,立即行动

AI风险如核试验,麻省理工教授呼吁:量化失控,立即行动

随着人工智能(AI)技术的飞速发展,我们正面临着一个前所未有的挑战和机遇。近日,麻省理工学院的物理学教授及AI研究者泰格马克发出警告,高度发达的AI有九成可能带来生存威胁。他呼吁,我们需要借鉴康普顿常数的概念,认真计算“人工超级智能”失控的几率,而非仅凭感觉行事。

AI的风险,就如同当年的核武器一样,有可能引发无法预知的后果。在1945年,“三位一体”核试验的推进,正是因为美国在获知原子弹引发大气层燃烧的可能性几乎为零后,才有了这一历史性的决定。然而,泰格马克与三名麻省理工学生合作发表的论文指出,如果我们不能准确计算出AI失控的概率,那么这种看似微小的可能性,也有可能演变成毁灭性的灾难。

康普顿常数的概念,是强AI失控的概率。在1959年的采访中,康普顿提到,他是在确认失控核聚变的几率“不足三百万分之一”后才批准了核试验。这个数字,对于我们评估AI的风险同样具有指导意义。泰格马克强调,打造超级智能的公司必须计算这个几率,而不能仅凭“我们有信心”来应对。我们必须拿出具体数据,来量化风险,以便做出明智的决策。

如果多家公司联合计算康普顿常数并形成共识,那么这将有助于推动全球范围内AI安全机制的建立。这种共识的形成,将使各公司站在同一阵线,共同面对AI的风险,而非相互竞争。这样的合作将使我们在AI的风险评估和安全管理上取得实质性的进步。

泰格马克是麻省理工学院的物理学教授及AI研究者,他的观点和行动,代表了学术界对AI风险的深度关注和严肃态度。他参与创办的非营利组织“未来生命研究所”,在2023年发布公开信,呼吁暂停开发更强大的AI系统。这封信获得了超过3.3万人的签名,其中包括早期支持者埃隆·马斯克和苹果联合创始人史蒂夫·沃兹尼亚克。他们的行动,无疑为AI的风险管理敲响了警钟。

这封信警告称,各大实验室正陷入“失控竞赛”,开发越来越强大的AI系统,而这些系统“人类无法理解、预测或可靠控制”。这正是我们需要关注和应对的问题。我们不能仅仅因为技术进步而忽视了潜在的风险。在追求科技发展的同时,我们必须时刻保持警惕,做好风险管理,以确保我们的行动是在一个安全、可控的环境中进行的。

面对AI的风险,我们需要采取行动。这种行动不仅来自于学术界和业界的呼吁和警告,更来自于我们每一个人的责任和义务。我们需要从自身做起,了解AI的风险,参与AI的安全管理,为我们的未来做出明智的选择。

总的来说,AI的风险如同核试验一样,需要我们以严谨的态度、科学的视角、负责任的行为来应对。我们需要量化风险,明确责任,以便在面对未知的未来时,能够做出明智的决策,确保我们的行动是在一个安全、可控的环境中进行的。让我们立即行动起来,共同应对AI的风险,为我们的未来创造一个更美好的世界。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2025-05-12
AI 风险如核试验,麻省理工教授呼吁:量化失控,立即行动
AI风险如核试验,麻省理工教授呼吁:量化失控,立即行动 随着人工智能(AI)技术的飞速发展,我们正面临着一个前所未有的挑战和机遇。近日...

长按扫码 阅读全文