AI安全新规出台:蚂蚁、清华、中国电信联手画红线

AI安全新规出台:蚂蚁、清华、中国电信联手画红线

随着人工智能技术在全球范围内的快速普及,AI智能体的安全问题日益凸显。近日,世界数字科学院(WDTA)在联合国日内瓦总部正式发布了《AI智能体运行安全测试标准》,这是全球首个针对单智能体运行安全的技术标准。该标准由蚂蚁集团、清华大学、中国电信牵头,联合普华永道、新加坡南洋理工大学、美国圣路易斯华盛顿大学等二十余家国内外机构共同编制,标志着AI安全治理迈入新阶段。

填补全球AI安全测试空白

当前,AI智能体在金融、医疗、教育等领域的应用日益广泛,但其潜在的安全风险也引发行业关注。智能体在跨越“语言墙”时可能产生不可控的“行为”偏差,甚至导致数据泄露、决策失误等严重后果。然而,此前全球范围内缺乏统一的AI智能体安全测试标准,使得企业和机构在部署AI技术时面临较高的不确定性。

此次发布的《AI智能体运行安全测试标准》首次构建了全链路风险分析框架,涵盖输入输出、大模型、RAG(检索增强生成)、记忆和工具五个关键环节,并与运行环境进行对应分析。同时,标准还细化了智能体风险类型,并创新性地提出了模型检测、网络通信分析和工具模糊测试等方法,为AI智能体的安全运行提供了可量化的评估依据。

产学研协同推动标准落地

该标准的制定汇聚了全球顶尖学术机构、科技企业和行业专家的智慧。蚂蚁集团作为主要牵头方之一,凭借其在金融科技领域的安全实践,为标准的可操作性提供了重要支持。清华大学和中国电信则分别从学术研究和通信安全的角度贡献了关键技术方案。此外,普华永道、南洋理工大学等国际机构的参与,也确保了标准在全球范围内的适用性。

值得注意的是,这并非WDTA首次发布AI安全相关标准。此前,该机构已推出“生成式人工智能应用安全测试标准”“大语言模型安全测试方法”和“大模型供应链安全要求”三项标准,OpenAI、谷歌、微软、百度等企业均参与其中。此次新标准的发布,进一步完善了AI安全治理体系,为行业提供了更全面的技术参考。

金融、医疗领域率先应用

目前,该标准的部分测评与认证已在金融、医疗等高风险领域落地。在金融行业,智能体的安全漏洞可能导致交易异常或客户隐私泄露,而新标准通过工具模糊测试等方法,能够有效识别潜在风险。在医疗领域,AI辅助诊断系统的可靠性直接关乎患者安全,标准的实施有助于提升智能体的行为可控性。

业界普遍认为,这一标准的推出不仅为AI智能体的安全运行划定了“红线”,也为全球AI生态的可持续发展提供了重要支撑。未来,随着更多行业采用该标准,AI技术的可信度有望进一步提升,从而加速其在关键领域的规模化应用。

结语

AI技术的快速发展离不开安全基石的稳固。此次蚂蚁集团、清华大学和中国电信等机构联手制定的《AI智能体运行安全测试标准》,不仅填补了全球AI安全测试的空白,也为行业提供了可落地的技术方案。在AI与实体经济深度融合的背景下,此类标准的持续完善将成为技术健康发展的重要保障。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2025-07-15
AI安全新规出台:蚂蚁、清华、中国电信联手画红线
AI安全新规出台:蚂蚁、清华、中国电信联手画红线 随着人工智能技术在全球范围内的快速普及,AI智能体的安全问题日益凸显。近日,世界...

长按扫码 阅读全文