AI智能体安全发展关键:范丛明提出三大核心举措

AI智能体安全发展关键:范丛明提出三大核心举措

随着大模型技术的迅猛发展,AI智能体数量呈现爆发式增长,其信息安全问题日益成为行业关注焦点。在近日举行的ISC.AI 2025互联网安全大会上,全国工商联人工智能委员会常务秘书长范丛明就AI智能体安全问题发表了重要见解,提出三大核心举措,为行业发展指明方向。

当前发展态势与挑战

范丛明指出,AI智能体发展速度惊人,国内已有70多家头部企业积极推进MCP(模型即服务)战略。这一发展态势与2000年互联网浪潮相似,但面临的安全挑战更为复杂。政务智能体、行业智能体等不同类型智能体的涌现,使得安全需求呈现多元化特征。智能体安全问题的复杂程度不亚于当年的互联网技术,亟需建立系统化的安全防护体系。

核心举措一:强化法律合规

范丛明强调,守法是智能体安全发展的首要前提。他重点提到两部关键法规:《生成式人工智能服务管理暂行办法》已于2023年8月15日施行,要求大模型必须完成备案;《人工智能生成合成内容标识办法》将于2025年9月1日实施,明确规定AI生成内容必须进行标识。

当前面临的主要挑战是普法工作量大面广。以深圳为例,95%的民营企业并非故意违法,而是缺乏对相关法律的深入研究。范丛明建议,企业应当建立专门的法律合规团队,定期开展法规培训,将合规要求融入产品开发全流程。

核心举措二:对标国际标准

在国际标准对接方面,范丛明特别提到欧盟42001人工智能管理体系,强调国内标准与国际接轨的重要性。他指出,国家电子标准院已于去年底制定国家人工智能体系标准,目前正在推进标准强制化进程。

实现国际标准本土化需要重点关注三个方面:技术指标的等效转换、管理要求的适应性调整、认证体系的互认机制。建议企业建立双重标准对照机制,既满足国内监管要求,又符合国际通行准则。

核心举措三:发挥龙头企业引领作用

范丛明认为,智能体安全发展需要360等国家队企业发挥关键作用。头部企业应当承担三方面责任:参与标准制定、提供技术解决方案、建立行业最佳实践。

具体实施路径包括:组建产业联盟,共享安全技术;建立智能体安全实验室,开展攻防演练;开发通用安全框架,降低中小企业合规成本。特别要重视政务、金融等关键领域智能体的安全防护能力建设。

展望与建议

面向未来,AI智能体安全发展需要构建政府主导、企业参与、社会监督的协同治理体系。建议从四个维度推进工作:完善法律法规体系、健全标准规范、加强技术研发投入、培养复合型人才。

企业应当建立智能体安全生命周期管理机制,覆盖设计、开发、部署、运营全流程。同时要积极参与行业交流,分享安全实践,共同提升防护水平。只有多方协同发力,才能确保AI智能体在快速发展中守住安全底线。

结语

范丛明提出的三大核心举措,为AI智能体安全发展提供了系统性解决方案。在技术快速迭代的背景下,唯有坚持法律底线、对标国际标准、发挥龙头引领,才能实现智能体产业的健康可持续发展。这既是对企业的发展要求,也是对行业的社会责任。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。

2025-08-07
AI智能体安全发展关键:范丛明提出三大核心举措
AI智能体安全发展关键:范丛明提出三大核心举措 随着大模型技术的迅猛发展,AI智能体数量呈现爆发式增长,其信息安全问题日益成为行业关注...

长按扫码 阅读全文