北京时间8月31日下午消息(蒋均牧)英国国家网络安全中心(NCSC)概述了为企业集成人工智能驱动的大语言模型(LLM)的风险,并警告开发人员仍未完全掌握系统的弱点和漏洞。
在一篇博文中,该安全机构承认,自2022年OpenAI的ChatGPT发布以来,大语言模型一直吸引着全球的兴趣和好奇心,导致所有行业的组织都在研究将该技术用于他们的业务。
然而,作为一个快速发展的领域,NCSC专家发现,在一个不确定的市场中模型是不断更新的。这可能意味着一家现今提供服务的初创企业可能在两年后就不复存在了。
因此,使用大语言模型构建业务的组织需要考虑这样一个事实,即模型可能会在所使用的API背后发生变化,从而导致集成的关键部分在某个时候停止存在。
该机构进一步指出,大语言模型在嵌入组织的业务流程时可能会带来一定的风险,研究人员发现大语言模型“本质上无法区分指令和为帮助完成指令而提供的数据”。
NCSC举例称,如果输入的提示结构正确,银行使用的AI聊天机器人可能会被骗向攻击者汇款或进行未经授权的交易。
“使用大语言模型构建业务的组织需要小心,就像他们使用处于测试阶段的产品或代码库一样。”NCSC补充道。
- 全国IPv6网络流量占比达31%,其中移动网络IPv6流量占比为66%
- 中国移动拟以10.8亿港元收购香港宽频约14.44%股份
- 北京16条措施支持未来产业发展,加强6G、量子信息等领域场景谋划
- 大力出奇迹!北美四大Hyperscalers单季度CAPEX超过6800亿
- 微软CEO纳德拉:量子计算将成为云技术的下一个大型加速器
- 铭普光磁拟1.18亿元收购深圳ABB电动交通60%股权
- 海康威视上半年实现营收418.18亿元 同比增长1.48%
- 【上周小结】中国星网正面硬刚美国星链;江苏有线停止销售部分5G低价套餐;胡波调任山东移动总经理;
- 中国电信2025年核心路由器集采:规模23台
- T-Mobile、AT&T和Verizon的光纤大战,谁将胜出?
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。