OpenAI邀请各领域专家加入“红队网络” 以提高其AI模型安全性

9月20日消息,据外媒报道,美国人工智能研究公司OpenAI宣布推出“红队网络”(Red Teaming Network),并邀请各领域专家加入其“红队网络”,以提高其人工智能(AI)模型的安全性。

OpenAI的这一举措旨在深化和扩大其与外部专家的合作,以确保其人工智能模型的可靠性和安全性。签约的专家将通过协助评估和减轻模型风险,在增强OpenAI人工智能系统的稳健性方面发挥关键作用。

尽管OpenAI之前通过漏洞赏金计划和研究人员访问计划与外部专家合作,但新推出的“红队网络”将这些努力正式化。

OpenAI表示,“红队网络”是一个由经验丰富且值得信赖的专家组成的社区,可以帮助公司更广泛地进行风险评估,而不是在主要模型部署之前进行一次性参与和选择过程。

据报道,“红队”在识别人工智能系统中的偏见和评估安全过滤器方面发挥着至关重要的作用,已经成为人工智能模型开发过程中的关键一步,尤其是在生成式技术得到更广泛采用的情况下。

OpenAI向不同领域的专家发出邀请,包括具有语言学、生物识别、金融和医疗保健背景的专家。该公司强调了各种专业知识对人工智能评估的重要性,包括但不限于认知科学、法律、网络安全、经济学和医疗保健等领域。(小狐狸)

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2023-09-20
OpenAI邀请各领域专家加入“红队网络” 以提高其AI模型安全性
OpenAI宣布推出“红队网络”(Red Teaming Network),并邀请各领域专家加入其“红队网络”,以提高其AI模型的安全性。

长按扫码 阅读全文