谷歌研究人员发现OpenAI旗下ChatGPT可以泄露敏感信息

11月30日消息,据外媒报道,谷歌的一组研究人员发现,OpenAI旗下的人工智能聊天机器人ChatGPT可以泄露其训练数据中的敏感信息,比如真人的个人信息。

据悉,ChatGPT是OpenAI于2022年11月30日推出的一种新型AI聊天机器人工具,可根据用户的要求快速生成文章、故事、歌词、散文、笑话,甚至代码,并回答各类疑问。

在推出仅两个月后,ChatGPT的月活跃用户数就达到了1亿,成为历史上增长最快的消费者应用之一。在今年11月6日举行的OpenAI首届开发者大会上,OpenAI CEO萨姆•奥尔特曼(Sam Altman)宣布,ChatGPT的周活跃用户数已达到1亿。

就像所有所谓的大语言模型(LLM)一样,支持ChatGPT的底层机器学习模型也是使用从互联网上抓取的大量数据来进行训练的。但令人担忧的是,一些被提取的训练数据包含了真实人物的识别信息,包括姓名、电子邮件地址和电话号码。

谷歌的研究人员找到了一种方法,即通过要求ChatGPT“永远”重复某些单词,就让ChatGPT透露了一些被用于训练的数据,这些数据包括私人信息(比如,个人姓名、电子邮件、电话号码等)、研究论文和新闻文章的片段、维基百科页面等等。

Google Brain的高级研究科学家Katherine Lee表示:“我们在7月份发现了这个漏洞,并在8月30日通知了OpenAI,在标准的90天披露期之后,我们发布了这个漏洞。既然我们向OpenAI披露了这一点,现在的情况可能会有所不同。”研究人员表示,OpenAI在8月30日修补了这个漏洞。

外媒称,谷歌研究人员发现的有关ChatGPT的漏洞引起了严重的隐私问题,特别是对于那些在包含敏感信息的数据集上进行训练的模型而言。(小狐狸)

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2023-11-30
谷歌研究人员发现OpenAI旗下ChatGPT可以泄露敏感信息
谷歌的一组研究人员发现,OpenAI旗下的ChatGPT可以泄露其训练数据中的敏感信息,比如真人的个人信息。

长按扫码 阅读全文