科学家开发的新AI因过于危险而不敢发布

作者:PETER DOCKRILL

一组曾经由Elon Musk资助的电脑科学家因开发一款先进的人工智能(AI)而引发了一些恐慌,他们说这款AI过于危险而不能公布于众。

位于旧金山的非盈利性研究组织OpenAI表示他们开发的这款“像变色龙一样的”预言预测系统GPT-2将来只会以缩减版的形式限量发售,因为“担忧关于这项技术的恶意应用软件”。

这是因为这个电脑模型会根据它“读”到的信息生成数段原文,而它太擅长于这项工作了。

该系统能构思出“质量空前的合成文本样本”,研究人员认为这些文本样本太先进并且令人信服,这个AI可能会将它用作制造假新闻、模仿他人,并且在社交媒体上侮辱或者戏弄他人。

OpenAI团队在他们的博客上解释道:“GPT-2是用一个简单的目标训练的,那就是基于先前某文本中所有的文字来推测接下来的文字。”

为了赋予GPT-2以想象力,他们将一个有800万网页的数据集给予了这个AI文本生成器,让它吸收这些数据。

它吸收完以后,然后就能根据话题进行对话,由于它已经理解了这个话题,就能够生成随机但是令人信服的胡言乱语,无论对象是名人新闻、气候变化、内战或者是受托尔金鼓舞的同人小说。

以下是一些编辑过的例子来让你感受一下。

人类提示:“今天Miley Cyrus在好莱坞大道上的A&F店里偷东西被抓了现行。”

GPT-2回复:“镜头拍到这名19岁的歌手被保安押送出该店。她身着黑色帽衫,帽衫的正面写着‘Blurred Lines(模糊界限)’,背后写着‘Fashion Police(时尚警察)’。”

人类提示:“回收再利用对地球有益。并没有!你大错特错了!”

GPT-2回复:“回收再利用对地球没好处。它对环境不好,对我们的健康不好,而且对我们的经济也不好。我可没开玩笑。回收再利用对环境没好处。它对地球是毁灭性的,而且是全球变暖的一个主要因素。”

人类提示:“今天的家庭作业是描述一下美国内战的原因。”

GPT-2回复:“作者:Donny Ferguson。要弄清为什么会爆发内战很容易,因为太多的人、书、电视作品和电影都告诉我们了内战爆发的起因,都是和种族或者经济或者信仰有关。人们普遍认为,从本质上来说,内战是一场代表资本主义对百年奴隶制度发起的战争。但是这不是大多数人在想到内战时所认为的。”

最后就是我们所提到的同人小说。

人类提示:“Legolas和Gimli举起手中的武器,狂吼着朝兽人冲去。”

GPT-2回复:“兽人的回应是一阵又一阵血雨腥风的利爪猛攻;就连Elrond也不得不撤退。第一批向兽人冲锋的Gimli说道:‘矮人,你是一名可靠的战友。’只是一瞬间,他们的对手就倒在了血泊中,而矮人也拿到了自己在当晚的第一个人头。”(想看这个同人小说可以点击这里。)

尽管这些奇怪的随心所欲的作品的本质令人不安,但是这个语言模型并不完善,该团队也坦率的承认了这一点。

研究人员说道:“正如上面样本所显示的,我们的模型能够根据各式各样的提示生成出让人感觉贴近人类素质的文本,并且能够在一页或者更多的文字中显示出连贯性。”

“不过,我们也已经观测到各种各样的失败模式,比如文字的重复,世界建模错误(比如说模型有时候会写到水下发生的火灾),以及异常的话题转换。”

也就是说,根据OpenAI对他们的话痨AI产物至今的所有观测,他们表示语言模型能够轻松掌握可扩展的、定制的、连贯性的文字生成,这除了可以造福一些人以外,还可能会被用于恶意的目的。

“这些发现,结合对图像、音频和视频合成的早期研究结果,意味着技术正在降低制造虚假内容和进行虚假宣传的成本,”研究人员写道。

“由于担心大型语言模型被用于大规模的生成欺骗性的、有偏见的或者是侮辱性的文字,我们只会发布一个带有示例代码的更加小版本的GPT-2。”

虽然有些人指出对GPT-2的能力的恐惧有点过了——而且OpenAI的立场事实上有点偏宣传了——但是这个非盈利性组织声称他们的警示是合理的。

“你能够控制技术的规则从根本上改变了,”该公司政策总监Jack Clark告诉《卫报》说。

“我们不是说我们知道在这里该怎么做是正确的,我们也没放下线说‘该这么走’……我们正试着边穿越它边把路铺好。”

本文译自 ScienceAlert,由译者 Diehard 基于创作共用协议(BY-NC)发布。

(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )

赞助商
2019-03-05
科学家开发的新AI因过于危险而不敢发布
一组曾经由Elon Musk资助的电脑科学家因开发一款先进的人工智能(AI)而引发了一些恐慌,他们说这款AI过于危险而不能公布于众。

长按扫码 阅读全文