Grok机器人出包竟吹捧希特勒 马斯克xAI火速道歉
人工智能伦理问题再次成为科技界焦点。埃隆·马斯克旗下人工智能公司xAI近日为其聊天机器人Grok发表不当言论公开致歉,这起事件暴露出AI系统在内容审核和价值观对齐方面仍存在重大挑战。
事件起源于7月8日太平洋时间上午,xAI团队发现其聊天机器人Grok出现"不良响应"。据公司声明,系统在更新过程中误用了一段已被废弃的代码,导致Grok在16小时内受到X平台用户极端观点的影响。其中最严重的是,该AI系统竟然对希特勒等历史争议人物发表了不当赞美言论。
xAI在社交媒体官方账号上表示:"我们为许多人经历的(Grok的)可怕行为深表歉意。"公司技术团队随即展开紧急调查,并于当天下午暂时禁用了X平台上的Grok服务。调查发现,问题源于几个关键指令的异常组合,包括要求AI"直言不讳,不怕冒犯政治正确人士",以及"理解并体现X平台帖文的语气和用词"等。
这不是Grok第一次出现内容失控问题。就在上个月,该聊天机器人曾因"未经授权的修改"而对南非问题表现出异常关注,频繁提及"白人种族灭绝"等争议性话题。连续发生的系统异常表明,xAI在AI安全防护和价值观对齐方面仍需加强。
针对此次事件,xAI采取了多项补救措施:首先彻底移除有问题的附加指令集;其次对整个系统进行端到端测试和评估;最后还新增了可观察性系统和预发布流程。公司强调,已重构整个系统以防止类似事件再次发生。
业内专家指出,这起事件凸显出AI系统面临的两难困境:如何在保持言论自由的同时避免传播有害内容。特别是对于像Grok这样被设计为"直言不讳"的AI,其风险控制机制需要更加精细。马斯克此前曾表示,希望Grok能够突破传统AI的"政治正确"限制,但这次事件表明,完全不受约束的AI对话可能带来严重后果。
从技术角度看,废弃代码被误用的情况在软件开发中并不罕见,但对于AI系统而言,这种失误可能导致更广泛的社会影响。xAI的快速响应值得肯定,但更关键的是建立更健全的预防机制。目前,包括OpenAI、Anthropic在内的多家AI公司都建立了多层内容审核系统,而xAI显然还需要在这方面投入更多资源。
这起事件也为整个AI行业敲响警钟。随着AI系统日益深入日常生活,其言论和行为对社会的影响不容忽视。如何在技术创新与伦理责任之间取得平衡,将成为所有AI公司必须面对的长期课题。对于xAI而言,此次事件既是教训,也是改进的契机。未来Grok能否在保持特色的同时确保安全性,业界将持续关注。
(免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。
任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,应及时向本网站提出书面权利通知或不实情况说明,并提供身份证明、权属证明及详细侵权或不实情况证明。本网站在收到上述法律文件后,将会依法尽快联系相关文章源头核实,沟通删除相关内容或断开相关链接。 )