AI热点 1 months ago 94 Views 11 Comments

硅谷又掀起口水战:OpenAI等公司齐称xAI不负责任

AI中国
AI中国

Published 9872 Articles

马斯克名下公司xAI开发的人工智能模型Grok因多次发表敏感、争议性言论而引发关注,这让人工智能的安全性问题再次被大加讨论。

OpenAI、Anthropic和其他美国人工智能研究组织的研究人员纷纷发表了对xAI的谴责,认为该公司在人工智能模型安全性问题上行事鲁莽、完全不负责任。

周二,在OpenAI从事安全研究的哈佛大学计算机科学教授Boaz Barak在X上公开批评称,他本来不想发表关于Grok安全性方面的文章,因为他的公司与其存在竞争,但此事无关竞争。他很欣赏xAI的科学家和工程师,但他们处理安全问题的方式完全不负责任。

Barak对xAI不发布系统卡的决定尤其不满。美国AI行业一般会在模型公布后发布系统卡,其中详细说明了模型的训练方法和安全评估,以与研究界分享信息。但Barak表示,现在学界和业界对Grok 4进行了哪些安全训练一无所知。

立场倒转

xAI的Grok 4模型于上周三推出,用户需支付每月30美元的订阅费用才能使用。然而,这一被宣传为“世界上最聪明”的聊天机器人在短短一周内数次掀起美国的舆论风浪,发表了诸如支持希特勒、好莱坞被犹太人掌控等言论。

Anthropic的人工智能安全研究员Samuel Marks表示,xAI在模型安全问题上十分鲁莽。虽然Anthropic、OpenAI和谷歌的发布也存在问题,但他们至少做了一些事情,在部署模型前评估安全性并记录了调查结果。xAI却什么都没有。

OpenAI和谷歌在及时分享新模型的系统卡方面声誉不佳。比如OpenAI不发布GPT-4.1的系统卡,理由是它并非前沿模型。谷歌则在发布Gemini 2.5 Pro数月后才发布安全报告。

然而,这些公司通常都会在前沿模型全面投入生产之前发布安全报告,而xAI的做法与行业惯例截然不同。一名研究人员声称,根据其测试,Grok 4没有任何有意义的安全护栏。

xAI安全顾问兼人工智能安全中心主任Dan Hendrycks回应,该公司对Grok 4进行了危险能力评估。但评估结果并未被公开分享。

令人诟病的是,马斯克此前一直以人工智能安全倡导者的形象出现,多次警告称,先进的人工智能系统可能会给人类带来灾难性的后果。他还多次抨击OpenAI在模型安全性上的瑕疵,但没想到他自己公司的Grok 4模型也陷入了安全性争议。

本文来自微信公众号“财联社AI daily”,作者:马兰,36氪经授权发布。

AI中国

AI中国

9872 Articles 1699538 Views 950300 Fans

Comment (11)

User avatar

AI安全问题,xAI的“鲁莽”真的需要好好反思!

User avatar

这下可热闹了,AI的自由要受到限制吗?

User avatar

这AI的“鲁莽”值得我们警惕,别轻举妄动

User avatar

我支持它大胆尝试,但得有安全措施

User avatar

这算什么?AI这么调皮,真是吓人

User avatar

感觉它在玩火,得小心点

User avatar

这xAI,有点太不顾后果啊

User avatar

别慌,也许它只是在学习,需要引导

User avatar

这下可就出问题了,小心它把世界搞崩

User avatar

它简直像个没长脑子的孩子,真让人担心

睡觉动画