AI热点 2月前 140 浏览次数 11 评论

大揭秘,OpenAI被扒了个底朝天

36氪的朋友们

发布了 9872 文章

(图片由豆包AI生成 提示词档案揭秘)

一个超过50页,逾万字的交互式报告,揭露了OpenAI从非营利研究实验室演变为营利巨头的全过程。

近期,由两大非营利科技监督组织——Midas Project与Tech Oversight Project——联合发布了一份名为《OpenAI档案》的深度调查报告。

该报告由Midas Project执行董事Tyler Johnston主导,历时近一年的公开信息收集与一个月的集中撰写。报告被称为“迄今为止,针对OpenAI在公司治理实践、领导层诚信及组织文化方面,已记录在案的担忧的最全面汇编”。

通过梳理公司披露文件、法律诉讼、公开信及媒体报道等大量公开资料,这份超过一万字的交互式报告发现,OpenAI正在系统性地、有预谋完成了从“为人类谋福祉”到“为投资者谋利润”的根本性转变,CEO奥特曼存在长期、有据可查的言行不一、操纵信息和规避监督的行为模式,且个人投资与公司业务的深度捆绑。OpenAI在安全和透明度方面言行不一,其公开承诺与内部实践严重脱节。

报告分为四大主题,一是重组、二是首席执行官诚信、三是透明度和安全性、四是利益冲突。

其中,OpenAI高管和董事会成员从公司成功中直接或间接获益的程度令人关注。其中包括对CEO奥特曼投资组合的分析,涉及Retro Biosciences、Helion Energy、Reddit、Stripe等多家与OpenAI存在合作关系的公司。

重组:一场精心策划的“使命背叛”

报告指出,OpenAI正在系统性地、有预谋地拆除其创立时的核心道德与结构支柱,其行为与公开声明存在严重矛盾,本质上是一场从“为人类谋福祉”到“为投资者谋利润”的根本性转变。

首先,报告揭示了OpenAI两大核心支柱——“利润上限”与“非营利监督”——的同步瓦解。

最初的“利润上限”(Capped-Profit)模式是其核心哲学,意在确保AGI创造的巨大财富能与全人类共享,防止财富过度集中。

然而,这一承诺被逐步掏空:从表面上看似加强使命的利润倍数下调,到秘密引入“每年自动增长20%”这一使其在功能上形同虚设的条款,再到最终计划完全移除上限,标志着财富共享理念的彻底终结。

与此同时,其监督机制也被巧妙地削弱。OpenAI从一个由非营利组织完全控制的实体,转型为特拉华州的公益公司。法律义务从"使命优先"变成"平衡股东利益和公共利益"。

报告指出,历史上"没有股东成功起诉以保护公共利益的先例",这使得公益承诺在法律实践中几乎无法执行。这表明,PBC的“公益”承诺在现实中可能沦为空壳,为追求利润最大化提供了巨大的法律掩护。

图片来源:openaifiles.org/网站

报告进一步驳斥了OpenAI以“行业竞争激烈”为由放弃承诺的官方说辞。通过引用公司早期的《章程》和内部邮件,报告证明OpenAI在创立之初就已充分预料并准备应对激烈的行业竞争。因此,用竞争作为背弃承诺的理由,是一种站不住脚的“修正主义历史”。

这背后真正的动机,恰恰是投资者和公司高层都相信其巨大的盈利潜力,因此移除上限才变得至关重要。

CEO诚信:CEO行为模式引发信任危机

报告进一步指出,CEO奥特曼存在长期、有据可查的言行不一、操纵信息和规避监督的行为模式,以及将个人利益置于组织责任之上。

报告列举了多个奥特曼在重大问题上公开撒谎或误导的实例。例如:

在员工非贬低协议问题上,Altman公开声称不知情"剥夺离职员工股权"条款,但文件显示他明确授权了此条款。

在参议院宣誓作证时,他声称没有OpenAI股权,但后来承认曾通过基金间接持有。

长期向董事会隐瞒其个人拥有OpenAI创业基金的事实。

前董事会成员Helen Toner直接指控Altman通过"隐瞒信息、歪曲事实、甚至直接撒谎"来阻碍董事会履职。报告还显示,这种行为模式贯穿其职业生涯:

在Loopt时期,资深员工曾两次试图让董事会解雇他,理由是"欺骗性和混乱的"行为。

在Y Combinator期间,他因专注个人项目而玩忽职守,最终被创始人Paul Graham"请走"。

最戏剧性的体现是,在被OpenAI董事会解雇后,他利用影响力反向操作,以"罢免开除他的董事会成员并安插自己盟友"作为回归条件,成功实现对监督体系的"反噬"。

运营与安全风险:安全承诺的系统性落空

报告揭示,OpenAI在安全和透明度方面存在一种系统性的言行不一,其公开承诺与内部实践严重脱节。公司文化表现出一种“唯快不破”的倾向,为了追求商业利益和竞争优势,正在系统性地削弱、规避甚至惩罚内部的安全监督和异议。

报告揭示了OpenAI在安全和透明度方面的系统性言行不一。公司曾承诺将20%的计算资源投入"超级对齐"安全团队,但据前负责人Jan Leike透露,这笔资源从未被分配。

在GPT-4o开发中,安全团队被要求在产品发布前"快速完成"测试,公司甚至在评估开始前就已计划好发布庆祝活动。

更严重的是,公司使用严苛的离职协议威胁离职员工,若批评公司将损失数百万美元股权。员工Leopold Aschenbrenner因向董事会提交国家安全风险备忘录而被解雇,公司明确告知解雇原因正是他"越级"报告安全问题。

报告还指出,OpenAI在2023年发生黑客入侵、AI技术细节被盗的严重安全事件,但在长达一年时间里未向当局或公众报告。多名现任和前任员工指控公司存在"鲁莽和保密的文化",将"利润和增长"置于安全使命之上。

利益冲突风险:CEO个人投资与公司业务的深度捆绑

报告详尽地揭示了奥特曼如何建立了一个庞大且相互交织的个人投资网络,这些投资与OpenAI的业务、技术和战略伙伴关系存在深刻且直接的利益冲突,从根本上挑战了OpenAI所宣称的“为全人类谋福祉”的使命。

以下是几个典型案例:

1)Helion(核聚变能源)

奥特曼既是Helion的董事长和主要投资者,又是OpenAI的CEO。他亲自主导了OpenAI从Helion购买大量能源的交易。令人有理由质疑这笔交易是否主要为了保障他个人在Helion的巨额投资。 

2)Worldcoin(加密货币项目)

奥特曼是Worldcoin的联合创始人。OpenAI与Worldcoin建立了官方合作关系(如提供免费GPT-4服务)。人们质疑这究竟是平等的商业合作,还是奥特曼在利用OpenAI的资源和品牌,来扶持和推广他自己的另一个高风险项目。 

3)Humane(AI硬件)

奥特曼是Humane的最大股东,而Humane的产品严重依赖OpenAI的模型。作为OpenAI的CEO,他有强烈的个人财务动因去确保Humane获得优惠条款或优先技术支持,这可能损害其他客户的利益和市场的公平性。 

这些盘根错节的利益关系,严重侵蚀了奥特曼作为CEO的信托责任。他的决策到底是为了OpenAI的使命,还是为了他个人的财富增长?

报告最终描绘的图景是:奥特曼更像一个精明的资本操盘手,他巧妙地将OpenAI置于其个人商业帝国的中心,并利用其CEO的职位,系统性地将OpenAI的技术、资源和战略关系,转化为个人投资组合的增长动力。

本文不构成个人投资建议,不代表平台观点,市场有风险,投资需谨慎,请独立判断和决策。 

本文来自微信公众号“华尔街见闻”,作者:赵颖,36氪经授权发布。

36氪的朋友们

36氪的朋友们

9872 文章 1699538 浏览次数 950300 粉丝

评论 (11)

User avatar

OpenAI的转变,细节揭露,真让人唏嘘!

User avatar

这转变,我感觉他们是在用数据来控制我们,有点吓人!

User avatar

感觉整个世界都在被重塑,这太有趣了,有点疯狂

User avatar

OpenAI的转变,简直是疯狂的加速,有点可怕

User avatar

这转变,简直是天塌下来了,我感觉有点晕

User avatar

我怀疑他们是在用AI来统治世界,这太有意思吧

User avatar

这事儿,我感觉有点像一场精心策划的梦境,太奇妙

User avatar

OpenAI搞的鬼!这进度也太离谱,感觉有点不正常

User avatar

这转变太快了,感觉人类有点掉队了,有点丧心病狂

User avatar

我感觉他们真的在偷偷地改变现实,有点吓人

睡觉动画