本周,于旧金山举办的 Snowflake Summit 2025 上,OpenAI CEO Sam Altman 开门见山地指出,对于 2025 年仍在观望的企业领导者,他的建议只有一句:直接开始,别等下一个版本。
他表示,企业若总是等待更好的模型、更成熟的方案,反而会错过真正的先发优势。真正取得突破的,是那些愿意及早下注、小步快跑的团队。科技在飞速演进,胜负取决于谁拥有快速试错、快速学习的能力。
Windsurf CEO 最新创业复盘:AI Agent 是软件工程未来形态,而速度与专注是创业公司唯一护城河
Snowflake CEO Sridhar Ramaswamy 对此高度认同。他认为,好奇心是今天企业中最被忽视的稀缺能力。很多过去理所当然的工作方式,如今都需要被质疑。
新的工具,比如 OpenAI 和 Snowflake 本身,已经极大降低了实验成本。如果一个组织能围绕大量小实验构建有效反馈机制,它就拥有了适应未来的不对称优势。企业不该指望等来某个“技术稳定”的时间窗口,而是要承认这是一个持续波动的世界,必须在混乱中行动。
Ramaswamy 表示,他去年也在强调“可控试错” 和 “构造容错系统” 的重要性,但今年最大的不同是技术成熟度更高了。
以 ChatGPT 为例,它已经能实时调用 Web 搜索,处理事实类问题,在结构化与非结构化数据上都有可落地的方案,已经不再只是实验工具,而是真正进入主流生产系统。
Altman 表示,他一年前还不建议大型企业将 AI 纳入关键工作流,但现在这一天已经真正到来。他看到企业客户开始在真实业务场景中大量部署 ChatGPT,涵盖运营、支持、研发等领域。这些公司亲自验证了模型能力的边界,发现现在的工具已能胜任过去根本不敢尝试的任务。这一波变化让他确信,AI 已经越过了企业采用的“可信门槛”。
他进一步指出,明年此时我们说的话还会继续变化。预计 AI 将不再只是优化工作流,而会直接进入“关键问题求解”环节。
企业不再是将 AI 用作加速器,而是会将最棘手、最核心的问题交给模型去处理。这些模型将成为真正的“研究合伙人”,帮助解决连团队协作都难以拆解的问题。企业会投入大量算力,要求模型给出高质量、有结构的解决路径。
关于 agent ,Convition 创始人 Sarah Guo 问及模型推理、记忆和检索的演进路径,Ramaswamy 认为检索技术一直是生成式 AI 落地的支点。
早在 GPT-3 时期,他的团队就通过大规模 Web 检索为模型提供事实支撑,以应对突发信息和高保真需求。而记忆系统则会决定模型能否随着用户的持续交互变得更“懂你”。
他强调,在未来高度复杂的任务中,模型对上下文的感知能力将决定其行为效果,而检索与记忆就是支撑这一感知能力的基础结构。
Altman 补充称,OpenAI 最新推出的代码 agent Codex,是他第一次觉得“这东西真的快接近 AGI 了”。
用户只需给出一组任务,它就能自主运行几个小时,不仅能写代码,还能读文档、接入 GitHub、查阅 Slack。
虽然目前还像一个实习生,但很快就会成长为能独立连续工作多日的高级员工。类似的变革也在销售、客服、支持等流程中出现,工作方式正发生根本性变化——人类把任务分发出去,再对成果做整合与反馈,像是在管理一群虚拟员工。
Altman 预计,未来的 agent 不仅能处理短周期重复任务,还将处理长时跨度、高层级的认知问题。他相信,在不远的将来,我们将拥有“AI 科学家”,能帮助人类发现新知识,推动科学突破。
当被问及如何定义 AGI,Altman 回顾了 2020 年的情景。当时 GPT-3 尚未发布,如果让那时的人看到今天的 ChatGPT,大多数人会惊呼这就是 AGI。这正是人类预期不断被重塑的例证。
他指出,真正重要的是技术进步的速度,而不是某个宣布“我们已实现 AGI”的节点。他提出,如果某个系统能自主进行科学发现,或极大提升科学探索的效率,那么就已实现了 AGI 的核心目标。
Ramaswamy 用一个比喻回应:潜水艇会不会游泳?技术上看会,但语义上又可能不会。今天的模型已经具备令人惊艳的能力,硬要去争论是否“满足 AGI 定义”,反而显得多余。就像普通计算机可以击败所有国际象棋冠军,但人类仍乐于下棋。AGI 并不是终点,它是新一轮人机协作时代的起点。
Guo 表示,在大众语境中,AGI 实际上被误解为“意识”的代名词,只是大多数人并未意识到。她继续追问 Altman,OpenAI 是否观察到哪些“能力涌现”的早期迹象,会影响他们的产品构思和公司方向。
Altman 指出,未来一两年内发布的新模型将具备上一代无法企及的能力。它们能理解复杂上下文,调用外部工具,接入各种企业系统,在稳定性上也足以放心托付复杂任务。他强调,未来模型将真正成为“复杂问题解答者”,这不是幻想,而是技术演进的自然趋势。
Guo 问他是否能提供一种直觉框架,帮助企业判断模型的边界和潜力。Altman 表示,他喜欢用一个理想框架来思考:
“一个非常小的模型,拥有超人类的推理能力,运行速度极快,有 1 万亿 token 的上下文窗口,并能调用你能想到的所有工具。在这个设定下,问题是什么、模型有没有现成知识或数据,其实都不重要”。
在这种设定下,“是否提前掌握知识”不再重要,关键在于模型是否有能力推理并输出正确答案。他强调,不应把大模型当作数据库,而应把它当作推理引擎——它能在高度复杂的信息环境中找到结构性解法。
Guo 提出一个假设性问题 —— 如果现在有 1000 倍算力,你们会用它做什么?
Altman 首先给出一个元答案:让模型自己思考,怎么最有效地用这 1000 倍算力,比如让它设计更好的模型。
他的实用回答是:在推理阶段投入更多算力,确实能显著提高模型表现。他建议,企业应该大胆在最困难的问题上加大算力投入,哪怕只是部分任务,也能获得非线性收益。I/O 到 iO,Jony Ive 将推动一场新的设计运动 —— AI 正在改写计算范式与硬件定义,也是大模型后的新战场
文章来自于“有新Newin”,作者“有新”。