AI热点 3 months ago 149 Views 11 Comments

苹果 AI 太落伍?他们需要从对手那里“复制”这三个功能

Published 9872 Articles

回顾苹果在去年的 WWDC 上承诺推出的一系列 AI 功能,一年过去了,苹果似乎比去年 6 月时还要更加落后于竞争对手了。

说苹果的“Apple Intelligence”计划发布得一团糟,实在算是轻描淡写。不过,我仍然抱有希望:再过几周,我们或许能看到一些新的功能(或者至少是某种战略方向),能让人感觉苹果还有机会迎头赶上。

1:谷歌的 Notebook LM

谷歌的 Notebook LM 支持自定义指令,最近还加入了多语言功能,其中的“音频摘要(Audio Overviews)”功能已经成为我阅读复杂的机器学习论文时不可或缺的一部分。

每次用这个功能时,我都会想,如果 Safari 有一个类似的内建音频概览功能该多好啊(或者 Apple Notes 能整合类似 Notebook LM 的功能也不错)。

从自动生成每天的“稍后阅读”音频摘要,到快速朗读 Safari 当前页面内容的智能概览,其实,苹果有大量机会在浏览器中加入比简单总结工具更智能的 AI 能力。

2:Anthropic 的 MCP(模型上下文协议)

去年,Anthropic 发布了“Model Context Protocol(MCP)”,这是一个开放标准协议,能让大型语言模型(LLM)通过统一接口安全、无缝地与外部工具、API 和平台互动。

你可以看到 Claude(Anthropic 的AI)直接与 Blender 配合,根据用户指令创建 3D 场景。

如今,OpenAI、Zapier、Google DeepMind、Replit、微软、Block 等众多企业都已支持 MCP,它有望成为类似于 Web 的 HTTPS 或数据库的 SQL 那样的平台级标准。

考虑到苹果早已有 Siri Intents 和 Shortcuts 框架,我们更有可能在下个月看到苹果推出自家版本的 MCP 协议,而不是直接采用 MCP。

但不管怎样,这种功能将对用户极为有利。比如,哪怕只是让 Siri 帮你从 Pages 文档生成一整套 Keynote 演示文稿,对很多用户尤其是依赖无障碍工具的人来说,这种功能简直像科幻一样。

3:OpenAI 的屏幕共享

目前,苹果推出了“视觉智能(Visual Intelligence)”功能,用户可以长按图片进行操作,比如查找餐厅详情、翻译文字、总结信息、朗读文本、识别植物和动物等。

但它依然缺乏一个关键功能 —— ChatGPT 用户从去年就能使用的“屏幕/视频共享”。

虽然将通过照片实现的“视觉智能”也是有帮助的,但相比于打开相机实时讲解或与 ChatGPT 对话分析手机屏幕内容,苹果这种“拍照后处理”的工作流就显得有点“原始”了。

试想一下,在点餐时翻菜单、用 ChatGPT 询问过敏原的建议,你就能体会这种实时交互的强大。

虽然这几年大家对 AI 的讨论不断,但现实是,大多数普通用户依然停留于在 ChatGPT 上随意输入几条提示的程度,完全不知道这些 AI 技术该怎么真正融入日常生活。

要让 AI 真正变得有用,关键在于让它出现在用户所处的“场景”里,而不是强迫他们在不同 App 之间来回切换。当然,这其中很多功能可能涉及服务端对敏感数据的处理 —— 但这本就是产品开发的一部分。

只要用户知道系统在做什么,他们就有权选择要不要使用某个功能。相反,因为“隐私挑战”就放弃开发这些功能,已经不再是一个可行的选项。

你最希望苹果在 iPhone 或 Mac 上原生支持哪些其他 AI 功能呢?

(举报)

9872 Articles 1699538 Views 950300 Fans

Comment (11)

User avatar

苹果得好好看看对手,别再落后了!

User avatar

苹果的反应,简直是绝了!

User avatar

苹果的危机感,太可爱了!

User avatar

这种竞争,太真实了,笑死个人!

User avatar

让他们看看,谁才是真正的王者!

User avatar

这就是科技公司的真面目,刺激!

User avatar

苹果,你别逼我们笑了!

User avatar

看看他们,还敢不敢玩!

User avatar

别闹了,这简直是戏精本戏精!

User avatar

苹果到底在干什么?太不自量力!

睡觉动画