虽然iPhone已经拥有几乎所有来自最新AI先锋的智能应用,但它仍缺乏那种只能在操作系统与最新硬件深度结合时才能实现的AI功能。Google Pixel 10系列的发布正好展示了这种深度融合的力量。
以下七项来自AI领军企业的功能,如果能够在iPhone 17的系统层面无缝嵌入,将会产生巨大的冲击。
1. OpenAI的ChatGPT语音模式(ChatGPT Voice)——Siri的终极替代品ChatGPT的Voice Mode正是我一直期待的Siri工作方式只需唤醒它,用自然语言对话,它就能回答问题、调取信息,甚至执行一些操作。ZDNET的Sabrina Ortiz已经演示了如何把Voice Mode绑定到iPhone的Action Button,直接当作Siri的替代品使用。
不过,Voice Mode(即将更名为ChatGPT Voice)目前对iPhone能执行的指令仍然有限。如果Apple能推出自家版本,或与OpenAI合作,实现对日历、邮件、短信、备忘录、系统设置等更深层次的整合(并在Apple隐私保护下进行),效果将会更加惊人。Google已有Gemini Live,微软则提供Copilot Voice,Apple必须更主动才能让iPhone继续保持竞争力。
2. 超级分辨率变焦(Super Res Zoom)——让手机摄影不再妥协我一直热爱变焦摄影,但手机摄像头的变焦能力始终不如我的Sony微单相机和70‑200 mm镜头。Pixel 10 Pro通过全新Super Res Zoom功能,利用计算摄影填补缺失数据,并自动处理最高100× 的数字变焦图像,使其更可用。
这引发了关于“照片到底是什么”的讨论,我还需要亲自上手Pixel 10 Pro才能给出完整评测。但这显然是计算摄影的有力示例,而唯一可能在这场竞争中与Google抗衡的手机厂商只有Apple。
3. Magic Cue——跨应用情境提示去年WWDC 2024,Apple大力宣传其Personal Intelligence功能,声称可以基于日历、邮件、短信等私有数据理解用户的请求。可惜该功能至今未正式发布。
而在Pixel 10,Google推出了Magic Cue,它能够在你打开聊天窗口时自动提取相关信息。例如,当有人问晚餐预订时间时,Magic Cue会从Gmail确认邮件中提取时间并直接在聊天中展示,你只需点一下即可回复。
Google称这类动作已可在本地设备上完成,得益于Pixel 10中的Tensor G5芯片。尽管如此,考虑到Apple对用户隐私的严格承诺,更多人可能更倾向于在Apple生态中使用类似功能。
4. 深度研究(Deep Research)——AI研究助理生成式AI为我节省时间的最大方式之一,就是充当研究助理。多款AI应用已提供Deep Research功能,你可以提出复杂问题,让AI用5‑30 分钟的时间在网络上搜集资料,并返回带有清晰来源链接的答案。
5. 超细节照片编辑——在LinkedIn上的惊人演示Google计算摄影负责人在LinkedIn上表示“我们已经对模型进行调校,使其对照片中的细微细节异常敏感,能够在保留你想保留的上下文的同时完成编辑。”这项功能极易上手,无需专业的图像处理技能,预计会成为用户的热门选择。
6. 本地化AI操作——Tensor G5的力量Pixel 10通过自研的Tensor G5芯片,使得诸如Magic Cue之类的AI操作能够在本地完成,降低了对云端的依赖,也提升了响应速度和隐私安全。Apple若想在iPhone 17上实现同等水平的本地AI计算,需要在自研芯片上投入更多研发力度。
7. 系统级AI整合——从“点缀”到“核心”目前,Apple在将AI功能从单独的App迁移到系统层面的进度相对缓慢。相比之下,Google已经在Pixel系列的关键功能中实现了深度AI融合。要想让iPhone 17不落后于竞争对手,Apple必须在系统级别加速AI整合,否则用户会感受到“落后一步”的体验。
虽然过去一年Apple Intelligence功能的延迟并未明显削弱iPhone的市场表现,但如果不尽快弥合差距,iPhone 17很可能会被视为“落后于时代”的设备。而此时的Google已经可以自信地宣称,自己拥有业界最智能的手机。