距离WWDC 2026还有不到一个月,关于iOS 27的爆料已经密集到几乎可以拼出全貌。我花了几天时间把彭博社Mark Gurman、MacRumors代码挖掘、数码闲聊站、Instant Digital等多条信息线索全部梳理了一遍,得出一个很明确的判断:iOS 27不是一次常规的年度更新,而是苹果在AI时代的一次战略级重新定位。
这篇文章会把目前已知的所有重磅变化讲清楚。
先说整体基调。Gurman用了一个非常经典的比喻来形容iOS 27——“Snow Leopard式更新”。懂Mac历史的朋友一定知道这意味着什么。2009年苹果发布Mac OS X Snow Leopard时,几乎没加什么新功能,而是把全部精力花在了底层代码清理、性能优化和bug修复上,结果做出了Mac OS X历史上口碑最好的版本之一。iOS 27走的是同样的路线,内部研发代号叫"Rave",苹果已经大幅降低了非核心功能的研发优先级,把资源集中在两件事上:一是全链路的系统性能优化和质量管控,目标是打造近年来最流畅最稳定的iOS版本;二是全场景AI能力的深度落地,让Apple Intelligence从去年的"半成品"状态真正变成一个可用的、贯穿整个系统的智能基础设施。
这意味着你不会在iOS 27里看到太多花里胡哨的视觉变化,Liquid Glass这套设计语言不会大改,但苹果会加入一个全局透明度和对比度调节滑块,让你可以精细控制界面风格,不用再在"清透"和"着色"两个预设之间二选一了。真正的大招,全部藏在AI这条线上。
而这条线上最核心的变化,毫无疑问就是Siri。
坦白说,Siri这几年的表现是苹果所有产品线里最让人失望的一环。OpenAI的ChatGPT横空出世之后,Siri的"人工智障"形象就更加深入人心了。苹果自己也知道问题出在哪,原本计划在iOS 26.4就推出基于Apple Intelligence的新版Siri,但研发进度严重不及预期,功能一拖再拖。到了iOS 27,苹果终于决定不再小修小补,而是对Siri进行自诞生以来最大规模的彻底重构。
据爆料,这次重构的底层会接入谷歌Gemini大模型,项目代号"Campo"。Siri将从一个只能执行简单语音指令的助手,彻底蜕变为一个具备持续对话能力的全功能AI聊天机器人,直接对标ChatGPT、Claude和Gemini。
最显而易见的变化是苹果第一次为Siri做了一个独立App。点进去就是一个聊天界面,设计风格酷似iMessage,用对话气泡呈现交互内容。你可以新建对话、翻看历史记录、置顶重要聊天、搜索过往内容,可以打字也可以语音,可以上传图片、PDF、文档让Siri帮你分析和总结。新对话页面还会显示推荐提示词,引导你快速上手。整个体验跟你现在用ChatGPT的App几乎没有本质差别。
但比界面更重要的是能力层面的跃升。重构后的Siri传闻将实现三个维度的突破。
第一是复合多任务处理。以前你让Siri做两件事,必须分两次说。现在你可以一句话下达多个指令,比如"查一下明天的天气,顺便给妈妈设个晚上7点的电话提醒",Siri能在一个指令链里全部完成。
第二是跨应用的深度联动。通过App Intents框架,Siri可以直接读取你的邮件、日历、屏幕上正在显示的内容,完成各种此前想都不敢想的操作——识别屏幕上的地址一键存入通讯录,根据邮件内容自动添加日程提醒,甚至在第三方应用内代替你完成操作。如果有人给你发了一张照片,你可以直接告诉Siri帮你编辑一下然后转发给另一个人,不用自己动手。
第三是多模态能力。Siri不再只听你说什么,还能"看"你给它什么。上传一份合同它帮你提取关键信息,拍一张照片它帮你识别内容,这些以前必须跳转到第三方AI工具才能完成的事情,现在在系统原生层面就能解决。
在系统交互层面,Siri跟灵动岛的融合也重新设计了。唤醒Siri时灵动岛会发光并显示"搜索或提问"的提示,处理完毕后扩展成一个半透明结果面板,往下拉就进入对话模式。整个过程不会像以前一样占据半个屏幕,变得更轻量也更优雅。苹果还计划在各种App的菜单里加入一个"Ask Siri"按钮,你看到任何内容都能一键丢给Siri处理。iOS键盘里也会新增一个"用Siri写作"选项,直接调出写作工具。
更值得关注的是苹果在开放生态上的态度转变。iOS 27会推出一套"Extensions"扩展机制,允许第三方AI聊天机器人深度接入Siri。你可以在设置里选择把Claude、Gemini或者其他AI设为默认模型,而且这种接入不仅限于Siri本身,还会延伸到写作工具、图像乐园等Apple Intelligence功能里。你甚至可以给不同的AI设置不同的声音,一听就知道是Siri在回答还是第三方在回答。App Store里会专门开辟一个AI扩展专区,相当于一个AI应用市场。这是苹果在AI领域罕见的开放姿态,说明他们意识到了光靠自己的模型能力远远不够,必须引入外部生态。
说完Siri,再来看iOS 27的另一条重要线索:为折叠屏iPhone铺路。
苹果的第一款折叠屏手机预计今年9月发布,而iOS 27需要为这个全新形态做大量适配工作。据Gurman透露,当折叠屏iPhone展开时,iOS 27会呈现一个类似iPad的界面布局,支持两个App并排运行,应用界面左侧会出现导航栏。合起来之后就是标准的iPhone界面,跟现在一样。这是iPhone历史上第一次真正支持分屏多任务。需要注意的是,折叠屏iPhone运行的是iOS而非iPadOS,也不支持iPad应用,所以它本质上还是一台iPhone,只是展开后有了更大的操作空间。
接下来说说视觉智能的升级。去年随iPhone 16推出的Visual Intelligence功能在iOS 27中会迎来一次全面进化。最直观的变化是相机App新增了一个专属的"Siri模式",跟拍照、视频、人像并列显示,快门按钮会变成Apple Intelligence图标。在这个模式下,你对准营养成分表就能自动扫描并录入健康App帮你记录热量和营养素,对准名片就能识别电话地址直接添加联系人,对准实体门票或会员卡就能生成Apple Wallet里的数字通行证。对准植物、地标、商品可以即时识别并给出详细信息,对准外语文本可以实时翻译,对准合同文件可以提取关键信息并转换成可编辑格式。苹果显然在把视觉智能打造成整个AI生态的感知入口,而且已经在为未来的智能眼镜和带摄像头的AirPods等可穿戴设备预留接口。
其他值得关注的更新还有不少。Apple Wallet终于支持自制电子通行证了,健身房会员卡、演出门票、各种不兼容Apple Pay的实体卡都能扫码或手动创建数字版本,紫色代表活动、蓝色代表会员、橙色代表其他类型。说实话安卓和Google Wallet两年前就有了这个功能,苹果这次算是补课。照片编辑加入了Apple Intelligence工具,其中"Extend"功能可以用AI自动补全裁剪时超出原始画面的部分,"Enhance"用AI自动调整色彩和光线,"Reframe"则让你在空间照片中事后改变拍摄视角,不过后两个功能目前还不太成熟,可能会缩水或延期。主屏幕编辑终于加了撤销和重做功能,以后整理桌面手指一滑全乱了也不用抓狂了。快捷指令App将支持用自然语言描述你想要的自动化流程,AI帮你自动生成。键盘的自动纠错也升级了,不仅纠拼写错误,还会像Grammarly一样建议更合适的用词。苹果还在开发多项卫星相关新功能,包括通过卫星使用Apple Maps、通过卫星在信息App里发送照片等,但这些可能需要新硬件支持,不一定赶得上iOS 27首发。
最后说一下支持机型,这也是很多人关心的问题。iOS 27将正式淘汰四款设备:iPhone 11、iPhone 11 Pro、iPhone 11 Pro Max和第二代iPhone SE。这四款机型都搭载A13仿生芯片,从2019年算起正好经历了大约七年的系统支持周期,符合苹果一贯的淘汰节奏。最低支持门槛提升到iPhone 12系列和第三代iPhone SE。不过需要注意的是,完整的Apple Intelligence功能仍然只对iPhone 15 Pro及以上机型开放,老机型即便能升级iOS 27也享受不到Siri的全部新能力。
WWDC定档6月8日,届时苹果会正式公布iOS 27的全部细节,开发者测试版同期推送,正式版预计9月随新iPhone一起面向所有用户推送。
说说我的个人判断。iOS 27的更新策略其实很务实——苹果终于意识到,与其每年堆砌一堆用户记不住的新功能,不如把已有的东西做稳做好,同时把最核心的AI能力真正落到实处。Siri这次如果能做到爆料所描述的水平,对整个苹果生态的意义是巨大的,因为它意味着苹果终于有了一个能跟ChatGPT、Claude正面竞争的原生AI入口,而且这个入口是深度嵌入操作系统每个角落的。
当然,考虑到苹果在Siri上翻车的历史,我建议大家保持期待但不要过度乐观。6月8号的发布会才是真正的见分晓时刻。
还有一件让国内用户比较心凉的事——截至目前,Apple Intelligence的完整功能在国行iPhone上依然没有开放的迹象,iOS 27大概率还是这个状态。希望苹果能早日解决这个问题,不然每年看完WWDC发布会的兴奋感,最后都会被"不支持中国大陆"这句话浇灭。
你们最期待iOS 27的哪个变化?是Siri变身ChatGPT,还是折叠屏iPhone的分屏多任务,又或者只是单纯希望系统能跑得更流畅一些?留言区聊聊。