← 返回首页
联发科豹变:从算力底座到智能体生态的核心|mediatek|os|低功耗|智能体生|智能手机|联发科豹变_手机网易网 网易 网易号 0

联发科豹变:从算力底座到智能体生态的核心

芯智讯
芯智讯
2026-05-15 20:39 ·广东 ·优质财经领域创作者
0

5月13日,MediaTek 天玑开发者大会 2026(MDDC 2026)在“全域芯智能,体验新无界”主题下召开,芯智讯也受邀参与了此次大会。与其说这是一场常规技术发布会,不如说这是联发科对AI下一阶段竞争逻辑的一次系统表态:AI手机、AI汽车和AI硬件的竞争,正在从单点算力、单个模型、单项功能,转向系统级、跨应用、跨终端、全场景协同的智能体化体验竞争。

在这场发布会上,联发科(MediaTek)正式发布天玑AI智能体化引擎2.0,并推出天玑AI开发套件3.0。围绕终端层、系统层、应用层、AI基础设施层,联发科从“提供手机SoC的芯片厂商”,进一步进化到全场景AI体验的底层赋能者。联发科还公布了与OPPO、XIAOMI、传音合作的系统原生Claw,展示主动感知、主动执行、跨端无缝流转等能力。

这也是本届MDDC最值得关注的变化:联发科不只是强调端侧AI能跑多大的模型、NPU能提供多少TOPS,而是把问题前移到“AI如何真正成为用户体验的一部分”。在采访中,联发科技方面提到,单纯给手机感知能力还不够,如果不能联结到有意义的用户场景,并与Agent能力结合,就很难真正改变使用者体验。

打开网易新闻 查看精彩图片

△MediaTek董事、总经理暨营运长陈冠州

MediaTek董事、总经理暨营运长陈冠州表示:“智能体 AI 正在重构和升级越来越多的行业和应用场景。MediaTek以覆盖手机、汽车、IoT以及AI基础设施的全栈、多元技术与产品组合赋能‘智能体化体验’,以无处不在的强大算力,结合先进的云端AI加速技术,为全球生态伙伴打通从创意到规模化落地、从应用价值到商业价值的关键跃迁,让 AI 真正赋能大众的日常生活和千行百业的增长曲线。”

打开网易新闻 查看精彩图片

△联发科MDDC 2026新品技术应用版图

AI手机进入下半场:不是有没有AI,而是AI好不好用

过去两年,AI手机成为终端行业最热的概念之一。几乎所有旗舰手机都在强调大模型、AI助手、AI修图、AI摘要、AI搜索和端侧推理能力。但从用户体验看,这些能力仍然相对分散。AI功能很多,但真正能够持续改变用户使用习惯的“杀手级体验”仍然有限。

联发科技相关负责人对这一问题有一个相对直接的判断,大致意思是:AI能力本身与AI商品化之间,仍然存在距离。

“AI这件事情的特点在于,它提供能力之后,手机厂商要把它商品化,这其实是有一段距离的。”联发科技 无线通信事业部 副总经理 陈一强举例说, “如果只给手机感知能力,手机还是没办法联结到对用户有意义的场景,结合Agent去变成一个手机的卖点,其实这段路还是没有办法让AI真正来改变使用者的体验。”

打开网易新闻 查看精彩图片

△联发科技 无线通信事业部 副总经理 陈一强

这句话点出了AI手机当前的关键矛盾:行业已经具备一定端侧算力和模型能力,但还没有完全解决AI如何融入系统、融入应用、融入用户高频行为的问题。

联发科给出的路径,是Always-On感知与Agent能力结合。所谓Always-On,不只是让手机一直“听见”或“看见”,而是让设备在低功耗状态下持续感知环境、理解上下文,并在合适时机调用系统和应用能力。例如,用户排队叫号时可能正在打游戏,手机如果能持续感知外部信息,并通过智能体提醒用户,就不再只是一个被动工具,而更接近主动服务入口。

在联发科看来,端侧AI真正的价值不在于单纯证明手机可以运行大模型,而在于找到那些云端难以替代、端侧最有意义的场景:低延迟、强隐私、高频交互、个人化记忆、实时感知和跨应用执行。

MDDC释放的几大信号:联发科的角色正在前移

本届MDDC展现出来的另一个重要信号,是行业需要对联发科的产业角色进行重新定义。

在过去很长时间里,联发科主要被外界视为手机SoC供应商。它的竞争维度集中在性能、功耗、影像、通信和游戏体验上。但在AI时代,芯片厂商仅仅提供算力已经不够。因为AI体验能否成立,取决于芯片、系统、模型、工具链、终端厂商和开发者之间的协同。

芯智讯认为,目前AI行业已经进入“生态定义体验”时代,AI体验竞争正在走向系统级、跨应用、跨终端、全场景协同的智能体化体验竞争;联发科不只是端侧AI算力提供者,而是在通过全场景AI布局、系统级AI能力、开发工具链和生态伙伴协同,推动智能体化体验规模化落地。

从SoC到工具链,联发科正在补齐端侧AI生态链

在访谈中,联发科技 无线通信事业部 生态发展资深总监 章立也谈到,生态不是单点能力,而是一条链条。“对于联发科而言,生态是一个链条,每个链条环节都有不同的成员,首先找到联发科的位置,联发科的位置之上还有其他的终端客户,还有中间件厂商、OS厂商、开发者。”

打开网易新闻 查看精彩图片

△联发科技 无线通信事业部 生态发展资深总监 章立

这意味着,联发科不会直接替代终端厂商去定义所有AI体验,也不会直接替代大模型公司和应用开发者。但它希望成为这条链条中的底层赋能者:向上提供芯片能力、系统级优化和工具链,向外连接终端厂商、模型厂商、互联网公司和开发者。

打开网易新闻 查看精彩图片
打开网易新闻 查看精彩图片

天玑AI开发套件3.0

这也是天玑AI智能体化引擎2.0与天玑AI开发套件3.0的意义所在。前者更偏系统级能力,面向终端厂商和Agent OS演进;后者更偏开发者工具,帮助模型和应用从云端或其他平台迁移到端侧。

联发科还表示,天玑AI智能体化引擎2.0面向系统,终端客户可以把其中的系统级优化和能力,包括SensingClaw,放入自己的系统中,再与开发工具一起提供给开发者。

这种位置很微妙,也很关键。联发科既不能只做底层硬件,也不能越界成为上层应用公司。它要做的是把端侧AI所需的感知、计算、调度、部署、压缩、低功耗和生态接口能力打包成“土壤”,让终端厂商和开发者在其上生长出具体的极致体验。

从抢NPU到低功耗常驻,AI手机竞争开始拼系统能力

从行业趋势看,Agent OS正在成为AI手机的新关键词。问题在于,真正的Agent OS不是给手机增加一个AI助手入口,也不是把大模型接入系统语音助手,而是让AI具备跨应用理解、跨任务执行、跨终端流转的系统级能力。在AI手机早期,很多功能以“点状创新”形式出现:AI修图、AI消除、AI摘要、AI翻译、AI助手、AI会议纪要等。但这些功能大多依赖单个应用或单个入口,用户体验容易割裂。真正的智能体体验,需要在系统底层解决资源调度、权限管理、上下文理解、跨应用调用和端云协同问题。

联发科表示,行业正在遇到一个实际问题:越来越多应用、越来越多手机厂商开始使用NPU,不同应用之间已经出现“互相抢NPU资源”的情况。

“所以这些系统的架构,这些基础建设,都是我们现在正在努力跟厂商、跟互联网公司一起克服的目标。”

这句话说明端侧AI竞争已经进入工程深水区。过去谈AI手机,外界习惯比较NPU TOPS、模型参数量和是否支持端侧运行;但当AI功能变多之后,问题会迅速转向系统资源如何分配、多个AI任务如何并行、常驻模型如何控制功耗、数据如何留在本地、应用之间如何安全调用。

如果这些问题不能解决,AI功能越多,系统负担可能越重,用户感知反而越差。

在智能体时代,低功耗常驻能力可能比峰值算力更重要。因为真正的个人智能体不是用户点击后才开始工作,而是在低功耗状态下持续感知、整理、判断,并在必要时主动介入。这也是联发科强调eNPU的原因。eNPU并不是为了追求峰值算力,而是为了支持常驻轻载AI模型,以更低功耗完成持续感知。据了解,天玑AI开发套件3.0新增eNPU开发工具包,可帮助开发者发挥天玑芯片中超能效NPU优势,使常驻轻载AI模型功耗节省42%。

内存、带宽和功耗,成为端侧AI真正的门槛

如果说过去两年AI终端竞争的焦点是算力,那么本届MDDC释放出的另一个信号是:端侧AI的新瓶颈正在转向内存、带宽和持续功耗。

随着AI走向实时感知、多模态和智能体协作,行业关注点正在从算力转向内存占用、带宽效率和持续功耗。

联发科技 无线通信事业部 技术规划资深总监 李俊男表示,这确实是端侧AI最具挑战的地方。

“算力经过这几年的优化,在手机上去年就已经到100TOPS了,今年可能还会再上升,算力看起来是可以足够满足应用需求。现在需要突破的就是带宽问题和内存大小的问题。”李俊男表示,联发科正在通过Low Bit压缩工具包等方式优化频宽和内存占用,“这对内存的节省、频宽的节省是非常有帮助的。”

打开网易新闻 查看精彩图片

△联发科技 无线通信事业部 技术规划资深总监 李俊男

这一判断具有现实意义。端侧AI要想从发布会演示走向用户日常使用,不能只看一次推理速度,而要看连续使用中的能耗、发热、内存占用和系统稳定性。尤其在AI大模型持续推高存储和内存需求的背景下,终端厂商不可能无限堆料。

天玑AI开发套件3.0新增Low Bit压缩工具包,可降低生成式AI模型压缩过程中对设备内存的占用,相同质量模型的压缩率提升可达58%;同时,天玑AI Partner可将端侧LLM模型部署耗时最高节省90%。这类工具的意义不只是提升开发效率,更是在帮助端侧AI找到商业化可行性。因为终端厂商最关心的不是模型能否在实验室跑通,而是模型能否以可接受成本、可接受功耗、可接受内存占用进入量产终端。

联发科也谈到内存涨价对行业的影响。联发科表示,内存涨价已经开始影响消费电子,终端厂商面临较大成本压力。过去内存便宜时,厂商可能倾向于“尽量放很多内存”,但当内存价格上升后,行业会重新思考每个消费性产品端侧AI的意义,“不太会去做一些硬要去做的,比如端侧也要证明可以跑一个更大的模型,这可能没有意义。”

这实际上是对AI终端泡沫的一种提醒。端侧AI的价值不是“把云端大模型完整搬到手机里”,而是在合适场景下找到端侧不可替代的价值。隐私、低延迟、常驻感知、个性化记忆和离线可用性,才是端侧AI真正值得付费的地方。

“龙虾”上手机,AI终端进入个人智能体试验期

今年,OpenClaw、Harness以及手机厂商提出的“手机养虾”框架,成为个人专属AI领域的新变量。对于这些新形态产品,联发科认为其可能加速智能体化体验落地。

打开网易新闻 查看精彩图片

在采访中,联发科表示,Harness技术是联发科“相当期待”的方向。“现在AI发展太快了,我们不得不往前跑,自己去想象一些场景,自己去建设中间层、软件层,把整个串起来,去说明智能体化体验是什么东西,这是我们三年来去持续做的。”

在联发科看来,OpenClaw一类架构的意义在于,它把Harness与大模型“大脑”拆开,使手机可以先把Harness跑得很好,而不必等待所有大模型能力都完整落到端侧。“今年我们不用等到所有东西都跑到端侧,我们可以把大脑的部分,太困难的部分把它留着,可以提前让龙虾在手机上跑得非常快。”

这对芯片规划也会产生影响。过去行业谈AI芯片,往往只看NPU强不强;但在Harness架构下,AI能力不再只是NPU问题,也涉及CPU和系统调度。

“坦白讲,Harness是需要CPU的。以往我们谈AI,就是这个芯片的NPU强不强,其实它不止是NPU,它其实是NPU甚至跟CPU跟整个系统的调度都有关系。”联发科表示,当智能体进行个人记忆总结、场景动态判断和记忆库构建时,很多时候需要CPU参与,因此CPU如何以更高能效运作,也是联发科与客户持续合作的方向。

这说明,个人专属AI并不是一个简单的大模型应用,而是一个涉及感知、记忆、推理、执行、调度和隐私边界的系统工程。OpenClaw和Harness的出现,加上联发科从芯片层、系统层、应用层乃至AI基础设施层的全栈赋能,可能让行业更早看到个人智能体在现有手机硬件上的落地可能。

AI手机的明星场景,可能先从影像和生产力爆发

虽然联发科强调系统级智能体体验,但短期内,AI手机仍然需要几个用户感知强、使用频次高的明星场景来完成教育市场。

联发科提到,手机端比较有机会的场景之一是拍照。“现在安卓的拍照手机,基于我们天玑芯片做的拍照其实是蛮好的。但是最大的问题可能是功能多到不会用,那这个时候再好,对用户的帮助是不大的。”

因此,联发科认为可以做“相机”。它不是简单增强画质,而是成为用户身边的拍照专家。“你拍任何景,它就会帮你做好设定,取景它也可以帮你建议一下,前进后退、放大缩小、你摆什么姿势。”联发科表示,这应该是一个努力方向,也许今年大家就可以看到。

第二类场景是生产力。联发科提到,每天做工作计划、排会议、判断哪些邮件更重要,都会是有价值的AI场景。相比单纯炫技,这些高频、刚需、能节省时间的场景,更容易让用户建立对AI手机的真实依赖。更重要的是,联发科承认,这已经“跨越原来芯片的角色”。过去芯片厂商更多等待终端厂商和应用开发者提出需求,再围绕场景优化芯片;现在,联发科必须更早参与用户场景的寻找和定义。这是芯片厂商在AI时代角色前移的典型表现。

汽车座舱成为智能体 AI的第二战场

除了手机,联发科在本届大会中也明显强化了汽车座舱与跨端AI体验的叙事。

打开网易新闻 查看精彩图片

联发科技 车用平台事业部 副总经理 陈仲怡表示,汽车是非常适合AI的载体。原因在于,车舱内有camera、speaker,用户在车内用语音交互非常自然,摄像头也可以持续感知用户动作,因此车内应用互动会更加自然。

“我们自己觉得,在车上,尤其是Agentic AI出来之后,会有越来越多新的体验。”该负责人举例说,用户可以让车机“帮我推荐餐厅”“帮我订餐厅”“帮我导航规划”,这一整套应用会形成连续的Agent应用。“我们一直认为这种体验最后都是靠AI来完成的,所以我们一直讲现在是AI定义汽车的时代。”

打开网易新闻 查看精彩图片

△联发科技 车用平台事业部 副总经理 陈仲怡

芯智讯认为,联发科看待汽车AI并不局限于传统智能座舱,也不只是语音助手升级。它更强调座舱作为一个高频、自然、强上下文场景,适合承载连续任务型智能体。与手机相比,汽车受电池限制较小,因此座舱平台可以提供更高算力。据介绍,天玑旗舰座舱平台CX-1算力可以达到400TOPS,能够支持更多应用。

但即便算力更强,汽车AI同样面临内存和带宽问题。因此,联发科也需要通过硬件压缩和软件层面节省频宽的技术降低整体消耗。

可以说,手机和汽车虽然形态不同,但在AI落地过程中遇到的核心工程问题是相似的:算力只是基础,真正决定体验的是系统级效率。

AI体验真正的分水岭,是谁能把Agent做成系统能力

过去,芯片厂商只要把CPU、GPU、NPU、ISP、通信和功耗做到行业领先,就能支撑终端厂商完成产品定义。但智能体时代不同。AI体验不是一个独立模块,而是一套横跨芯片、系统、模型、应用、云端、设备和开发者生态的复杂工程。任何一个环节不通,最终都会变成零散功能,而不是用户真正愿意依赖的智能体。

因此,本届MDDC真正重要的信号,并不是某一项技术指标,而是联发科开始系统性回答三个问题:

第一,AI为什么必须在端侧存在?答案不是为了证明手机能跑大模型,而是因为端侧在隐私、低延迟、实时感知、个人记忆和高频场景中具备不可替代性。

第二,芯片厂商为什么必须进入生态深处?因为AI体验能否落地,不再只取决于算力,而取决于系统调度、开发工具、模型压缩、跨应用调用和终端厂商的集成能力。

第三,智能体化体验为什么现在还不够成熟?因为行业还没有完全解决端云边界、数据权限、系统入口、NPU资源竞争、内存成本和持续功耗等工程问题。

联发科已经给出了自己的方向:以Always-On感知作为入口,以eNPU和双NPU提供能效与算力基础,以天玑AI智能体化引擎2.0进入系统层,以天玑AI开发套件3.0连接开发者,以手机、汽车、IoT和AI基础设施构建跨端场景。

但这条路不会轻松。Agent OS能否成立,取决于终端厂商是否愿意开放足够系统能力;个人专属AI能否被用户接受,取决于隐私边界和数据安全能否被清晰定义;跨端智能体能否流转,取决于不同品牌、不同系统、不同设备之间是否愿意协作。

简单总结MDDC 2026的核心信息,可以概括为一句话:AI行业竞争正在从“算力定义体验”进入“生态定义体验”的阶段。在过去很长时间里,联发科主要被外界视为手机SoC供应商。它的竞争维度集中在性能、功耗、成本、影像、通信和游戏体验上。但在AI时代,芯片厂商仅仅提供算力已经不够。因为AI体验能否成立,取决于芯片、系统、模型、工具链、终端厂商和开发者之间的协同。联发科不再满足于继续做AI时代的算力供应商,而是越来越成为智能体体验的底层组织者,用贯通端云的生态土壤,让真正有用、好用的智能体化体验,在联发科携手众多先行者编织的能力网络中,快速地生长出来。

真正的考验,将发生在接下来一到两年量产终端中——只有当用户不再关心手机里跑着什么模型,而是在日常使用中真实感受到AI主动为自己服务时,智能体化体验才算真正进入市场。

编辑:芯智讯-浪客剑

特别声明:本文为网易自媒体平台“网易号”作者上传并发布,仅代表该作者观点。网易仅提供信息发布平台。
打开网易新闻体验更佳

热搜

热门跟贴

相关推荐

回到顶部 回到首页