5月13日的上海,联发科天玑开发者大会2026(MDDC 2026)以"全域芯智能,体验新无界"为主题展开。这场发布会上,天玑AI智能体化引擎2.0、AI开发套件3.0相继亮相,OPPO、小米、传音等厂商的系统原生合作成果也一并公布。
IT之家在会后参与了联发科高管群访。当被问及跨设备全域协同这一行业公认趋势时,高管们给出了三层系统性解法。
第一层在IP设计源头。联发科从芯片架构阶段就统一NPU的软硬件标准,确保同一IP能适配手机到汽车的不同功耗与算力需求。这种"一次设计,多端复用"的思路,直接降低了技术迁移成本。
第二层是软件统一。NeuroPilot开发平台让基于天玑的应用实现"一次开发,多端部署"——手机端调试完成的代码,可快速移植到汽车、平板等终端。
第三层瞄准生态壁垒。不同终端的操作系统差异被联发科视为最大挑战。他们的解题思路是借力大模型的泛用性:通过统一的自然语言指令集打破系统隔阂。高管特别提到近期火热的"龙虾"框架,其核心价值正是实现跨系统指令互通。联发科正通过开发者大会推动生态伙伴共建标准,未来支付、导航、社交等基础服务将无缝接入天玑全产品线。
针对终端特性,联发科设计了差异化协同模式。AI眼镜主打感知,复杂运算交由手机;汽车与手机则侧重资讯和习惯流转——用户上车后,行程、音乐偏好等数据自动同步车机,后者据此提供个性化服务。
座舱安全与AI的边界
行业正从"软件定义汽车"演进到"AI定义汽车",但汽车作为传统工业产品,质量与安全始终是悬顶之剑。
联发科高管明确区分了车内模块的安全属性:智驾和车辆控制与行车安全强相关,验证流程完整严格,开发周期不会因AI引入而大幅缩短。座舱智能体则不同,其核心功能是行程规划、信息查询、娱乐服务,通过减少驾驶员分心操作来间接提升安全。这一领域的创新速度会非常快,国内新能源厂商已在积极探索,大量落地成果可期。
谈及从移动终端切入汽车市场的优势,高管强调手机行业是端侧AI技术发展最快的领域,每年旗舰平台对算力、能效、带宽的要求持续攀升,这些积累可直接迁移。天玑旗舰座舱平台CX-1的400TOPS算力,以及低比特压缩、内存优化等技术,均源自手机端成熟方案。
需要重新打造的则是应用层跨端协同体验。手机与汽车使用场景差异巨大,如何让智能体在不同场景下都自然流畅,需要与车企、开发者共同探索——这也是联发科未来的重点投入方向。
Agentic AI的技术布局
针对联发科率先提出的Agentic AI技术路线,高管回应了关键技术布局与生态优势。
他们认为AI的核心价值在于落地真实场景,当前行业主要挑战并非算力不足,而是如何将算力转化为用户可感知的体验。为此,联发科重点布局了Always-On感知技术,让设备低功耗持续感知环境与用户行为;同时优化系统架构,解决多应用同时调用NPU时的资源争抢问题。
生态建设上,联发科构建了从硬件到软件的完整体系:硬件层面提供适配智能体场景的双NPU和内存技术;工具链层面帮助开发者快速将大模型移植到端侧;系统层面推出天玑AI智能体化引擎2.0,为终端厂商提供统一的智能体开发基础。
内存瓶颈与端云边界
近期内存涨价对AI行业的影响也被提及。联发科高管坦言,内存和带宽已成为端侧AI发展的主要瓶颈——手机端算力已能满足大部分应用需求,但大模型运行对内存占用和带宽消耗极大。
应对策略包括:Low Bit压缩工具包可将相同质量模型的压缩率提升58%;结合内存硬件压缩、动态模型加载等技术,有效降低资源消耗。
高管认为内存涨价只是暂时现象,当用户真正体验到AI智能体的价值后,会愿意为更好体验买单。同时,涨价也促使行业更理性地思考端云边界,避免盲目追求端侧大模型,而是根据产品定位合理分配算力。
"龙虾"框架的技术启示
关于大模型在AI手机中的角色,联发科认为存在两种发展方向:谷歌等OS厂商从系统层面向上整合,豆包等应用厂商从应用层面向下渗透——两种方向都有广阔空间,联发科与双方均保持积极合作。
近期火热的"龙虾"框架则加速了个人专属AI的落地。其将Harness与大模型分离的设计,让手机可先利用强大CPU跑好Harness部分,实现个人记忆、场景感知等核心功能,无需等待端侧大模型完全成熟。
这一设计直接影响了联发科的芯片规划:未来天玑平台将更加注重CPU与NPU的协同调度,提升系统整体能效。
从IP复用到软件统一,从生态共建到端云再平衡,联发科的跨端智能体布局呈现出典型的平台型思维——不追求单点突破,而是系统性降低全行业的迁移与协作成本。