IT之家(博客/媒体)精选70群联电子与联发科在联发科天玑开发者大会(MDDC 2026)上展示了全球首款手机端单机运行20B大语言模型的平台。通过群联的aiDAPTIV Hybrid UFS解决方案,结合缓存内存和中间件技术,将部分MoE模型权重动态卸载至UFS存储层,降低了对DRAM的依赖。原本需要16GB+ DRAM的大模型,现在可在12GB DRAM环境下流畅运行,显著提升了终端设备部署大模型的可行性。联发科还发布了天玑AI智能体化引擎2.0和天玑AI开发套件3.0,旨在让手机到汽车等海量终端成为原生智能体。AI产品天玑950020B大语言模型群联电子联发科终端AI部署推荐理由:手机端跑20B大模型意味着AI能力不再依赖云端,做移动端AI应用或边缘计算的开发者可以直接关注,这解决了大模型在终端部署的内存瓶颈。