终端侧 AI 正在成为 AI 规模化落地的重要抓手
近年来, 从 ChatGPT、Midjourney 到 DeepSeek、Manus, 生成式 AI 领域爆款产品层出不穷, 不断刷新人们的使用体验。不过, 很多生成式 AI 通常是在云端运行, 背后是庞大的算力提供支持, 客观上也提高了用户的使用门槛, 有时候甚至出现“一码 (邀请码) 难求”的情况, 影响了生成式 AI 的普及应用。在这样的趋势下, 混合式 AI 架构提供了新的解决方案, 通过在云端和边缘终端之间分配并协调 AI 工作负载, 可以实现更强大、更高效且高度优化的 AI, 有助于生成式 AI 规模化落地应用。
此外, 随着 DeepSeek R1 等开源模型在今年迅速爆火, 生成式 AI 正广泛应用到各行各业。一方面,DeepSeek R1 等作为开源模型, 可以让各行各业的用户在本地部署、运行 AI 大模型; 另一方面, 用 DeepSeek R1 蒸馏出来的一些小模型, 在某些基准测试中表现出来的能力已经与去年 5 月发布的 GPT-4o 相当。也就是说,AI 模型在“尺寸”变小的同时, 质量也在不断提升。所有这些, 为生成式 AI 在各类终端设备上的落地部署带来了新的可能。
数学和编程基准测试 (来源:DeepSeek)
最近, 高通中国区董事长孟樸在接受媒体采访时指出, 混合式 AI 架构的最终落地需要一个重要抓手, 而这个抓手在于终端侧。与依赖云端算力的通用大模型不同, 终端侧 AI 实际上更像是一种“专用大模型”: 云端处理通用任务, 终端解决更实时性、更专业且个人隐私保护性较强的具体需求。
例如在汽车行业, 用户通常很少翻阅购车时附带的维修手册, 只有当出现问题时才会临时查找相关信息。这类信息数量比较大并且普遍性较高, 用户可以调用云端 AI 来获取帮助。而当用户面临个体性较强并且需要及时解决的具体问题时, 很难依赖云端 AI 提供帮助, 这正是在车辆本地化部署的终端侧 AI 的优势。并且, 随着用户对车辆的使用时长持续增加, 车上的 AI 大模型在经历学习和推理的过程后, 可能会比用户更了解汽车的状态和用户偏好, 从而能够带来更好的体验, 而且这些用户信息涉及的个人隐私也得到了妥善的保护。
需要指出的是, 生成式 AI 在终端侧的落地部署, 同样需要算力提供支持。近年来, 移动终端的处理性能不断提升, 有力地推动了终端侧 AI 的快速发展。例如在智能手机领域, 高通去年推出了骁龙 8 至尊版, 是首个采用下一代定制高通 Oryon CPU 的移动平台,CPU 单核性能和多核性能相比前代均提升了 45%, 功耗降低 44%。同时, 骁龙 8 至尊版还采用了全新切片架构的高通 Adreno GPU 和增强的高通 Hexagon NPU,GPU、NPU 的性能和能效均实现了大幅的提升, 能够为生成式 AI 在智能手机上的运行提供强大的算力支持。
上述这种集成了 CPU、GPU、NPU 等模块的芯片又被称为 SoC (系统级芯片), 能够为智能手机上的各种功能提供支持。孟樸在接受采访的过程中解释说, 高通打造终端侧 AI 算力, 需要 NPU 提供 AI 处理能力, 同时还需要确保芯片非常省电, 在能效方面要有优越性。而完成 SoC 全自研之后, 高通在 PC 端、旗舰手机端以及智能网联汽车等领域的自研技术拼图更加完整, 有助于打通各类智能终端之间的联动需求, 为客户提供更加灵活、多样化的服务。
公开信息显示, 自去年 10 月发布之后, 全球已经发布或正在开发的骁龙 8 至尊版旗舰手机超过 100 款, 为消费者带来丰富的生成式 AI 体验。在 PC 领域, 高通推出了骁龙 X Elite、X Plus 等平台, 目前, 搭载骁龙 X 系列的 Windows 11 AI PC 设备已超过 80 款。此外, 高通还与更多产业伙伴一起, 推动终端侧 AI 在汽车、扩展现实 (XR)、物联网等领域的规模化扩展。
而生成式 AI 在终端侧的规模化落地应用, 也将为下一代移动通信的发展提供助力。高通公司全球副总裁李晶在今年世界电信和信息社会日期间发表演讲时谈到,5G-Advanced 不仅代表着 5G 技术的再进化, 更是开启“无线 AI”时代的钥匙,AI 将在解决无线连接技术挑战方面扮演关键角色。此前在今年全球 6G 技术与产业生态大会上, 高通公司中国区研发负责人徐晧也介绍了 AI 在终端侧的推广如何为 6G 带来更多的应用场景。他表示, 除了现阶段 AI 在智能手机、PC、XR 等领域的应用,AI 也将被广泛应用于其他 6G 的应用场景, 比如全息远程临场、自动驾驶等用例。他认为, 这些 AI 应用会产生大量的数据和全新的需求, 并且持续推动 6G 的发展。业内人士普遍认为,AI 技术将推动无线技术的提升, 为无线连接带来巨大增益。
0人