高通AI全面布局:从芯片到加速卡,构建跨终端AI生态
在2026年CFMS MemoryS峰会上,高通公司AI产品技术中国区负责人万卫星深入剖析了AI在终端领域的演进路径,并展示了高通在AI全栈技术上的系统性布局。此次分享聚焦于个人智能体的发展趋势、AI应用阶段划分以及当前端侧部署所面临的挑战。
AI应用历经四个阶段演进,终端部署仍存三大瓶颈
万卫星指出,AI在不同行业中的应用已经历从感知AI到生成式AI,再向智能体AI演进的过程,未来还将迈入“物理AI”时代。其中,感知AI主要处理语音、图像分类与降噪等任务;生成式AI则基于大量数据进行训练,用于解决特定问题,如文本生成与图像生成。
智能体AI的关键特性在于其自主理解与决策能力,能够在无需监督的情况下执行更复杂的任务。而物理AI则进一步拓展到对现实物理世界的理解与反馈,目前该方向尚处于早期探索阶段。
当前,端侧AI正逐步实现更大规模模型的部署。以手机为例,已能支持10亿至100亿参数的模型;在PC上,参数量可达130亿至200亿;车载场景更是突破至200亿至600亿参数。而在AR眼镜等小型设备中,10亿至40亿参数级别的模型也可实现端侧运行。
尽管端侧模型的规模仍低于云端部署,但技术进步正在推动其参数容量的持续增长。例如,内存带宽的提升与量化位宽优化技术的应用,使得终端设备在不牺牲精度的前提下支持更复杂的模型。
高通已在端侧成功部署具备推理能力的大模型。同时,模型对上下文的支持能力也在逐年提升,从2023年的1k-2k扩展至2025年的4k-8k,部分场景甚至可达32k-128k。这为更复杂的交互任务提供了基础。
然而,端侧AI部署仍面临三大挑战:一是内存容量受限,直接影响模型上限;二是内存带宽不足,影响推理速度与用户体验;三是高能效比与散热问题,尤其是在可穿戴设备等对功耗敏感的终端上。
智能体发展趋势:端侧芯片到推理平台,构建多终端AI体验
万卫星强调,个人AI的演进趋势是从端侧出发,逐步构建以用户与AI为中心的多终端生态。未来的终端侧智能体将具备更深层次的理解能力,不再局限于简单的语音交互,而是能准确解析用户意图、上下文及多模态感知信息。
在终端设备的协同方面,AI将不再局限于某一特定硬件,而是通过个人智能体在手机、耳机、眼镜、手表等多个设备间无缝流转,实现更个性化、低延迟的交互体验。
高通的AI布局涵盖从端侧芯片到数据中心加速卡的全链条。2025年推出的第五代骁龙8至尊版移动平台与骁龙X2 Elite计算平台,为个人AI提供了强大算力支持。在数据中心领域,高通则依托AI200与AI250芯片推出加速卡与机架系统,通过优化总拥有成本(TCO),为生成式AI推理任务提供高效的性能与内存解决方案。
万卫星总结道,高通正通过统一的AI架构,将高性能、高能效的软硬件技术底座扩展至消费电子产品、汽车、机器人以及下一代数据中心,构建跨终端、跨场景的规模化AI平台能力。