AI PC对存储性能提出新挑战
随着搭载Panther Lake处理器的AI PC陆续上市,端侧人工智能不仅在算力、续航和游戏性能方面实现突破,设备形态也因芯片效率提升和能耗下降而发生转变。如今,重量低于1.2kg的轻薄型笔记本成为常态,而运行Windows系统的便携游戏设备也在iGPU性能跃升的助力下,具备了出色的使用体验。
这一趋势并不仅限于Panther Lake平台。在CES 2026展会上,基于骁龙X2 Elite Extreme和Ryzen AI 400系列的端侧AI设备已蓄势待发。过去需依赖台式机级独显才能完成的生成式AI任务,现在仅需约65W的便携式电源即可完成,这是行业多方面技术协同发展的成果。
五大核心硬件协同支撑AI PC
AI PC的硬件架构围绕CPU、NPU、GPU、内存与存储五个关键模块展开。每个组件在不同的AI应用场景中各司其职。例如,NPU主要负责在低功耗前提下实现离线AI加速,GPU则承担生成式AI和AI智能体等高负载计算任务,而CPU则需要快速调度资源,以支持AI应用的高效启动。
与此同时,内存和存储的重要性也在不断增强。由于AI模型加载、多模型切换及本地运行大语言模型均需较高内存带宽,16GB内存已难以满足复杂场景需求。32GB DDR5正逐渐成为AI PC流畅运行的基础配置。由于成本限制,内存容量的扩展不像SSD那样灵活,64GB以上在消费级市场仍属少数,128GB以上的产品则更多见于工作站领域。
相较之下,SSD则在容量和性能方面表现出更强的扩展性。512GB起步的固态硬盘足以支撑AI应用的数据存储需求。随着BiCS 8 3D NAND闪存的普及,高性能、高密度的SSD产品已经可以提供1TB甚至2TB、4TB以上的存储空间。
在CES 2026上发布的铠侠BG7系列固态硬盘,便采用了BiCS 8 3D NAND与CBA技术,专为移动端侧AI设备设计。该系列产品提供M.2 2280、2230和2242三种规格,随机读写性能高达100万IOPS,顺序读取速度达7000MB/s,相较上一代BG6系列提升了10%至16%。凭借其性能与能效平衡,BG7成为AI设备理想的本地存储扩展方案。
云端与边缘的协同计算模式
随着AI大模型持续迭代,完全依赖端侧设备实现AI功能的设想仍面临现实挑战。一般情况下,语音识别、图像分类、实时翻译等低延迟任务由端侧NPU或CPU处理,响应时间控制在100ms以内以提升体验。而复杂任务如大语言模型推理、图像生成或多模态分析,则通常交由云端GPU集群完成。
无论是边缘节点还是云端处理AI任务,都需要高效的存储系统支撑。大容量数据中心级SSD在存储性能、数据吞吐和可靠性方面发挥关键作用,直接影响AI训练与推理的效率与成本。面对PB级训练数据集,百万级IOPS的SSD可将数据加载时间压缩至秒级,避免GPU因等待数据而闲置,同时支持多模型并行训练,适用于A/B测试和灰度发布等场景。
铠侠CD9P系列SSD专为云端AI计算打造,符合PCIe 5.0、NVMe 2.0和NVMe-MI 1.2c标准,顺序读取性能高达14.8GB/s,随机读写性能分别达到260万IOPS(QD512)和75万IOPS(QD32),为AI训练和推理提供高效支持。
此外,铠侠还推出了LC9系列SSD,最高容量可达245.76TB,助力企业处理PB级数据,实现基础设施现代化,推动生成式AI与机器学习应用发展,为边缘与云端部署创造更多可能性。
端侧与云端AI的动态协同
目前,端侧AI算力已普遍达到100 TOPS以上,越来越多的AI任务实现本地化处理。同时,边缘计算的普及与模型压缩技术的突破,使得AI应用在边缘节点的部署成为可能。随着ONNX、TensorFlow Serving等框架不断完善,端侧、边缘与云端的协同计算正在成为现实。
AI的部署策略也不再是简单的本地与云端“二选一”,而是依据任务类型、网络状况与隐私要求进行动态调度的智能系统。无论系统架构如何演变,高性能、高可靠性的存储解决方案始终是AI应用稳定运行的基础。这也是铠侠等存储厂商长期深耕的方向之一。