高通公司今日正式推出面向数据中心领域的新一代AI推理优化方案,包含基于AI200和AI250芯片的加速卡及机架系统。该系列解决方案针对大型语言模型(LLM)和多模态模型(LMM)的推理需求设计,通过架构创新与散热技术突破,为AI算力市场带来显著效率提升。
AI200芯片方案专为机架级部署打造,单卡配备768GB LPDDR内存,在保持低总拥有成本(TCO)的同时,实现了内存容量与性价比的双重优化。该方案通过硬件架构升级,可高效承载复杂AI工作负载,满足数据中心对高密度推理任务的需求。
AI250芯片方案则引入近内存计算(near-memory computing)技术,通过重构内存访问路径,使内存带宽提升超10倍,同时显著降低功耗。这种创新架构为AI推理任务提供了更高的能效比,特别适用于对实时性要求严苛的应用场景。
两款机架系统均采用直接液冷散热技术,有效提升热管理效率。在扩展性方面,系统支持PCIe与以太网双通道扩展,并集成机密计算模块,确保AI工作负载的数据安全性。单机架功耗设计达160kW,可满足超大规模AI集群的部署需求。
资本市场对高通此次技术突破给予积极回应,截至消息发布时,公司股价涨幅达20%。根据规划,AI200解决方案将于2026年投入商用,AI250方案则预计在2027年实现规模化应用。这两款产品的推出,标志着高通在AI基础设施领域的技术布局进入新阶段。
